Text im pdf Format betrachten und optional

Werbung
Geist, Gehirn, Computer
Zur Ontologie des Mentalen
30.12.05
17.03.06
2
Zielvorgabe
3
Die erste Teilung
4
Definitionen, Postulate, Begründungen
5
Zeichen, Symbole, Aussagen
8
Computer, recht verstanden
11
Symbole oder Platzhalter?
11
Computerformalismen und Bedeutung
12
Formale Abstraktion
13
Codetabelle, Verständnis, Umschreibung
14
Fazit
15
Neuronensystem
17
Repräsentation, das Mentale, Transparenz
17
Abstraktion als neuronale Strategie
21
Wer erlebt die Inhalte?
22
Zur Verursachung in Computern und Menschen
24
Steuerung, Programmierung, Verursachung
24
Die Deutung mentaler Vorgänge
25
Mentale Verursachung im Konkreten
25
Illusion
27
Nachbemerkung
28
Neuro-Realismus
28
Konzepte
29
Freiheit des Menschen
30
Fazit
32
Danksagung
33
Bibliographie
33
3
Zielvorgabe
Ontologie, die Suche nach der Natur der Dinge, ist eine säkulare Form von Metaphysik und
damit ein zentrales Thema der Philosophie. Ontologie zu treiben heißt, sich über die grundsätzliche Typisierung der Dinge der Welt, ihr Wesen und ihrer Wechselwirkungen klar zu
werden. Leider gibt es zu diesem 'Klarwerden' keinen Kanon anerkannter Regeln. So bleibt es
bei den Regeln der generellen Ökonomie, man strebt nach
Einfachheit
Plausibilität
Widerspruchsfreiheit
Nutzen durch Anschluss an die Wissenschaft im allgemeinen1.
Wie geht man vor? Man könnte eine Liste von bekannten 'Seinsformen' und Dingen zusammenstellen, die man dann nach Kategorien und Typen ordnet. Die Definition der Kategorien
und Typen würde man so abstimmen, dass das entstehende 'Weltbild' den genannten Kriterien
genügt.
Die Ontologie der westlichen Philosophie begann mit Platons Phaedon. Es hat viele Versuche
gegeben, das klassische Denkgebäude abzuändern und auszuweiten. Vor allem hat man für
die geistige Dimension des Menschen immer neue Plätze gesucht. Fast scheint es, als sei die
Suche 'nach unserem Platz in der Welt' mehr als die Suche 'nach der Natur der Dinge' das geheime Motiv der Ontologen. Man darf wohl unterstellen, dass die konkurrierenden Versuche
aus guten Gründen vorgenommen wurden und dass ihre Resultate jeweils einen Teil der
Wahrheit einfingen. Die Entwürfe schienen ihren Autoren plausibel, erwiesen sich jedoch als
widersprüchlich und der Anschluss an die experimentelle Wissenschaft war und ist oft fraglich. Ein allgemein akzeptierter Wurf blieb also aus.
Hier wird abermals versucht, eine einfache und anschlussfähige Ontologie des Mentalen herzuleiten. Der Anlass wurde durch die jüngsten Fortschritte der experimentellen Neurobiologie
gegeben. Diese Fortschritte zwingen uns, das Wesen des Mentalen und der Abstrakta zu überdenken. Die Mittel meines Versuches sind sparsam, benötigt werden Definitionen, eine
Analogie, eine Regel und eine Hypothese. Die Methode ist analytisch im modernen Sinne [1].
Das Resultat gilt, wie immer, nur unter den Voraussetzungen, die bei der Herleitung explizit
oder stillschweigend angenommen wurden. Der wichtigste Vorbehalt zu den Überlegungen ist
einer, der für die Philosophie insgesamt zutrifft: dass sie ja von Menschen erarbeitet wird, deren Geist einer bestimmten Abhängigkeit unterliegt. Er ist geprägt oder doch mitbestimmt von
einem Neuronensystem, welches durch die biologische Evolution entstand, das vielen Zwecken dient aber nicht unbedingt tauglich sein mag, unser Verständnis ontologischer Wahrheiten zu fördern. Natürliches Empfinden und Plausibilität könnten da schlechte Ratgeber sein.
Deshalb mögen schon die klassischen ontologischen Unterscheidungen, die anfangs getroffen
werden müssen, mehr über die Besonderheiten unseres Geistes oder unseres Neuronensystems aussagen als über die 'Natur der Dinge'.
1
Allerdings, Einfachheit und Plausibilität sind zwar gefällig, jedoch keine Garantie für Wahrheit. Ist die Wahrheit einfach? Und woher wissen wir das? Widersprüchlichkeit heißt Fehlerhaftigkeit, aber Widerspruchsfreiheit
ist noch keine Garantie für Wahrheit. Was den Anschluss anlangt, so sind gerade produktive Hypothesen zunächst nur begrenzt angeschlossen.
copyright invoco-verlag 2006
www.bernd-lindemann.de
4
Die erste Teilung
Schon gleich der erste Schritt vieler analytisch-ontologischer Ableitungen [2, 3, siehe auch 4],
die Einteilung der Welt in Konkretes und Abstraktes, mag uns notwendig und plausibel erscheinen deshalb, weil unser Gehirn eben sehr geübt ist, Abstraktionen durchzuführen.
Im weiteren Verlauf dieser Argumentation werden Abstraktionen als mentale Leistungen des
Menschen erscheinen, Abstrakta sind gewissermaßen das Merkmal unseres Geistes. Somit
sind Abstrakta nicht 'real', sie existieren nicht unabhängig von uns. Weiterhin, in einem gewissen Sinne ist unser Geist selbst ein so gewonnenes Abstraktum.
Eine Einteilung der Welt in Konkretes und Abstraktes hat deshalb einen anthropozentrischen
Beigeschmack: angesichts des riesigen physikalischen Universums, das uns zum allergrößten
Teil unbekannt ist und wahrscheinlich bleiben wird, an dem gemessen unsere Zivilisation in
ihrer zeitlichen und räumlichen Ausdehnung vernachlässigbar erscheint, sagen wir dennoch:
es gibt zwei Weltteile, das Universum und unseren Geist.
Welt = Universum (Konkreta) + Abstrakta
Heute genügt es jedoch nicht, konkrete Dinge von ihren abstrakten Eigenschaften sowie die
physikalische Welt von der mentalen zu unterscheiden und ihre Relation 'more geometrico' zu
reflektieren. Vielmehr wird klar, dass bei diesen Unterscheidungen das Neuronensystem unseres Gehirns eine Art Mittlerrolle hat, die in vergangenen Jahrhunderten kaum abzusehen war.
Es ist ja Teil der (konkreten) physikalischen Realität und gleichzeitig unabdinglich für die
Existenz unserer (abstrakten) mentalen Objekte, für den Ablauf unserer mentalen Vorgänge
und unseren Begriffshorizont. Überdies ist das Neuronensystem das erste Ziel jeder mentalen
Verursachung. Seine Mittlerrolle zu berücksichtigen, philosophisch und doch in dem heller
werdenden Lichte der experimentellen Wissenschaften, ist die große Aufgabe einer modernen
Ontologie.
Es gibt eine andere Besonderheit der Beziehung Geist-Gehirn: dass wir zwar einige Resultate
der Arbeit unseres Gehirns, nicht aber die Technikalitäten dieser Arbeit mental erleben können. Es ist, als wenn wir zwar durch unser Hirn hindurch das sehen können, was gerade Thema seiner 'Signalverarbeitung' ist, nicht aber den komplexen neuronalen Apparat, der diese
Verarbeitung durchführt. Dieser Umstand wird in der Folge als Transparenz bezeichnet.
Die 'Unsichtbarkeit' des Neuronensystems lässt uns den gesamten Stoff der Neurobiologie
fremdartig erscheinen, obwohl er uns doch in hohem Maße selbst betrifft. Dieser Stoff blieb
der Menschheit und der Philosophie fast unbekannt bis Mediziner und Biologen ihn entdeckten. Er ist unserem natürlichen Empfinden nicht zugänglich und das mag der Grund sein, warum einige Philosophen ihn heute noch als irrelevant einschätzen. Er ist jedoch von großer
Signifikanz wenn wir die alten Fragen stellen: was ist die Welt?, was ist der Mensch?
copyright invoco-verlag 2006
www.bernd-lindemann.de
5
Definitionen, Postulate, Begründungen.
Im Folgenden soll versucht werden, mit einem Satz wohldefinierter Begriffe ein System von
Konzepten darzustellen, in dem materielle Objekte und geistige Leistungen widerspruchsfrei
miteinander verknüpft sind.
Def Objekt
Ein Ding, ein von seiner Umgebung abgrenzbares Ganzes mit einem charakteristischen Satz
von Eigenschaften. 'Real' ist ein Objekt, wenn es unabhängig von unseren mentalen (oder
neuronalen) Leistungen existiert.
Def Konkreta
Was raum-zeitlich einzuordnen ist. Beispiel: ein Bild.
Def Abstrakta
Was nicht raum-zeitlich einzuordnen ist. Beispiel: 'rot sein'
Def Abstraktion
Bildung eines Abstraktums. Ein Prozess, durch den ein (überindividuelles) Konzept von einem konkreten Objekt oder einer Gruppe konkreter Objekte gelöst wird. Typisierende oder
Begriffsabstraktion: (= Generalisierende Abstraktion) Bildung einer übergeordneten Klasse
(Typ), die sich auf einige selektierte Eigenschaften der Klassenmitglieder (Token) stützt, die
diesen gemeinsam sind. Bedeutungsabstraktion: (= Isolierende Abstraktion) Die Loslösung2
oder besser das Ablesen eines Abstraktums wie Information, Bezug, Inhalt usw. von einem
konkreten Träger.
Def Konkretisierung
(Verdinglichung, Implementierung) (Exemplifikation bei Eigenschaften) Bei Zeichen die
Umkehrung der Bedeutungsabstraktion: die Zuordnung einer Bedeutung zu einem Konkretum, so dass ein Zeichen entsteht.
Def Eigenschaften
Eigenschaften sind die objektiv gedachten Teilaspekte, Merkmale, Qualitäten eines Objektes.
Eigenschaften sind überindividuell und, im Gegensatz zu ihrem Objekt, nicht raum-zeitlich,
also abstrakt. Sie sind somit nicht Teil des konkreten Universums, sondern bilden einen ontologischen Weltteil (eine Kategorie) für sich, den der Universalia.
2
Schon nach Aristoteles wird "das in Gedanken fortgelassen, was man dennoch dem betreffenden Objekt in
Wirklichkeit zugehörig weiß" [5]. Aristoteles nannte diesen Prozess Aphairesis (von fortnehmen, fortlassen) und
definierte das Produkt, durch Boethius als "abstractum" ins Lateinische übersetzt, als die "Bestimmtheit, die man
zwar getrennt denken kann, die aber in der Wirklichkeit nie getrennt von einem Substrat existiert " [6]. Was
Abstraktion im Kern bedeutet und ob die Aphairesis oder Loslösung von einem konkreten Träger überhaupt
möglich ist, wird ein wesentliches Thema der folgenden Seiten werden.
copyright invoco-verlag 2006
www.bernd-lindemann.de
6
Begründung: Warum sind Eigenschaften nicht raum-zeitlich einzuordnen? Sie sind nicht spezifisch für ein Objekt, denn ein Objekt teilt Eigenschaften mit anderen Objekten. Diese Objekte haben verschiedene Orte und Zeiten. Hätte nun eine Eigenschaft selbst einen bestimmten Ort und eine bestimmte Zeit, wäre sie nur an einem aber
nicht an vielen verschiedenen Objekten exemplifizierbar. Erst das Abstrahieren von Ort und Zeit erlaubt es, Eigenschaften auf mehrere Konkreta anzuwenden. Somit ist die überindividuelle Natur der Eigenschaften, wie die
der Typen, die Folge eines Abstraktionsprozesses.
Eigenschaften gelten als unveränderlich. Denn in der Denktradition der Ontologie erfordern Änderung
Raum und Zeit. Die sogenannte 'Unveränderlichkeit' kommt überraschend wenn man bedenkt, dass die Eigenschaft 'Länge' sich doch sicherlich ändern kann. Das Objekt besitzt jedoch unveränderlich die Eigenschaft 'eine
Länge haben', veränderbar ist nur der Zahlenwert der Länge, bei unverändertem qualitativen Aspekt. Die Unterscheidung wird sich als unverzichtbar erweisen, wenn Abstraktionen durchgeführt werden, denn diese vergleichen oft nur den qualitativen Aspekt der Eigenschaften (Beispiele in 'Formale Abstraktion').
Def Zustand
Kombination von Eigenschaften, die wir einem Objekt zusprechen oder die in dem Objekt
exemplifiziert sind.
Def Ereignis
Änderung eines Objektzustands. Ein Ereignis benötigt typischerweise zwei Objekte, die in
eine Wechselwirkung treten.
Ereignis im Konkreten: Verlust oder Gewinn von Eigenschaften eines konkreten Objektes
durch Interaktion mit einem anderen konkreten Objekt zu einer bestimmten Zeit an einem bestimmten Ort. An jedem der beteiligten Objekte findet eine Zustandsänderung statt derart,
dass die Summe der Energieänderungen null ist.
Ereignis im Mentalen: Änderung der Attribute eines (abstrakten) mentalen Objektes. Änderung seiner Verknüpfung, seines Kontextes, mit anderen Objekten und mit dem Selbst. Findet
vielleicht zu einem bestimmten Zeitpunkt statt, aber nicht an einem uns bewussten Ort.
Def Prozess
Ein Vorgang, eine Folge von Zustandsänderungen (Ereignissen), die einen Zweck verfolgt.
Def Simulation
Die Imitation eines Prozesses durch einen anderen. Der simulierende Prozess hat eine abweichende physikalische Realisierung, ist aber darauf optimiert, wenigstens einige charakteristische Züge des simulierten Prozesses zu reproduzieren. Beispiel: ein Computerlauf simuliert
einen Evolutionsprozess mit dem Ziel, dessen Ausbreitungsgeschwindigkeit getreu zu ermitteln. Der simulierte Prozess kann auch abstrakt sein (Beispiel: ein Programm, das einen Algorithmus darstellt, 'läuft' auf einem Computer).
Def Kausalität
In der Ontologie die konsequente Verbindung der Zustandsänderungen zweier konkreter Objekte, die dabei Eigenschaften gewinnen oder verlieren oder quantitativ ändern (Energie). Wie
diese Objekte ist auch die Verursachung raum-zeitlich einzuordnen. Wir sprechen also von
einer Ursache (causa) immer dann, wenn eine Zustandsveränderung in einem Objekt eine Zustandsveränderung in einem anderen Objekt hervorruft. Bei Fortnahme der Ursache wird die
copyright invoco-verlag 2006
www.bernd-lindemann.de
7
Wirkung ebenfalls entfallen. Zur Abklärung des Zusammenhanges sollte man auch einen Mechanismus angeben, der die Wirkung mit der Ursache verknüpft.
Def Strukturierende Ursachen
Nach Fred I. Dretske kann man auslösende Ursachen von vorbereitenden, strukturierenden
Ursachen unterscheiden, die auf dieselbe Wirkung konvergieren [7]. Auslösend: das Umfallen
eines ersten Dominosteines bewirkt das Umfallen eines zweiten Dominosteines. Strukturierend: die Steine werden so aufgestellt, dass die Auslösung möglich wird.
Strukturierende Ursachen sind vielgestaltig: der Hebb-Mechanismus an Synapsen [8], die
Konstruktion eines Computers und (wie wir sehen werden) die Programmierung eines Computers gehören dazu. Parametrische Einwirkungen dieser Art haben zur Folge, dass man statt
Kausalketten Kausalnetze vorfindet. Die nichtlineare Komplexität der Netze macht Vorhersagen schwierig.
Def Regel-1
Eine Interaktion und damit ein Ereignis kann im physikalischen Universum nur dann stattfinden, wenn sich die Objekte raum-zeitlich begegnen3. Aber: Entitäten aus verschiedenen Kategorien, wie Konkreta und Abstrakta, können sich nicht begegnen4.
Im Sinne von Regel-1 ist oft betont worden, dass eine Verursachung im physikalischen Universum nur durch konkrete Objekte ausgelöst werden kann: das Universum ist kausal geschlossen. To be real means to have causal power (Samuel Alexander, [9]). Abstrakta hingegen haben keine Wirkung auf Konkreta, 'abstracta non agunt in concreto'. In der Stanford Encyclopaedia of Philosophy schreibt G. Rosen: 'Abstract objects are normally supposed to be
causally inert in every sense' und zitiert dann Frege: ' An abstract entity is a non-spatial (or
non-spatiotemporal) causally inert thing' [10].
Deshalb gilt es als Kategorienfehler, einem Abstraktum die ursächliche Wirkung im Konkreten zuzuschreiben, die nur Konkreta zukommt. In der klassischen Logik hieß dieser Fehler
'metabasis eis allo genos', heute findet man die Bezeichnung 'Reifikation' oder spezifischer,
mit Whitehead 'The Fallacy of Mistaken Concreteness' [S. 51, 55, 58 in 11].
(Im Folgenden wird jedoch argumentiert werden, dass Abstrakta ohne konkreten physikalischen Träger gar nicht existieren. Nicht nur sind sie nicht real, es gibt sie nicht, sie sind eine
Illusion. Abstrakta gibt es nur in der nicht abstrahierten Form, implementiert in einer physikalischen Struktur. Welche Form diese Struktur hat, wird näher spezifiziert werden. Sie ist
raum-zeitlich einzuordnen und kausal zu handhaben.)
3
Dies geht aus der Definition von 'Ereignis im Konkreten' hervor.
Eigenschaften (abstrakt) können an Objekten (konkret) exemplifiziert sein. Dies gilt jedoch nicht als Interaktion.
4
copyright invoco-verlag 2006
www.bernd-lindemann.de
8
Zeichen, Symbole, Aussagen
Def Assoziation
Die durch Lernen erworbene unwillkürliche Kopplung von vorher getrennten Denkinhalten. Assoziationsraum: eine Menge von Denkinhalten, die von einem Assoziationsvorgang zusammengebunden werden.
Def Zeichen
Ein Konkretum, dessen Wahrnehmung eine bestimmte Assoziation auslöst und das dadurch
für etwas anderes steht (Bezug, Relation), das unabhängig von dem Zeichen existiert. Diese
Kopplung von Denkinhalten gilt nur für die Entitäten, welche die Assoziation gelernt haben.
Das Zeichen kann schon durch seine Form an den Bezug erinnern (Ikone) oder dies nicht tun
(Symbol)5. Platzhalter haben keinen Bezug, sind also keine Zeichen im eigentlichen Sinne.
Def Platzhalter
Eine bedeutungslose Struktur (z.B. 'y'), für die ein Bedeutungsträger (z.B. das Symbol 'E' für
Energie), eingesetzt werden kann. Synonym: 'allgemeine Variable', 'Bezeichner'.
Def Symbol
Ein Zeichen mit feststehendem Bezug, das nicht durch seine Form an diesen Bezug erinnert.
Durch seine assoziative Verknüpfung verweist es auf ein bestimmtes Realobjekt oder auf ein
Konzept, das unabhängig von dem Symbol existiert [12]. Komplexe Symbole sind aus einfacheren aufgebaut.
Def Symbolverarbeitung
Manipulation von Symbolen oder Symbolgruppen in kombiniert formal-syntaktischer (regelhafter) und semantischer Form (abhängig von deren Bezug). Die verarbeitende Entität muss
den Bezug verstehen. Spielt der Bezug bei der Verarbeitung keine Rolle, so werden die Symbole nicht als solche, sondern nur syntaktisch als Platzhalter verarbeitet.
Def Kommunikation
Kommunikation = Übermittlung von Information mit einem physikalischen Träger.
Def Information [13, 14]
Hat einen
1. syntaktischen & technischen Aspekt, Informationstheorie im engeren Sinne,
2. semantischen Aspekt, Inhalt,
3. pragmatischen Aspekt, Wirkung.
Information entsteht durch Abstraktion aus konkreten Objekten, in denen sie enthalten ist. R.
Landauer hat jedoch betont, dass Information als Abstraktum eigentlich nicht real ist. Infor5
Nach Charles Sanders Peirce, siehe u.a. http://de.wikipedia.org/wiki/Symbol
copyright invoco-verlag 2006
www.bernd-lindemann.de
9
mation kann nicht von ihrem physikalischen Träger getrennt werden, ohne ihre Wirksamkeit
zu verlieren [15]. (Dies gilt für Information. Wie steht es aber mit Inhalten oder generell mit
Abstrakta: existieren sie nur in der implementierten Form, an einen konkreten 'Träger' gebunden, oder gibt es sie auch ‚frei schwebend’?)
Def Inhalt
Die Bedeutung einer Kommunikation, ihr semantischer Aspekt, wovon sie handelt, was zutreffen kann (Synonym: der propositionale Gehalt einer Aussage). Ein Abstraktum. Bedeutung gibt es nicht für sich (real), sondern immer für jemanden.
Def Aussage
Proposition. Ein Inhalt, der als Information auf einem physikalischen Träger kommuniziert
wird.
Def Umschreibung
alternative Aussage mit gleichem propositionalen Gehalt aber verschiedenen Vokabeln und
verschiedener syntaktischer Struktur. - Mit Umschreibungen kann man prüfen, ob eine Entität einen
Sachverhalt nicht nur formal behandelt, sondern inhaltlich versteht. Allerdings könnte Verständnis vorgetäuscht
werden, wenn die Umschreibung nur Wortsubstitution einsetzt, diese Synonyme aber einer vorgefertigten Codetabelle entnommen werden können. Deshalb sollte die Umschreibung auch die Syntax variieren (der erste Vogel
in der Reihe Æ von hier gesehen das vorderste gefiederte Tier.)
Def Verständnis
Ein Prozess, der einen gesetzmäßigen Zusammenhang mit (neuronalen) Symbolen nachbildet
und dabei deren problemrelevante Bedeutung auswertet. Sein Resultat sind Assoziationen,
deren Inhalt bewusst wird.
Im Gegensatz hierzu simuliert der Lauf eines digitalen Computers einen mit Platzhaltern formulierten Algorithmus, den 'gesetzmäßigen Zusammenhang', schrittweise durch variable physikalische Strukturen. Problemrelevante Bedeutung spielt dabei keine Rolle. Ein anderer Computertyp, das 'neuronale Netzwerk', ermittelt den
gesetzmäßigen Zusammenhang selbst. Auch dies geschieht ohne semantische Auswertung einer problemrelevanten Bedeutung von Symbolen.
Def Verständnis von Vorgängen
Die Simulation des Vorganges mit Hilfe seiner spezifischen Gesetzmäßigkeiten und das Bewusstwerden des Resultates. Test: Umschreibungen der Gesetzmäßigkeiten werden als sinngleich erkannt.
Def Verständnis von einfachen Zeichen
Lexikalische Auswertung der gelernten Assoziation von Zeichenstruktur und Bedeutung
(Codetabelle). Fehlt das Zeichen in der Tabelle, so bleibt seine hypothetische Deutung durch
Klassifizierung oder durch Raten aus dem Zusammenhang. Das Bewusstwerden der Bedeutung. Test: Umschreibungen mit komplexen Zeichen werden als sinngleich erkannt (Maus das kleine graue Tier mit der spitzen Schnauze).
copyright invoco-verlag 2006
www.bernd-lindemann.de
10
Def Verständnis von komplexen Zeichen (Sätzen)
Zerlegung in einfache Zeichen mit bekannter Bedeutung, Rekonstruktion des Komplexes mit
dem Struktur-Bildungsgesetz (Syntax) bei gleichzeitigem Aufbau des Bedeutungskomplexes.
Bewusstwerden des Resultates und seiner Begründung. Test: Umschreibungen werden als
sinngleich erkannt.
Def Verständnis von neuen Beobachtungen
Rückführen auf Bekanntes, z.B. durch Klassifizieren als neuer Token eines schon bekannten
Typs.
copyright invoco-verlag 2006
www.bernd-lindemann.de
11
Computer, recht verstanden
Die folgenden Betrachtungen über Computer und Programme sind notwendig, um die sog.
Computeranalogie des Mentalen einschätzen zu können.
Symbole oder Platzhalter?
Nach D. Hilbert (1922) verwendet ein Formalismus "bedeutungslose Zeichen" (zitiert auf
S.143 in [16].) In anderen Worten, ein Formalismus ist syntaktisch, aber nicht semantisch. Da
nun Computerprogramme Formalismen sind und Computerläufe diese Formalismen simulieren, wird eine etwaige Bedeutung der Zeichen des Programms für den Ablauf des Rechenprozesses keine Rolle spielen.
Jedoch, mit beginnendem Siegeszug digitaler Rechner formuliert A. Newell in den fünfziger
Jahren "...we insisted that computers were symbol manipulation machines and not number
manipulation machines." (zitiert auf S.137 in [17].) Newell und Simon meinten mit 'Symbol'
nicht nur ein 'alphanumerisches Kürzel' im Gegensatz zu einer Zahl, sondern sie betonten die
semantischen Eigenschaften. Sie sprachen von 'Physikalischen Symbol-Systemen' (PSS), die
zu kognitiv-intelligenten Leistungen fähig seien, sofern einige Zusatzbedingungen erfüllt
sind. Turingmaschinen und Computer gehören zu den PSS oder sind ihnen sehr ähnlich [17,
18], siehe auch S. 303 ff in [19].
Eine unterstellte Symbolmanipulation wirft jedoch Fragen auf, denn schon bei der algebraischen Niederschrift eines Algorithmus verwendet man mit x , y usw. keineswegs Symbole
oder Zeichen (beide hätten eine feste Bedeutung), sondern Platzhalter (ohne festgelegte Bedeutung). Der Terminus 'Symbolverarbeitung' impliziert eine Kenntnis der problemrelevanten
Symbolbezüge, die im Computer wohl kaum vorhanden sein dürfte. Die Bezeichnung 'Platzhalterverarbeitung' würde diesem wichtigen Umstand Rechnung tragen.
Heutige Lehrbücher und Fachwörterbücher wiederholen gleichwohl: Computer sind symbolverarbeitende Maschinen [z.B. 1, 12], bzw. gehören zu den 'Physical Symbol Systems' [19].
Anders äußert sich Sybille Krämer: Die Zeichen eines Formalismus bilden typographische
Muster, also Strukturen. Die Zeichen in diesen Strukturen werden nach Regeln schematisch
kombiniert, ohne dass eine Bedeutung bekannt sein müsste. Auch über die formale Richtigkeit des Resultates lässt sich entscheiden, ohne eine Bedeutung zu kennen (S.2 in [16]). Auch
John R. Searle bezweifelt energisch eine semantische Kompetenz von heutigen Computern
[20].
Gewiss wird den Zeichen, wenn das Resultat etwa einer Computerrechnung vorliegt, eine Bedeutung gegeben. Das geschieht aber nicht im Computer, sondern im Kopf. Heutige Computer, wie sogleich gezeigt werden soll, kennen keine problemrelevante Bedeutung6 und eine
uns bewusste Bedeutung dieser Art ist für den Computerlauf irrelevant.
Computerformalismen und Bedeutung
Wenn ein Computer ein Stoppzeichen liest und dann stoppt, hat er dann ein Symbol verstanden? Hat er den semantischen Inhalt des Stoppzeichens richtig gedeutet? Nein, oder besser:
das lässt sich aus der Tatsache des Stoppens nicht folgern. Ähnlich bei einer Kuckucksuhr:
6
"... machines are awful at figuring out what things mean..." [S. 13 in 21]. Das mag sich jedoch ändern, die
Entwicklung der Computer ist ja keineswegs abgeschlossen.
copyright invoco-verlag 2006
www.bernd-lindemann.de
12
wenn der Vogel um 12 Uhr hervorkommt und ruft, so beweist das nicht, dass er das Zifferblatt deuten kann.7 Im Falle der Uhr können wir Philosophen hinter dem Ziffernblatt ein Räderwerk entdecken. Vielleicht rufen wir dann "Heureka, hier ist nichts als Mechanik, Formalismus, Syntax!" Was aber entdecken wir in der Hardware eines digitalen Computers?
Das Urbild der Computer ist die Turingmaschine. Diese nur gedachte Maschine kann virtuell
alles leisten, was digitale Rechner leisten können. Sie ist deshalb so generell, weil sie durch
Aneinanderreihung von nur wenigen Arten elementarer Operationen die komplexeren Instruktionen anderer Computer darstellen und befolgen kann. Ihre Operationen sind 'Zeichen vom
Band lesen', 'Zeichen aufs Band schreiben', 'Band nach rechts bewegen', 'Stopp' usw. [23, 24].
Nur gestützt auf Zeichen die solche einfachen operationellen Bedeutungen haben, simuliert
die Turingmaschine die komplizierten Instruktionen jedes beliebigen digitalen Computers.
Wenn die Turingmaschine nun eines dieser operationellen Zeichen liest, versteht sie es dann?
Es sieht so aus, denn wenn sie z.B. ein Stoppzeichen liest, dann stoppt sie das Band. Muss das
nun bedeuten, dass sie das Zeichen im semantischen Sinne verstanden hat? Nein! Vielmehr ist
(in der gedachten Hardware der Maschine) vorgesehen, dass das Lesen eines Zeichens eine
bestimmte Aktion bewirkt. Dies wird mit einer lexikalischen wenn-dann-Bedingung erreicht,
die in den Instruktionen der Turingmaschine enthalten ist. Turing [23]: "To 'programme a machine to carry out the operation A' means to put the appropriate instruction table into the machine so that it will do A." Wir können uns das ganz mechanisch vorstellen, wie ein Räderwerk.
Wegen der implementierten wenn-dann-Bedingung kann man vielleicht sagen, dass die Maschine dieses Zeichen in einem passiv-lexikalischen Sinne 'kennt'. Doch das Stoppzeichen ist
ja kein Zeichen mit problemrelevanter Bedeutung, sondern ein operationelles Zeichen. Die
Bedeutung solcher 'house-keeping' Zeichen ist, unabhängig von dem bearbeiteten Algorithmus, immer gleich. Operationelle Zeichen sind wichtig für den Ablauf der Sequenz von Programmschritten, gehören in einem weiteren Sinne zur Syntax. Zeichen mit problemrelevanter
Bedeutung würden wir in den Instruktionen und in dem Computer vergeblich suchen. Der
Computer simuliert ja nur - mit einer schnellen elektronischen 'Mechanik' – den schrittweisen
Ablauf des Algorithmus und schon dieser ist frei von problemrelevanter Bedeutung. Ein digitaler Computer ist ein elektrisches Räderwerk.
Wenn nun die Turingmaschine von der Konstruktion her ohne problemrelevante Symbolbedeutung auskommt, aber alle Computer simulieren kann, dann kommen diese auch ohne eine
solche Symbolbedeutung aus. Da Symbolverarbeitung eine Kenntnis der Symbolbedeutung
impliziert, ist die verbreitete Charakterisierung eines Computers als 'symbolverarbeitende
Maschine' also (ontologisch) irreführend.8 Was aber verarbeitet ein Computer? Nicht Symbole, nicht Zeichen, auch nicht Zahlen - auch nicht alphanumerische Kürzel im Gegensatz zu
Zahlen, sondern schnell veränderliche physikalische Strukturen (s.u.), die wir als operationelle Zeichen interpretieren.
Wir wollen einmal genauer betrachten, wie Computer arbeiten. Oder besser, wie sie mit uns
zusammenarbeiten. Denn das Zusammenspiel von Programmierer, Problem, Programm und
Hardware ist dabei zu beachten9. Also, das geht etwa so:
(1) Der Programmierer hat ein formalisierbares Problem. Das schreibt er auf ein Blatt Papier
unter Verwendung von Symbolen. Da steht zB. E für Energie, t für die Zeit usw. E und t nen-
7
In diesem Sinne argumentierte auch J.R. Searle mit seinem bekannten "Chinesischen Zimmer" [22].
Natürlich geht es nicht darum, Fehler nachzuweisen, sondern darum, diese künftig zu vermeiden.
9
Die 3 Ebenen wurden von Marr [25] und Newell [26]eingeführt. Gleichwohl sind für diese Autoren Computer
symbolverarbeitende Maschinen. Dies gilt auch für einen großen Teil der heutigen Kognitionswissenschaft [19].
8
copyright invoco-verlag 2006
www.bernd-lindemann.de
13
nen wir zu Recht Zeichen oder Symbole, weil sie ja für den Programmierer eine feste, problemrelevante Bedeutung haben.
(2a) Dann sucht der Programmierer einen Algorithmus, mit dem E(t) dargestellt werden kann.
Er findet einen, der aber generell ist und die Funktion y(x) ausrechnet. Darin sind y und x
Platzhalter, sie haben keine feste Bedeutung (siehe D. Hilbert, zitiert in [16]). Nur so kann der
gewählte Algorithmus auf viele verschiedene Probleme anwendbar sein. Deshalb drückt der
Programmierer sein Problem nun mit y und x aus. Natürlich bleibt es ihm unbenommen, auch
bei y an Energie zu denken, bei x an Zeit usw. Nur: für den Algorithmus ist das völlig gleichgültig. Er funktioniert formal syntaktisch. Problemrelevante Bedeutungen sind für ihn Luft,
ohne jede Wirkung.
(2b) Der Programmierer schreibt nun ein Programm, das den Algorithmus in Einzelschritte
und schließlich in Instruktionen auflöst. Auf der Ebene des 'Maschinenprogramms' sind diese
Instruktionen wenn-dann-Bedingungen der Art 'wenn Zeichen-Kennzahl = n, dann Operation
m durchführen'. Die Zuordnung Zeichen -> Aktion ist also lexikalisch.
(3) Die Hardware hat die Aufgabe, die Programmschritte und Platzhalter, die nun als Sequenz
von Instruktionen vorliegen, mit physikalischen Strukturen darzustellen. Diese Strukturen
sind schnell variable Potentialmuster auf den Chips. Die Hardware funktioniert rein formal,
sie führt die wenn-dann-Instruktionen aus, eine problemrelevante Bedeutung spielt keine Rolle. Die ging ja schon beim Übergang zum Algorithmus verloren.
(4) Das Resultat der Hardwarevorgänge wird in den algorithmischen Formalismus zurückübersetzt.
(5) Das Resultat des Formalismus wird in die Variablen zurückübersetzt, die für den Programmierer eine problemrelevante Bedeutung haben.
Man sieht also, eine problemrelevante Bedeutung von Symbolen (Variablen) spielt nur für
den Programmierer bei der Formulierung des Problems und bei der Interpretation des Resultates eine Rolle, nicht aber für den Ablauf des Formalismus und schon gar nicht für die Hardwareprozesse. Im Übrigen ist die computatorische Leistung der Hardware durch ihren formalen, bedeutungsfreien Prozessablauf schon voll erklärt.
Deshalb sind Computer keine symbolverarbeitenden Maschinen. Symbolverarbeitung müsste
ja heißen, dass Zeichen nach Maßgabe ihrer (problemrelevanten) Bedeutung verarbeitet werden. Das kann nur der Programmierer, nur er kennt die Bedeutung.
Der Computer versteht die Bedeutung nicht, er kennt sie auch nicht, das ist nicht vorgesehen,
es ist auch nicht nötig, würde keinen Vorteil bringen. Der Computer liest nur seine immer
gleichen operationellen Symbole. Er setzt sie lexikalisch um, versteht selbst ihre Bedeutung
jedoch nicht. Problemrelevante Symbole aber versteht oder kennt der Computer schon deshalb nicht, weil diese Symbole die Hardware nie erreichen. So simuliert der Computer, mit
seinen physikalischen Möglichkeiten, den schrittweisen Vollzug des Algorithmus, wie er in
dem Programm festgehalten wird.
copyright invoco-verlag 2006
www.bernd-lindemann.de
14
Formale Abstraktion
Wie schon erwähnt, kann die universelle Turingmaschine alle berechenbaren Probleme lösen
und jeden real existierenden Computer simulieren. Eine Kenntnis von problembezogener Bedeutung ist in der Konstruktion jedoch nicht vorgesehen.
Gleichwohl argumentierte Alan Turing 1950, dass auch mentale Prozesse 'computable' sind
und auf einer universalen Maschine realisiert werden können [23]. Das mag sein, aber werden
die mentalen Prozesse auf der Maschine nicht nur formal simuliert? Der Unterschied zwischen einer Simulation und ihrem umfassenderen Vorbild ist hier zu berücksichtigen: computable (syntaktisch) heißt noch nicht content-conscious (semantisch).10
Nun könnte man spekulieren, dass in der Konstruktion der Turingmaschine eine Kenntnis oder ein Bewusstwerden von Bedeutung nicht das Ziel der Optimierung war, dass das Verstehen der Bedeutung aber doch bei hinreichender Komplexität durch Emergenz entstehen könnte. Wie kann man also erkennen, ob ein Computer oder eine andere Entität Bedeutung versteht?
Bedeutung (semantischer Gehalt) ist ein Abstraktum, entsteht also durch Abstraktion. Um die
Bedeutung eines Zeichens zu 'verarbeiten', muss ein Computer zunächst durch Abstraktion
das Zeichen identifizieren, um dann dessen Bedeutung zu ermitteln und schließlich auf die
Bedeutung zu reagieren. Das Abstrahieren ist ohne weiteres möglich, bei entsprechender Programmierung kann ein Computer sowohl Begriffsabstraktion (Typbildung) als auch Bedeutungsabstraktion (Abziehen) formal durchführen.
In dem folgenden Beispiel wird eine typisierende Abstraktion computergerecht mit der logischen UND-Verknüpfung realisiert. Jede Position in Token A oder B soll eine mögliche Eigenschaft repräsentieren. Die Eigenschaft ist vorhanden, wenn der Zahlenwert auf der Eigenschafts-Position = 1 oder > 1 ist. Sie ist um so stärker
ausgeprägt, je größer der Wert ist. (Für Boolsche Operationen wie UND wird jedoch jeder Wert > 1 als 1 gewertet.)
Die Abstraktion C = A UND B sieht dann im Einzelnen so aus:
Token A:
Token B:
UND
Typ C:
034 203
040 300
--------------010 100
In dem Beispiel spielen quantitativen Aspekte von Eigenschaften für die Abstraktion keine Rolle. Entscheidend
ist allein, dass die Eigenschaft überhaupt vorkommt.
Um eine Bedeutungsabstraktion (Abziehen) formal durchzuführen, wird der Token mit einem Normmuster verglichen:
Token
Norm
030 422
010 010
UND
Res
-------------010 010
Wenn Res = Norm, dann ist die Abstraktion gelungen (Norm ist in dem Token enthalten, d.h. die Eigenschaften
von Norm sind eine Untermenge der Eigenschaften von Token).
Da Boolsche Operationen wie UND von heutigen digitalen Computern leicht durchgeführt
werden, kann kein Zweifel sein, dass diese Maschinen beide Arten der formalen Abstraktion
leisten können. Natürlich trennt der Computer nicht die Bedeutung von ihrem Träger ab. Er
10
Dieser Punkt wurde schon durch das bekannte "Chinesische Zimmer" von J.R. Searle verdeutlicht [22].
copyright invoco-verlag 2006
www.bernd-lindemann.de
15
führt nur eine Maskierung oder Filterung durch, die das gleiche formale Resultat hat wie eine
Abstraktion.
Tabelle 1
Vorgang verstehen
lexikalisch
konstruktiv
Simulation mit
Bildungsgesetz
Test auf
Verständnis
Resultat bewusst.
Erkennen von Umschreibungen
der benutzten Gesetzmäßigkeiten
Einfaches Zeichen
verstehen
Komplexes Zeichen verstehen
Codetabelle
auswerten
Klassifizieren.
Raten aus dem
Zusammenhang
Resultat bewusst.
Erkennen von
Umschreibungen
Datenbank wird zu groß
Mit den syntaktischen Regeln
zerlegen und rekonstruieren
Resultat bewusst.
Erkennen von
Umschreibungen
Codetabelle, Verständnis, Umschreibung
Nach der Abstraktion muss die Bedeutung des gefundenen Zeichens festgestellt werden. In
dem obigen Beispiel ist 'Norm' ein solches Zeichen oder Symbol, das eine feste Bedeutung
hat. Es gibt zwei prinzipielle Wege, die Bedeutung zu ermitteln: mit einer Codetabelle oder
konstruktiv.
Tabelle 1 stellt die schon gegebenen Definitionen des Verständnisses von Vorgängen sowie
von einfachen und komplexen Zeichen zusammen. Hier interessiert zunächst das Verständnis
von einfachen Zeichen.
Eine Codetabelle oder eine lexikalische Datenbank stellt Assoziationen dar, die oft von einer
anderen Entität dem Analysesystem verfügbar gemacht werden. Mit Hilfe der Tabelle kann
ein Computer vor allem die Bedeutung einfacher Zeichen ermitteln, die Bedeutung ausdrucken, von ihr abhängige Schritte einleiten, usw. Dies kann rein formal geschehen, der Computer braucht die Bedeutung nicht zu verstehen. Der Nachteil dieses Verfahrens besteht darin, dass Zeichen, die nicht in der Tabelle enthalten sind, nur mit anderen, weniger sicheren
Methoden bearbeitet werden können.
Für komplexe Zeichen werden die Codetabellen unhandlich lang, es bleibt dann der Weg der
konstruktiven Analyse. In Neuronensystemen führt dieser Weg zum Verständnis, seine detaillierte neurobiologische Aufklärung steht aber noch aus. In großen Zügen scheint die Analyse einer Struktur mit dem relevanten Struktur-Bildungsgesetz stattzufinden. Dabei werden
Symbole verwendet, deren problemrelevante Bedeutung für den Prozess entscheidend ist.
Das Resultat wird bewusst und kann begründet werden. Der Vorteil ist die Unabhängigkeit
von einer vorgefertigten Tabelle, dass also auf neue Situationen flexibel reagiert werden
kann.
Als Beispiel wählen wir den sprachlichen Ausdruck "der vorderste Vogel in der Reihe". Dieses komplexe Zeichen wird zunächst zerlegt (parsing). Es besteht aus 3 sinntragenden Wörtern (vorderste, Vogel, Reihe), deren Bedeutung lexikalisch bekannt ist. Dazu kommen drei
copyright invoco-verlag 2006
www.bernd-lindemann.de
16
Hilfswörter (der, in, der). Mit der bekannten Syntax der deutschen Sprache wird der Sinn des
Komplexes aus dem Sinn der Wörter und der Teilkomplexe schrittweise konstruiert:
Es gibt eine Reihe
Es gibt einen Vogel
Es gibt eine (Reihe von Vögeln)
Es gibt ein Vorderstes
Es gibt einen (vordersten Vogel)
Es gibt einen (vordersten Vogel) in der (Reihe von Vögeln).
In dieser Weise können generell Sprachausdrücke mit Hilfe der bekannten Syntax enträtselt
werden. Um dasselbe mit einer Codetabelle zu leisten, müsste diese sehr lang sein.
Nun lässt sich aber denken, dass zukünftige Computerprogramme auch die Verfahren der
syntaktischen Sprachanalyse formal nachbilden. Wie kann man dann feststellen, ob das Verfahren formal war oder ob Verständnis im Spiel war?
Verständnis bedeutet Analyse einer Struktur mit dem relevanten Struktur-Bildungsgesetz und Bewusstwerden des Resultates und seiner Begründung. Zu Prüfung auf Verständnis empfiehlt Tabelle 1 die Verwendung von Umschreibungen, die als sinngleich
erkannt werden müssen.
Eine Umschreibung wäre: "das erste gefiederte Tier, von hier aus gesehen". Man ändert also
die Formulierung unter Erhaltung des Inhaltes möglichst überraschend so, dass eine vorgefertigte Codetabelle nichts nützt. Die beiden Formulierungen haben nichts gemeinsam außer
ihrem Sinn. Wenn sie also nicht als gleichbedeutend erkannt werden, dann fehlt das Verständnis für mindestens eine der Formulierungen.
Die Täuschung, vor der ein Tester auf der Hut sein muss, besteht darin, dass der Prüfling lexikalisches Wissen einsetzt, statt konstruktiv mit den relevanten Gesetzen zu arbeiten. Heutige Computerprogramme arbeiten sehr oft lexikalisch, mit bei der Programmierung eingelesenen Tabellen, um das richtige Resultat schnell zu erhalten. Mit Synonymtabellen wie 'vorderstes' manchmal = 'erstes', 'gefiedertes Tier' = 'Vogel' wäre das schon möglich. Deshalb
kann man mit sehr umfangreichen Lexika, die auch sehr up-to-date sind, wie in dem 'Chinesische Zimmer' von J.R. Searle, Umschreibungen richtig zuordnen und so erfolgreich Verständnis vortäuschen [22].
Anders wenn man den Fall umdreht: sollte der Prüfling die semantische Identität von ursprünglicher und umschreibender Aussage nicht erkennen, so kann er die Bedeutung von
mindestens einer der beidem Aussagen nicht erfasst haben. Der positive Beweis von Verständnis ist schwieriger. Er erfordert neben dem Erkennen von Umschreibungen auch noch
den Nachweis der Bewusstwerdung, sowie die Begründung.
Wir fragen hier nach semantischem Verständnis. Alan Turing hat 1950 eine ähnliche Frage
gestellt: "Do machines think?" und zu ihrer Beantwortung (bzw. zur Beantwortung einer weiteren, abgeleiteten Frage) das 'imitation game' vorgeschlagen [23]. Ein direkterer Test schien
nicht möglich zu sein. Das Imitationsspiel wird noch regelmäßig zur Beantwortung von "Ist
der Prüfling ein Mensch (sprich: intelligent) oder ein implementiertes Programm (sprich: nur
formal)?" als Loebner-Preis Wettbewerb Künstliche Intelligenz durchgeführt11.
Für die Beantwortung unserer Frage: "Hat der Proband semantisches Verständnis?" können
wir ein begründetes Testverfahren angeben, eben das der Umschreibung. Werden Umschreibungen erkannt, so ist die Antwort noch unbestimmt (Argument mit dem 'Chinesischen Zimmer') und erfordert den Nachweis der Bewusstwerdung und die Begründung. Wenn aber die
11
Siehe die ausführliche Beschreibung des Turing Tests bei P.M. Churchland [27].
copyright invoco-verlag 2006
www.bernd-lindemann.de
17
Umschreibungen partout nicht erkannt werden, dann fehlt das Verständnis für mindestens
eine der alternativen Formulierungen.
Das Resultat eines Umschreibungstests mit heutigen Computern lässt sich denken, denn die
Programmierung strebt eben nur ein korrektes formales Resultat an. Ein Verständnis des Resultates durch die Hardware ist dabei weder notwendig noch hilfreich, zu den Zielen der Optimierung gehört es jedenfalls nicht.
Fazit
(1) Bei Symbolen unterscheidet man tunlichst die problemrelevanten von den operationellen.
Die Frage ist dann nicht, ob Computer Symbole verarbeiten, sondern ob sie problemrelevante
Symbole verarbeiten. Der Computer liest jedoch nur die operationellen 'housekeeping'Symbole. Diese setzt er lexikalisch um ohne ihre Bedeutung zu verstehen. Problemrelevante
Symbole aber versteht oder kennt der Computer schon deshalb nicht, weil diese Symbole die
Hardware nie erreichen. Symbole mit problemrelevanter Bedeutung spielen nur eine Rolle (a)
bei der Formulierung des Problems durch den Programmierer und (b) bei der Auswertung des
Computerresultates durch den Programmierer.
(2) Generell erfordert eine Symbolverarbeitung, wenn sie über das Lexikalische hinausgeht,
ein Verständnis der Symbolbedeutung. Dieses liegt vor, wenn (a) Umschreibungen als sinngleich erkannt werden und (b) das Resultat bewusst wird und begründet werden kann. Das ist
bei heutigen Computern nicht der Fall.
(3) Die Charakterisierung von heutigen Computern, Turingmaschinen und von anderen nichtneuronalen 'physikalischen Symbolsystemen (PSS)' als symbolverarbeitende Maschinen ist
also falsch12 und Analogien zu Neuronensystemen sind irreführend, wenn sie von dieser Charakterisierung ausgehen.
12
Es führt nicht weiter zu argumentieren, dass ein Computer ja seine operationellen Zeichen verarbeite, wenn
auch nur lexikalisch, und deshalb zurecht symbolverarbeitend genannt würde. Diese Zeichen sind nicht problembezogen. Ihre Bedeutung ist für jeden Algorithmus die gleiche. Ihre Verarbeitung kann digitale Rechner nicht in
eine Klasse mit Neuronensystemen bringen, die semantische Verständnis für Symbole mit problembezogener
Bedeutung zeigen.
copyright invoco-verlag 2006
www.bernd-lindemann.de
18
Neuronensystem
Repräsentation, das Mentale, Transparenz
Def Repräsentation
Darstellung durch komplexe Symbole von etwas, das nun nicht mehr gegenwärtig sein muss,
um berücksichtigt zu werden. Ein Objekt wird in einer Entität repräsentiert, wenn seine vermeintlichen Eigenschaften (Attribute) verfügbar (auslesbar) gemacht oder dargestellt werden
und in dieser Entität semantisch interpretiert werden können. (Symbole und Zeichen semantisch zu verarbeitet, heißt ihren Bezug zu verstehen. Das Verständnis kann mit Umschreibungen überprüft werden.)
Def Bindung
Integration von Attributen. Vorgang der Assoziation von Attributen, als verteilt gespeicherten
Zeichen, zu einer neuronalen Repräsentation. Diese wird bewusst nicht als Summe ihrer Attribute, sondern als ein Ganzes (Gestalt). Die bekannte Hypothese von W. Singer et al. spezifiziert neuronale Synchronisation als Mechanismus der Bindung [28].
Def Bindung 2. Ordnung
Integration von Repräsentationen. Vorgang der Assoziation von neuronalen Repräsentationen
zu einer Szene oder zu einem anderen Zusammenhang.
Beobachtung: Neuronensystem
Das Gehirn des Menschen, von ca.1400 g, enthält mehr als 1010 Neurone mit mehr als 1012
Synapsen [29]. Es betreibt systematische Signal- oder Informationsverarbeitung mit einer eigenen Architektur und Strategie, wobei die Hebbsche Regel der synaptischen Plastizität eine
wichtige Rolle spielt [8]. Das Gehirn ist in morphologischen und funktionellen Modulen organisiert, die miteinander über die Dendriten, Neuriten und Botenstoffe vieler Neurone kommunizieren. Im Gehirn sind ungezählte km von Neuritenkabel verlegt (Axone). Allein die
Bahn von der Retina zum Thalamus enthält 1 Million parallele Axone13. Und die Axone sind
nicht zur Zierde da, sie leiten die Nervenimpulse mit Raten bis zu 1000 pro Sekunde, mit Geschwindigkeiten bis zu 100 Metern pro Sekunde, über Distanzen von Millimetern bis Metern,
jeder Impuls ein Argument für die kommunikative Leistung des Neuronensystems.
Die Module sind Agenten, haben also eine gewisse Autonomie, so dass eine gleichzeitige Bearbeitung mehrerer Aufgaben möglich wird. Die dazu notwendigen neuronalen Kommunikationsvorgänge transportieren Information und haben somit, wie Kommunikation generell, bestimmte intrinsische Inhalte. In einfachen Fällen enthält schon die Spikefolge (Impulsrate) auf
einer einzelnen Nervenfaser solche Inhalte. Die Übertragung geschieht mit dem konkreten
Objekt 'Spikefolge auf dem Axon'. Die Bedeutung der Spikefolge muss dem Empfänger des
Signals, einem neuronalen Modul, natürlich bekannt sein. Dabei spielt das Ortsprinzip (labeled line) eine wichtige Rolle: Information auf Axonen, die vom Zeh kommen, werden auf den
Zeh bezogen. Der Grund ist aber, dass diese Axone oder Bahnen in dem Zehbereich des sen13
Auf jeder Seite. Aneinander gereiht sind das schon 50 km 'verlegtes Kabel' pro Seite. Die 'weiße Substanz' des
menschlichen Gehirns enthält an die 135000 km 'verlegtes Kabel' und ein mm3 Cortex etwa 4 km [30].
copyright invoco-verlag 2006
www.bernd-lindemann.de
19
sorischen Cortex enden und alles, was dort eintrifft, wird auf den Zeh bezogen! Mehrere Prinzipien der neuronalen Codierung sind bekannt [31]. So beruht die effiziente neuronale Repräsentation von Schall auf einer nichtlinearen Populations-Spike-Kodierung [32]. Dass überhaupt Codierung stattfindet, ist unstrittig (S.330ff in [33]). Was codiert wird, ist Information
und Information bedeutet Inhalt [13, 14].
Wie unten dargelegt wird, können wir die Neuromechanismen selbst (etwa Erregungsmuster,
Aktivierungsmuster, Synchronisation) subjektiv nicht wahrnehmen, nur die Inhalte, welche
sie dem Bewusstsein präsentieren. Deshalb kann man das Bewusstsein als 'Benutzeroberfläche' verstehen (engl. user-interface). Es ist eine Schnittstelle, die uns vor allem das zugänglich
macht, was wir wissen müssen um zu überleben. Den Rest erspart sie uns, wenn wir uns nicht
besonders darum bemühen. Erkenntnis bedeutet, über den Rand dieser Oberfläche hinauszublicken.
Def Neuronale Repräsentationen (nR)
Die Beobachtung, dass Neurone und neuronale Module kommunizieren, ist unstrittig. Aber
repräsentieren sie auch? Hierüber wurde kürzlich in einer publizierten Diskussion ein wenigstens teilweiser Konsensus erreicht: Vielleicht nicht einzelne Neurone, sicher aber größere
Komplexe (Module) repräsentieren, d.h. sie machen vermeintliche Eigenschaften eines Objektes verfügbar und erlauben ihre Interpretation [34, 35].
Die nR können in einfachen Fällen als Aktivierungsmuster von Neuronengruppen in einem
Experiment objektiv dargestellt werden [z.B. 36]. Sie sind symbolische Darstellungen 'von
etwas' durch konkrete Objekte, nämlich durch die mit der Repräsentationsaufgabe befassten
Module. Somit, und das ist spannend, finden wir in dem Neuronensystem wichtige Leistungen (wie die Darstellung propositionaler Inhalte), die vormals nur dem Mentalen zugeschrieben wurden.
Def Attribute
Die neuronale Repräsentation eines konkreten Objektes besteht aus Zeichen (ist eine Art Stenogramm [25]) durch welche die Eigenschaften des Objektes zwar nicht exakt, aber für einen
gegebenen Zweck hinlänglich beschrieben werden. Die Eigenschaften, auf die sich die Zeichen beziehen, sind vermeintliche Eigenschaften, hier Attribute genannt. Attribute (im Gegensatz zu Eigenschaften) haben einen semantischen Aspekt, sie können aber müssen nicht
zutreffen, denn Attribute beziehen sich zwar auf echte Eigenschaften, sind aber nur im Idealfall identisch mit ihnen. Sie sind eingeschränkt, u.a. durch unsere genetisch vorgegebenen
Ordnungsprinzipien (gelegentlich als Kategorien bezeichnet).
Def Das Mentale
Die Natur kann uns nicht sagen, was das Mentale ist, es liegt an uns, zu entscheiden, was wir
so benennen wollen. Um die Grenzziehung möglichst einfach zu halten: mental wollen wir
das nennen, was bewusst wird. Das Mentale umfasst die Phänomene des bewussten Erlebens
und Erinnerns. Dazu gehören emotionelle und kognitive Eindrücke. Von beiden vermutet man
mit guten Gründen, dass sie in einer festen Beziehung zu entsprechenden neuronalen Zuständen stehen. Diese Relation ist schwer zu fassen deshalb, weil unsere mentalen Phänomene nur
uns selbst bekannt sind, nur wir haben das Privileg des Zuganges zu ihnen. Die doppelte Perspektive des Neuronal-Mentalen: konkret-öffentlich versus mental-privat, nennt man Perspektivendualismus. In erster Näherung können wir 'mental' also verstehen als 'nur subjektiv ercopyright invoco-verlag 2006
www.bernd-lindemann.de
20
lebbar' oder 'nur subjektiv zugänglich' und 'neuronal' als konkret-öffentlich, subjektiv nicht
zugänglich aber mit dem Mentalen in noch unklarer Weise verknüpft.
Def Mentale Objekte
sind Denkinhalte, auch Konstrukte oder Konzepte genannt. Sie sind weder räumlich noch
zeitlich einzuordnen. Dies, allerdings, trifft für kognitive und auch für emotionale Inhalte zu:
Begriffe wie 'Gedicht', 'Zahl', 'Gesetz', aber auch Eindrücke wie 'Wohlbefinden', 'Ruhe', 'Unlust' erleben wir mental, ohne dass ihnen ein räumlicher und zeitlicher Eindruck zwingend
zugeordnet wäre. Sie sind also Abstrakta.
Im Gegensatz zu Konkreta gelten Abstrakta üblicherweise als eigenschaftslos, mentale Objekte wären dann
weder veränderbar noch unveränderbar [2]. Aber hat die Zahl 12 nicht die Eigenschaft, durch 2, 3, 4 und 6 teilbar zu sein? Ist nicht die Länge eines Gedichtes oder der Grad seiner Berühmtheit eine seiner Eigenschaften?
Und hat nicht der Dichter die Zeilen und Reime seines Gedichtes verändert bis sie ihm gefielen? Kann nicht eine
Phantasie, etwa unsere Vorstellung von Hamlet, Prinz von Dänemark, heute so und morgen anders aussehen?
Nein, wir müssen mentalen Objekten Eigenschaften und diesen quantitative Aspekte zugestehen!
Postulat: Hypothese-1
Zu dem Funktionszusammenhang von neuronalen Zuständen und dem Mentalen wird postuliert, dass das mentale Erleben eine Inhaltsangabe und Inhaltsbewusstwerdung von neuronalen Kommunikationsprozessen ist, gleichsam ein 'Bild-und-Text-Erlebnis' darstellt.
In der 'Philosophie des Geistes' wird betont, dass das Mentale 'vom Gehirn abhängt' (Supervenienz), dass es 'von
neuronalen Zuständen bestimmt' wird. Diese Funktionalismus-Diskussion thematisiert oft nur Probleme der Begrifflichkeit, die eine genauere Beschreibung des Zusammenhanges verhindern. Da es aber unstrittig ist, dass
neuronale Module miteinander kommunizieren, liegt es nahe, von dieser Tatsache auszugehen und dann zu konstatieren, dass jede Kommunikation einen Inhalt hat und dass es Inhalte sind, die uns bewusst werden.
Hier aber wartet eine andere begriffliche Schwierigkeit. Nach F. Brentano wird zwar mentalen Objekten, nicht
jedoch konkreten Objekten, ein Inhalt zugeordnet, der sie charakterisiert [37]. Der neue Ansatz widerspricht
diesem Postulat: konkrete Objekte, etwa Salven von Aktionspotentialen auf bestimmten Bahnen des Neuronensystems, gehören zu Kommunikationsprozessen mit eigenem Inhalt. Es scheint an der Zeit, Brentanos Regel zu
modifizieren: es gibt eigentlich keine 'mentalen Objekte mit Inhalt', sondern mentale Objekte sind Beschreibungen bzw. Erlebnisse eines Inhalts und der gehört zu einer Folge neuronaler Zustände. Fast könnte man mit Jerry
Fodor sagen: "...there is no alternative" [38].
Das bewusste mentale Erleben steht in folgender fester Beziehung zu der Aktivität des Neuronensystems: es bildet Inhalte ab, während diese bearbeitet werden. Somit wäre das Mentale eine Hervorbringung des Neuronensystems, in welcher der neuronale Mechanismus mit
seinem Code zurücktritt und Inhaltliches von diesen Technikalitäten getrennt hervortritt. Man
kann hier von einer Abstraktion sprechen, im Sinne eines Ablesens der Bedeutung von ihrem Träger. Durch das Zurücktreten des Trägers, durch die Transparenz des neuronalen
Mechanismus entsteht dann die Illusion, das Mentale sei von ihm unabhängig, sei eine Welt
für sich. Das Gegenteil ist der Fall.
Mental sind also die Inhalte, die wir bewusst erleben können. Dazu gehören kognitive aber
auch emotionale Inhalte. Da wir recht komplexe Inhalte 'sehen' können, wird es der Inhalt
mehrerer gleichzeitig ablaufender Kommunikationsprozesse sein, der betrachtet wird. Dadurch erhält das Bewusstsein eine integrierende Funktion, etwa in dem Sinne einer Bindung
2. Ordnung.
Bemerkenswert ist also:
copyright invoco-verlag 2006
www.bernd-lindemann.de
21
* dass uns die Inhalte bewusst werden.
* dass uns nur die Inhalte bewusst werden, nicht aber (Transparenz) die Technikalitäten des
neuronalen Mechanismus. Durch den Bewusstseinsakt werden kommunizierte Inhalte ohne
ihre konkreten Träger betrachtet. Die Relation mental / neuronal ist die Relation Inhalt /
Träger mit Inhalt.
Dieser überraschend einfache Zusammenhang von nR mit mR setzt voraus, dass neuronale
Module einen propositionalen Inhalt mitteilen, dass sie "über etwas" aussagen14, dass sie
auch, wie J.R. Searle sagen würde, "intentional" sind. Konkrete neuronale Prozesse und viele
andere biologische Prozesse sind in der Tat propositional und final. Denn Neurone kommunizieren miteinander, die Kommunikation hat einen Inhalt und geschieht zu einem Zweck.
Das Mentale nur deskriptiv, ein Ablesen? Eine integrierende Inhaltsbewusstwerdung und
sonst nichts? Ein Kino? Es versteht sich, dass dem Neuronensystem diese Inhalte zur Verfügung bleiben, sie sind ja in den Kommunikationsprozessen inhärent. Neuronale KontrollLeistungen wie Metakognition müssen von ihnen Gebrauch machen. Und auch die Inhalte
von Kontrollvorgängen können dann wieder bewusst werden. Das Mentale verursacht nicht,
sondern beschreibt oder bezieht sich auf Verursachungen, die im Neuronensystem des Gehirns stattfinden. Auf den folgenden Abschnitt 'Wer erlebt die Inhalte?' sei besonders hingewiesen.
Def Mentale Repräsentationen mR
sind mentale Objekte, erlebte kognitive Inhalte. Wie Patricia Churchland ausführt, sprach
Hume von Ideen, Descartes von Gedanken, Kant von Konzepten und "representation is the
term currently in fashion" [41]. Im Kontext unserer Ableitung ist eine mentale Repräsentation
ein Abstraktum deshalb, weil sie den Inhalt einer neuronalen Kommunikation bzw. Repräsentation darstellt (wobei von dem konkreten Informationsträger abstrahiert wird). Die Repräsentation ist also doppelt vorhanden: als Konkretum nR im Neuronensystem und als Abstraktum
mR im Mentalen. Das mR ist der bewusst gewordene Inhalt von nR.
Beobachtung: Transparenz
Es versteht sich, dass unser Neuronensystem als solches dem Universum angehört, seine Teile
haben also den ontologischen Status konkreter Objekte. Wie andere konkrete Objekte sind sie
öffentlich, also wissenschaftlich untersuchbar. Allerdings, als Erlebnis bleiben sie uns unbekannt, denn von Existenz und Funktionsweise der mehr als 1010 Neuronen unserer Hirnrinde
haben wir subjektiv keine Kenntnis. Die Erkenntnis der subjektiven Unsichtbarkeit (Transparenz) unseres Neuronensystems ist eine wichtige Einsicht. Da ist etwas, das wir gar nicht
wahrnehmen können und dieses Etwas hat vielleicht eine Schlüsselrolle.
Während also das Mentale als evident erlebt wird, bleibt der ausgelassene neuronal-mechanistische Teil uns verborgen. Seine Kenntnis ist subjektiv nicht notwendig, vielleicht sogar
unmöglich, weil sie Selbstreferenz bedeuten würde. (Zur Diskussion von Selbstreferenz, siehe
[42, 43 , 44].) Es liegt nahe, die Vermeidung von Selbstreferenz als zwangsläufig aufzufassen
und hierfür den folgenden Grund vorzuschlagen:
14
Dies ist seit der Formulierung der Representational Theory of Mind (RTM) durch Fodor [39, 40] in der Kognitiven Wissenschaft akzeptiert.
copyright invoco-verlag 2006
www.bernd-lindemann.de
22
Die neuronale Kommunikation und Signalverarbeitung findet auf einer hierarchischen Ebene
statt, die wir prozedurale Ebene nennen wollen. Aussagen über eben diese Signalverarbeitung
wären nicht von der prozeduralen Ebene selbst, sondern nur von einer Metaebene aus möglich. Eine Metaebene aber ist von der prozeduralen Ebene her nicht erreichbar. Somit ist eine
Selbstbetrachtung des Neuronensystems nicht nur verboten, sondern unmöglich. Gemeint ist
hier eine das Ganze umfassende Selbstbetrachtung, eine Teilbetrachtung bliebe, entsprechend
der hilfreichen Diskussion des Homunkulusproblems durch Fred Attneave [42], noch denkbar.
Dies unterstellt, liegt der besagten Transparenz eine Selbsttransparenz des Neuronensystems
zugrunde. Weil das Neuronensystem über sich selbst keine Aussagen machen kann, kommen
solche Inhalte in der neuronalen Kommunikation nicht vor. Deshalb können wir unsere Neuromechanismen nicht bewusst erleben. So können wir uns selbst nur indirekt erfahren. Wir
benötigen dazu ein Selbst-Modell, das wahrscheinlich ähnlich wie die Repräsentationen anderer Objekte angelegt ist und dessen abstrakter Inhalt uns repräsentiert (s.S. 203-208 in [45])15.
Da nun der neuromechanistische Träger nicht bewusst erlebt werden kann, fehlt er der Alltagserfahrung. Deshalb entspricht er auch nicht unserem 'natürlichen Empfinden'. Philosophisch ist das Ausgelassene aber von großer Bedeutung.
Abstraktion als neuronale Strategie
Typisierung und Unterscheidung sind archaische Fähigkeiten, die der Einordnung des Neuen
dienen und deren Vervollkommnung in der Vorzeit unserer Art große Vorteile mit sich brachte. Wenn ich ein gelbes Tier, das mir auf meinem Weg begegnet, als 'Typ Löwe' einstufen
kann, dann werde ich ihm alle Eigenschaften zurechnen, die 'der Löwe' gemeinhin hat, und
mir einen anderen Weg suchen.
Begriffsabstraktion: Das typisierende Abstrahieren hat den Vorteil der Ökonomie. Statt tausend grüne Dinge mit separaten Namen zu belegen, kann man für viele Zwecke ökonomischer
mit dem Kürzel "Pflanze" auskommen. Das Kürzel aber ist eine Kopfgeburt, in der realen
Welt gibt es kein 'Pflanze', sondern nur die einzelnen grünen Dinger. Deshalb kann 'Pflanze'
auch nichts verursachen. 'Pflanze' hat weder Ort noch Zeit. Warum nicht? Weil es 'Pflanze' im
physikalischen Ort-Zeit-Universum nicht gibt, es ist 'nur' als Abstraktum in unserem Kopf
präsent.
Das Neuronensystem hat ein Talent zu Unterscheidungen und Abstraktionen, zum Ordnen
und Einteilen. Hier ein Beispiel: Die Neurone in der Netzhaut des Auges zerlegen das auf sie
projizierte Bild in relevante Teilaspekte oder Attribute (vermeintliche Eigenschaften) wie
scharf begrenzte, stehende oder bewegte Scheiben, Kanten und Balken in verschiedener Orientierung, diffuse helle oder dunkle Schatten usw. [z.B. 25, 36]. Zerlegen heißt dabei, dass
diese Inhalte an verschiedene Orte der auswertenden Module des Gehirns geschickt werden.
So getrennt werden die Attribute des optisch erfassten Objektes auch gespeichert.
Aus den zerstreut gespeicherten Attributen wird die neuronale Repräsentation aufgebaut, indem die Attribute in dem sogenannten Bindungsvorgang wieder zusammengeführt werden.
Der ökonomische Vorteil scheint darin zu bestehen, gleiche Attribute diverser Objekte am
15
Man könnte fragen, ob mein Neuronensystem nicht doch über sich selbst Aussagen machen kann, wenn ich
zB diesen Text schreibe. Aber hier macht ein Teil des Systems Aussagen über einen anderen Teil, nämlich über
Konzepte, die er vorfindet (solche, die Neuronensysteme generell betreffen) und nicht über sich selbst als Ganzes. Solche Teilbetrachtungen führen nach Attneave nicht in den Zirkel der Selbstreferenz, sie sind unkritisch
[42]. Das gleiche Argument verwenden J.A. Fodor, D. Dennett und S. Pinker [S. 79 in 43].
copyright invoco-verlag 2006
www.bernd-lindemann.de
23
gleichen Ort zu speichern. Die verschiedenen Repräsentationen entstehen dann als Kombinationen aus einem endlichen Satz von Attributen. Dieses Prinzip nennt man 'infinite use of finite media' [46]. Das gleiche Prinzip verwenden wir in unserem Zahlensystem, in der Bildung
von Worten und Sätzen aus Buchstaben, in der Notierung von Musik usw. Es liegt deshalb
nahe, vorzuschlagen, dass wir das Prinzip deshalb so erfolgreich verwenden, weil unser Neuronensystem es schon kennt, weil uns dieses Prinzip angeboren ist.
Das gleiche Prinzip findet sich auch in den ersten Definitionen der Ontologie, wenn wir nämlich den konkreten Objekten charakteristische Sätze abstrakter Eigenschaften zuordnen. Diese
Zuordnung beruft sich auf nichts als Plausibilität. Es ist aber auch plausibel, dass uns diese
Zuordnung so 'in den Sinn kommt', weil sie uns angeboren ist, dass sie also mehr über uns
aussagt, als über die Dinge 'da draußen'.
Abstraktionen könnten im Neuronensystem dadurch entstehen, dass zunächst mehrere Token
(individuelle Objekte) durch Bindung einzeln repräsentiert werden und dann unter den dabei
benötigten Attributen diejenigen eliminiert werden, die nicht allen Token gemeinsam sind.
Durch Bindung der gemeinsamen Attribute entsteht sodann der überindividuelle Typ, ein
Abstraktum.
Bedeutungsabstraktion: Abstrakta entstehen nicht nur durch typisierende Abstraktion, sondern auch durch 'Abziehen'16. Man kann z.B. von einem einzelnen Lochstreifen das Lochmuster geistig abziehen oder ablesen. Das gelingt durch bloßes Betrachten, allerdings nur, wenn
man schon gelernt hat, wie ein Lochmuster bzw. das gewünschte Muster aussieht. Das Resultat (Muster "M1") ist ein Abstraktum. Es entsteht, indem eine Repräsentation der Lochung des
Lochstreifens mit einer gelernten Norm für M1 verglichen wird, die ebenfalls als Repräsentation neuronal zu Verfügung steht. Somit sind doch zwei Repräsentationen im Spiel, eine für
den Lochstreifen als konkretes Objekt mit Lochmuster und eine früher erworbene für das Referenzmuster. Auch das Abziehen wäre also ein Vergleich von Repräsentationen, wie die Typisierung.
Um dann aus "M1" die enthaltene Information abzulesen, benötigt man die Kenntnis der Zuordnung von Zeichen und Bedeutungen. Diese Zuordnung, verfügbar als eine Codetabelle oder durch Rekonstruktion mit einem Bildungsgesetz (Verständnis), ist ebenfalls neuronal präsent. Das mit ihr gewonnene Resultat vom Typ Information "I1" ist wieder ein Abstraktum.
Ähnlich ist das Verfahren beim Hören gesprochener Sätze, beim Lesen eines Textes usw.
Nach Hypothese-1 sind mentale Inhalte die bewusst gewordenen Inhalte neuronaler Kommunikationsvorgänge. Auch beim Lesen eines solchen 'neuronalen Textes' wird Inhalt oder Bedeutung ohne seinen konkreten neuronalen Träger bewusst. Dass die bewusst gewordenen
Inhalte Abstrakta sind, ist evident. Daneben wird man auch unbewusst vorgenommene Inhalts-Abstraktionen erwarten müssen. Deshalb sind Inhalte oder Bedeutungen nicht auf das
Bewusst-Mentale beschränkt. Wir erwarten sie generell in Neuronensystemen, nicht aber, wie
schon gezeigt wurde, in heutigen Computern.
Wer erlebt die Inhalte?
Das Selbst, die bewusste Person, könnte einer der neuronalen Agenten sein und die Funktion
haben, die Kommunikation zwischen anderen Modulen vor allem dann inhaltlich darzustellen,
wenn sie Besonderheiten aufweist. Diese Besonderheiten würden in einem logbuchartigen
Gedächtnisteil eingetragen, der unsere Identität und Kontinuität darstellt. Das aber ist Spekulation. Die Frage, wie bewusstes Erleben möglich wird und wer, welche Instanz davon betrof16
Das, was Aristoteles Aphairesis nannte (s. oben, Fußnote 2).
copyright invoco-verlag 2006
www.bernd-lindemann.de
24
fen ist, muss beim gegenwärtigen Stand der Erkenntnis offen bleiben. Ein Weg zu ihrer Beantwortung wird sich erst abzeichnen, wenn die Neurobiologie zur Entstehung des Bewusstseins einen experimentellen Ansatz gefunden hat. Im Augenblick gilt dieser Forschungszweig
und seine philosophische Durchleuchtung noch als "the hard problem" [47] und namhafte
Forscher haben vorgeschlagen, weitere Spekulationen vorläufig zurückzustellen [48, 49].
Es kann wohl nur ein Teil des Gehirns sein, durch den die Inhalte erlebt werden [50]. Man
sucht deshalb nach neuronalen Modulen, deren Aktivierung sich ändert, wenn der Bewusstseinszustand sich ändert. Sie könnten lokalisiert oder disseminiert sein und in enger Beziehung zu der neuronalen Repräsentation unseres Selbst-Modells stehen. Hat man diese Module
gefunden, dann kann man vielleicht Experimente durchführen, welche die Funktion von Bewusstseinszuständen objektiv charakterisieren.
Unterschieden werden Hintergrund- und Aktualbewusstsein [51]. Beide sind Bündel inhaltlich verschiedener
Zustände, gebunden an die Funktion des Neocortex, besonders an die sogenannten assoziativen Areale, - die
Aufmerksamkeit fordern und deren Aktivitätsinhalt anscheinend zwanghaft erlebt wird. Von einigen Gruppen
dieser Zustände kann sprachlich berichtet werden. Im Aktualbewusstsein verschmelzen Gedächtnisinhalte, sensorischen Input und aktuelle Interpretationen zu einem einheitlichen Erlebnis. Bewusstseinszustände haben keinen erlebten 'Ort'. Ihr Wechsel erfolgt kinoartig-automatisch mit Zeitintervallen von 1-3 Sekunden. Assoziationen und dringliche Anforderungen aus dem Unbewussten bestimmen, was nach einem Wechsel dargestellt wird.
Hypothese-1 zufolge umfasst das Mentale alle bewusstseinsfähigen Inhalte der neuronalen Kommunikation. Uns
bewusst wird der in einem gegebenen Moment zugängliche, aktuelle Teil. Dass der Vorgang der Bewusstmachung einen Zeitbedarf von Sekunden hat, weist auf einen komplexen Mechanismus hin. Es ist deshalb plausibel, dass sehr viele neuronale Vorgänge und Leistungen schneller, nämlich unbewusst-automatisiert ablaufen.
Der Flaschenhals der Bewusstmachung wird von den unbewusst arbeitenden neuronalen Agenten vor allem dann
in Anspruch genommen, wenn diese mit einer ungewohnten Situation konfrontiert sind ('Houston, we have a
problem'). Die Aufgabe der Bewusstmachung würde darin bestehen, einen Handlungsplan als Lösung für die
ungewohnte Situation zu suchen [52]. Dieser Aspekt wird im Folgenden als 'mentale Verursachung' thematisiert
werden.
Nach einer Idee von B.J. Baars [52] ist das Bewusstsein nicht nur eine Beobachtungsstation, es ist auch ein Koordinator, der Appelle an die vielen separaten Expertensysteme des Unbewussten richtet und die Arbeit dieser
Module auf einen gemeinsamen Zweck ausrichtet. So könnten die spezialisierten neuronalen Agenten, deren
Funktion unbewusst bleibt, durch einen bewussten 'Sammelruf' zum Austausch von Information veranlasst werden. Kognitive Problemlösungen, etwa, oder die Beurteilung von Handlungsplänen erfolgten dann so, dass per
Sammelruf eine Frage an die Experten gestellt wird. Diese bearbeiten das Problem und präsentieren ihr Resultat
im Scheinwerferkegel des Bewusstseins. Die Auslösung des Vorganges (Problembeschreibung und Appell) und
die Betrachtung des Resultates wären bewusst, der eigentliche Vorgang der Bearbeitung bliebe jedoch unbewusst.
Schon diese kurze Diskussion hat mit Selbst-Modell, Logbuch, Zeitbedarf, Flaschenhals, Handlungsplan und
Koordination interessante Stichworte geliefert. Wie plausibel diese Spekulationen auch sein mögen, die experimentelle Neurobiologie wird das letzte Wort haben.
Der Philosophie bleibt es gewiss unbenommen, in solchen Fragen der Empirie zu überprüfen,
ob die Fragestellung Sinn macht, ob sie zum Beispiel frei von Kategorienfehlern ist, ob Resultate evt. überinterpretiert werden und dergleichen mehr. Die datenfreie philosophische Spekulation, hingegen, hat bisher wenig Konsensus erzielt. Sie ist selten 'anschlussfähig'.
Empirie ist ein Kind des menschlichen Optimismus und so sei hier abschließend (aus Seite
289 in [41]) Patricia Churchland zitiert: "We will get there, but we are not there yet."
copyright invoco-verlag 2006
www.bernd-lindemann.de
25
Zur Verursachung in Computern und Menschen
Steuerung, Programmierung, Verursachung
Digitale Computer werden auch 'programmgesteuerte Rechner' genannt. Diese Bezeichnung
will sagen, dass ein vorgefertigtes Programm (Software) die Hardware des Rechners oder des
Automaten zu vorgeplanten Änderungen oder Aktionen veranlasst. Somit ist anscheinend etwas Abstraktes, nicht Raum-zeitliches, nämlich das Programm, die Ursache von physikalischen Änderungen und Aktionen. Nach Regel-1 wäre das unmöglich...
Bekanntlich wird der Code der Hochsprache durch einen Compiler in den binären Maschinencode umgewandelt. Letzteren kann man als Bauanleitung verstehen. Das Laden des Maschinenprogramms bewirkt nämlich einen Umbau der Hardware im Sinne einer (permissiven)
strukturierenden Verursachung nach F. I. Dretske [7]. Die variablen physikalischen Strukturen der Speicherzellen und Register werden dadurch so verändert, dass die Hardware die
gestellte Aufgabe lösen kann, sobald der 'Rechenvorgang' schließlich gestartet wird.
Auch der Maschinencode, hier als Bauanleitung verstanden, ist noch ein Abstraktum, eine
Beschreibung von gewünschten Strukturen in der Hardware. Was geschieht aber bei der Umstrukturierung? In einem einfache Fall kann der Programmierer durch Betätigung von Kippschaltern die Register des Computers laden, d.h. strukturieren. Seine Hand wird dabei innerviert von motorischen Nerven und es ist das Neuronensystem des Programmierers, das die
Umstrukturierung vornimmt. Dieses Neuronensystem, nun, ist Teil des physikalischen Universums. Somit erfolgt die Umstrukturierung in der geschlossenen Kausalität der Physik.
Nicht das Programm, sondern ein Konkretum, das Neuronensystem eines Menschen, verursacht die Umstrukturierung. In dem Neuronensystem enthalten ist die neuronale Repräsentation des Programms, auch sie ein Konkretum.
Was die Hardware nun nach ihrer Umstrukturierung verarbeitet, sind nicht Symbole oder Zeichen (s.o.). Es sind vielmehr binäre physikalische Strukturen, zum Beispiel räumlich und zeitlich geordnete Folgen von schnell veränderlichen elektrischen Potentialen, die der Prozessor
benötigt um andere binäre Strukturen dieser Art dem gewählten Algorithmus entsprechend zu
verändern. Die den Bits und Bytes entsprechenden binäre Strukturen in den Speicherzellen
und Registern können wir mit unterschiedlichen Bedeutungen belegen. Der Programmierer
sieht in ihnen Platzhalter für seine Variablen, tatsächlich aber sind diese Strukturen Teil der
Hardware, sind Physik.
Wir halten also fest: Programmieren heißt nicht, etwas Konkretes mit etwas Abstraktem zu
steuern, sondern es heißt umzubauen. Es bedeutet eine physikalische Umstrukturierung in der
Hardware. Das Programm lässt sich als eine Beschreibung dieser physikalischen Umstrukturierung deuten. Es ist gleichsam eine Abstraktion dieser Prozesse, eben eine Bauvorschrift.
Diese Resultate werden in der folgenden Betrachtung der Computeranalogie des Mentalen
eine wichtige Rolle spielen.
Die Deutung mentaler Vorgänge
David Pitt schrieb kürzlich in der Stanford Encyclopedia of Philosophy "That mental processes are computations, that computations are rule-governed sequences of semantically evaluable objects, and that the rules apply to the symbols in virtue of their content, are central
tenets of mainstream cognitive science" [53]. Diese Ideen haben ihren Ursprung in CTM und
RTM, also in der Computational Theory of Mind [54, 55] (auch vertreten von Pylyshyn,
copyright invoco-verlag 2006
www.bernd-lindemann.de
26
Minsky, Dennett und anderen) und der Representational Theory of Mind [39, 40] (auch vertreten von Pinker, Plotkin und anderen)17. In diesen Theorien wird Computation generell als
'formal symbol manipulation' verstanden18. Symbolmanipulation aber, wie wir gesehen haben,
trifft nicht zu, wenn es um Computer geht. Ob es für mentale Vorgänge zutrifft, das ist die
Frage.
Die Computational Theory of Mind schlägt eine Analogie vor: (a) das Neuronensystem des
Gehirns kann ähnlich wie Computerhardware Daten systematisch verarbeiten. Dieser Teil ist
durch zahlreiche neurobiologische Experimente belegt [z.B. 28, 33, 56]. (b) Beide Verarbeitungssysteme sind Teil der physikalischen Wirklichkeit und partizipieren an deren geschlossener Kausalkette. Weiterhin (c): die Steuerung Geist Æ Gehirn entspricht der Steuerung
Software Æ Hardware. Die Software, also, steuert die Hardware und der Geist steuert das
Gehirn19.
Aussage (c) trifft im 2. Teil nicht zu, denn die Software, wie wir gesehen haben, steuert nicht
die Hardware. Vielleicht kann man die Analogie aber so lesen: die Relation Geist / Gehirn
entspricht der Relation Software / Hardware, denn die Software ist eine Beschreibung von
Hardwareprozessen und das Mentale ist eine Beschreibung (oder Inhaltswiedergabe) von neuronalen Prozessen?
Mentale Verursachung im Konkreten
Bei einer mentalen Verursachung oder 'downward causation' müsste ein mentales Phänomen
auslösend sein für ein physikalisches Ereignis. Etwas Mentales, das nicht raum-zeitlich ist,
müsste also in Wechselwirkung treten mit einem konkreten Objekt (einem Teil des Neuronensystems), das raum-zeitlich ist. Ist das denkbar? Es würde bedeuten, dass das Ereignis im
Konkreten zu einem bestimmten Zeitpunkt stattfindet, im Mentalen jedoch nicht. Das klingt
wie ein Verstoß gegen Regel-1.
Zur Bearbeitung dieses Problems20 kann die schon betrachtete 'Steuerung eines Rechners
durch ein Programm' hilfreich sein. Dass im Gehirn Signale verarbeitet und komplexe Aktionen geplant werden, ist offensichtlich. In diesem oberflächlichen Sinne ist das zerebrale Neuronensystem einem digitalen Computer ähnlich. Doch die bekannte Computeranalogie des
Geistes geht ja weiter: sie besagt, dass die Relation Geist / Gehirn der Relation Software /
Hardware entspricht [54, 55]. So wie im Computer das Programm auf die Hardware ursächlich einwirke, so wirke auch unser Geist auf die Neuronen des Gehirns ursächlich ein.
Nun haben wir aber schon festgestellt, dass beim Computer eben nicht das Programm, sondern immer nur ein Teil der Physik ursächlich wirksam ist, nämlich der Teil der Hardware,
den das Programm beschreibt, von dem es eine Bauvorschrift (Abstraktion) ist. Ist die Computeranalogie nun auch unter diesem Vorzeichen haltbar? Das Mentale 'ist' wohl kaum ein
Programm, der Geist 'läuft' nicht auf der Plattform des Gehirns. Aber ist das Mentale eine Be17
Auf die ausführliche Kritik von CTM und RTM durch J.R. Searle [20, 22] sei besonders hingewiesen.
Diese Formulierung ist in sich selbst widersprüchlich, denn 'Symbolverarbeitung' impliziert Bedeutungsverarbeitung, 'formal' aber impliziert regelhaft-mechanistisch, also 'ohne Kenntnis der Bedeutung'.
19
Der Analogie zufolge 'läuft' der Geist auf der 'Plattform' des Gehirns. Ähnlich argumentierte schon 1950 A.
Turing: auch mentale Prozesse sind 'computable' und können auf einer universalen Maschine simuliert werden
[23]. Die neurobiologische Plattform wäre also im Detail irrelevant, der Geist könnte auch auf einer anderen
Plattform implementiert werden, allein auf das Programm, das Mentale käme es an.
20
Literatur zu dem modernen (Neuro-) Funktionalismus und zum Geist-Gehirn Problem findet sich in Illing, R.B., Seelenintuition, Freiheitsintuition und Gehirnforschung, in Gott - Geist - Gehirn. Religiöse Erfahrungen im
Lichte der neuesten Hirnforschung., W. Achtner, et al., Editors. 2005, Haag + Herrchen Verlag: Frankfurt. p.
164.
18
copyright invoco-verlag 2006
www.bernd-lindemann.de
27
schreibung, eine Sammlung von beschreibenden, uns bewusste Abstrakta, die aus neuronalen
Objekten durch ablesende Abstraktion gebildet werden?
Genau das sagt Hypothese-1 und die Erklärung der anscheinend paradoxen mentalen Verursachung ist eine einfache Konsequenz aus dieser Hypothese. Ihr zufolge sind die mentalen Inhalte die Inhalte, über die neuronale Module miteinander kommunizieren. Sie wären dann Beschreibungen, 'erlebte Bilder und erlebter Text'. Die mentalen Beschreibungen beziehen sich
auf konkrete neuronale Trägerprozesse nR, also etwa Kommunikation und Hebbsche Strukturänderungen, wie sie mit der Aktivierung funktioneller Module einhergehen. Aus diesen
Prozessen entsteht das mentale Erleben durch Abbildung der Inhalte. Das Mentale handelt
aber nicht, verursacht nichts im Konkreten. Es ist deskriptiv, nicht aktiv, es ist so etwas wie
ein Kino [52]. Der Film stellt unter anderem die auf Handlungspläne und Handlungen bezogenen Kommunikationsinhalte dar. Verursachung und Handlung selbst bleiben aber auf das
konkrete Neuronensystem beschränkt21. Das Mentale verursacht nicht, sondern beschreibt
oder bezieht sich auf Verursachungen, die im Neuronensystem des Gehirns stattfinden.
Die zugrundeliegenden neuronalen Prozesse, wie gesagt, haben einen eigenen inhaltlichen
Bezug (being about). Sie können sich etwa auf ein Ereignis oder Objekt (K) der Umgebung
beziehen. Das Mentale kann nun durch seinen transparenten deskriptiven Bezug (~) hindurch
den inhaltlichen Bezug von nR betrachten. Das generiert dann die Illusion einer mentalen
(statt richtig einer neuronalen) Verursachung.
Die mR ist eine Inhaltsangabe (~) von nR, nRx usw.:
mR ~(nR Æ nRx …) Æ K,
d.h. die primäre Verursachung findet auf der Ebene von nR, im Neuronensystem, im Konkreten statt. Die Transparenz des neuronalen Prozesses ~(nR Æ nRx...) jedoch täuscht uns eine
illusionäre mentale Verursachung mR Æ K vor.
Illusion
Wenn die mentale Verursachung eine Täuschung ist, wie steht es dann mit dem Mentalen
selbst, ist das auch eine Täuschung? Hier sei an die Feststellung des Aristoteles erinnert, dass
'das Abgezogene' in Wirklichkeit nie getrennt von seinem Substrat existiert22. Um dem Rechnung zu tragen, wollen wir den Vorgang der Abstraktion als Ablesen des Inhaltes beschreiben
und nicht als Abtrennung: der Komplex Inhalt-Träger bleibt unverändert zurück. Die Existenzform 'Abstrakta ohne Träger' gibt es nicht, sie ist eine Illusion, vorgespiegelt durch das
Transparenzphänomen. Als 'frei schwebende Abstrakta' gibt es weder Information, noch Inhalte, noch (!) das Mentale.
Abstrakta gibt es also, paradoxerweise, nur in der nicht abstrahierten Form, implementiert in
physikalische Strukturen. In Strukturen, die zu den Kommunikationsprozessen des Neuronensystems gehören. Aber in dieser implementierten Form, gewissermaßen als Komplex, sind sie
raum-zeitlich einzuordnen und kausal zu handhaben. Der Vorgang des Bewusstwerdens kann
sie dort erkennen, gewissermaßen optisch darstellen, aber nicht wirklich ablösen.
21
Auch die erwähnten Koordinationsaufgaben des Bewusstseins (nach Baars [52]) wären Abläufe im konkreten
Neuronensystem und nicht Einflüsse des 'Geistigen' auf dieses System.
22
Siehe Fußnote 2.
copyright invoco-verlag 2006
www.bernd-lindemann.de
28
Nachbemerkung
Die oben zitierte Formulierung von D. Pitt: "That mental processes are computations, that
computations are rule-governed sequences of semantically evaluable objects, and that the
rules apply to the symbols in virtue of their content" können wir nun wie folgt kommentieren:
a. Mentale Prozesse sind keine 'Computationen', sondern eine Inhaltswiedergabe von Kommunikationsvorgängen des Neuronensystems (Hypothese-1). Die 'Computationen' finden
im konkreten neuronalen Bereich statt, ihre Ergebnisse werden als Darstellungen bewusst.
b. In der Computerhardware spielt problemrelevante Bedeutung keine Rolle, hier gibt es keine
'regelhafte Folge von Objekten mit Bedeutung'. In unserem Neuronensystem, jedoch, sind
inhaltlich auswertbare Objekte (neuronale Repräsentationen) die normalen Gegenstände
der Verarbeitung. Und
c. Neuronale Repräsentationen sind komplexe Symbole, für deren Verarbeitung ihre Bedeutung entscheidend ist.
Wenn wir also voraussetzen, dass Symbolverarbeitung semantisch ist, ein Verständnis der
Symbolbezüge erfordert (siehe oben, Definition), dann kommen wir zu dem Schluss, dass
Symbolverarbeitung zwar nicht in den (heute verfügbaren) Computern, wohl aber in Gehirnen
stattfindet23. Das Neuronensystem des Menschen (und der höheren Tiere) ist die wahrscheinlich einzige Struktur, die Symbolverarbeitung mit nachweislicher Kenntnis der Bezüge (Test
mit Umschreibungen) zu leisten vermag.
Neuro-Realismus
In dem vorliegenden Entwurf einer analytischen Ontologie des Mentalen wurde argumentiert,
- dass unser Gehirn dem physikalischen Universum zugehört, also konkret ist.
- dass neuronale Module unseres Gehirns miteinander kommunizieren.
- dass diese Kommunikationsprozesse Inhalte haben und Symbole bedeutungsabhängig
verarbeiten.
- dass das mentale, bewusste Erleben ein Erleben dieser Inhalte ist, was mit einer (illusionären) Abstraktion der Inhalte von ihren neuronalen Kommunikationsprozessen einhergeht. Tatsächlich werden die Inhalte nicht abgezogen, sondern abgelesen.
23
Der 2. Teil dieser Folgerung entspricht weitgehend der in der kognitiven Wissenschaft verbreiteten Repräsentationstheorie des Geistes, RTM, wonach das Denken auf ein inneres System von Repräsentationen zurückgreift
[40]. Diese setzen sich aus elementareren Repräsentationen zusammen und werden operativ wie oder als Symbole behandelt. Die RTM spekuliert über die Syntax dieser Operationen, die 'language of thought', oder LOT [57].
Im Gegensatz zu meinen Folgerungen besteht die RTM auf der Computeranalogie und aktiven mentalen Formalismen: "Mental processes are computations ... defined on the syntax of mental representations" [S. 19 in 21].
Der Gegensatz wäre erklärt, wenn in der RTM das Mentale nicht nur Bewusstes einschlösse, sondern auch unbewusst-computatorische neuronale Vorgänge. In der RTM wären 'mental representations' das, was hier neuronale Repräsentationen genannt wird.
copyright invoco-verlag 2006
www.bernd-lindemann.de
29
- dass die subjektive Transparenz des Neuronenapparates dadurch entsteht, dass dieser
Apparat sich nicht in Gänze selbst betrachten kann.
- dass die Illusion des Mentalen als 'einer Welt für sich' und die Illusion der 'frei schwebenden Abstrakta' eine Folge dieser Transparenz ist.
- dass Verursachung und Handlung in dem konkreten Neuronensystem ablaufen und vom
Bewusstsein nur abgebildet werden.
- dass wir formal ein Konkretum sind: ein Körper in einem evolutionären Zusammenhang,
mit einem Neuronensystem mit seinem intrinsischen Kommunikationsinhalt. Mit Inhalten, Konzepten in einem biologischen und einem kulturellen Zusammenhang. Kein reines Geistwesen, also, sondern ein ganzer Mensch.
Die Argumentation führte uns zu einer Spielform des physikalischen Monismus, der als neuronaler Kommunikationsfunktionalismus oder Neuro-Realismus bezeichnet werden könnte.
Es geht um den Platz des Mentalen in dem großen Schema der Dinge. Dieser Platz wird nur
zu gerne durch Wunschdenken bestimmt. Realismus heißt hier, etwas anderes als unsere
Wünsche zum Maßstab zu machen. Das Mentale wird nüchtern eingeschätzt als Abbildung
des Inhaltes von prinzipiell demonstrablen Kommunikationsvorgängen neuronaler Module.
Wenn nun das Mentale abstrakt und deshalb (im philosophischen Sinne) nicht real sowie kausal unwirksam ist, ist das nicht eine Abwertung? Keineswegs! Der hier vertretene NeuroRealismus weist dem Mentalen eine ganz bestimmten wichtigen Platz zu. Es ist vielleicht der
wichtigste denkbare Platz, den Inhalt der neuronalen Kommunikation bewusst zu machen.
Nehmen wir als Beispiel ein Buch. Es kann in verschiedenen Formen vorliegen, neu oder
durch den Gebrauch verschlissen, digitalisiert oder als Hörbuch, das Wichtigste an ihm bleibt
sein Inhalt. Der Inhalt ist kein Epiphänomen, man kann ihn nicht negieren oder als Programm
oder als Information (im technischen Sinne) abtun. Er ist die Hauptsache.
Ja aber, wird so mancher hier einwenden, der Inhalt handelt ja nicht! Was tut's, würde ich erwidern, jemand handelt, und dieser jemand sind wir!
Und wer sind wir? Wir sind die Ganzheit Träger plus Inhalt, natürlich, unsere Identität umfasst beide Welten. Und weil wir auf den Inhalt Einfluss haben, kommt es auch auf uns an,
wer wir sind. Wer wollen wir sein?
Konzepte
Einige bekannte Ontologien begnügen sich nicht mit 2 Weltteilen, denen für physikalische
Konkreta und für mentale Abstrakta, sondern fügen einen dritten Weltteil hinzu, welcher objektive oder allgemein verfügbare Abstrakta beherbergt. Bei Frege ist dies das 'dritte Reich',
das der Gedanken. Für Frege sind diese nicht sinnlich erfahrbar, nicht kausal wirksam, nicht
mental. Sie sind weder Dinge der Außenwelt noch Vorstellungen, ihre Existenz ist unabhängig von menschlichen Einsichten und Bemühungen [ siehe auch 10, 58].
Auch bei Popper ist Welt 3 überindividuell. Es ist die Welt der kulturell kommunizierten Ideen, Theorien, Argumente, Probleme, Kunstwerke [59, 60]. Poppers dritte Welt wurde deshalb eingeführt, weil die mentalen Produkte durch ihre Veröffentlichung von Anderen übercopyright invoco-verlag 2006
www.bernd-lindemann.de
30
prüfbar werden. Deshalb schienen diese Produkte selbständig zu sein und nicht in die mentale, private Welt zu passen.
Heute wird oft argumentiert, dass die gedanklichen Dinge des dritten Reiches bei Frege - wie
Abstrakta generell - mentalen Ursprungs sind, so wie auch die Dinge der Welt 3 bei Popper.
Man könnte sie mit Dawkins auch Meme nennen [61-63], oder veröffentlichte Konzepte,
Begriffe, Repräsentationen. Hier sollen sie als Konzepte bezeichnet werden.
Konzepte sind komplexe Repräsentationen. Wie alle Abstrakta sind sie Hervorbringungen des
Menschen, genauer eines menschlichen Neuronensystems. Sie sind aber nicht unbedingt privat, sondern zu einem großen Teil von anderen übernommen. Die Kommunizierbarkeit und
Überprüfbarkeit durch Andere macht sie zu unverzichtbaren Bausteinen unserer Kultur [siehe
S. 213-223 in 45].
Ein spannender, wenig beachteter Aspekt unserer geistigen Identität ergibt sich aus der Betrachtung derjenigen
kommunizierten Konzepte, die unsere Werte und Weltanschauungen ausmachen. Auch sie sind weitgehend von
Anderen übernommen. Ihre Verbreitung wird u.a. gefördert durch persönliche Vorteile bei Akzeptanz und persönliche Nachteile bei Nichtakzeptanz. Auch Konzepte, die eine Aufwertung des Menschen bedeuten, werden
leicht akzeptiert. So werden diese Konzepte zu den dominierenden Wahrheiten (oder Vorurteilen), die Völkern
und Generationen Identität verleihen. Sie scheinen schon wegen ihrer großen Verbreitung fraglos gültig zu sein
und werden von ihren 'Trägern' energisch verteidigt. Tatsächlich aber sind diese weltanschaulichen Konzepte
nicht fraglos gültig, sondern in ihrer Ausbreitung örtlich und zeitlich begrenzt. Sie sind örtlich begrenzt, weil sie
in anderen Kulturen und Kontinenten anders sind, und sie sind zeitlich begrenzt, weil sie sich in der Vergangenheit ständig verändert haben und diese Wandlung fortsetzen werden (Zeitgeist). Ein ernsthafter Konzeptvergleich
im Längsschnitt und Querschnitt der Kulturen müsste, wenn er tendenzfrei etwa aus der Vogelperspektive vorgenommen wird, interessante Einsichten zur Konzeptdynamik liefern. Der Vergleich würde die vermutete Relativität unserer Zeitgeistwahrheiten wahrscheinlich bestätigen. Eine neue Art von Toleranz könnte so begründet
werden. Das meinte wohl J.R. Searle, als er seinen Mit-Philosophen eine letzte Richtlinie zurief: "Wir müssen
den sozialen Charakter des Geistes wiederentdecken!" 24.
In der Ontologie sind Konzepte nicht nur als Repräsentationen zu erwähnen. Sie spielen vielmehr eine besondere Rolle als Grundlage der ontologischen Arbeit selbst. Bei dieser Arbeit
(einem 'Klarwerden', wie es in der Zielvorgabe genannt wurde) werden die verfügbaren Konzepte das Resultat wesentlich bestimmen. Die Natur der Dinge wird nicht als solche, sondern
nur im Rahmen unserer zeitbedingten Vorstellungen in der Ontologie erfasst. Diese Vorstellungen, allerdings, haben in jüngster Zeit eine schnelle Entwicklung erlebt. Die Neurobiologie
des Menschen wirft ein neues Licht auf das Wesen der Abstrakta und des Mentalen. Mit diesen Änderungen darf man wohl die Hoffnung verknüpfen, dass Philosophie und unser Menschenbild eine realistische Basis finden.
24
Schluss von [20].
copyright invoco-verlag 2006
www.bernd-lindemann.de
31
Freiheit des Menschen
Dem Perspektivendualismus folgend, fließen zu diesem Thema empirische Resultate und introspektive Einsichten (bin ich frei?) ineinander. Interessant ist die Rolle der Philosophie,
wenn sie das Wunschdenken, in der Empirie verpönt, zum Prinzip erhebt: wer wollen wir
sein?
Instinkte sind Handlungspläne, die auf der Erfahrung der biologischen Art gründen, die vererbt werden und die für das Einzelwesen festgeschrieben sind. Wir Menschen sind weniger
von Instinkten gebunden als es die Tiere sind. Herder nannte uns 'die ersten Freigelassenen
der Schöpfung'. Sind wir nun frei? Statt der festgelegten und vererbten Handlungspläne der
Instinkte richten wir uns nach etwas anderem, nach den flexibleren Handlungsplänen, die auf
eigener, bewusster Erfahrung gründen. Dazu kommen die vielen Handlungsmodelle, die wir
als Konzepte von anderen übernehmen. Da nun die meisten dieser Modelle und Vorstellungen
von Anderen übernommen wurden, sind wir immer noch nicht frei. Wir bleiben dann, nach
Kant, unmündig (s. seine bekannte Definition von Aufklärung).
Nur wenn wir auch die Fessel der übernommenen Konzepte abschütteln und uns unserer eigenen Mittel zur Erkenntnis bedienen, können wir mündig werden. Vermutlich erfahren wir
dann das Maximum an Freiheit, das sich innerhalb unserer biologischen Grenzen erreichen
lässt. Frei sein in diesem Sinne heißt, dass wir die Alternativen unserer Handlungsauswahl
selbst erkennen und abwägen, um dann nach eigener Einsicht zwischen ihnen zu entscheiden.
Dabei fließen allerdings viele Hintergrundskonzepte ein, Zeitgeist genannt. Das alles im Vorfeld einer Handlung kritisch aufzuarbeiten, dürfte wohl unmöglich sein. Im Prinzip, jedoch,
liegt eine letzte Entscheidung dann bei uns. So bleiben wir Kinder unserer Zeit und unserer
Kultur und sind doch auf dem Wege zur Freiheit.
Wer sind wir? Homo sapiens scheint (nach eigenem Bekunden) so etwas wie die Speerspitze
eines Experimentes der Evolution zu sein. Unsere Besonderheit ist eine - wenn auch nur partielle - Freiheit: wer wollen wir sein? Ihre Begründung und die notwendige Bodenhaftung erhält diese Freiheit durch eine - wenn auch nur partielle - Einsicht in die Zusammenhänge der
Natur.
copyright invoco-verlag 2006
www.bernd-lindemann.de
32
Fazit
Von der klassischen Aufteilung der Welt in ein physikalisches Universum und abstrakte Universalia ausgehend, betrachteten wir neuronale Kommunikation und neuronale Repräsentationen als definitiv der Physik zugehörige Vorgänge und Objekte. Obwohl der Physik
zugehörig, hat die neuronale Kommunikation einen Inhalt, ist eine Unterhaltung 'über etwas'.
Mentale Objekte, andererseits, verstanden wir nach Hypothese-1 als Beschreibungen der Inhalte neuronaler Kommunikation. Diese minimalistische Hypothese ist naheliegend, sofern
man die biologische Selbstverständlichkeit akzeptiert, dass eben Neurone kommunizieren und
die Kommunikation einen Inhalt hat. Repräsentationen haben somit eine Doppelrolle: als
Konkreta im Neuronensystem und als Abstrakta im Mentalen, wo sie als abgelesener Bezug
und Inhalt der konkreten Repräsentationen verstanden werden.
Der Vorgang der Abstraktion besteht darin, dass der Inhalt der neuronalen Kommunikation
von dem kommunizierenden Konkretum 'optisch' getrennt wird. Eine wirklich Isolierung der
Inhalte ist nicht möglich. Als Sammlung von Inhalts-Abbildungen, aber, kann das Mentale im
Konkreten nichts verursachen (Regel-1: abstracta non agunt in concreto). Eine solche Verursachung scheint aber nach unserem subjektiven Eindruck gleichwohl stattzufinden.
Die Abwärtsverursachung (mental-abstrakt Æ physikalisch-konkret) wurde per Analogie am
Beispiel des programmgesteuerten Computers studiert (Programm-abstrakt Æ Hardwarekonkret). Dabei zeigte sich, dass eine abstrakt-konkret-Steuerung durch das Programm gar
nicht stattfindet. Die Programmierung ist besser als eine zeitlich vorgezogene permissive
Strukturänderung in der Hardware zu beschreiben. Da diese Änderung von einem ebenfalls
konkreten Objekt ausgeht, dem Neuronenapparat des Programmierers, bleibt alles im Konkreten. Aber auch die 'mentale Verursachung' beruht auf einer Strukturänderung im Konkreten,
nämlich einer, die mit der Aktivierung funktioneller Module im Neuronensystem des Verursachers einhergeht. Mental wird der Inhalt dieser Vorgänge abgelesen und bewusst miterlebt
aber nicht verursacht.
Wird das Wesen des Mentalen nach Hypothese-1 konzeptuell fixiert, so verschwinden die
sonst beklagten Widersprüche, etwa des Bieri-Paradoxes25. Schließlich wird auch verständlich, wie der subjektive Eindruck der mentalen Verursachung entsteht. Der Illusion liegt die
bekannte subjektive Transparenz des Neuronensystems zugrunde.
Die Argumentation führt uns also zu einer Spielform des physikalischen Monismus, der als
neuronaler Kommunikationsfunktionalismus oder Neuro-Realismus bezeichnet werden könnte. Streng genommen ist dieser weder monistisch noch dualistisch. Das Mentale wird nicht
negiert noch wird es pauschal auf 'Information' oder auf ein 'Programm' oder auf ein Epiphänomen reduziert. Es wird auch nicht behauptet, dass mentale Prozesse mit neuronalen Prozessen oder Zuständen 'identisch' sind, oder dass sie aus ihnen durch Emergenz entstehen. Vielmehr wird das Mentale realistisch eingeschätzt als Darstellung des Inhaltes von prinzipiell
demonstrablen Kommunikationsvorgängen neuronaler Module.
25
Peter Bieri, 1993, hat zur mentalen Verursachung drei Sätze formuliert, von denen jeder gewöhnlich für wahr
gehalten wird, die sich aber dennoch widersprechen: (a) Mentale Phänomene sind nicht-physische Phänomene;
(b) Mentale Phänomene sind im Bereich physischer Phänomene kausal wirksam; (c) Der Bereich physischer
Phänomene ist kausal geschlossen [64]. Nun kann angegeben werden, welcher Fehler dem Paradox zugrunde
liegt (Reifikation, (b) verstößt gegen Regel-1).
copyright invoco-verlag 2006
www.bernd-lindemann.de
33
Danksagung
Anstoß zur Abfassung des vorliegenden Entwurfs einer Ontologie war die Lektüre von: Mental Causation.
Epiphenomenalism, Anomalous Monism and Supervenient Causation as Solutions to the Mind-Body Problem.
With a new approach called nomic, overdetermining, superdupervenient mental causation (NOSMeC), which
solves the mind-body problem. Aus Fachbereich 05 - Philosophie und Philologie, Johannes Gutenberg Universität, Mainz, 2005 [4]. Ich danke Herrn Stephan Schleim für eine Kopie seiner interessanten Arbeit.
Bibliographie
1. Beckermann, A., Analytische Einführung in die Philosophie des Geistes. 2. Auflage ed. 2001: de Gruyter.
2. Bunge, M.A. and M. Mahner, Über die Natur der Dinge. 2004, Stuttgart: Hirzel. 273.
3. Grossmann, R., Die Existenz der Welt. 2004, Frankfurt: Ontos Verlag. 166.
4. Schleim, S., Mental Causation. Epiphenomenalism, Anomalous Monism and Supervenient Causation as
Solutions to the Mind-Body Problem. With a new approach called nomic, overdetermining,
superdupervenient mental causation (NOSMeC), which solves the mind-body problem., in Fachbereich 05 Philosophie und Philologie. 2005, Johannes Gutenberg Universität Mainz: Mainz. p. 108.
5. Aubenque, P., Abstraktion (Stichwort), in Historisches Wörterbuch der Philosophie, J. Ritter, Editor. 1971:
Basel. p. S. 43.
6. Schlemm, A., "Die Abstraktion" in Annettes Philosophenstübchen http://www.thur.de/philo/. 2006.
7. Dretske, F., Mental events as structuring causes of behavior, in Mental Causation, J. Heil and A. Mele,
Editors. 1995, Clarendon Press: Oxford. p. 121-136.
8. Hebb, D.O., Organization of Behavior. 1949, New York: John Wiley & Sons.
9. Alexander, S., Space, Time, and Deity. 1920, London: Macmillan.
10. Rosen, G., "Abstract Objects" in The Stanford Encyclopedia of Philosophy. 2001, Zalta, E.N., Editor,
Stanford University.
11. Whitehead, A.N., Science and the Modern World (The Lowell Lectures, 1925). 1967 ed. 1967, New York:
Free Press, Macmillan Publishing Co, Inc. 212.
12. Bunge, M.A., Philosophical Dictionary. 2003, New York: Prometheus Books. 315.
13. Lyre, H., Informationstheorie. Eine philosophisch-naturwissenschaftliche Einführung. 2002, Stuttgart: UTB.
280.
14. Morris, C.W., Foundations of the theory of signs, in International Encyclopedia of Unied Science, O.
Neurath, Editor. 1938, University of Chicago Press, Chicago, MI, USA.
15. Landauer, R., Computation: A Fundamental Physical View. Physica Scripta, 1987. 35: p. 88-95.
16. Krämer, S., Symbolische Maschinen. Idee der Formalisierung im geschichtlichen Abriss. 1988, Darmstadt:
Wissenschaftliche Buchgesellschaft. 227.
17. Newell, A., Physical Symbol Systems. Cognitive Science, 1980. 4: p. 135-183.
copyright invoco-verlag 2006
www.bernd-lindemann.de
34
18. Newell, A. and H.A. Simon, Computer Science as Empirical Inquiry: Symbols and Search. Communications
of the ACM, 1976. 19: p. 113-126.
19. Strube, G. and et.al., Wörterbuch der Kognitionswissenschaft. 1996, Stuttgart: Klett-Cotta.
20. Searle, J.R., The rediscovery of the mind. 1992, Cambridge, Mass.: MIT Press.
21. Fodor, J.A., The mind does not work that way. 2001, Cambridge, Mass: MIT Press. 126.
22. Searle, J.R., Minds, Brains, and Programs. Behavioral and Brain Sciences, 1980. 3: p. 417-424.
23. Turing, A.M., Computing Machinery and Intelligence. Mind, 1950. 50: p. 433-460.
24. Penrose, R., The Emperor's New Mind. 1991, New York: Penguin Books. 466.
25. Marr, D., Vision. 1982, San Francisco: Freeman.
26. Newell, A., The knowledge level. Artificial Intelligence, 1982. 18: p. 87-127.
27. Churchland, P.M., The Engine of Reason, The Seat of the Soul. 1995, Cambridge, MA: MIT Press. 330.
28. Singer, W. and C.M. Gray, Visual feature integration and the temporal correlation hypothesis. Annu Rev
Neurosci, 1995. 18: p. 555-86.
29. Shepherd, G.M., ed. The Synaptic Organization of the Brain. 4 ed. 1998, Oxford University Press: New
York. 638.
30. Braitenberg, V. and A. Schüz, Cortex: Statistics and Geometry of Neuronal Connectivity. 2. ed. 1998, Berlin:
Springer-Verlag.
31. Martin, J.H., Coding and Processing of Sensory Information, in Priciples of Neural Science, E.R. Kandel,
J.H. Schwartz, and T.M. Jessel, Editors. 1991, Elsevier: New York. p. 329-352.
32. Smith, E.C. and M.S. Lewicki, Efficient Auditory Coding. Nature, 2006. 439: p. 978-982.
33. Koch, C., Biophysics of Computation: Information processing in single neurons. 1998: Oxford University
Press. 552.
34. Prinz, W., Neurons don't represent. Consciousness and Cognition, 2003. 12: p. 572-573.
35. Metzinger, T. and V. Gallese, Of course they do. Consciousness and Cognition, 2003. 12: p. 574-576.
36. Lettvin, J.Y., et al., What the frog's eye tells the frog's brain. Proc. Inst. rad. Engrs., 1959. 47(11): p. 19401951.
37. Brentano, F., Psychologie vom empirischen Standpunkt. 1874, Leipzig: Meiner Verlag 1924.
38. Fodor, J.A., Special Sciences, or The Disunity of Science as a Working Hypothesis, in Readings in
Philosophy of Psychology, N. Block, Editor. 1980, Harvard: Cambridge, MA.
39. Fodor, J.A., The Language of Thought. 1975, Cambridge, MA: Harvard University Press. 214.
40. Fodor, J.A., Psychosemantics. The problem of meaning in the philosophy of mind. 1987, Cambridge, MA: A
Bradford Book, MIT Press. 172.
41. Churchland, P.S., Brain-Wise. Studies in Neurophilosophy. 2002, Cambridge, MA: MIT Press. 472.
copyright invoco-verlag 2006
www.bernd-lindemann.de
35
42. Attneave, F., In defense of homunculi, in Sensory Communication, W.A. Rosenblith, Editor. 1961, MIT
Press: Cambridge, MA. p. 777-782.
43. Pinker, S., How the mind works. 1997, New York: W.W. Norton. 660.
44. Illing, R.-B., Seelenintuition, Freiheitsintuition und Gehirnforschung, in Gott - Geist - Gehirn. Religiöse Erfahrungen im Lichte der neuesten Hirnforschung., W. Achtner, et al., Editors. 2005, Haag + Herrchen Verlag: Frankfurt. p. 164.
45. Lindemann, B., Der innere Weg. 2004, Homburg: invoco-verlag.
46. Humboldt, W.v., Linguistic variability and intellectual development. 1836 / 1972, Philadelphia: University of
Pennsilvania Press.
47. Shear, J., Explaining consciousness: The hard problem. 1997, Cambridge, MA: MIT Press. 422.
48. Crick, F. and C. Koch, The unconscious homunculus. Neuro-Psychoanalysis, 2000. 2(8): p. 3-11.
49. Crick, F. and C. Koch, A framework for consciousness. Nat Neurosci, 2003. 6(2): p. 119-26.
50. Damasio, A.R., The person within. Nature, 2003. 423: p. 227.
51. Roth, G., Aus Sicht des Gehirns. 2003, Frankfurt: Suhrkamp. 214.
52. Baars, B.J., In the theatre of consciousness: The workspace of the mind. 1997, Oxford: Oxford University
Press. 193.
53. Pitt, D., "Mental Representation" in The Stanford Encyclopedia of Philosophy. 2005, Zalta, E.N., editor.
54. Putnam, H. Brains and Behavior. in American Association for the Advancement of Science, Section L
(History and Philosophy of Science). 1961.
55. Putnam, H., The meaning of meaning, in Language, mind, and knowledge, K. Gunderson, Editor. 1975,
University of Minnesota Press: Minneapolis.
56. McCulloch, W.S. and W. Pitts, A logical calculus of the ideas immanent in nervous activity. Bulletin of
Mathematical Biophysics, 1943. 5: p. 115-133.
57. Margolis, E. and S. Laurence, "Concepts" in The Stanford Encyclopedia of Philosophy. 2005, Zalta, E.N.,
editor.
58. Frege, G., Logische Untersuchungen. 1918 (2003): Vanderhoeck & Ruprecht.
59. Popper, K.R., Objective Knowledge. 1972, Oxford: Clarendon Press.
60. Popper, K.R. and J.C. Eccles, The Self and its Brain. 1977, New York: Springer. 598.
61. Dawkins, R., The selfish gene. 1976, Oxford: Oxford University Press.
62. Brodie, R., Virus of the mind: The new science of the meme. 1996, Seattle, WA: Intergral Press.
63. Blackmore, S., The meme machine. 1999, Oxford: Oxford University Press. 264.
64. Bieri, P., ed. Analytische Philosophie des Geistes. Neue Wissenschaftliche Bibliothek. 1993, Bodenheim.
372.
copyright invoco-verlag 2006
www.bernd-lindemann.de
36
17.03.06
Copyright invoco-verlag 2006
Dieses Dokument drucken
Herunterladen