Ruhr-Universität Bochum Fakultät für Philosophie und Erziehungswissenschaft Neuropsychologische Bedeutungstheorie – Eine Neubewertung Wittgensteins, Freges und Quines verschiedener Sprachkonzepte zur Erstellung einer aktuellen neuropsychologischen Bedeutungstheorie Inauguraldissertation zur Erlangung des akademischen Grades eines Doktors der Philosophie vorgelegt von: Hans Joachim Höh aus Hagen Referenten: Prof. Dr. U. Pardey PD Dr. Michael Anacker Dekan: Prof. Dr. J. Wirth Datum der mündlichen Prüfung: 15.07.2013 Neuropsychologische Bedeutungstheorie – Eine Neubewertung Wittgensteins, Freges und Quines verschiedener Sprachkonzepte zur Erstellung einer aktuellen neuropsychologischen Bedeutungstheorie Inhaltsverzeichnis Vorwort 6 1. Einleitung 7 1.1 Entstehung der Dissertation 7 1.2 Wissenschaft und Philosophie 7 1.3 Analytische Sprachphilosophie 9 1.4 Ziel der Dissertation 11 1.5 Strukturübersicht 13 2. Gottlob Freges Bedeutungstheorie 15 2.1 Person und Werk 15 2.2 Die Bedeutung eines Satzes ist sein Wahrheitswert 17 2.2.1 Formaler Einwand 18 2.2.2 Inhaltlicher Einwand 21 2.2.3 Der Sachverhalt als Alternative zum Wahrheitswert als Satzbedeutung 23 2.3 Freges Sinn eines Satzes 24 2.4 Freges Entitätsverdoppelung: Sinn und Bedeutung 32 3. Ludwig Wittgensteins Bedeutungstheorien 35 3.1 Wittgensteins zwei philosophische Ansätze 35 3.1.1 Person und Werk 35 3.1.2 Die PU als Fortführung des TLP statt als philosophische Wende 37 3.1.3 Ideale Sprache oder Normale Sprache 39 3.2 Die Philosophischen Untersuchungen 41 3.2.1 Eike von Savignys Wittgenstein Interpretation 41 3.2.2 Spracherwerb – Schwerpunkt Lesefähigkeiten 45 2 3.2.3 Lesen und Gesichtserkennung als identisch funktionierende Vorgänge 46 3.2.4 Neuropsychologische Forschung zur Verbesserung des psycholog. Vokabulars 48 3.2.5 Phonetisches Lesen, Ganz-Wort-Lesen und Dyslexien 50 3.2.6 Denken und Sprechen als Einheit 51 3.3 Der Tractatus logico-philosophicus 55 3.3.1 Die Besonderheiten des TLP 55 3.3.2 Die Bildtheorie 58 3.3.2.1 Die Funktionsweise von Bildern 58 3.3.2.2 Wittgenstein gegen Kant 60 3.3.2.3 Sätze als Bilder der Wirklichkeit 62 3.3.3 Der Wahrheitsbegriff 64 3.4 Bildtheorie oder Gebrauchstheorie? 66 3.4.1 Welchen Ansatz benötigen wir für eine neuropsychologische Bedeutungstheorie? 66 3.4.2 Kein Verständnis der Sprachmechanismen ohne Psychologie 67 4. Attributsskalenlogik 69 4.1 Ein Lösungsvorschlag für Wittgensteins Elementarsatzproblematik 69 4.2 Moderne Logik 80 4.2.1 Aussagenlogik 80 4.2.2 Prädikatenlogik 81 4.3 Attributsskalenlogik als nächster Schritt 82 4.3.1 Die drei alternativen Verfahrensweisen 88 4.3.2 Überprüfung an der Alltagssprache 93 4.4 Maßstäbe und das Messen 94 4.5 Die Auswirkungen der Attributsskalenlogik 96 5. Willard Van Orman Quines Bedeutungstheorie 98 5.1 Person und Werk 98 5.2 Quines Ansätze zu einer naturalistischen Bedeutungstheorie 99 5.3 Die Probleme von Quines naturalistischer Bedeutungstheorie 101 6. Sprachentstehung und Spracherwerb 104 6.1 Sprache und Denken 104 3 6.2 Die historische Entstehung der Sprachfähigkeit 111 6.3 Die Spracherwerbssituation 115 6.3.1 Der kindliche Erstspracherwerb 117 6.3.2 Der Erwerb der Sprachlaute 117 6.3.3 Der Erwerb der Wörter 120 6.3.4 Der Erwerb der Bedeutung 122 6.3.5 Der Erwerb der Grammatik 128 6.4 Nativistische und Funktionalistische Theorien des Grammatikerwerbs 131 6.4.1 Nativistische Theorien des Grammatikerwerbs 131 6.4.2 Funktionalistische Theorien des Grammatikerwerbs 134 7. Die Neuropsychologie der Sprache 138 7.1 Die neuropsychologische Grundlagen 138 7.2 Die Nervenzellen 138 7.3 Neurotransmitter und Rezeptoren 142 7.4 Neuronale Integration 143 7.5 Das Aktionspotential 144 7.6 Die Freisetzung des Neurotransmitters 146 7.7 Neuronales Lernen 150 8. Die neuronale Realisierung von Sprache 157 8.1 Wortrepräsentation durch neuronale Netze 157 8.2 Polysemie und Synonymie als Überschneidung von funktionalen Netzen 168 8.3 Schriftsprache als optionale angehängte Netzstruktur 171 8.4 Funktionswörter und Grammatik 174 9. Neuropsychologische Bedeutungstheorie - Ein neuer Ansatz 180 9.1 Bedeutung ist eine neuronale Verknüpfung 180 9.1.1 Von der Referenz zur Verknüpfung 181 9.1.2 Eine Verknüpfung zwischen zwei neuronalen Repräsentationen 182 9.2 Die Kompositionalität der Bedeutung 191 9.3 Die Entstehung komplexer theoretischer Begriffe 192 9.4 Spracherwerb und Bedeutungsunterschiede 194 4 9.5 Die Möglichkeit der Sprachentstehung und Weiterentwicklung 195 9.6 Die Vorteile neuropsychologischer Bedeutungstheorie 196 9.7 Pragmatik und Wahrheitswert eines Satzes 203 9.8 Zusammenfassung und Ausblick 206 Eidesstattliche Erklärung 208 Abbildungsverzeichnis 209 Literaturverzeichnis 211 Lebenslauf 215 5 Vorwort Ich hatte das Glück, sowohl diverse geistes- als auch naturwissenschaftliche Fächer studieren zu können. Im Vergleich zu Studenten der mittlerweile üblichen kürzeren und spezialisierteren Studienstrukturen, verfüge ich daher über einen potentiell weiteren Blickwinkel, der insbesondere hilfreich dabei ist, Verfahren aus anderen wissenschaftlichen Bereichen zu übertragen und damit neue Problemlösungen zu finden. Bei einem so entstehenden fächerübergreifenden Text, wie er hier vorliegt, besteht aber immer auch die Gefahr, dass die Leser die für sie jeweils fachfremden Anteile ignorieren oder kritisieren. Ich kann nur hoffen, dass das Gegenteil der Fall sein wird. Für den wissenschaftlichen Fortschritt in allen Bereichen kann es immer nur nützlich sein, sich auf alternative Verfahren gedanklich einzulassen. Die großen wissenschaftlichen Paradigmenwechsel basierten immer auf der Bereitschaft von einzelnen Wissenschaftlern, die Perspektive zu wechseln und die bisherigen gedanklichen Pfade zu verlassen. Wenn durch diese Dissertation die Bereitschaft zur Einnahme fächerübergreifender Perspektiven gefördert würde, dann wäre damit viel mehr erreicht als durch eine Zustimmung in den hier behandelten Detailfragen. Ich danke meinen Betreuern, der Barbara-Wengeler-Stiftung, Ellen, meinen Eltern und meinen Freunden für ihre diversen Formen der Unterstützung, ohne welche diese Dissertation nicht entstanden wäre. 6 Neuropsychologische Bedeutungstheorie – Eine Neubewertung Wittgensteins, Freges und Quines verschiedener Sprachkonzepte zur Erstellung einer aktuellen neuropsychologischen Bedeutungstheorie 1. Einleitung 1.1 Entstehung der Dissertation Diese Arbeit entstand ausgehend von meinem besonderen Interesse für die Arbeiten Ludwig Wittgensteins. In der konzeptionellen Anfangsphase beschäftigte ich mich nur mit den Unterschieden und Zusammenhängen zwischen seinem Frühwerk und seinem Spätwerk. Dabei fielen mir besonders die extrem unterschiedlichen Bedeutungstheorien im Tractatus und den Philosophischen Untersuchungen auf. Da sich bei einem so exakten Denker wie Wittgenstein schon zwei so verschiedene Bedeutungsbegriffe finden, liegt es nahe, dass die Funktionsweise der Bedeutung schwer verständlich und in der Philosophie umstritten ist. In der Tat liegen in den Werken von Frege und Quine weitere jeweils äußerst andersartige Konzeptionen zur Erklärung von Bedeutung vor. Daher beschloss ich, die verschiedenen Bedeutungstheorien zu analysieren, ihre Stärken und Schwächen aufzudecken, um dann auf der Grundlage der aktuellen Forschungsergebnisse der Neuropsychologie eine neue Bedeutungstheorie zu erstellen. Diese sollte versuchen, die unterschiedlichen philosophischen Ansätze zu integrieren und darüber hinaus die physiologischen Prozesse darzustellen, die der Entstehung von Bedeutung zugrunde liegen. Aus philosophischer Sicht ist möglicherweise nicht direkt klar, warum diese naturwissenschaftlichen Erkenntnisse überhaupt zur Klärung dieser scheinbar rein systemtheoretischen Fragen nützlich sein sollten. Daher möchte ich zunächst kurz den Philosophiebegriff erläutern, der meinem Denken und damit auch dieser Arbeit zugrunde liegt. 1.2 Wissenschaft und Philosophie Darüber, was genau man unter „Philosophie“ zu verstehen hat, gab es zu verschiedenen Zeiten innerhalb der historischen Entwicklung der Philosophie unterschiedliche Ansichten. Auch heute 7 gibt es fachintern noch diverse unterschiedliche Verfahren und damit einhergehend unterschiedliche Formen des Selbstverständnisses. Daher erscheint es mir sinnvoll, zunächst mein eigenes Verständnis von Philosophie genau zu erläutern. Wenn man von der griechischen Wortbedeutung und dem Verständnis bei Sokrates und Platon ausgeht, versteht man Philosophie als das allgemeine Streben nach Erkenntnis. Dieses Streben nach Erkenntnis wird jedoch nicht, wie Platon und Aristoteles glaubten, durch ein ihm vorausgehendes Staunen ausgelöst, sondern von der evolutionsbedingten menschlichen Grundsituation. Die Gehirnareale, die uns von den anderen Säugetieren unterscheiden, ermöglichen es uns, komplexe langfristig geplante Handlungen und bewusste Bewertungen der Umweltbedingungen durchzuführen. Dies ist ein evolutionärer Vorteil, der uns nicht nur außergewöhnliche Handlungsmöglichkeiten eröffnet, sondern auch überhaupt den Hauptunterschied zwischen der Art unserer und der anderer tierischer Existenz darstellt. Da wir jedoch nicht mehr über komplette instinktive Programme verfügen, um auf die Umwelt zu reagieren, ist es nun nicht nur möglich, sondern auch zwingend erforderlich, möglichst geschickt zu planen und gute Entscheidungen zu treffen, um unser Überleben zu gewährleisten. Je besser man die Situation, in der man sich befindet, analysieren und verstehen kann, desto bessere Entscheidungen sind möglich. Daher ist es ein natürliches Bestreben des Menschen, sein Wissen zu vermehren und seine Erkenntnisfähigkeiten zu verbessern. Dieses Bestreben findet bei jedem Menschen Ausdruck in alltäglicher Neugier und dem Erwerb grundlegender Lebenskompetenzen. Durch extreme Fortsetzung dieses Strebens nach Wissen ohne Beachtung der direkten praktischen Anwendbarkeit, entstanden jedoch die Philosophie und die modernen Wissenschaften. Die Wissenschaften und die Philosophie sind diesem Verständnis entsprechend keine Gegenpole oder Konkurrenten. Während in den einzelnen Wissenschaften dem jeweils aktuellen Paradigma folgend häufig nur in einer Richtung weiter geforscht wird, stellt Philosophie das allgemeine Streben nach Erkenntnis dar, welches die eigenen Grundlagen und die Paradigmen der Einzelwissenschaften immer wieder auch in Frage stellen kann. Philosophie wird somit als vereinigende Gesamttheorie gesehen. Sie sollte niemals zu Ergebnissen kommen, die zu den entsprechenden Ergebnissen der Einzelwissenschaften in direktem Widerspruch stehen. Im Gegenteil sollten die Einzelwissenschaften beim Voranschreiten ihrer Forschung philosophische Annahmen beweisen, aber auch widerlegen können. Philosophie ist so verstanden gleichzeitig Metawissenschaft, aber im Vergleich mit den Einzelwissenschaften nicht von übergeordnetem Erkenntniswert. Sie ist zunächst relativ methodenloses freies Denken, das dazu geeignet ist, üblicherweise unhinterfragt angewandte wissenschaftliche Paradigmen zu korrigieren und Erkenntnisse vorwegzunehmen, bevor es standardisierte Methoden und Möglichkeiten der Messung in der jeweiligen Spezialwissenschaft gibt. Sobald die in der Philosophie behandelten Themen jedoch so breites Interesse finden, dass sie 8 dadurch zum Themengebiet einer neuen Einzelwissenschaft werden, und diese Wissenschaft mittlerweile über geeignete Messinstrumente und praktische Anwendungen verfügt, sollten die philosophischen Institute diese neuen Ergebnisse als Messlatte der eigenen allgemeineren Theorien verwenden und sich damit zufrieden geben, wertvolle Vorarbeit geleistet und eine neue wissenschaftliche Disziplin begründet zu haben. Eine Konkurrenz in Detailfragen ist nicht sinnvoll. Immer wenn dies der Fall ist, liegt meines Erachtens das Missverständnis vor, dass philosophische Texte einen festen Wert haben, der nicht zeitgebunden ist. Dieses Verständnis spiegelt sich auch in der gleichwertigen Behandlung von philosophischen Texten aller Altersstufen in philosophischer Forschung und Lehre wieder. Diesem Verständnis von Philosophie möchte ich nicht folgen. Ich halte folgende Interpretation für sinnvoller: Die Personen, die wir „die großen Philosophen“ nennen, zeichnen sich nur durch eine einzige Gemeinsamkeit aus. Sie waren der Bevölkerung ihrer jeweiligen Lebenszeit intellektuell weit voraus, und sie konnten daher Texte mit hohem Erkenntnisgehalt verfassen, die extrem bedeutsame wissenschaftliche, politische, soziale und technische Fortschritte eingeleitet haben. Sie zeichnen sich dadurch aus, dass sie, ohne technische Hilfsmittel zu benutzen, durch freies Denken zu beeindruckenden neuen Thesen über völlig unterschiedliche Aspekte der Welt gekommen sind. Ihre Texte sind insofern als historisches Dokument und sie selbst als Personen um ihrer Genialität willen zu würdigen. Ansonsten haben philosophische Texte aber keinen Wert an sich, sondern sind nur immer dann wertvoll, wenn sie sich mit Fragestellungen auseinander setzen, die bisher ungelöst sind. Philosophische Texte können demnach veralten, wenn ihre Fragestellungen mittlerweile anderweitig gelöst wurden, oder ihre Thesen heutzutage allgemein anerkannt und in unsere Art zu leben integriert worden sind. Darüber hinaus können sich philosophische Texte aufgrund von späteren wissenschaftlichen Erkenntnissen auch als falsch erweisen. Meinem Verständnis entsprechend findet philosophische Diskussion und Forschung also in den zum jeweiligen Zeitpunkt noch unerforschten Grenzbereichen des etablierten Wissens statt. Es gilt dabei natürlich die wissenschaftlichen Erkenntnisse jeweils derjenigen Fachbereiche einzubeziehen, an deren Grenzen philosophische Fragen bearbeitet werden. Da die neurologischen Forschungen in den Bereichen Biologie, Psychologie und Medizin in den letzten Jahren neue Erkenntnisse zur Sprachverarbeitung hervorgebracht haben, sollten diese auch in der philosophischen Diskussion der Funktionsweise von Sprache berücksichtigt werden. 1.3 Analytische Sprachphilosophie Angesichts der obigen Ausführungen sollte es nicht weiter verwunderlich sein, dass ich analytische 9 Sprachphilosophie für die interessanteste Art der Philosophie halte. Sie ist zum einen relativ neu, so dass ihre Thesen nicht schon alle widerlegt oder gesellschaftlich etabliert sind. Zum anderen stellt sie eher eine Methode als eine Menge von Thesen dar und sie ermöglicht methodisch genau das, was ich als Aufgabe der Philosophie betrachte. Mit ihr ist man in der Lage, an den Begriffen und Paradigmen der Einzelwissenschaften Kritik zu üben, und diese dadurch zu animieren, ihre Forschungsrichtungen zu überdenken, oder geistige Hindernisse zu überwinden, die sich durch problematische Grundbegriffe in ihnen etabliert haben. Weiterhin kann die Sprachphilosophie in unerforschten Fragestellungen durch gezielte Begriffskritik die interessanten Fragen herausarbeiten, und einen Begriffsapparat erstellen, der geeignet ist, diese Fragen zu klären. Sobald statt eines undurchsichtigen Themas klare Fragestellungen, Begriffe und durch freies Denken erstellte Hypothesen vorliegen, wird von ganz allein das allgemeine Interesse zunehmen, und sich eine neue wissenschaftliche Disziplin entwickeln, die diese Hypothesen experimentell zu überprüfen beginnt, genauso wie es zum Beispiel bei der Psychologie oder der Informatik der Fall war. Unsere Begriffe sind, sprachhistorisch betrachtet, aus den unterschiedlichsten Lebenssituationen heraus entstanden und durch verschiedenste Absichten geprägt worden. Sie sind also fern davon, für alle Zwecke ideal zu sein. Sie sind nur nützlich für bestimmte Situationen, oder sind es irgendwann in der Vergangenheit einmal zur Erreichung ganz spezieller kommunikativer Absichten gewesen. Prinzipiell ist die Verknüpfung von Zeichen und Bezeichnetem zwar beliebig möglich, aber das gilt nur in Hinblick auf die Erfindung einer neuen Sprache. Daher liest man in Ludwig Wittgensteins Tractatus logico-philosophicus: 3.3411 Man könnte also sagen: Der eigentliche Name ist das, was alle Symbole, die den Gegenstand bezeichnen, gemeinsam haben. Es würde sich so sukzessive ergeben, dass keinerlei Zusammensetzung für den Namen wesentlich ist.1 Die Wörter einer natürlich gewachsenen Sprache tragen aber mittlerweile mehr oder weniger viele Konnotationen ihrer früheren Verwendungsweisen mit sich herum. Zum Beispiel wäre es prinzipiell vollkommen gleichgültig, welche Wortkombination oder welches Wort man im Deutschen zur Begrüßung verwendete, aber die Konnotationen der Wörter, die aus ihrer anderweitigen Verwendung herrühren, können den Grußformeln „Hallo!“, „Guten Tag!“ und „Grüß Gott!“ durchaus unterschiedliche Wirkungen verleihen. Multikulturelles Zusammenleben, abnehmende Religiosität und ähnliche soziale Veränderungen machen zum Beispiel die dritte Grußformel potentiell problematischer, als sie es in vergangenen Jahrhunderten gewesen sein mag. 1 Tractatus logico-philosophicus zitiert aus Wittgenstein, L.: Werkausgabe Band 1 - Frankfurt a.M.: Suhrkamp, 1984, S. 24, in folgenden Fußnoten nur noch abgekürzt als TLP. 10 Da wir aber häufig Wörter in andere thematische Bereiche übertragen und sie dann im übertragenen Sinn weiter verwenden, statt immer neue Wörter zu erfinden, und wir außerdem durch wissenschaftliche, technische und soziale Weiterentwicklungen manche Kontexte immer komplizierter gestalten, „veralten“ manche unserer Wörter. Man ist dann nicht mehr in der Lage, mit ihnen die Welt in ihrer neu entdeckten Komplexität, oder den neuen Theorien gemäß adäquat abzubilden. Weil Sprache jedoch von Generation zu Generation weitergegeben wird, können solche problematischen Begriffe nicht besonders schnell aus der Sprache verschwinden, da frühere Generationen diese Begriffe erlernt haben und weiter verwenden. Dadurch entstehen jede Menge Probleme für unsere Wissenschaften ebenso wie für unser tägliches Zusammenleben. Dass jede Sprache prinzipiell an die Art gebunden ist, wie sich die zugehörige Sprachgemeinschaft die Welt vorstellt und wie sie mit ihr umgeht, sollte intuitiv klar sein. Man sieht diesen Umstand jedoch besonders deutlich, wenn man Stammessprachen anderer Völker betrachtet. Ohne Geld und kapitalistisches System benötigt man zum Beispiel auch nicht dringend einen voll entwickelten Zahlbegriff. Solche naturnahen Völker, wie zum Beispiel die Pirahã im Amazonasgebiet Brasiliens, unterscheiden begrifflich nur ein paar Zahlen bis drei oder fünf und benennen alle größeren Mengen nur noch mit einem einzigen Wort, welches wir dementsprechend mit „viele“ übersetzen würden.2 Analytische Sprachphilosophie ermöglicht uns, genau die Probleme, die wir uns durch veraltete und ungenaue Begriffe selbst bereitet haben, aufzudecken und zu lösen. Festgefahrene und widersprüchliche Theorien in den Einzelwissenschaften können so einen Anstoß in die richtige Richtung erhalten. Darüber hinaus kann ein solches sprachanalytisches Verständnis unserer Begriffe uns auch darüber aufklären, wie wir die Welt eigentlich sehen und wie wir mit ihr umgehen. 1.4 Ziel der Dissertation Das Ziel dieser Bedeutungstheorie Dissertation als besteht interdisziplinärem in der Projekt, Erstellung das einer zwischen neuropsychologischen Sprachphilosophie und Neuropsychologie vermitteln soll. Es versucht, eine Brücke zwischen den Theoriegebäuden dieser beiden Disziplinen zu schlagen, die bisher eher wie voneinander unabhängige Säulen auf unterschiedlichen Fundamenten in die Höhe gewachsen sind. Dieses Projekt soll einerseits der Philosophie dabei helfen, das Naturalisierungsprogramm innerhalb der Philosophie des Geistes weiter voranzutreiben, das Sprachprozesse bisher noch kaum thematisiert. Andererseits profitieren 2 Vgl. Everett, D.L.: Das glücklichste Volk. Sieben Jahre bei den Pirahã-Indianern am Amazonas - München: DVA, 2010 11 die Neurowissenschaften von diesem Projekt, indem die Wichtigkeit neuropsychologischer Forschungsergebnisse auch für abstrakte philosophische Themen, wie die Bedeutungstheorie es prinzipiell ist, nachgewiesen wird. Außerdem verfügen die historisch betrachtet relativ neuen Neurowissenschaften zwangsläufig nicht über ebenso ausgearbeitete Theorien zu Sprachprozessen, wie sie innerhalb der Sprachphilosophie und Linguistik bereits vorliegen. Daher soll die neuropsychologische Bedeutungstheorie auch dabei helfen, die in der Philosophie diskutierten komplexen Theorieansätze in überprüfbare Hypothesen für die Neurowissenschaften zu überführen. Die primäre systematische Fragestellung lautet dabei: Was ist die Bedeutung eines Wortes und was die eines Satzes? Zu diesem Thema gibt es sehr unterschiedliche Theorien innerhalb der modernen Sprachphilosophie. Durch die Diskussion der Vor- und Nachteile der philosophischen Theorien von Frege, Wittgenstein und Quine soll an den aktuellen Stand der Diskussion bei Davidson, Dummett, Kaplan, Kripke, Searle, Putnam, etc. herangeführt und die Synthese einer neuen Theorie ermöglicht werden. Eine Neubewertung der klassischen philosophischen Theorien bietet sich genau zu diesem Zeitpunkt aufgrund der aktuellen neuropsychologischen Forschungsergebnisse an. Das neue Wissen darüber, welche neuronalen Prozesse menschlichen Sprachfähigkeiten zugrunde liegen, kann als Entscheidungshilfe dienen, welche philosophischen Theorieansätze jeweils besser als andere geeignet sind, um bestimmte sprachliche Fähigkeiten zu erklären. Das Hauptziel der Dissertation besteht in der Formulierung einer reduktionistischen Bedeutungstheorie, die im Einklang mit den aktuellen Erkenntnissen der Neuropsychologie steht, und die gleichzeitig die verschiedenen philosophischen Ansätze neu bewertet und vereint, soweit dies möglich ist. Als interessantes Teilergebnis entsteht dabei unter anderem eine bessere Vergleichbarkeit der unterschiedlichen philosophischen Theorien innerhalb der modernen Sprachphilosophie, die bisher häufig als komplexe Erklärungsmodelle Widersprüchlichkeit unvereinbar untereinander ist nebeneinander jedoch meines stehen. Erachtens Ihre oberflächliche teilweise nur einer unterschiedlichen Fokussierung innerhalb des komplexen Themenbereichs „Sprachfähigkeiten“ geschuldet. Als weiteres interessantes Teilergebnis liefert diese Dissertation Lösungsvorschläge zur Erklärung der wichtigsten philosophisch diskutierten Phänomene, die Probleme oder zumindest Herausforderungen für jede bisherige Bedeutungstheorie darstellten. Für die formale Logik könnte sich darüber hinaus die im 4. Kapitel entwickelte Attributsskalenlogik als interessanter Fortschritt erweisen, der die Lösung von Wittgensteins Elementarsatzproblem ermöglicht. 12 1.4 Strukturübersicht Wie bereits erwähnt, werden in dieser Arbeit verschiedene Bedeutungstheorien analysiert, um ihre jeweiligen Stärken und Schwächen aufzudecken. Das geschieht, damit unter Einbeziehung der aktuellen Forschungsergebnisse der Neuropsychologie eine neue Bedeutungstheorie erstellt werden kann, die versucht, der Bedeutung eine physiologische Grundlage zuzuordnen. In den Blick geraten dabei hauptsächlich die Arbeiten von Frege, Wittgenstein und Quine. Selbstverständlich gibt es viele weitere wirkungsreich gewordene Philosophen und sprachphilosophische Werke in den letzten hundert Jahren, denen jedoch aus systematischen Gründen kein eigenes Kapitel gewidmet wird. Ich beginne im 2. Kapitel mit Frege, da er die Grundlagen der Bedeutungstheorie gelegt, damit aber zugleich auch einige bedeutsame Probleme für das Verständnis von Sprache und Bedeutung in der philosophischen Diskussion verursacht hat. Freges Unterscheidung von Sinn und Bedeutung basiert auf dem Problem der informativen Identitätsaussagen. Während der Analyse der Probleme von Freges Standpunkt, werden auch schon Alternativen für eine naturalistische Bedeutungstheorie entwickelt. Die Diskussion von Freges Bedeutungstheorie führt dann dem historischen Verlauf folgend direkt weiter zu Wittgenstein. Bei der Besprechung von Wittgensteins Werken stelle ich im 3. Kapitel zuerst einige Gedanken der Philosophischen Untersuchungen vor, nutze sie aber hauptsächlich, um aufzuzeigen, dass (im Einklang mit meinem oben dargelegten generellen Philosophieverständnis) Wittgensteins Spätphilosophie in der Tat Thesen zur Funktionsweise unseres Gehirns enthält, die sich heute durch die Forschungsergebnisse der Neuropsychologie bestätigt finden. Das Hauptinteresse gilt jedoch eigentlich Wittgensteins Frühwerk, denn der Tractatus entstand unter anderem in massiver Auseinandersetzung mit Freges und Russells Projekt der Entwicklung der wissenschaftlichen Idealsprache. Die Bildtheorie des Tractatus thematisiert die Strukturisomorphie zwischen Sprache und Welt, und liefert bereits einen sehr guten Ausgangspunkt zur Entwicklung einer neuropsychologischen Bedeutungstheorie. Zudem ist der Tractatus aufgrund seiner absichtlichen Ausklammerung jedweder Theorie der psychologischen Realisierung von Sprachprozessen mit den aktuellen neuropsychologischen Forschungsergebnissen noch einfacher in Einklang zu bringen, als die Thesen der Philosophischen Untersuchungen es sind. Während Wittgenstein sich im Spätwerk damit beschäftigte, wie sprachliche Äußerungen in den Lebensalltag eingebettet sind, war er im Frühwerk primär an der Beziehung zwischen Sprache und Welt interessiert. Ein Problem seiner Theorie im Tractatus, das er nicht lösen konnte, bestand in der scheinbaren Unmöglichkeit der Angabe von Elementarsätzen. Da die Existenz von Elementarsätzen jedoch aus seiner Konzeption logisch folgte, war seine Unfähigkeit, Beispiele für Elementarsätze anzugeben, bisher ein guter Grund, die Bildtheorie des Tractatus abzulehnen. Daher stellt die im 4. 13 Kapitel von mir entwickelte Attributsskalenlogik einen der wichtigsten Punkte dieser Arbeit dar. Denn mit dieser Verfeinerung des Formalismus der Prädikatenlogik können Wittgensteins Probleme mit den Elementarsätzen gelöst werden, da mit ihr sowohl die allgemeine Satzstruktur als auch Beispiele von Elementarsätzen angegeben werden können, für die die Farbsatzproblematik nicht auftritt. Im 5. Kapitel widme ich mich der Theorie von Quine, der im Anschluss an Wittgenstein bereits einen ersten Versuch gemacht hatte, eine naturalistische Bedeutungstheorie zu entwickeln, genau wie ich es im Verlauf dieser Arbeit tun werde. Quines Naturalisierungsstrategie war zwar in mehrfacher Hinsicht noch nicht zufriedenstellend, sie kann jedoch weitere Anhaltspunkte liefern, was eine Bedeutungstheorie leisten können sollte und mit welchen Problemen sie konfrontiert ist. Da Quine wie Frege die Wichtigkeit der Betrachtung des primären Spracherwerbs und der Sprachentstehung für die Bedeutungstheorie unterschätzt, werden diese Themen im 6. Kapitel anhand linguistischer Forschungen von Noam Chomsky und diversen weiteren Autoren betrachtet. Dabei werden unter anderem empirische Belege für intrapersonalen Bedeutungswandel und Bedeutungsunterschiede zwischen Sprechern gesammelt, die sich mit herkömmlichen Theorien nicht besonders gut vereinbaren lassen. Wenn man Bedeutung jedoch auf eine neuronale Struktur in menschlichen Gehirnen zurückführt, dann lassen sich diese Phänomene gut erklären. Die neurophysiologischen Prozesse, die den Sprachprozessen zugrunde liegen, werden im 7. und 8. Kapitel dargestellt. Von den neurobiologischen Grundlagen ausgehend, werden zunächst Repräsentationen von Gegenstandswörtern durch neuronale Netze behandelt, bevor komplexere Fragestellungen im Bereich von Polysemie, Synonymie, Funktionswörtern und Grammatik auf neuronaler Ebene betrachtet werden. Im 9. Kapitel werden die Ergebnisse zusammengeführt und eine neuropsychologische Bedeutungstheorie formuliert. Auf Freges, Quines und insbesondere Wittgensteins Erkenntnissen aufbauend wird eine aktuelle Bedeutungstheorie mit dem Ziel entwickelt, der Bedeutung eine physiologische Grundlage zuzuordnen. 14 2. Gottlob Freges Bedeutungstheorie 2.1 Person und Werk Von dem oben genannten Philosophieverständnis ausgehend, möchte ich mich nun den Anfängen der Bedeutungstheorie zuwenden, denn zumeist sind die Anfänge jedweder philosophischen Diskussion sehr aufschlussreich. Häufig werden schon früh die Weichen gestellt, wie ein Problem angegangen werden sollte, und welche Betrachtungs- und Beschreibungsweisen dazu akzeptabel sind. Dauert eine philosophische Diskussion zu lange an, ohne dass ein allgemeiner Konsens gefunden wird, der dann zu einer Grundlage in einer der Einzelwissenschaften werden kann, dann führt dies zu einer Verstrickung in vielen Detailfragen, während eigentlich noch viel grundlegenderer Klärungsbedarf besteht. Eine Rückbesinnung auf das eigentliche Problem und eine Beschäftigung mit den philosophischen Anfängen ist dann äußerst hilfreich. Vor allem in diesem Fall, in dem sowohl die Anfänge noch nicht allzu lange zurückliegen als auch Wittgensteins philosophische Sicht mitgeprägt haben, mit der ich mich im Anschluss beschäftigen werde. Die Suche nach den Anfängen der Bedeutungstheorie führt uns zu Friedrich Ludwig Gottlob Frege. Während die Sprachphilosophie den Begriff der Bedeutung bis ins 19. Jahrhundert nur implizit behandelte, der Begriff selbst also nur im Rahmen von breiteren Betrachtungen der Sprache eine Rolle spielte, wurde er um die Jahrhundertwende zum 20. Jahrhundert zu einem ausdrücklichen Untersuchungsgegenstand der Philosophie. Als Ausgangspunkt dieser Überlegungen gelten allgemein die philosophischen Arbeiten von Gottlob Frege zur Sprache, in denen alle grundlegenden Themen der nachfolgenden (analytischen) Sprachphilosophie aufgeworfen sind. Friedrich Ludwig Gottlob Frege (8.11.1848 – 26.7.1925) war Mathematiker und Philosoph. Seine herausragenden Leistungen auf dem Gebiet der Logik bestanden darin, dass er eine formale Sprache und formale Beweise entwickelte. Er lieferte dadurch eine wesentliche Grundlage für die heutige Computertechnologie und Informatik. Seine philosophischen Interessen waren mit seinen mathematischen Interessen eng verknüpft: Sein Hauptziel bestand in der Entwicklung einer Wissenschaftssprache, mit der mathematische und logische Theorien klar und deutlich zu formulieren sind. Frege gilt daher auch als Begründer der modernen Sprachphilosophie. Sein Aufsatz Über Sinn und Bedeutung von 1892 ist dafür von zentraler Bedeutung. Er beschäftigt sich hier mit der Problematik der Identität. Der Identitätsbegriff wird in der formalen Logik verwendet, und Freges in axiomatischer Form entwickelte Logik entsprach einer heutigen Prädikatenlogik zweiter Stufe mit Identitätsbegriff. Anhand seiner Betrachtungen zum durchaus problematischen Identitätsbegriff schlussfolgert er, dass es zu jedem Wort und jedem Satz zwei 15 verschiedene Entitäten gibt, die von Interesse sind. Diese nennt er die „Bedeutung“ und den „Sinn“. Diese Bezeichnungen sind verwirrend, da er unter beiden Begriffen nicht das versteht, was wir normalerweise heute darunter fassen. Mit diesen beiden Begriffen werde ich mich später noch im Detail beschäftigen. Als Grundlage zum Verständnis von Freges Bedeutungstheorie wird weiterhin das Kompositionalitätsprinzip der Bedeutung und des Sinns vorausgesetzt. Das Kompositionalitätsprinzip besagt, dass sich die gesamte Bedeutung/der gesamte Sinn eines Satzes aus den Bedeutungen/den Sinnen seiner Einzelteile (Wörter) und deren Anordnung ergibt. Unter der Bedeutung eines Wortes versteht Frege das, was wir heute den Bezug oder die Referenz nennen würden. Dabei handelt es sich entweder um den Gegenstand, der mit einem Wort (Namen) benannt wird, oder um eine an verschiedenen Dingen auftretende Eigenschaft (Prädikat). Dieser Teil ist abgesehen von seiner ungewöhnlichen Verwendungsweise des Wortes „Bedeutung“ soweit recht unproblematisch. Problematischer ist zum einen, dass er unter der Bedeutung eines Satzes seinen Wahrheitswert versteht, und zum anderen die Einführung seiner zweiten Entität, des Sinns, den er aufgrund der Problematik der informativen Identitätssätze zu benötigen glaubt. Unter dem Sinn eines Satzes versteht er den Gedanken, der durch den Satz ausgedrückt wird. Der Sinn eines Wortes besteht für Frege jedoch in der speziellen Gegebenheitsweise des bezeichneten Gegenstands. Frege Wort (Name / Prädikat) Satz Bedeutung Gegenstand / Eigenschaft Wahrheitswert Sinn Gegebenheitsweise Gedanke Abbildung 1: Freges Unterscheidung von Sinn und Bedeutung für Wörter und Sätze Diese Unterscheidung und Einteilung ist in der Sprachphilosophie wirksam geworden und bis heute geblieben. Ich möchte jedoch versuchen zu zeigen, dass nicht nur Freges „Gedanke“, den er weder als physische noch psychologische Entität verstanden wissen will, eine unnötige Kategorie ist, sondern auch die Unterscheidung zwischen Sinn und Bedeutung unnötig ist. Dazu zeichne ich im Folgenden Freges Argumentationsgang nach und arbeite die problematischen Stellen heraus, an denen er durch fragwürdige Annahmen zu falschen Schlüssen gelangt. Dabei werde ich mich zuerst seiner für Nicht-Logiker abstrus anmutenden Behauptung widmen, dass die Bedeutung eines Satzes sein Wahrheitswert sei. 16 2.2 Die Bedeutung eines Satzes ist sein Wahrheitswert Für Frege als Logiker ist eine Affinität zur Betrachtung von Wahrheitswerten von Sätzen natürlich nahe liegend. Wenn man nun noch die Tatsache betrachtet, dass sich Wörter, die auf den gleichen Gegenstand verweisen, in gewöhnlichen Aussagesätzen austauschen lassen, ohne dass sich der Wahrheitswert der Sätze ändert, wird es etwas klarer, wie Frege zu dieser Auffassung kommen konnte. Die Argumentation läuft dabei etwa folgendermaßen: Wörter bedeuten Gegenstände. Es gibt Wörter, die genau dieselben Gegenstände bedeuten wie andere Wörter. Solche Wörter sind untereinander austauschbar, da sie eben auf genau dasselbe verweisen. Sätze bestehen aus mehreren (wohl sortierten) Wörtern, also müssen sie auch etwas bedeuten (Gesamtbedeutung). Was genau die Bedeutung eines Satzes darstellt, ist zu diesem Zeitpunkt der Argumentation jedoch noch offen gelassen. Wenn man in einem Satz ein Wort durch ein gleichbedeutendes Wort austauscht, dann muss die Gesamtbedeutung erhalten bleiben, weil die Bedeutung des neuen Wortes der des ersetzten Wortes entspricht. Um einen Kandidaten für die Gesamtbedeutung zu finden, fragt man sich nun, was bei einem solchen Austausch erhalten bleibt. Und in der Tat bleibt der Wahrheitswert eines Satzes bei solch einem Austausch erhalten. Daher nennt Frege den Wahrheitswert die Bedeutung eines Satzes. Bei der Untersuchung des Funktionsbegriffs in seinem Vortrag Function und Begriff führt er die Unterscheidung zwischen Sinn und Bedeutung und seine Setzung des Wahrheitswerts als die Bedeutung von Sätzen wie folgt ein: „Zunächst nehme ich zu den Zeichen +, - usw., die zur Bildung eines Funktionsausdruckes dienen, noch hinzu Zeichen wie =, >, <, sodass ich z.B. von der Funktion x 2 = 1 sprechen kann, wo x wie früher das Argument vertritt. Die erste Frage, die hier auftaucht, ist die nach den Werten dieser Funktion für verschiedene Argumente. Setzen wir einmal der Reihe nach für x -1, 0, 1, 2 so erhalten wir (-1)2 = 1, 02 = 1, 12 = 1, 22 = 1, Von diesen Gleichungen sind die erste und dritte wahr, die anderen falsch. Ich sage nun: »der Wert unserer Funktion ist ein Wahrheitswert« und unterscheide den Wahrheitswert des Wahren von dem des Falschen. Den einen nenne ich kurz das Wahre, den andern das 17 Falsche. Hiernach bedeutet z.B. »22 = 4« das Wahre ebenso, wie etwa »22« 4 bedeutet. Und es bedeutet »22 = 1« das Falsche. Demnach bedeuten »22 = 4«, »2 > 1«, »24 = 42« dasselbe, nämlich das Wahre, sodass wir in (22 = 4) = (2 > 1) eine richtige Gleichung haben. Es liegt hier der Einwand nahe, dass »22 = 4« und »2 > 1« doch ganz Verschiedenes besagen, ganz verschiedene Gedanken ausdrücken; aber auch »24 = 42« und »4 * 4 = 42« drücken verschiedene Gedanken aus; und doch kann man »2 4« durch »4 * 4« ersetzen, weil beide Zeichen dieselbe Bedeutung haben. Folglich haben auch »24 = 42« und »4 * 4 = 42« dieselbe Bedeutung. Man sieht hieraus, dass die Gleichheit der Bedeutung nicht die Gleichheit des Gedankens zur Folge hat. Wenn wir sagen »der Abendstern ist ein Planet, dessen Umlaufszeit kleiner ist als die der Erde«, so haben wir einen anderen Gedanken ausgedrückt als in dem Satze »der Morgenstern ist ein Planet, dessen Umlaufszeit kleiner ist als die der Erde«; denn, wer nicht weiß, dass der Morgenstern der Abendstern ist, könnte den einen für wahr, den andern für falsch halten; und doch muss die Bedeutung beider Sätze dieselbe sein, weil nur die Wörter »Abendstern« und »Morgenstern« mit einander vertauscht sind, welche dieselbe Bedeutung haben, d.h. Eigennamen desselben Himmelskörpers sind. Man muss Sinn und Bedeutung unterscheiden. »24« und »4 * 4« haben zwar dieselbe Bedeutung; d.h. sie sind Eigennamen derselben Zahl; aber sie haben nicht denselben Sinn; und daher haben »24 = 42« und »4 * 4 = 42« zwar dieselbe Bedeutung, aber nicht denselben Sinn; d.h. in diesem Falle: sie enthalten nicht denselben Gedanken.“3 2.2.1 Formaler Einwand Eine problematische Stelle der Argumentation findet sich gleich am Anfang des Zitats in Form der Einführung der Zeichen =, < und > als potentielle Zeichen zur Bildung eines Funktionsausdruckes. Durch diese unproblematisch wirkende Einführung schleicht sich nämlich der Wahrheitswert auf 3 Frege, G.: Function und Begriff – Jena: Verlag von Hermann Pohle, 1891, S. 14 18 die gleiche Ebene wie eine standardmäßige Funktion. Eine Funktion hat bisher (vor Freges Einführung von =, < und > als potentielle Zeichen zur Bildung eines Funktionsausdruckes) aber nur für Zahlenwerte die zugehörigen Funktionswerte berechnet. Überlegungen zur Wahrheit eines Satzes und zur Richtigkeit einer Rechnung sind aber prinzipiell andere Tätigkeiten als die Durchführung von Rechenoperationen. Es sind Tätigkeiten, die man überhaupt erst nach der Durchführung von Rechenoperationen oder nach dem erfolgreichen Verstehen eines Satzes durchführen kann, um diese zu überprüfen oder zu bewerten. Diese auf einem zweischrittigen Verfahren basierenden Funktionen sind also nicht genau gleichwertig mit den bisher definierten einschrittigen Funktionen. Dieser Unterschied scheint gering, aber genau solche Mängel bei den Feinheiten der Unterscheidungen sind es immer gewesen, die die Antinomien ermöglichten, die Frege und Russell die schwersten Probleme bei ihrem Projekt der Idealsprache bereitet haben. Diese feine Unterscheidung wird uns im Folgenden noch viel Aufschlussreiches über den Wahrheitswert offenbaren. Mit Hilfe einer formalen Analyse sieht man hier eigentlich genau, dass der Wahrheitswert eines Satzes ebenso wie der einer mathematischen Gleichung eine Funktion über den kompletten Satz (bzw. über die komplette Gleichung) ist. Die Wahrheit oder Falschheit eines Satzes liegt nicht in ihm selbst, sondern man kann jeden Satz verstehen und betrachten, ohne sich Gedanken über den Wahrheitswert zu machen. Man könnte sich zwar auch nur für den Wahrheitswert eines Satzes interessieren, ohne den Inhalt besonders wichtig zu nehmen, aber trotzdem müsste man den Satz überhaupt verstehen, um den Wahrheitswert ermitteln zu können. Dass Frege dies übersehen konnte, liegt an seiner Schreibweise, die nicht unserer heutigen entspricht. Er redet zwar schon von “f(x)“, aber er nennt die Funktionen dann immer, ohne das f(x) zu erwähnen. Daher fällt ihm nicht auf, dass er hier eigentlich Sätze mit zu vielen Gleichheitszeichen bildet. So nennt er „ x 2 = 1“ eine Funktion, die für -1 und 1 den Funktionswert „wahr“ und ansonsten „falsch“ liefert. Funktionen haben aber eigentlich die Form f(x) = an*xn + an-1*xn-1 + ... + a1x1 + a0x0 , so dass man in seinem Beispielfall „f(x) = x2 = 1“ als Funktion erhielte. Das aber ist unverständlich, ungrammatisch, ein nicht wohl geformter Term, oder wie auch immer man es nennen möchte. Der Funktionswert dieser Funktion kann schließlich nur entweder als x2 oder als 1 definiert sein und nicht beides gleichzeitig. Die formal korrekte Formulierung für Freges Absichten wäre f(x) = W(g(x),1), wobei g(x) = x2 und W(a,b) als zweistellige Funktion definiert ist, die für die Gleichung a = b Wahrheitswerte zurück liefert. 19 In dieser Darstellung wird offensichtlich, dass wir es hier nicht mit einer einfachen Funktion im bisherigen Sinne zu tun haben, sondern mit einer zweistelligen Funktion, die zudem auch noch von einer anderen Funktion abhängt. Zweistellige Funktionen sind zwar kein großartiges Problem, aber zumindest wurden von Frege bis zu dieser Stelle seines Vortrags keine Regeln für sie eingeführt. Man sieht hier jedenfalls, dass die Funktion W(a,b) erst in einem zweiten Schritt einen Wahrheitswert liefern kann. Zunächst muss die einfache Funktion g(x) einen Wert liefern, damit W(a,b) überhaupt einen Wahrheitswert liefern kann. Dies ist insofern interessant, als es rein formal zeigt, dass ein Wahrheitswert eines Satzes immer erst ermittelt werden kann, wenn die Bedeutung des Satzes (in diesem Fall durch den Funktionswert von g(x) symbolisiert) schon feststeht. Ob diese aus der formalen Beschreibung gewonnene Erkenntnis auch inhaltlich plausibel ist, werde ich in Kapitel 2.2.2 betrachten. Vorher soll jedoch noch kurz der folgende wichtige Punkt festgehalten werden: Die zweistellige Funktion W(a,b) führt eine prinzipiell andere Operation aus als unsere herkömmlichen Funktionen. Unsere herkömmlichen Funktionen haben einen Wert erhalten, mit dem der Funktionsvorschrift entsprechend Operationen (Berechnungen) durchgeführt wurden, die am Ende einen Funktionswert ergaben. Die Funktion W(a,b) benötigt jedoch zwei Werte und führt mit diesen zwei Werten keine herkömmlichen mathematischen Operationen, sondern einen Vergleich durch. Ein Vergleich ist aber genau das, was wir machen, wenn wir einen vollständigen und bereits verstandenen Satz überprüfen wollen. Wir begeben uns zunächst zu dem physischen Ort, der in dem Satz bezeichnet wird. Dort führen wir einen Vergleich durch zwischen der Beschreibung der Sachlage durch den Satz und unserer Wahrnehmung der Sachlage. Auf neuronaler Ebene lässt sich dies so deuten: Wir können am physischen Ort des Geschehens die neuronalen Aktivierungen, die nun aufgrund unserer Wahrnehmungsorgane entstehen, mit den neuronalen Aktivierungen vergleichen, die aufgrund der Wortzusammenstellung des Satzes entstanden waren und jederzeit wieder entstehen können. Die Ermittlung von Wahrheitswerten geschieht somit, indem zwei Wahrnehmungen miteinander verglichen werden, die natürlich neuronal realisiert sind. Wir sehen also an der obigen formalen Darstellung, dass der Wahrheitswert eines Satzes erst ermittelt werden kann, nachdem die Bedeutung des Satzes feststeht, und dass diese Ermittlung zudem einen vollkommen andersartigen Prozess als die Bedeutungsermittlung darstellt. Dieser Unterschied wird sich in meiner eigenen neuropsychologischen Bedeutungstheorie deutlich theoretisch umgesetzt finden. 20 2.2.2 Inhaltlicher Einwand Beschäftigen wir uns nun mit unserer ersten formalen Erkenntnis, dass ein Wahrheitswert eines Satzes immer erst ermittelt werden kann, wenn die Bedeutung des Satzes schon feststeht. Wenn wir nicht wissen, was die Bedeutung eines Satzes ist, weil er zum Beispiel in einer Sprache geschrieben ist, die wir nicht gelernt haben, so können wir seinen Wahrheitswert keinesfalls angeben, weil wir weder überhaupt neuronale Aktivierungen durch die Wörter erhalten, die über die bloßen Aktivierungen aufgrund der visuellen Wahrnehmung hinaus gehen, noch wissen, welche Wahrnehmung wir zum Vergleich heranziehen sollen. Natürlich würde es nicht reichen, wenn uns nun jemand sagen würde, auf welche Sachlage sich der Satz bezieht. Wir hätten dann zum Beispiel die Angabe, dass der Satz eine Aussage über das heutige Wetter macht. Damit haben wir aber nur eins von den zwei benötigten Vergleichsobjekten gegeben. Wir wissen, was wir zum Vergleich betrachten müssen. Solange wir den Satz nicht verstehen, nützt uns dieses Wissen aber gar nichts. Auch wenn wir Bruchstücke des Satzes übersetzen könnten, so dass nur ein Wort fehlte, und wir einen Teilsatz wie „Das Wetter wird heute ...“ hätten, kämen wir nicht weiter. Hieran sieht man, wie wichtig es ist, jedes Wort eines Satzes genau zu verstehen. Das letzte unbekannte Wort könnte „sonnig“ oder „regnerisch“ bedeuten, oder sogar etwas, was nach unserer eigenen Sprachgrammatik gar nicht passen würde, wie zum Beispiel „Schneesturm“. Wir sehen hier, dass die Bestimmung von Wahrheitswerten immer ausschließlich auf eine spezifische Sprache und gemäß einer neuropsychologischen Betrachtungsweise damit automatisch immer auf neurobiologische Prozesse bezogen ist. Man muss zunächst Wort für Wort neuronale Verknüpfungen erstellt haben, um einen probeweise zusammengestellten Satz verstehen zu können, um danach diesen Satz in Relation zur eigenen Wahrnehmung der Außenwelt setzen zu können, um so zu einer Zustimmung oder Ablehnung zu gelangen. Daraus folgt, dass der Begriff einer „absoluten Wahrheit“, wie Frege ihn in seinem Aufsatz Der Gedanke. Eine logische Untersuchung zu bestimmen versucht, völlig unnötig ist, da es uns immer nur um die Bestimmung von Wahrheitswerten in Bezug auf spezifische Sprachen gehen kann. Wenn eine Sprache „ausgestorben“ ist, weil die gesamte Gemeinschaft von Sprechern, die diese Sprache sprach, ausgestorben ist, dann sind die verbliebenen Schriftstücke mit sprachlichen Symbolen bedeutungslos. Die Verknüpfungen zwischen den beliebigen Zeichen und der Welt sind bei niemandem mehr neuronal realisiert, damit bezeichnen die Zeichen nichts mehr. Es sind nur noch schwarze Punkte auf weißem Papier, die momentan (bis zu ihrer potentiellen Entschlüsselung oder Deutung) niemand mehr von zufälligen Anordnungen unterscheiden kann. Aber um hier nicht zwischen die Fronten von Realisten und Antirealisten zu geraten, bedarf es noch folgender Erklärung: Es ist natürlich so, dass die Welt 21 unabhängig von uns Menschen und besonders unabhängig von unserer Wahrnehmung von ihr besteht. Die obige Relativierung der Wahrheitswerte bedeutet nicht, dass die Welt nicht zu jedem Zeitpunkt und an jedem Ort irgendwie gegeben ist. Wie die Welt beschaffen und was zu bestimmten Zeitpunkten der Fall ist, steht immer fest, aber unsere Beschreibung und unsere Zustimmung und Ablehnung von Beschreibungen basiert auf unseren Sprachen und damit auf unserer neuronalen Realisierung von Spracherwerb und Verwendung. Dasjenige, was uns da festzustehen scheint, wenn wir in ganz unterschiedlichen Sprachen die Welt „gleich“ beschreiben können, ist jedoch nicht eine platonische Idee oder ein absoluter Wahrheitswert, wie Frege meint, sondern die Konstellation der Gegenstände in der Welt (die Sachlage). Sachlagen sind aber weder wahr noch falsch, sondern sie bestehen einfach. „Wahr“ oder „falsch“ nennen wir nur die Beschreibung einer Sachlage in einer Sprache. Hiermit lässt sich also inhaltlich begründen, was ich oben schon formal begründet hatte: Der Wahrheitswert eines Satzes ist etwas, das von einer Funktion festgelegt wird, deren Argumente die Bedeutung des Satzes und die Sachlagen in der Welt sind. Offenbar ist damit gezeigt, dass man den Wahrheitswert eines Satzes auf keinen Fall, wie Frege es macht, als die Bedeutung eines Satzes setzen kann, da die Bedeutung eines Satzes schon bekannt sein muss, damit ihr ein Wahrheitswert durch die Wahrheitsfunktion (unter Zuhilfenahme der Welt) zugeordnet werden kann. Trotz dieser stichhaltigen Begründung, aus welchen formalen sowie inhaltlichen Gründen der Wahrheitswert nicht als Bedeutung des Satzes gewählt werden sollte, könnte man mir vorwerfen, Freges Gesamtkonzept dadurch insofern Unrecht zu tun, als er einen „absoluten“ Wahrheitsbegriff vertritt, während ich Wahrheit nur relativ im Hinblick auf eine Sprache verstehe. Wieso sollte man Wahrheit lieber nur als einen epistemischen und damit relativen Begriff verwenden, statt als absoluten Begriff, der Wahrheit in einem anderen Reich verordnet, das nicht von uns Menschen und unseren Konventionen abhängig ist? Ich selbst tendiere eben im Gegensatz zu Frege dazu, philosophische Theorien zu bevorzugen, die alle oder zumindest möglichst viele unüberprüfbare theoretische Entitäten (wie Freges Begriff des „Gedanken“ oder sein Begriff der „absoluten Wahrheit“ es sind) weglassen, insofern diese Theorien gleich erklärungsmächtig sind. Sollten darum meine obigen Ausführungen für Vertreter des „realistischen Wahrheitsbegriffs“ nicht zwingend sein, so gibt es auch noch ein weiteres Argument, wieso man den Wahrheitswert nicht als die Bedeutung von Sätzen festlegen sollte. Man nimmt sich nämlich damit die Genauigkeit der Abbildung. Während man mit Namen auf wiedererkennbare, räumlich abgeschlossene Gegenstände und mit Eigenschaftswörtern auf spezifische immer wiederkehrende Messwerte unserer Sinne verweist, und einem dadurch auf der Wortebene alle Möglichkeiten der Abbildung offen stehen, könnten Sätze 22 dem Detailreichtum der Welt plötzlich nicht gerecht werden, sondern sie hätten nur zwei Werte („wahr“ und „falsch“), auf die sie abbilden würden. Das ist schon aus rein pragmatischen Gründen ein nicht wünschenswerter Verlust der Informationsmenge, die ein Satz übertragen könnte. Betrachten wir daher eine alternative Konzeption. 2.2.3 Der Sachverhalt als Alternative zum Wahrheitswert als Satzbedeutung Freges Argumentation für seine fragwürdige Setzung der Satzbedeutung als Wahrheitswert läuft wie oben erwähnt über die Substitution salva veritate von bedeutungsgleichen Wörtern. Diese Argumentation ist nicht falsch, die Frage ist jedoch, ob nicht vielleicht noch etwas anderes als der Wahrheitswert bei einer solchen Substitution salva veritate unverändert bleibt. Nur weil der Wahrheitswert ein Kandidat ist, der die für die Gesamtbedeutung geforderten Voraussetzungen erfüllt, muss er ja nicht die richtige Lösung sein. Eventuell gibt es noch andere Kandidaten, die unsere Forderungen auch erfüllen und auch ansonsten treffender anmuten, weil sie gewisse Nachteile des Wahrheitswerts nicht aufweisen. Immerhin scheint es doch etwas seltsam zu sein, dass Wörter auf Gegenstände verweisen, aber strukturierte Wörtermengen nicht auf strukturierte Gegenstandsmengen, sondern auf einmal auf eine (metasprachliche) Bewertung der Zusammenstellung der Wörter hinsichtlich der real existierenden Verhältnisse (denn nichts anderes ist der Wahrheitswert). Ich würde eine Theorie vorziehen, in der man mit Wörtermengen auf Gegenstandsmengen verweist. Wittgenstein liefert im Tractatus eine solche Bedeutungstheorie, die die konzeptionellen Schwachstellen der Theorien seiner Lehrer Frege und Russell in knappen Sätzen wie im Vorbeigehen korrigiert. Seine Definition der Bedeutung von Wörtern im Tractatus entspricht Freges Verständnis: 3.202 Die im Satze angewandten einfachen Zeichen heißen Namen. 3.203 Der Name bedeutet den Gegenstand. Der Gegenstand ist seine Bedeutung.4 Die Bedeutung eines Satzes ist bei Wittgenstein jedoch nicht der Wahrheitswert des Satzes, sondern die Summe der Wortbedeutungen und ihrer Relationen. Wittgensteins Satzbedeutung ist somit ein strukturierter Ausschnitt der Welt, den er „Sachverhalt“ nennt: 2.01 4 Der Sachverhalt ist eine Verbindung von Gegenständen (Sachen, Dingen). TLP, S. 19 23 2.0271 Die Konfiguration der Gegenstände bildet den Sachverhalt. 3.21 Der Konfiguration der einfachen Zeichen im Satzzeichen entspricht die Konfiguration der Gegenstände in der Sachlage. 4.01 Der Satz ist ein Bild der Wirklichkeit. Der Satz ist ein Modell der Wirklichkeit, so wie wir sie uns denken.5 Bei Wittgenstein verweisen also Sätze (wohl strukturierte Wörtermengen) auf Konfigurationen von Gegenständen. Auch in dieser Theorie kann man gleichbedeutende Wörter austauschen, ohne die Bedeutung des Satzes zu ändern. Und darüber hinaus gibt es beliebig viele Bedeutungen von Sätzen, nicht nur zwei wie bei Frege. Auch wenn man Wittgensteins Abbildtheorie aus heutiger Sicht mit neurobiologischen Erkenntnissen auffrischen sollte, so scheint sie mir doch viel sinnvoller zu sein als Freges Theorie, was die Bedeutung des Satzes sei. Der Schritt vom Wort zum Satz lässt sich mit einer neurobiologischen Beschreibung noch viel leichter lösen, aber die Grundvorstellung des Tractatus stimmt mit ihr überein. Jedes Wort aktiviert das ihm entsprechende Neuronennetz für einen gewissen Zeitraum. Eine Wortform aktiviert dabei auch die entsprechenden Wahrnehmungsund Gedächtnisdaten und setzt alle relevanten damit im Zusammenhang stehenden Verknüpfungen in erhöhte Aktivierungs- und Abrufbereitschaft. Das gilt natürlich für jedes einzelne Wort. Wird ein Satz geäußert, dann sind alle diese Aktivierungen gleichzeitig gegeben, wobei hier mit Gleichzeitigkeit auf keinen Fall behauptet werden soll, dass die Information über die Reihenfolge der Wortäußerungen verloren ginge. Diese ist ja ganz im Gegenteil essentiell für die richtige grammatische Analyse und somit für die Satzbedeutung. Gemeint ist damit nur, dass die Aktivierungen der anderen Wörter des Satzes noch nicht wieder abgeklungen sind. Die Bedeutung eines Satzes wird also durch die Summe der neuronalen Aktivierungen unter Beachtung der Reihenfolge der einzelnen Wörter (geleistet durch ein spezielles Analysemodul für grammatische Strukturen) wie ein Puzzlebild zusammengesetzt. Doch nun zurück zu Frege und seiner zweiten problematischen Entität, dem Sinn eines Satzes. 2.3 Freges Sinn eines Satzes Was Frege unter „Sinn“ versteht und zur Erklärung welcher Phänomene er den Sinn zu benötigen glaubt, wird vor allem deutlich in seinem Aufsatz „Über Sinn und Bedeutung“. Aufgrund der Komplexität der Argumentations- und Textstruktur und der Menge der kursierenden 5 TLP, S. 11, S. 14, S. 19 und S. 26 24 Fehlinterpretationen im Anschluss an Dummett zitiere ich im Folgenden abschnittsweise ohne Auslassungen und erläutere die jeweiligen Textpassagen direkt im Anschluss. Die Hauptgedanken meiner Interpretation verdanke ich dabei der Diskussion in Pardeys Seminaren zu Identitätsaussagen und seinen Büchern Identität, Existenz und Reflexivität und Begriffskonflikte in Sprache, Logik, Metaphysik. „Die Gleichheit6 fordert das Nachdenken heraus durch Fragen, die sich daran knüpfen und nicht ganz leicht zu beantworten sind. Ist sie eine Beziehung? eine Beziehung zwischen Gegenständen? oder zwischen Namen oder Zeichen für Gegenstände?“7 Dies ist Freges Einleitung in das Thema. Dabei ist es wichtig zu wissen, dass er eben nicht primär vor hat, den Begriff der Identität ausgiebig zu untersuchen. Der Begriff der Identität scheint Frege vergleichsweise unproblematisch, obwohl gerade er mit seinem veränderten Gebrauch des Begriffs zu einer Erschwerung des Verständnisses des Identitätsbegriffs und verwandter Begriffe beigetragen hat. Durch seine Aufgabe der Unterscheidung zwischen mathematischer Gleichheit und Identität, für die er zunächst noch zwei verschiedene Zeichen eingeführt hatte, hat Frege den ohnehin schon problematischen Identitätsbegriff noch weiter beladen. Besonders da wir mathematische Gleichungen im täglichen Leben häufig verwenden, während wir so gut wie nie über Gegenstandsidentität reden, scheint hier bei Frege und seitdem in der gesamten Identitätsdiskussion der verwandte Begriff der Gleichheit fälschlicherweise unter den Identitätsbegriff subsumiert, und so eine Analyse oder klare Definition des Identitätsbegriffs beinahe unmöglich gemacht worden zu sein. Dies führte dazu, dass Wittgenstein im Tractatus später einen völlig anderen Ansatz entwickelte, insofern als er den Identitätsbegriff für vollkommen unnütz befand, da sich in einer formal korrekten Sprache die Gleichheit des bezeichneten Gegenstandes einfach in der Gleichheit der verwendeten Zeichen widerspiegelt, und Selbstidentität eine gehaltlose Aussage darstellt. 5.53 Gleichheit des Gegenstandes drücke ich durch Gleichheit des Zeichens aus, und nicht mit Hilfe eines Gleichheitszeichens. Verschiedenheit der Gegenstände durch Verschiedenheit der Zeichen. 6 Frege erklärt an dieser Stelle in einer Fußnote, was er mit Gleichheit alles bezeichnet: »Ich brauche dies Wort im Sinne von Identität und verstehe „a = b“ in dem Sinne von „a ist dasselbe wie b“ oder „a und b fallen zusammen“.«. 7 Frege, G.: Über Sinn und Bedeutung – in Zeitschrift für Philosophie und philosophische Kritik, NF 100, 1892 S. 25 in folgenden Fußnoten nur noch abgekürzt als SB. 25 5.5303 Beiläufig gesprochen: Von zwei Dingen zu sagen, sie seien identisch, ist ein Unsinn, und von Einem zu sagen, es sei identisch mit sich selbst, sagt gar nichts.8 Doch dies soll an dieser Stelle eine Randbemerkung bleiben. Wichtig ist in diesem Zusammenhang nur, dass Frege hier nicht die verschiedenen Interpretationsmöglichkeiten des Identitätsbegriffs vergleichen und sein eigenes Verständnis rechtfertigen will, sondern dass er Identitätssätze als Beispiele zur Erläuterung seiner These heranzieht, dass mit Wörtern und Sätzen immer zwei Entitäten verknüpft sind, nämlich der „Sinn“ und die „Bedeutung“. Am Ende meiner Ausführungen werden wir sehen, dass, sobald der Identitätsbegriffs analysiert und besser verstanden wurde, Identitätssätze nicht mehr als weiterer Anlass zur Rechtfertigung von Freges Sinnbegriff dienen können, welchen er überhaupt erst aufgrund seiner merkwürdigen Definition des Bedeutungsbegriffs in Bezug auf Sätze benötigt. Frege fährt folgendermaßen fort: „Das letzte hatte ich in meiner Begriffsschrift angenommen. Die Gründe, die dafür zu sprechen scheinen, sind folgende: a = a und a = b sind offenbar Sätze von verschiedenem Erkenntniswert: a = a gilt a priori und ist nach Kant analytisch zu nennen, während Sätze von der Form a = b oft sehr wertvolle Erweiterungen unserer Erkenntnis enthalten und a priori nicht immer zu begründen sind. Die Entdeckung, dass nicht jeden Morgen eine neue Sonne aufgeht, sondern immer dieselbe, ist wohl eine der folgenreichsten in der Astronomie gewesen. Noch jetzt ist die Wiedererkennung eines kleinen Planeten oder eines Kometen nicht immer etwas Selbstverständliches. Wenn wir nun in der Gleichheit eine Beziehung zwischen dem sehen wollten, was die Namen "a" und "b" bedeuten, so schiene a = b von a = a nicht verschieden sein zu können, falls nämlich a = b wahr ist. Es wäre hiermit eine Beziehung eines Dinges zu sich selbst ausgedrückt, und zwar eine solche, in der jedes Ding mit sich selbst, aber kein Ding mit einem anderen steht. Was man mit a = b sagen will, scheint zu sein, dass die Zeichen oder Namen "a" und "b" dasselbe bedeuten, und dann wäre eben von jenen Zeichen die Rede; es würde eine Beziehung zwischen ihnen behauptet.“9 Frege gibt hier zwei Möglichkeiten an, was mit einem Identitätssatz potentiell gemeint sein könnte. Er unterscheidet zwischen einer gegenstandsbezogenen Interpretation und einer zeichenbezogenen Interpretation. Die gegenstandsbezogene Interpretation geht davon aus, dass in einem Identitätssatz über Gegenstände gesprochen wird. Mathematische Sätze wie „a = b“ würden dann interpretiert als 8 9 TLP, S. 62 SB, S. 26 26 „die Gegenstände a und b sind ein und derselbe Gegenstand“. Es wäre also immer nur von der Selbstidentität eines Gegenstands die Rede, der manchmal unter einem, manchmal unter zwei verschiedenen Namen bekannt ist. Da wir die Selbstidentität von Gegenständen alltäglich niemals ansprechen würden, sondern immer selbstverständlich voraussetzen, mutet diese Interpretation recht seltsam an. Die einzige realistische Anwendung, bei der wir einen Identitätssatz äußern könnten, wäre im Falle eines überraschenden Wiedersehens eines Gegenstands oder auch einer Person. In einem solchem Fall wird ein zumeist sprachbasierter Identifizierungsprozess gestartet, an dessen Ende dann potentiell von etwas ausgesagt wird, dass es mit etwas zuvor gesehenem identisch ist. Aber ein solches Beispiel der Wiedererkennung würde man in formaler Schreibweise treffenderweise mit Zeitindizes versehen. Man hätte dann einen Satz von der Form „at1 = at2“ und eben nicht einen Satz der Form „a = b“. Diese These, dass Identitätsaussagen immer zeitindiziert sein müssen, um sinnvoll zu sein, findet sich auch bei David Hume im Rahmen seiner Erkenntnistheorie: „Wir können, wenn wir es irgend genau nehmen, nicht sagen, ein Gegenstand sei mit sich selbst identisch, es sei denn, dass wir damit sagen wollen, der Gegenstand, als in einem Zeitpunkt existierender, sei identisch mit sich selbst, als in einem anderen Zeitpunkt existierendem.“10 Zu Recht distanziert Frege sich daher hier weiterhin, genau wie schon in der Begriffsschrift, von dieser gegenstandsbezogenen Interpretationsmöglichkeit von Identitätssätzen. Er stellt in Abgrenzung zum gegenstandsbezogenen Identitätsbegriff fest: „Was man mit a = b sagen will, scheint zu sein, dass die Zeichen oder Namen "a" und "b" dasselbe bedeuten, und dann wäre eben von jenen Zeichen die Rede; es würde eine Beziehung zwischen ihnen behauptet.“11 Seine vorsichtige Formulierungsweise und seine Verwendung des Konjunktivs signalisieren keine Ablehnung der zeichenbezogenen Interpretation, sondern leiten über zu gewissen Detailproblemen, die sich in Hinsicht auf ebendiesen Identitätsbegriff ergeben, anhand derer er zeigen will, dass man sowohl „Sinn“ als auch „Bedeutung“ gemäß seinen Definitionen benötigt, um alle sprachlichen Phänomene erklären und verstehen zu können. Schon in seinem Vortrag Function und Begriff hatte er die Unterscheidung zwischen Sinn und Bedeutung eingeführt, aber eine genauere Darlegung, 10 11 Hume, D.: Ein Traktat über die menschliche Natur, Bd. 1. Über den Verstand – Hamburg, 1989, S. 268 SB, S. 26 27 warum diese Unterscheidung dringend erforderlich sei, mit dem Verweis auf seinen kommenden Aufsatz Über Sinn und Bedeutung noch nicht durchgeführt: „Ich verkenne nicht, dass diese Wendung zunächst willkürlich und künstlich erscheinen mag, und dass eine eingehendere Begründung gefordert werden könnte. Man vergl. meinen nächstens erscheinenden Aufsatz Über Sinn und Bedeutung in der Zeitschrift für Philosophie und phil. Kritik.“12 Frege führt nun zunächst weiter aus, was es genau bedeutet und was daraus folgt, wenn man die zeichenbezogene Interpretation des Identitätsbegriffs annimmt: „Aber diese Beziehung bestände zwischen den Namen oder Zeichen nur, insofern sie etwas benennen oder bezeichnen. Sie wäre eine vermittelte durch die Verknüpfung jedes der beiden Zeichen mit demselben Bezeichneten. Diese aber ist willkürlich. Man kann keinem verbieten, irgendeinen willkürlich hervorzubringenden Vorgang oder Gegenstand zum Zeichen für irgend etwas anzunehmen.“13 Dann konfrontiert er diese Ausführungen mit einer problematischen Aussage, die intuitiv richtig zu sein scheint, und die nicht zugleich mit der zeichenbezogenen Interpretation wahr sein kann. Die Verknüpfung eines Zeichens mit einem Gegenstand ist seinem Einwand gemäß willkürlich. Danach erklärt er, was aus der Verknüpfung dieser Annahme mit der Annahme der zeichenbezogenen Interpretation der Identität folgt, und wieso es deswegen noch die Entität des Sinns geben muss. Doch bevor ich mir anschauen werde, wie die Argumentation weiter verläuft, möchte ich hier schon kurz widersprechen: Die Verknüpfungen sind zwar in dem Sinne willkürlich, dass es keinen Grund gibt, einen bestimmten Gegenstand mit einem bestimmten Laut- oder Schriftbild zu verknüpfen, sie sind jedoch nicht willkürlich in dem Sinne, in dem Frege es hier aufgrund seines nachgelegten Arguments zu meinen scheint. Eine willkürliche Verknüpfung von einem Lautbild mit einem Gegenstand, die von den anderen Sprechern einer Sprachgemeinschaft nicht geteilt wird, hat keinen praktischen sprachlichen Nutzen und ist in dem Sinne also auch kein Wort. Falls diese Äußerung überhaupt verstanden wird, wird der Sprecher im Normalfall aufgefordert werden, doch bitte die generell üblichen Wörter zu verwenden, um sich auszudrücken. Doch nehmen wir an, dass Frege nur die Willkürlichkeit der Verknüpfung von Zeichen und Gegenstand von anerkannten Wörtern 12 13 Frege, G.: Function und Begriff – Jena: Verlag von Hermann Pohle, 1891, S. 14 SB, S. 26 28 einer Sprache gemeint und nur die Wahl seiner Begründung ungeschickt getroffen habe, und folgen dem Argumentationsgang weiter: „Damit würde dann ein Satz a = b nicht mehr die Sache selbst, sondern nur noch unsere Bezeichnungsweise betreffen; wir würden keine eigentliche Erkenntnis darin ausdrücken. Das wollen wir aber doch gerade in vielen Fällen. Wenn sich das Zeichen "a" von dem Zeichen "b" nur als Gegenstand (hier durch die Gestalt) unterscheidet, nicht als Zeichen; das soll heißen: nicht in der Weise, wie es etwas bezeichnet: so würde der Erkenntniswert von a = a wesentlich gleich dem von a = b sein, falls a = b wahr ist. Eine Verschiedenheit kann nur dadurch zustande kommen, dass der Unterschied des Zeichens einem Unterschiede in der Art des Gegebenseins des Bezeichneten entspricht.“14 Frege argumentiert nun weiter, dass wir unter Annahme der Willkürlichkeit der Verknüpfung keine „eigentliche Erkenntnis“ in Identitätssätzen ausdrücken können, sondern in diesen Sätzen „nur“ Aussagen über unsere Bezeichnungsweise machen. Das ist bis dahin vollkommen korrekt. Freges Fehler besteht nun darin, dass er glaubt, dass über die Erkenntnis hinaus, dass man bisher zwei verschiedene Namen für etwas verwendet hat, was nur ein Gegenstand ist, etwas in einem Identitätssatz ausgedrückt wird, oder auch nur werden sollte. Nun kann man schon über den Begriff „eigentliche Erkenntnis“ streiten, denn wieso sollte eine Erkenntnis über unsere sprachlichen Gepflogenheiten eine weniger wertvolle Erkenntnis als eine Erkenntnis über einen Himmelskörper (wie die Venus) sein? Das liegt natürlich daran, dass zu Freges Lebzeiten psychologische Entitäten noch kaum auf physische Prozesse zurückgeführt wurden, so dass er überhaupt einen Unterschied zwischen Erkenntnissen über Gegenstände und Erkenntnissen über neuropsychologische Prozesse sehen konnte. Doch auch dieses Detail in der Ausdrucksweise soll uns nicht weiter kümmern. Worum es ihm offensichtlich geht, ist schließlich, dass seiner Meinung nach in Identitätssätzen wie „der Abendstern ist der Morgenstern“ ein Gehalt vorzuliegen scheint, der sich auf die Gegenstände in der Welt bezieht, nicht nur auf unsere Zeichen und diesbezügliche Konventionen. Dabei sind gerade diese Fälle, in denen wir angeblich „aber doch gerade“ eine „eigentliche Erkenntnis“ ausdrücken wollen, fälschlicherweise unter die Identitätssätze gemischt worden. Die Sätze, die man äußern sollte, um die zwei neuen Erkenntnisse über die Venus adäquat auszudrücken, sollten zum Zeitpunkt der Erkenntnis etwa lauten: „Wir haben die Venus bisher mit den zwei verschiedenen Wörtern „Morgenstern“ und „Abendstern“ bezeichnet, weil wir sie nicht wiedererkannt hatten. Sie ist zudem ein Planet und kein Stern.“ 14 SB, S. 26 29 In diesen Sätzen ist offensichtlich überhaupt nicht mehr von Identität die Rede, und es ist nicht abzusehen, warum es vorteilhaft sein sollte zu versuchen, ihre Inhalte mit einem Identitätssatz auszudrücken. Weiterhin gibt es aus heutiger Sicht eigentlich gar keinen Grund mehr, von der Venus mit ihren alten Namen zu reden, das heißt, dass man außerhalb von sprachhistorischen Zusammenhängen keine Sätze mit den Wörtern „Abendstern“ und „Morgenstern“ bilden sollte, geschweige denn zu versuchen, aus solchen Sätzen philosophische Erkenntnisse zu gewinnen. Im Gegenteil ist Freges Versuch, die mathematische Gleichheit, die Gleichheit von Attributen, die Definition, die Konstanz der Gegenstände über die Zeit, und die Wiedererkennung alle unter einen einzigen Begriff zu subsumieren und alle diese verschiedenen Sätze in formaler Schreibweise mit einem Gleichheitszeichen zu schreiben, die Ursache für alle späteren Verwirrungen bezüglich der Bedeutung des Identitätsbegriffs. „Es seien a, b, c die Geraden, welche die Ecken eines Dreiecks mit den Mitten der Gegenseiten verbinden. Der Schnittpunkt von a und b ist dann derselbe wie der Schnittpunkt von b und c. Wir haben also verschiedene Bezeichnungen für denselben Punkt, und diese Namen ("Schnittpunkt von a und b", "Schnittpunkt von b und c") deuten zugleich auf die Art des Gegebenseins, und daher ist in dem Satze eine wirkliche Erkenntnis enthalten.“15 Frege denkt also, dass der Identitätssatz des mathematischen Beispiels eine Erkenntnis enthält, die darüber hinausgeht, dass wir mit „der Schnittpunkt von a und b“ auf dasselbe referieren wie mit „der Schnittpunkt von b und c“. Die scheinbar enthaltene Erkenntnis stammt aber nicht aus dem Satz „Schnittpunkt von a und b = Schnittpunkt von b und c“, sondern aus der Analyse der Informationen in den zusätzlich gegebenen Sätzen, die teilweise sogar nur unter Hinzuziehung mathematischen Grundwissens geleistet werden kann. Wenn man einem Leser nur den Satz „Schnittpunkt von a und b = Schnittpunkt von b und c“ geben würde, dann könnte er daraus nicht schlussfolgern, dass es uns mit a, b und c gerade um die Seitenhalbierenden im Dreieck geht, und dass diese sich alle immer in genau einem Punkt, dem Schwerpunkt des Dreiecks, treffen. Diese Information ist also nicht ein Teil des eigentlichen Identitätssatzes. Daher könnte ein Leser aus dem Satz „Schnittpunkt von a und b = Schnittpunkt von b und c“ schlussfolgern, dass a und c potentiell Geraden mit gleichen Stütz- und Richtungsvektoren sind, was im Beispiel aufgrund der Zusatzinformationen, wie a, b und c konstruiert wurden, unmöglich ist. Gleichzeitig könnte ein mathematisch ungebildeterer Leser zum Beispiel nicht einmal realisieren, dass sich auch a und c nach dieser Beschreibung im gleichen Punkt schneiden müssen. Wenn man also Freges „eigentliche 15 SB, S. 26 30 Erkenntnis“ ausdrücken möchte, sollte man dies dementsprechend nicht mit dem Identitätssatz versuchen, da dieser, wie gerade gezeigt, die benötigten Informationen einfach nicht enthält, sondern zum Beispiel mit einem der folgenden Sätze, in denen, genau wie bei den alternativen Sätzen bezüglich der Venus, gar nicht von Identität die Rede ist: 1) Der Schwerpunkt eines Dreiecks kann gefunden werden, indem man zwei beliebige Seitenhalbierenden des Dreiecks zeichnet. 2) Die drei Seitenhalbierenden eines Dreiecks schneiden sich immer in genau einem Punkt, dem Schwerpunkt S. „Es liegt nun nahe, mit einem Zeichen (Namen, Wortverbindung, Schriftzeichen) außer dem Bezeichneten, was die Bedeutung des Zeichens heißen möge, noch das verbunden zu denken, was ich den Sinn des Zeichens nennen möchte, worin die Art des Gegebenseins enthalten ist. Es würde danach in unserem Beispiele zwar die Bedeutung der Ausdrücke "der Schnittpunkt von a und b" und "der Schnittpunkt von b und c" dieselbe sein, aber nicht ihr Sinn. Es würde die Bedeutung von "Abendstern" und "Morgenstern" dieselbe sein, aber nicht der Sinn.“16 Mit dem Beispiel glaubt Frege gezeigt zu haben, dass es nur eine Erklärung gibt für die gesamte Problematik der Unterschiedlichkeit der Bedeutung von Sätzen, in denen nur eine Ersetzung eines Wortes mit einem gleichbedeutenden Wort ohne Veränderung des Wahrheitswerts des Satzes vorgenommen wurde. Laut ihm muss es etwas geben, dass für unseren Erkenntnisgewinn aus Identitätssätzen der Form „a = b“, im Unterschied zu solchen der Form „a = a“ verantwortlich ist, und diese Entität nennt er den Sinn der Zeichen. Ich habe jedoch im Gegensatz dazu oben gezeigt, dass diese Erkenntnisse, die scheinbar über den Informationsgehalt, dass zwei Wörter auf denselben Gegenstand verweisen, hinausgehen, überhaupt nicht in den Identitätssätzen enthalten sind. Sie sind Erkenntnisse, die anderweitig erworben werden, und jemandem, der sie noch nicht erworben hat, nur durch die reine Nennung der Identitätssätze nicht übermittelt werden können. Das Problem der Erklärung von „informativen Identitätsaussagen“, wie es nach Frege genannt wurde, besteht also überhaupt nicht, da es in diesem Sinne keine informativen Identitätsaussagen gibt. Daher ist auch Freges Einführung des Sinns als zusätzliche Entität zur Erklärung des Problems der informativen Identitätsaussagen nicht erforderlich. 16 SB, S. 26/27 31 2.4 Freges Entitätsverdoppelung: Sinn und Bedeutung Fassen wir nochmal zusammen: Frege setzt zunächst einen Gegenstand als die Bedeutung eines Wortes, aber zugleich den Wahrheitswert als die Bedeutung eines Satzes. Das ist der grundlegende Fehler seiner Bedeutungskonzeption. Unter Annahme der Korrektheit dieser These untersucht er, wie die problematischen Schlussfolgerungen aus dieser These zu seiner Zufriedenheit behandelt werden können. Die neue Vokabel des „Sinns“ eines Satzes muss nun her, weil Sätze sonst nur wahr oder falsch sein können, aber keinen Inhalt haben. Die Argumentationsstruktur, um den Sinn einzuführen, sieht dabei folgendermaßen aus: Voraussetzung (1) „a = a“ und „a = b“ haben verschiedenen Erkenntniswert nach Kants Unterscheidung zwischen analytischen und synthetischen Urteilen. Annahme (1) Identitätssätze sind gegenstandsbezogen zu interpretieren. => Widerspruch (1) Voraussetzung (1) ergibt mit Annahme (1) einen Widerspruch. Annahme (1) wird daher verworfen zugunsten von Annahme (2). Annahme (2) Identitätssätze sind zeichenbezogen zu interpretieren. Annahme (3) Die Verknüpfung zwischen Zeichen und Bezeichnetem ist willkürlich. => Widerspruch (2) Voraussetzung (1) ergibt mit Annahme (2) und (3) einen Widerspruch. Verworfen wird die Annahme (3), aber nicht völlig, sondern nur insofern, als ihr Geltungsbereich als eingeschränkt erachtet wird (Verknüpfungen zwischen Zeichen und Bezeichnetem sind nur potentiell willkürlich) und die „Fälle mit eigentlichem Erkenntniswert“ eben genau nicht als die Fälle mit willkürlicher Verknüpfung eingestuft werden, sondern als die Fälle mit Verknüpfung über den Sinn. Zu Recht kann man sich hier die Frage stellen, wieso Frege nicht die zweite Annahme verwirft, statt der dritten, oder wieso die erste Annahme keinen Rettungsversuch verdient hat, wie die zweite ihn jetzt erhält. Möglich wäre außerdem auch, die Grundvoraussetzung zu verwerfen, wenn Annahme (1) und Annahme (2) die einzigen Möglichkeiten darstellen und beide mit der Voraussetzung zusammen unerwünschte Schlussfolgerungen produzieren. Das hieße natürlich, Kants Unterscheidung zwischen analytischen und synthetischen Urteilen anzuzweifeln, was aus heutiger Sicht jedoch weit weniger ein Sakrileg wäre als noch zu Freges Zeiten. Eine Kritik dieser 32 Unterscheidung findet sich später sowohl bei Wittgenstein als auch bei Quine. Aber alle diese Möglichkeiten kommen für Frege natürlich nicht in Betracht, denn er untersucht hier ja nicht unvoreingenommen die Sachverhalte im Themenbereich der Identitätssätze, sondern zieht diese heran, da er sie für nützlich befindet, um seine problematische Bedeutungstheorie zu stützen. Er glaubt, den Sinn aufgrund dieser Argumentation zu Recht eingeführt zu haben. In Wahrheit hat er aber nur die Bedeutung für Sätze nicht analog zur Bedeutung von Wörtern gesetzt, daher muss er das, was eigentlich die Bedeutung von Sätzen ist, ihren „Sinn“ nennen. Das führt wiederum dazu, dass er nun eigentlich den Begriff des „Sinns“ für die Anwendung auf Wörter erklären müsste, was nicht gelingen kann. Mit der ungenauen Angabe, dass der Sinn eines Wortes eben die „Art der Gegebenheitsweise“ sei, was insbesondere für Gegenstands- und Personennamen vollkommen unklar bleibt, wird nur darüber hinweggetäuscht, dass seine Unterscheidung von Sinn und Bedeutung so nicht funktioniert. Schon Russell hatte ihm diesbezüglich geschrieben: „Im Falle eines einfachen Eigennamen wie >Socrates< kann ich zwischen Sinn und Bedeutung nicht unterscheiden; ich sehe nur die Idee, die psychologisch ist, und das Objekt. Besser gesagt: Ich gestehe den Sinn gar nicht zu, und sehe nur die Idee und die Bedeutung.“17 Es gibt eben nicht den Sinn eines Wortes, den Sinn eines Satzes, die Bedeutung eines Wortes und die Bedeutung eines Satzes als vier unterscheidbare Entitäten, bzw. als zwei unterscheidbare Kategorien mit jeweils zwei verschiedenen analogen Anwendungsfeldern, wie die folgende Tabelle (Abb. 2.1) es im Sinne Freges darzustellen versucht. Die kursiv ausgefüllten Felder stellen dabei die Problemfälle dar. Frege Wort (Name / Prädikat) Satz Bedeutung Gegenstand / Eigenschaft Wahrheitswert Sinn Gegebenheitsweise Gedanke Abbildung 2: Freges Unterscheidung von Sinn und Bedeutung für Wörter und Sätze Gemäß meiner Analyse gibt es nur die Bedeutung, und zwar jeweils anwendbar auf die zwei Kategorien Wörter und Sätze (vgl. Abb. 2.2). Davon vollkommen unabhängig gibt es die Wahrheitswerte als Ergebnisse eines Vergleichs der Welt mit der zugehörigen sprachlichen 17 Gabriel, Gottfried u.a. (Hg.): Gottlob Frege: Wissenschaftlicher Briefwechsel, Hamburg 1976, S.251 33 Weltbeschreibung, anwendbar nicht auf Wörter, sondern nur auf Sätze, deren Bedeutung zudem schon geklärt sein muss. Und wiederum unabhängig davon gibt es noch den Zweck einer Äußerung eines Satzes, der später bei Austin und Searle in den Blick gerät (vgl. Abb. 2.3). Vielleicht liegt es gerade auch an unserer ungenauen Trennung und ähnlichen Verwendung der Begriffe „Sinn“ und „Zweck“, dass man sich von Frege hier so aufs Glatteis hat führen lassen. Die folgenden Tabellen veranschaulichen meine gerade ausgeführte logische Verortung der Begriffe „Bedeutung“, „Gegenstand“, „Gedanke“ und „Wahrheitswert“ im Gegensatz zu Freges Definitionsversuch: Wort Bedeutung Satz Gegenstand / Eigenschaft Gegenstandskomposition = Wittgensteins Sachlage 18 Abbildung 3: Bedeutung von Wörtern und Sätzen Wort Satz Sprache als potentiell korrekte Weltbeschreibung --- Wahrheitswert Sprache als Handlung --- Zweck und Wirkung einer Äußerung Abbildung 4: unterschiedliche potentielle Analysehinsichten bedeutungsvoller Sätze 18 Auf der Satzebene verzichten wir, Okkhams Devise folgend, auf Freges platonische Konzeption von „Gedanken“ als außerweltlichen Entitäten, die wir auf ungewisse Weise „erfassen“ zugunsten von Wittgensteins innerweltlicher „Sachlage“, die ich um der Klarheit willen lieber „Gegenstandskomposition“ nenne. Eine Gegenstandskomposition, also die Eigenschaften von und Verhältnisse zwischen Gegenständen in einem begrenzten Raumbereich, ist das, was wir zumindest in wissenschaftlichen Zusammenhängen mit einem Satz gemeinhin abbilden wollen, somit ist die Gegenstandskomposition die Bedeutung eines Satzes. 34 3. Wittgensteins Bedeutungstheorien 3.1 Wittgensteins zwei philosophische Ansätze 3.1.1 Person und Werk Von diesen Erkenntnissen ausgehend, möchte ich mich im Folgenden mit Ludwig Wittgensteins Überlegungen zur Funktionsweise der Sprache beschäftigen. Wittgenstein (1889-1951) hat mit seinen zwei Hauptwerken, dem Tractatus logico-philosophicus und den Philosophischen Untersuchungen19, ohne es zu wollen, unterschiedliche philosophische Schulen hinterlassen. Es berufen sich gleich zwei einflussreiche philosophische Strömungen auf ihn: die Philosophie der idealen Sprache, die sich auf den Tractatus bezieht, und die Philosophie der normalen Sprache (Ordinary Language Philosophy), die sich aufgrund der PU und der anderen späteren Werke entwickelt hat. Der Tractatus, dessen Inhalt Wittgenstein während des 1. Weltkrieges in Notizhefte eintrug, und mit dessen Manuskript er bei Kriegsende in italienische Gefangenschaft geriet, erschien erstmals 1921 in Ostwalds „Annalen der Naturphilosophie“, bevor 1922 eine zweisprachige, deutsch-englische Ausgabe veröffentlicht wurde. Damit endete Wittgensteins erste Phase der Beschäftigung mit der Philosophie, da er zu diesem Zeitpunkt überzeugt war, alle philosophischen Probleme im Tractatus gelöst zu haben. Die Philosophischen Untersuchungen wurden dagegen 1953 postum veröffentlicht, und stellen die Essenz seiner zweiten philosophischen Schaffensperiode von 1929 bis 1951 dar. „1929, möglicherweise unter dem Eindruck eines Vortrages von Brouwer, kehrte er zu seinen philosophischen Interessen zurück, ging nach Cambridge, wo er auf Russells Anregung seinen Tractatus als Doktor-Dissertation einreichte. Hier hielt er Vorlesungen, 1937 erhielt er einen Lehrstuhl. Abgesehen von freiwilliger Krankenpflege im Zweiten Weltkrieg, hat er seine Lehrverpflichtungen bis 1947 wahrgenommen. Wittgensteins Begabung umspannte u.a. die Musik (ausübend wie aufnehmend), die Technik (in Cambridge entwarf er einen Düsenantrieb), die Architektur (er schuf die Entwürfe für einen bemerkenswerten Villenbau in Wien), die Bildhauerei, dazu Mathematik, Logik, Philosophie.“20 19 20 Im weiteren Verlauf meist als TLP und PU abgekürzt Störig, H.J.: Kleine Weltgeschichte der Philosophie, Frankfurt a.M.:Fischer 1998, S. 655 35 Er war nur für kurze Zeit Teil der Diskussionsrunden des Wiener Kreises, aber viele der anderen Teilnehmer, die im weiteren Verlauf die analytische Philosophie begründeten, wurden durch seine Beiträge und sein Erstwerk stark beeinflusst. Ähnlich verhielt es sich auch mit Bertrand Russell, einem der beiden Autoren des Werks „Principia Mathematica“, welches als eines der bedeutendsten Bücher über die Grundlagen der Mathematik gilt. Er war Wittgensteins Professor am Trinity College in Cambridge, wo dieser aufgrund von Gottlob Freges Empfehlung nach seinem Ingenieursdiplom Philosophie studierte. Nach anfänglicher Ablehnung erkannte Russell schnell Wittgensteins Talent und war dann sogar davon überzeugt, dass dieser besser geeignet sei als er selbst, sein philosophisches Werk fortzuführen. Die Philosophischen Untersuchungen und der Tractatus unterscheiden sich sowohl hinsichtlich der sprachlichen Form als auch in ihrer Art der Betrachtungsweise von Sprache deutlich. Dieser Unterschied und die Tatsache, dass Wittgenstein überhaupt eine zweite philosophische Schaffensphase begann, nachdem er im Tractatus geschrieben hatte, dass er der Meinung sei, „die Probleme im Wesentlichen endgültig gelöst zu haben“ 21, wird allgemein als Grund angesehen, den Tractatus nicht besonders ernst zu nehmen. Schließlich scheint Wittgenstein den Tractatus selbst abgelehnt zu haben, wenn er sich wieder den schon gelösten Aufgaben der Philosophie zuwendet. Aber verhielt es sich in der Tat so, oder was hat es mit seiner vermeintlichen Revision seines Erstwerks wirklich auf sich? „Es ist relativ einfach, Punkte zu erkennen, bei denen Wittgenstein von den Thesen des Tractatus abrückt. So verwirft er das dort gelegte ontologische Gerüst, nach dem die Welt eine Gesamtheit von »Tatsachen« und »Sachverhalten« ist, und zwar von einzelnen, voneinander unabhängigen, gleichsam »atomistischen«. Er verwirft die eindeutige Beziehung zwischen der Welt und ihrer Abbildung in Gedanken und Sätzen, die der Tractatus statuiert. Er verwirft das dort errichtete Ideal unbedingter Exaktheit. ... Wer klar sprechen will, muss seinen Wörtern und Sätzen einen klaren Sinn geben – so etwa der Tractatus, mit dem Hintergedanken: Was das Wort x genau bedeutet, muss nötigenfalls durch eine eingehende Analyse geklärt werden. Dagegen der zweite Wittgenstein: Wer wissen will, was dieses Wort bedeutet, muss zusehen, wie es gebraucht wird – und dies ist der einzige Weg, Aufschluss über seine Bedeutung zu erlangen.“22 Dieses Zitat spiegelt die üblicherweise vertretene Auffassung zur Revision der Thesen des TLP wider. Ich möchte im Folgenden zu zeigen versuchen, dass Wittgensteins Thesen zur 21 22 TLP, S. 10 Vorwort Störig, Hans Joachim: Kleine Weltgeschichte der Philosophie – Frankfurt a.M.: Fischer, 1992, S. 657/658 36 Funktionsweise von Sprache, die allesamt rein analytisch ohne Gehirnforschung und psychologische Experimente entstanden sind, mit den aktuellen Forschungsergebnissen der Neuropsychologie gut zusammengefügt werden können. Weiterhin sollen die unterschiedlichen Ansätze in den Philosophischen Untersuchungen und im Tractatus logico-philosophicus beleuchtet werden und insbesondere soll versucht werden zu zeigen, inwiefern die Philosophischen Untersuchungen als Fortführung verstanden werden sollten, statt als Abwendung vom Tractatus. Der Tractatus enthält meines Erachtens in mancherlei Hinsicht aktuell verwertbare Theorien, die zu Unrecht nicht weiter verfolgt wurden, aber im Lichte der aktuellen neuropsychologischen Forschungsergebnisse neue Relevanz erhalten könnten. Daher wähle ich eine ungewöhnliche Reihenfolge und beschäftige mich zunächst mit den Unterschieden zwischen den beiden Hauptwerken. Dann stelle ich einige Gedanken der Philosophischen Untersuchungen vor, nutze sie aber hauptsächlich um aufzuzeigen, dass (im Einklang mit meinem oben dargelegten generellen Philosophieverständnis) Wittgensteins Spätphilosophie in der Tat Thesen zur Funktionsweise unseres Gehirns enthält, die sich nun größtenteils durch die Neuropsychologie bestätigt finden. Der Tractatus ist im Unterschied dazu ein rein theoretisches Konstrukt, das alle psychologischen Thesen bewusst auszuschließen versucht, und dadurch offen bleibt für eine neuropsychologische Interpretation. Da der Tractatus und die daran anschließenden Überlegungen besonders wichtig für meine Arbeit sind, werden sie entgegen der historischen Entwicklung zuletzt behandelt. 3.1.2 Die PU als Fortführung des TLP statt als philosophische Wende Obwohl der Tractatus, Wittgensteins Frühwerk, sich von seinen späteren Schriften wie den Philosophischen Untersuchungen in formaler wie inhaltlicher Hinsicht stark unterscheidet, ist es nicht sinnvoll, den Inhalt des TLP gänzlich zu verwerfen. Eine solche philosophische Position wird zumeist mit Wittgensteins eigener Abkehr von seinem Frühwerk gerechtfertigt. Dabei wird jedoch übersehen, dass viele Konzepte des Tractatus unverändert im Denken der späteren Jahre Wittgensteins enthalten sind, auch wenn sie weniger explizit formuliert werden, weil der Fokus seines Interesses sich verändert hat. Es hat also niemals eine völlige Umkehr und Revision in Wittgensteins Denken gegeben, sondern nur eine Veränderung des Schreibstils und eine Entfernung vom Ideal einer perfekten Sprache. Gleich geblieben sind jedoch die philosophischen Grundideen, vor allem seine Philosophie der Mathematik, seine Einstellung zur Ethik und sein methodischer Zugang: Die Sprachanalyse ist das einzige Mittel zur Klärung philosophischer Probleme. Im Tractatus heißt es diesbezüglich: 37 4.112 Der Zweck der Philosophie ist die logische Klärung der Gedanken. Die Philosophie ist keine Lehre, sondern eine Tätigkeit. Ein philosophisches Werk besteht wesentlich aus Erläuterungen. Das Resultat der Philosophie sind nicht „philosophische Sätze“, sondern das Klarwerden von Sätzen. Die Philosophie soll die Gedanken, die sonst, gleichsam, trübe und verschwommen sind, klar machen und scharf abgrenzen.23 Im Spätwerk formuliert Wittgenstein seinen sprachanalytischen Ansatz dann folgendermaßen: „Eine unpassende Ausdrucksweise ist ein sicheres Mittel, in einer Verwirrung stecken zu bleiben. Sie verriegelt gleichsam den Ausweg aus ihr.“24 Auch wenn hier weniger nach der Idealsprache verlangt wird, erinnert diese Feststellung doch stark an die eher als Aufforderung formulierte Aussage aus dem Tractatus, dass man Klarheit durch passendere Ausdrucksweise erreichen kann und sollte: 4.116 Alles was überhaupt gedacht werden kann, kann klar gedacht werden. Alles, was sich aussprechen lässt, lässt sich klar aussprechen.25 Trotz dieser Gemeinsamkeiten und Fortführungen alter Ansichten in neuen Formulierungen, gibt es natürlich auch Brüche zwischen Früh- und Spätwerk. Wie sonst hätte man zu dem Urteil kommen können, dass Wittgenstein sein Frühwerk zugunsten einer neuen Theorie vollständig verworfen hat? Der größte vorhandene Unterschied zwischen dem Tractatus und den Philosophischen Untersuchungen betrifft die jeweils zugrunde liegende Bedeutungstheorie. Im Tractatus erfolgt die Verknüpfung von Sprache und Welt gemäß der Bildtheorie. Wörter und Sätze sind wie Bilder von Gegenständen und Sachverhalten. Sie verweisen auf die Verhältnisse in der Welt. Stimmt das Bild, das ein Satz von einer Situation malt, mit der Realität überein, dann ist der Satz wahr, ansonsten falsch. Den Philosophischen Untersuchungen liegt stattdessen die Gebrauchstheorie zugrunde. Die festen, nahezu unerschütterlichen Zuordnungen von Wörtern zu bestimmten Gegenständen werden aufgegeben zugunsten einer ausgiebigen Betrachtung der Verwendungsweisen von Wörtern und der 23 TLP, S. 32 Philosophische Untersuchungen Abschnitt 339 zitiert aus Wittgenstein, L.: Werkausgabe Band 1 - Frankfurt a.M.: Suhrkamp, 1984, S. 387, in folgenden Fußnoten nur noch abgekürzt als PU 25 TLP S. 33 24 38 Verhaltensweisen von Menschen im Kontext ihrer Äußerungen. Im Laufe dieser Arbeit wird untersucht werden, welche Aspekte dieser Theorien mit welchen neuropsychologischen Erkenntnissen zusammen passen. Dabei wird sich zeigen, dass die Bildtheorie des Tractatus, mit ihrem Verständnis der Bedeutung als Verknüpfung von Wort und Gegenstand den neuronalen Prozessen in gewisser Hinsicht relativ nahe kommt. Die Gebrauchstheorie entspricht dagegen eher meiner Beschreibung der Funktionalität des Spracherwerbs. Sie richtet zudem teilweise den Blick auf die Absichten, die Sprecher verfolgen, und mit ihren Aussagen zu erreichen versuchen. Dieser thematische Aspekt gehört zwar nicht in den Kern einer Bedeutungstheorie hinein, wird aber ebenfalls behandelt werden. 3.1.3 Ideale Sprache oder Normale Sprache „Wenn wir glauben, jene Ordnung, das Ideal, in der wirklichen Sprache finden zu müssen, werden wir nun mit dem unzufrieden, was man im gewöhnlichen Leben „Satz“, „Wort“, „Zeichen“, nennt. Der Satz, das Wort von dem die Logik handelt, soll etwas Reines und Scharf geschnittenes sein.“26 Wittgenstein problematisiert in den Philosophischen Untersuchungen den Unterschied zwischen der im Tractatus angestrebten Idealsprache und der faktischen Ungenauigkeit unserer normalen Sprache. Er verwirft hier die klaren Definitionen des TLP mit der Aussage, dass die normale Sprache nicht nur nicht so klare Begriffe habe, sondern darüber hinaus solche Klarheit gar nicht zu erreichen sei. Der Versuch diese Ungenauigkeit zu beseitigen, führe einen auf philosophische Abwege. Es komme eben darauf an, auf die alltägliche Verwendung zu schauen, um die Sprache im Verwendungskontext zu verstehen. Möglicherweise ist diese neue Fokussierung auf die normale Sprache jedoch vollständig kompatibel mit seinen Überlegungen zur Idealsprache. Die faktische Ungenauigkeit von Wörtern und Verwendungsweisen scheint mir nur der Funktionsweise des menschlichen Gehirns in Kombination mit der Unstrukturiertheit der Umwelt zum Zeitpunkt des Erstspracherwerbs geschuldet. Die Wahrnehmung besteht im Abbilden von Eindrücken aus der Außenwelt in neuronalen Schaltkreisen. Für das Leben des jeweiligen Organismus besonders positiv oder negativ bewertete wiederkehrende Eindrücke werden abgespeichert, um bessere Handlungsmöglichkeiten in der Zukunft zu erlangen. Lernen besteht nun eben darin, die zusammengehörigen Eindrücke zu verknüpfen. So verknüpft das Kleinkind die Wahrnehmung eines hechelnden Vierbeiners mit dem Lautbild des Wortes „Hund“, das die Erwachsenen (im deutschen 26 PU, Abschnitt 105, S. 297 39 Sprachraum) in unterschiedlichen Zusammenhängen mit einer solchen Kreatur äußern. So entstehen viele Verknüpfungen von den neuronalen Korrelaten von Bildern und Geräuschen im Gedächtnis. Und zwar in jedem Kopf unterschiedlich, da jedes Kind individuellen Eindrücken ausgesetzt wird und unterschiedliche Reaktionen von Seiten der Erwachsenen auf diese Eindrücke erlebt. Aber wenn genau dies der Fall ist, dann ließe sich Wittgensteins Idealsprache innerhalb einer beliebig großen Menschengruppe dadurch realisieren, dass alle Kleinkinder das Sprechen in einer Lehrinstitution auf exakt gleiche Weise beigebracht bekämen. Eine größere Exaktheit der Sprache, die dem Ideal des Tractatus entspricht, kennen wir ja sehr wohl aus dem Bereich der Mathematik und anderer Wissenschaften. Klare Begriffe lassen sich also durch eindeutige Definitionen erzeugen. Dabei scheint zunächst eigentlich gar keine größere Exaktheit möglich zu sein, da eine Definition auf einfachere Begriffe zurückgreift, die wiederum mit den Problemen des unterschiedlichen Erwerbs belastet sind. Diese Probleme werden aber durch weitere Spezifikationen, was genau unter die Begriffe der Definition fallen soll, behoben. Es werden dadurch neue wissenschaftsspezifische Begriffe geschaffen, die möglichst nicht mit alltagssprachlicher Konnotation und Mehrdeutigkeit belastet sind. Statt nun aber dieses Streben nach Exaktheit als Teil des Sprachspiels der Wissenschaften aufzufassen, möchte ich folgende Interpretation vorschlagen: Die Begriffe unserer alltäglichen Kommunikationen sind nur deshalb weniger exakt, weil sie jeder Mensch innerhalb seiner Familie unterschiedlich erlernt. Das bedeutet also, dass sehr verschiedene Erlebnisse mit den gleichen Lautfolgen neuronal verknüpft werden. Es liegt beim unstrukturierten primären Spracherwerb daher eine völlig andere Form des Erlernens von Begriffen vor. Dieser Unterschied ist für den Unterschied zwischen Idealsprache und normaler Sprache verantwortlich. Manche Wörter werden über sprachliche Definitionen erlernt, manche über die wiederholte Verknüpfung mit bestimmten Wahrnehmungen. Ersteres entspricht eher den Lernprozessen von Erwachsenen, letzteres eher dem kindlichen Spracherwerb. Diese Unterschiede zwischen den verschiedenen Lernprozessen, und damit die Unterscheidung zwischen der Möglichkeit des Spracherwerbs und der Möglichkeit der Sprachentwicklung, werden bei meiner eigenen Bedeutungstheorie berücksichtigt. 40 3.2 Die Philosophischen Untersuchungen 3.2.1 Eike von Savignys Wittgenstein Interpretation Die wohl wirkungsreichste Interpretation der Philosophischen Untersuchungen ist die Interpretation von Eike von Savigny27. Sie stellt das extrem ehrgeizige und aufwändige Projekt dar, alle Abschnitte der Philosophischen Untersuchungen mit Kommentaren zu versehen, die potentielle Mehrdeutigkeiten aufklären und Verknüpfungen zu thematisch verwandten Textstellen herstellen sollen. Dieses prinzipiell hilfreiche Projekt setzt einen gewissen Interpretationsstandard, es hat jedoch natürlich auch Schwachstellen. Diese werde ich nun kurz darstellen, da dadurch deutlich wird, inwiefern meine Interpretation der Philosophischen Untersuchungen gerechtfertigterweise teilweise von von Savignys Interpretation abweicht. Von Savigny glaubt, in Wittgensteins Text zwei zentrale Thesen ausmachen zu können: „Die Philosophischen Untersuchungen haben das Ziel, die beiden folgenden Thesen zu begründen: These über das Meinen: Dass jemand mit einer Äußerung, mit einer Handlung, mit einem Bild usw. etwas meint (etwas darunter versteht), betrifft ihn nicht isoliert. Vielmehr besteht diese Tatsache darin, dass die Muster seines individuellen Verhaltens in bestimmter Weise in Muster des sozialen Verhaltens in der Gemeinschaft, zu der er gerechnet wird, eingebettet sind. These über seelische Sachverhalte: Die Tatsache, dass jemand sich etwas vorstellt, etwas erwartet, etwas wünscht, etwas fühlt, an etwas denkt oder etwas beabsichtigt usw., betrifft ihn nicht isoliert. Diese Tatsache besteht vielmehr darin, dass die Muster seines individuellen Verhaltens in bestimmter Weise in Muster des sozialen Verhaltens in der Gemeinschaft, zu der er gerechnet wird, eingebettet sind. Alle Argumentationen der Philosophischen Untersuchungen dienen direkt oder indirekt der Begründung dieser beiden Thesen.“28 Ich halte diese zwei Hauptthesen von Savignys Interpretation nicht für angemessen, da sie die Sprache nicht ausreichend in den Vordergrund stellen. Wittgensteins Interesse galt im Frühwerk wie 27 Von Savigny, E.: Wittgensteins „Philosophische Untersuchungen“ - Ein Kommentar für Leser, Band 1&2 – Frankfurt a.M.: Klostermann, 1988 28 Von Savigny, E.: Wittgensteins „Philosophische Untersuchungen“ - Ein Kommentar für Leser, Band 1 – Frankfurt a.M.: Klostermann, 1988, S. 7 Einleitung 41 im Spätwerk immer hauptsächlich der Sprache. Es werden in den Philosophischen Untersuchungen nicht psychologische Sachverhalte diskutiert, sondern es wird diskutiert, wie wir Begriffe für psychologische Sachverhalte verwenden. Die durchgängigen Thesen sollten also als Thesen über Sprache in Bezug auf seelische Sachverhalte formuliert werden. Die zweite Wittgenstein zugeschriebene These wäre dementsprechend eher folgendermaßen zu formulieren: These über unseren Sprachgebrauch in Bezug auf seelische Sachverhalte: Alle Wörter unserer Sprache, mit denen wir scheinbar Bezug auf seelische Sachverhalte nehmen, beziehen sich nur auf die äußerlich wahrnehmbaren Verhaltensmuster von Personen, welche in sozialen Kontexten erlernt werden und teilweise gemeinschaftsspezifisch sind. Von Savignys Formulierung ergibt meines Erachtens überhaupt keinen Sinn. Nicht die Tatsache, dass jemand etwas fühlt, ist abhängig von den Mustern des sozialen Verhaltens seiner Gemeinschaft, sondern nur die sprachlichen Beschreibungen der eigenen Gefühle und die sprachlichen Zuschreibungen von Gefühlen bei anderen Personen sind abhängig von den Mustern des sozialen Verhaltens der Gemeinschaft. Von Savigny macht Wittgensteins Aussagen über unsere alltägliche Sprachverwendung damit ungerechtfertigterweise zu Aussagen über die Konstitution der Welt. Man mag dies für ein geringes Problem in der Feinheit der Formulierung halten, und es von Savigny daher nachsehen, aber es gibt leider noch schwerwiegendere Kritikpunkte. Es ist nämlich in den Philosophischen Untersuchungen gar nicht Wittgensteins Absicht, bestimmte Thesen zu vertreten, ganz unabhängig davon, wie man solche Thesen formulieren möchte! Er hält es stattdessen nur für die Aufgabe der Philosophie, wichtige Begriffe klarzustellen und überhaupt keine Thesen zu vertreten, wie die folgenden Zitate belegen: „Dass es dieser Arbeit in ihrer Dürftigkeit und der Finsternis dieser Zeit beschieden sein sollte, Licht in ein oder das andere Gehirn zu werfen, ist nicht unmöglich; aber freilich nicht wahrscheinlich. Ich möchte nicht mit meiner Schrift Andern das Denken ersparen. Sondern, wenn es möglich wäre, jemand zu eigenen Gedanken anregen.“29 „Die Philosophie stellt eben alles bloß hin, und erklärt und folgert nichts. - Da alles offen daliegt, ist auch nichts zu erklären.“30 „Wollte man Thesen in der Philosophie aufstellen, es könnte nie über sie zur Diskussion 29 30 PU, Vorwort, S. 232/233 PU, Abschnitt 126, S. 303 42 kommen, weil Alle mit ihnen einverstanden wären.“31 Weiterhin denkt Eike von Savigny, dass man die dialektische Textstruktur der Argumentation besser, oder gar überhaupt nur verstehen kann, wenn man eindeutig zwei Sprecher identifizieren kann, nämlich Wittgenstein und seinen virtuellen Gegner. Dieses Vorgehen halte ich ebenfalls für fragwürdig. Es gibt keinerlei Hinweis von Wittgenstein, dass er die Dialogstruktur gewählt hat, um seine Thesen von alternativen philosophischen Positionen abzugrenzen. Von Savigny gesteht auch offen ein, dass es keine durchgängige Zeichenverwendung gibt, die dabei helfen könnte, eindeutig zwischen den Aussagen Wittgensteins und denen seines angeblichen philosophischen Gegners zu unterscheiden: „Ist die Lage nicht eindeutig, kann deshalb jeder zugunsten einer ihm lieben Interpretation zu begründen versuchen, dass Wittgenstein selbst in Anführungszeichen rede oder dass eine Äußerung des Dialogpartners ohne dieses Kennzeichen geblieben sei. Außerdem kann man Wittgenstein von seinem Gesprächspartner schwer unterscheiden, wo er ihn auf Konsequenzen festlegt oder seine Position ironisch übernimmt; und er redet so oft deutlich ironisch, dass Interpretationen einem für sie unbequemen Textbefund jedenfalls gelegentlich durch die Unterstellung von Ironie ausweichen können.“32 Nun könnte man argumentieren, dass es bei Anwendung dieses Interpretationsschemas zwar viele schwierig einzuordnende Textstellen gibt, die Unterscheidung zwischen Wittgenstein und seinem „Gegner“ im Dialog aber prinzipiell richtig und sinnvoll ist. Mir erscheint es jedoch äußerst befremdlich, dem Text dieses Interpretationsschema aufzudrängen, und damit einem Denker wie Wittgenstein Dilettantismus bei der Konzeption eines Textes zu unterstellen, an dem er 16 Jahre intensiv gearbeitet hat. Die gegnerischen Thesen als solche kenntlich zu machen und deutlich von den eigenen Thesen zu separieren, wäre für Wittgenstein selbst schließlich kein besonders aufwändiger Prozess gewesen. Viel wahrscheinlicher scheint es doch zu sein, dass die dialogartige Textstruktur einfach nur Wittgensteins eigene Denkprozesse wiedergibt, die immer wieder von verschiedenen Ansätzen aus um verwandte Themen kreisen. Wittgenstein sagt genau dies schließlich selbst im Vorwort der Philosophischen Untersuchungen, welches von Savigny in seiner Interpretation einfach vollständig ignoriert: 31 PU, Abschnitt 128, S. 303 Von Savigny, E.: Wittgensteins „Philosophische Untersuchungen“ - Ein Kommentar für Leser, Band 1 - Frankfurt a.M.: Klostermann, 1988, S.1/2 Einleitung 32 43 "In dem Folgenden veröffentliche ich Gedanken, den Niederschlag philosophischer Untersuchungen, die mich in den letzten 16 Jahren beschäftigt haben.... - Meine Absicht war es von Anfang an, alles dies einmal in einem Buche zusammenzufassen, von dessen Form ich mir zu verschiedenen Zeiten verschiedene Vorstellungen machte. Wesentlich aber schien es mir, dass darin die Gedanken von einem Gegenstand zum andern in einer natürlichen und lückenlosen Folge fortschreiten sollten. Nach manchen missglückten Versuchen, meine Ergebnisse zu einem solchen Ganzen zusammenzuschweißen, sah ich ein, dass mir dies nie gelingen würde. Dass das Beste, was ich schreiben konnte, immer nur philosophische Bemerkungen bleiben würden; dass meine Gedanken bald erlahmten, wenn ich versuchte, sie, gegen ihre natürliche Neigung, in einer Richtung weiterzuzwingen. - Und dies hing freilich mit der Natur der Untersuchung selbst zusammen. Sie nämlich zwingt uns, ein weites Gedankengebiet, kreuz und quer, nach allen Richtungen hin zu durchreisen. Die philosophischen Bemerkungen dieses Buches sind gleichsam eine Menge von Landschaftsskizzen, die auf diesen langen und verwickelten Fahrten entstanden sind. Die gleichen Punkte, oder beinahe die gleichen, wurden stets von neuem von verschiedenen Richtungen her berührt und immer neue Bilder entworfen. Eine Unzahl dieser waren verzeichnet, oder uncharakteristisch, mit allen Mängeln eines schwachen Zeichners behaftet. Und wenn man diese ausschied, blieb eine Anzahl halbwegser übrig, die nun so angeordnet, oftmals beschnitten, werden mussten, dass sie dem Betrachter ein Bild der Landschaft geben konnten. - So ist also dieses Buch eigentlich nur ein Album."33 Mit keinem Wort erwähnt Wittgenstein hier wirkliche oder virtuelle philosophische Gegner, sondern nur seine eigenen kreisenden Gedanken. Daher denke ich, dass die Struktur der PU einfach seinem Philosophieverständnis zu diesem Zeitpunkt entspricht. Es ist ein Zwiegespräch mit sich selbst, ein gedankliches Herumspringen zwischen verwandten Themen, und ein Abwägen verschiedener eigener Argumente gegeneinander, keine Auseinandersetzung mit spezifischen Gegenpositionen anderer Autoren. Die relativ unstrukturierte dialogische Textform der Philosophischen Untersuchungen ist genauso eine angemessene Abbildung ihres Inhalts, also der Vorstellungen des späten Wittgensteins, was Philosophie leisten kann und wie unsere normale Sprache funktioniert, wie die vollkommen hierarchisch strukturierte und auf einander aufbauend konzipierte Struktur des Tractatus eine angemessene Form für die Vorstellungen des frühen Wittgenstein von der Funktionsweise, vollkommenen Konstruierbarkeit und Exaktheit der idealen Sprache darstellt. Aufgrund dieser Ausführungen sollte deutlich sein, warum ich in meinen nun folgenden 33 PU, Vorwort, S. 231/232 Hervorhebung von mir 44 Ausführungen zu den Philosophischen Untersuchungen nicht zwischen zwei Positionen unterscheiden möchte, wie es von Savigny getan hat, sondern alle Aussagen in den PU einfach Wittgenstein selbst zuschreiben möchte, wobei jeweils aus dem Kontext zu entnehmen ist, welchen Aussagen er näher steht, und welche Aussagen er im Verlauf der Untersuchung modifiziert oder wieder verwirft. 3.2.2 Spracherwerb – Schwerpunkt Lesefähigkeiten Wittgenstein hat in den Philosophischen Untersuchungen die Wichtigkeit von Lernprozessen für das Verständnis der Sprachfähigkeiten erkannt. In seinen Überlegungen zu menschlichen und nichtmenschlichen Lesemaschinen34 befasst er sich zwar nicht mit dem primären Spracherwerb, aber mit dem verwandten Thema des Erlernens des Lesens. Durch häufige Wiederholung wird in der Kindheit (in der Regel in der Schule) erlernt, welche visuellen Zeichen zu welchen akustischen Lauten gehören. Dabei wird eine weitere neuronale Verknüpfung erstellt, in diesem Fall zwischen der visuellen Wahrnehmung der Zeichenformen und den entsprechenden Lauten der verwendeten Sprache. Diese Verknüpfung wird auf Dauer so stark, dass es einem unmöglich wird, Buchstaben zu fokussieren, ohne sie direkt zu lesen, also die entsprechenden Laute und die dadurch entstehenden Wörter innerlich zu hören. Diesen Effekt erkennt Wittgenstein äußerst genau: „...die gesprochenen Wörter schlüpfen beim Lesen gleichsam herein. Ja, ich kann ein deutsches gedrucktes Wort gar nicht ansehen, ohne einen eigentümlichen Vorgang des inneren Hörens des Wortklangs.“35 Die Prozesse der visuellen Analyse aktivieren also direkt die neuronalen Prozesse der Sprachverarbeitung, ohne dass es einen bewussten Entscheidungsprozess gibt, bestimmte Farben und Formen in der Umwelt als Schriftzeichen aufzufassen, und zu versuchen ihre Bedeutung zu erfassen. Diese neuronale Verknüpfung ist also extrem ausgeprägt und äußerst stabil. Aber warum ist sie das? Offensichtlich ist sie nicht angeboren, da noch vor wenigen Jahrhunderten in Europa die Analphabeten keineswegs wie heute eine verschwindend kleine Minderheit darstellten. Das Lesen wird normalerweise während der Kindheit in einem zeit- und arbeitsaufwendigen Prozess erlernt. Als Erwachsener kann man sich zumeist nicht an diese Mühen erinnern und das Gedächtnis täuscht einen auch noch in Bezug auf die Dauer dieser Prozedur. Das Gehirn ist zu diesem Zeitpunkt noch 34 35 Siehe PU, Abschnitt 157/158, S. 320/321 PU, Abschnitt 165, S. 325 45 wenig ausdifferenziert und bereit, neue neuronale Verknüpfungen auszubilden. Durch ständige Wiederholung wird die Verknüpfung zwischen den Hirnarealen hergestellt, die für die Erkennung der jeweiligen visuell wahrgenommenen Zeichen, die Erkennung der dazugehörigen bereits bekannten Laute, und die Ausführung der benötigten Motorik, um diese Laute selbst zu bilden, zuständig sind. Ein neu zu erlernendes Schriftzeichen, wie Wittgenstein es in Abschnitt 166 der PU diskutiert, wird zunächst noch nicht als Buchstabe wahrgenommen, da eine solche Verknüpfung zwischen Zeichen und Lautbild noch nicht besteht. Durch wiederholte Anwendung würde sich dies jedoch langsam ändern, bis irgendwann kein Unterschied mehr zu den gewöhnlichen Buchstaben bestünde: „Auch war mir jenes Zeichen nicht vertraut, wie die Buchstaben. Ich sah es gleichsam gespannt, mit einem gewissen Interesse für seine Form an; ich dachte dabei an ein umgekehrtes Sigma. - Stell dir vor, du müsstest nun dieses Zeichen regelmäßig als Buchstaben benützen; du gewöhnst dich also daran, bei seinem Anblick einen bestimmten Laut auszusprechen, etwa den Laut >sch<. Können wir mehr sagen, als dass nach einiger Zeit dieser Laut automatisch kommt, wenn wir das Zeichen ansehen?“36 Dieses Phänomen tritt auch viel häufiger auf, als man bei der Lektüre dieses Abschnitts meinen sollte, zum Beispiel fast immer, wenn eine zweite Sprache erlernt wird. Als Deutscher muss man beim Erlernen der englischen Sprache mit der bereits bekannten Buchstabenkombination „th“ ein neues Phonem verbinden, während ein Engländer in Bezug auf unsere Umlaute sogar neue Zeichen und neue Phoneme erlernen muss. Wittgenstein erkannte hier eine Besonderheit der Funktionsweise unseres Gehirns. Er verfügte nur noch nicht über die neuropsychologischen Begriffe, um diese These so detailliert darzustellen, wie wir es heute können. Er beschrieb das Lernen generell eher als ein Abrichten, weil es in der Psychologie seiner Zeit schon die Beobachtungen und die entsprechenden Theorien zum Konditionieren gab, die er offensichtlich kannte. 3.2.3 Lesen und Gesichtserkennung als identisch funktionierende Vorgänge „Was ist nun an dem Satz, das Lesen sei doch »ein ganz bestimmter Vorgang«? Das heißt doch wohl beim Lesen finde immer ein bestimmter Vorgang statt, den wir 36 PU, Abschnitt 166, S. 326 46 wiedererkennen. ... Und es ist ja leicht verständlich, dass sich dieser Vorgang unterscheidet, von dem etwa, sich Wörter beim Anblick beliebiger Striche einfallen zu lassen. - Denn schon der bloße Anblick einer gedruckten Zeile ist ja ungemein charakteristisch, d.h., ein ganz spezielles Bild: Die Buchstaben alle von ungefähr der gleichen Größe, auch der Gestalt nach verwandt, immer wiederkehrend; die Wörter, die zum großen Teil sich ständig wiederholen und uns unendlich wohl vertraut sind, ganz wie wohl vertraute Gesichter.“37 Wittgenstein vergleicht hier die Besonderheiten des Leseprozesses mit den Besonderheiten der Wiedererkennung von Gesichtern. Auf den ersten Blick ein sehr ungewöhnlicher Vergleich, denn Gesichter und geschriebene Wörter scheinen wenig gemeinsam zu haben. Die aktuelle Hirnforschung zeigt jedoch, dass diese Prozesse im Gehirn auf sehr ähnliche Weise und sogar in analogen Bereichen unserer zwei Gehirnhälften realisiert werden. Während Sprachprozesse im Normalfall in der linken Hemisphäre ablaufen, wird im analogen Bereich der rechten Hemisphäre die Gesichtserkennung durchgeführt. Wenn diese spezialisierten Bereiche zerstört oder beschädigt werden, ergeben sich Einbußen bei der Lesekompetenz (Alexie oder verschiedene Formen von Dyslexie) beziehungsweise der Gesichtserkennung (Prosopagnosie), während alle sonstigen intellektuellen Kompetenzen unverändert erhalten bleiben. Kolb und Wishaw vollziehen in ihrem Lehrbuch zur Neuropsychologie einen ähnlichen Vergleich: „Gesichter vermitteln für uns Menschen eine Fülle sozialer und affektiver Informationen. Die Bedeutung von Gesichtern als visuellen Reizen hat verschiedene Autoren zur Annahme veranlasst, dass ein spezifischer Analyseprozess für Gesichter existieren muss, der analog zu der angeborenen Wortanalysefähigkeit der linken Hemisphäre funktioniert. Wird das visuelle System mit Wörtern konfrontiert, setzt sich ein besonderer Verarbeitungsmechanismus im tertiären visuellen Gebiet der linken Hemisphäre in Bewegung, der das Wortverstehen gewährleistet. Teuber nahm an, dass bei der Wahrnehmung von Gesichtern ein spezieller Verarbeitungsmechanismus in der rechten Hemisphäre einsetzt und dass Gesichter dort – ähnlich wie Wörter in der linken Hemisphäre – erkannt werden.“38 Aktuelle Forschungsergebnisse haben mittlerweile Teubers Hypothese bezüglich der Lokalisation des spezialisierten Gesichtserkennungsbereichs bestätigt. 37 PU Abschnitt 167, S. 326/327 Kolb, B./Whishaw, I.Q.: Neuropsychologie – Heidelberg – Berlin - Oxford: Spektrum Akademischer Verlag, 1996, S. 218/219 38 47 „Die Wahrnehmung von Gesichtern ist deshalb gegenüber Störungen des rechten posterioren Cortex empfindlich, weil Gesichter besonders komplex sind und weil es so viele verschiedene Gesichter gibt, die sich auf den ersten Blick ähnlich sehen. So lässt sich die Einzigartigkeit menschlicher Gesichter auf kleinste Unterschiede zurückführen, wobei die Fähigkeit, diese Besonderheiten zu erkennen, beträchtliche Übung erfordert. Möglicherweise schließt sie sogar eine genetische Prädisposition mit ein. So gesehen, könnte ein Defizit bei der Gesichtserkennung teilweise mit Störungen der Identifizierung charakteristischer Merkmale erklärt werden und nicht nur einem Mangel an korrekter Gestaltbildung zuzuschreiben sein. Wird der normale Anblick eines Gesichtes gestört, kann es zu einer Beeinträchtigung der Gesichtserkennung kommen, obwohl die Wahrnehmung des betrachteten Gesichts intakt geblieben ist. Dies trifft womöglich auch auf die anfänglichen Erkennungsschwierigkeiten gesunder Erwachsener beim Unterscheiden von Individuen einer anderen Rasse zu. Man muss lernen, die Gesichter von Personen verschiedener Rassen auf eine jeweils besondere Weise zu unterscheiden.“39 Wittgensteins Analysen von psychologischen Prozessen finden sich durch moderne Erkenntnisse bezüglich der Funktionsweise des menschlichen Gehirns bestätigt. Obwohl er nicht über die Daten verfügte, die der aktuellen Hirnforschung zur Verfügung stehen, vergleicht er die Mechanismen der Gesichtserkennung mit denen der Worterkennung. Und in der Tat funktioniert die Worterkennung in der linken Gehirnhälfte beim so genannten Ganzwortlesen nicht nur analog zur Gesichtserkennung in der rechten Gehirnhälfte, sondern ihre Realisierung erfolgt auch genau in dem entsprechenden Areal auf der gegenüberliegenden Seite. In beiden Fällen werden komplexe Strukturen als Einheit wiedererkannt: im einen Fall eine Anordnung von zumeist schwarzen Strichen auf weißem Grund und im anderen Fall die Verhältnisse der Anordnung der verschiedenen Gesichtsmerkmale. 3.2.4 Neuropsychologische Forschung zur Verbesserung des psychologischen Vokabulars Wittgenstein verweist darauf, dass psychologisches Vokabular zumeist völlig anders verwendet wird als naturwissenschaftliches Vokabular. Dies gilt zum Zeitpunkt seiner Ausführungen sowohl in der normalen Sprache als auch noch in der Sprache der Psychologie, die damals noch eine relativ neue Wissenschaft war. Dieser Umstand war ihm wohl bewusst, aber er war mit ihm höchst unzufrieden: 39 Kolb, B./Whishaw, I.Q.: Neuropsychologie – Heidelberg – Berlin - Oxford: Spektrum Akademischer Verlag, 1996, S. 219/220 48 „Im Falle aber der lebenden Lesemaschine hieß »lesen«: so und so auf Schriftzeichen reagieren. Dieser Begriff war also ganz unabhängig von dem eines seelischen, oder anderen Mechanismus. - Der Lehrer kann hier auch vom Abgerichteten nicht sagen: »Vielleicht hat er dieses Wort schon gelesen«. Denn es ist ja kein Zweifel über das, was er getan hat. - Die Veränderung als der Schüler zu lesen anfing, war eine Veränderung seines Verhaltens; und von einem ›ersten Wort im neuen Zustand‹ zu reden, hat hier keinen Sinn.“40 Bei Personen tendieren wir dazu nachzufragen, wie sie eine Situation empfunden haben, wenn wir sicher gehen wollen, dass wir ihr Verhalten korrekt beschreiben, während wir bei Maschinen ihre Bestandteile und Funktionsweise beschreiben und analysieren. Unsere psychologischen Begriffe scheinen unangemessen zu sein, um Maschinen zu beschreiben, die menschliche Tätigkeiten durchführen, während unsere Beschreibungen für Maschinen unangemessen für menschliche mentale Prozesse zu sein scheinen. Interessanterweise fordert Wittgenstein in dieser Textpassage selbst den Fortschritt in der neurobiologischen Forschung, deren Resultate ich nun über sechzig Jahre später heranziehen möchte, um seine zwei Hauptwerke auf ihrer Grundlage zu vergleichen und hinsichtlich der Nützlichkeit ihrer Bedeutungstheorien zu bewerten. Wittgenstein vermutete, dass neurobiologische Erkenntnisse eine Annäherung der Beschreibungen der beiden unterschiedlichen Leseprozesse von Mensch und Maschine ermöglichen könnten: „Aber liegt dies nicht nur an unserer zu geringen Kenntnis der Vorgänge im Gehirn und im Nervensystem? Wenn wir diese genauer kennten, würden wir sehen, welche Verbindungen durch das Abrichten hergestellt worden waren, und wir könnten dann, wenn wir ihm ins Gehirn sähen, sagen: »Dieses Wort hat er jetzt gelesen, jetzt war die Leseverbindung hergestellt.« “41 Die neuropsychologische Forschung ermöglicht uns also, das ungenaue alltagspsychologische Vokabular zur Beschreibung menschlicher Fähigkeiten auszutauschen gegen eine genauere Beschreibung der Aktivitäten in spezifischen Gehirnarealen, die einer naturwissenschaftlichen Beschreibung der Lesemaschine nahe kommt. Da ihm dieses Vokabular und diese wissenschaftlichen Erkenntnisse jedoch noch nicht zur Verfügung standen, ringt Wittgenstein weiter darum, die Besonderheiten und Probleme des Lesens, also der Verknüpfung von Schriftzeichen mit Lautbildern, zu verstehen: 40 41 PU, Abschnitt 157, S. 320 PU, Abschnitt 158, S. 321 49 3.2.5 Phonetisches Lesen, Ganz-Wort-Lesen und Dyslexien „Wir bilden uns ein, wir nähmen durch ein Gefühl quasi einen verbindenden Mechanismus wahr zwischen dem Wortbild und dem Laut, den wir sprechen. Denn wenn ich vom Erlebnis des Einflusses, der Verursachung, des Geführtwerdens rede, so soll das ja heißen, dass ich sozusagen die Bewegung der Hebel fühle, die den Anblick der Buchstaben mit dem Sprechen verbinden.“42 Auch seine Behauptung, dass es dieses besondere Gefühl zu geben scheint, das wir beim Lesen haben, hat seine Berechtigung. Wittgenstein sieht das hier zwar als kritische Bemerkung, da er für dieses Gefühl des „Geführtwerdens“ ohne unser heutiges Wissen über neuronale Verknüpfungen keine gute Begründung finden kann. Er hat jedoch die richtige Analyse der Situation bereits geleistet. Es gibt nämlich in der Tat einen deutlichen Unterschied zwischen dem Betrachten von wirren Zeichenreihen, dem Betrachten eines bisher unbekannt gewesenen Wortes und dem flüssigen Lesen von bekannten Wörtern. Wittgenstein identifiziert in diesem Abschnitt die Eigenschaften des heute in der Psychologie als Ganz-Wort-Lesen bekannten Phänomens. In Carlsons Buch Physiologische Psychologie finden sich diesbezüglich die folgenden Abschnitte: „Wenn wir ein bekanntes Wort sehen, erkennen wir es normalerweise an seiner Form und sprechen es aus - ein Prozess, der als Ganz-Wort-Lesen bezeichnet wird. Die zweite Methode, die wir für unbekannte Worte verwenden, erfordert das Erkennen einzelner Buchstaben und das Wissen des von ihnen erzeugten Lautes. Diesen Vorgang nennt man lautierendes (phonetisches) Lesen.“43 Die letztgenannte Möglichkeit, dass sich Lesen durch das Aneinanderreihen der passenden Lautbilder zu den Buchstaben vollzieht, ist offenbar unstrittig. Wie sonst sollten wir das Lesen jemals erlernen können? Aber die andere Art zu lesen scheint zunächst relativ unintuitiv. Wie kommt es zur Ausprägung des Ganz-Wort-Lesens, wenn wir doch beim Erlernen des Lesens phonetisch Lesen? Und wieso sollte es überhaupt zwei unterschiedliche neuronale Prozeduren zur Erfüllung der gleichen Aufgabe geben? „Der beste Beleg dafür, dass man Worte lesen kann, ohne sie zu lautieren, stammt aus der 42 43 PU, Abschnitt 170, S. 329 Carlson, Neil R.: Physiologische Psychologie -München: Pearson Studium, 2004, S. 612 50 Untersuchung von Patienten mit erworbenen Dyslexien. Dyslexie heißt „falsches Lesen“. Erworbene Dyslexien sind durch Hirnschädigungen verursachte Störungen des Lesens bei Personen, die bereits Lesen konnten. Im Gegensatz dazu beziehen sich entwicklungsbedingte Dyslexien auf Leseschwierigkeiten bei Kindern, die das Lesen lernen. [...] Die Oberflächendyslexie ist ein Defizit beim Ganz-Wort-Lesen, das üblicherweise durch eine Läsion des linken Temporallappens verursacht wird. [...] Weil Patienten mit Oberflächendyslexie Worte nur mit Schwierigkeiten als Ganzheit erkennen können, müssen sie sie lautieren. Deshalb können sie Worte mit regulärer Aussprache lesen. Sie haben allerdings Schwierigkeiten, Worte mit unregelmäßiger Aussprache zu lesen. [...] Patienten mit einer phonologischen Dyslexie haben die entgegengesetzte Schwierigkeit. Sie können mit der Ganz-Wort-Methode lesen, können aber das Klangbild des Wortes nicht wiedergeben. Deshalb können sie ihnen wohl bekannte Worte lesen, haben aber große Schwierigkeiten bei der Aussprache unbekannter Worte oder von aussprechbaren Nichtworten. Personen mit einer phonologischen Dyslexie können hervorragende Leser sein, wenn sie vor ihrer Hirnschädigung bereits ein gutes Lesevokabular erworben hatten. Die phonologische Dyslexie ist ein weiterer Beleg dafür, dass Ganz-Wort-Lesen und lautierendes Lesen verschiedene Hirnmechanismen beanspruchen.“44 Offensichtlich gibt es ein spezialisiertes Gehirnareal, das Wörter als Ganzes anhand ihrer komplexen Struktur wiedererkennt, das von den Prozeduren des lautierenden Lesens keinen Gebrauch macht. Dieser Wiedererkennungswert, dieses „sich aufdrängen“ der Wörter, immer wenn ein Text in unser Blickfeld gerät, ohne dass man beschlossen hätte zu lesen, ist heutzutage leider nicht nur der Werbeindustrie bestens bekannt, sondern für genau diesen Effekt sucht Wittgenstein bei seinen oben zitierten Überlegungen zum Lesen eine adäquate Erklärung. 3.2.6 Denken und Sprechen als Einheit Aber Lesen ist ja nur ein kleiner Bestandteil unseres Sprachvermögens, und dieses eventuell nur ein kleiner Anteil unseres gesamten geistigen Vermögens. Wittgensteins Hauptinteresse liegt natürlich auch in den Philosophischen Untersuchungen immer noch auf der Sprache. Daher gerät die Frage danach, inwieweit Denken und Sprechen sich überhaupt unterscheiden, oder ob sie gar ein und dasselbe sind, auch bei ihm bisweilen in den Fokus seiner Untersuchungen: 44 Carlson, Neil R.: Physiologische Psychologie -München: Pearson Studium, 2004, S. 612/613 51 „Um über die Bedeutung des Wortes »denken« klar zu werden, schauen wir uns selbst beim Denken zu: Was wir da beobachten, werde das sein, was das Wort bedeutet! - Aber so wird dieser Begriff eben nicht gebraucht. (Es wäre ähnlich, wenn ich ohne Kenntnis des Schachspiels, durch genaues Beobachten des letzten Zuges einer Schachpartie herausbringen wollte, was das Wort »mattsetzen« bedeutet.)“45 Dieser Abschnitt ist ein typisches Beispiel für Wittgensteins Vorgehensweise in seiner zweiten philosophischen Schaffensphase, die die Philosophie der normalen Sprache begründete. Die Bedeutung eines Wortes liegt für ihn nun immer in der allgemein gebräuchlichen Verwendungsweise begründet. Ihm ist aber bewusst, dass dies nicht die Antwort auf die eigentlich interessanten Fragen, die er zu stellen versucht, liefert. Seine Unzufriedenheit mit der Verwendungsweise der psychologischen Begriffe seiner Zeit hatten wir ja bereits gesehen. Auch der Begriff des Denkens wird zu seiner Lebenszeit noch anders gebraucht als heute. Er bezeichnet in diesem Zeitraum noch keine Gehirntätigkeit. Wittgenstein entfernt sich daher von der Betrachtung der Verwendungsweise des Begriffs zu seiner Zeit und formuliert seine Fragestellung folgendermaßen um: „ »Kann man denken ohne zu reden?« - Und was ist Denken? - Nun, denkst du nie? Kannst du dich nicht beobachten und sehen, was da vorgeht? Das sollte doch einfach sein. Du musst ja darauf nicht, wie auf ein astronomisches Ereignis warten und dann etwa in Eile deine Beobachtung machen.“46 Natürlich bleibt er bei der Selbstbeobachtung stehen, da ihm keine technischen Geräte zur Erforschung der Arbeitsweise des Gehirns zur Verfügung stehen. Selbstbeobachtung ist zwar potentiell problematisch, trotzdem erkennt er, dass wir zumeist sprachbasiert denken, dass also Sprechen und Denken identisch zu sein scheinen: „Wenn ich in der Sprache denke, so schweben mir nicht neben dem sprachlichen Ausdruck noch »Bedeutungen« vor; sondern die Sprache selbst ist das Vehikel des Denkens. Ist Denken eine Art Sprechen? Man möchte sagen, es ist das, was denkendes Sprechen vom gedankenlosen Sprechen unterscheidet.“47 45 PU, Abschnitt 316, S. 380 PU, Abschnitt 327, S. 383 47 PU, Abschnitt 329/330, S. 384 46 52 Er sieht hier sehr deutlich, wie nah Sprechen und Denken zusammen gehören, erkennt aber auch, dass sie doch nicht vollkommen identisch sind, dass also Denken nicht nur innerliches Sprechen ohne Bewegung der Stimmbänder ist. Wenn man sprachlich denkt, dann ist da nicht noch mehr außerhalb der Sprache, zugleich kann man aber, wie er es nennt, „gedankenlos“ sprechen und handeln. Wir wissen heute, dass nur ganz spezielle Gehirnareale (hauptsächlich das Wernicke´sche Areal und das Broca´sche Areal) für die Sprachfähigkeiten zuständig sind, und es darüber hinaus noch höhere Verwaltungsebenen zur langfristigen Handlungsplanung und Problemlösung gibt. Trotzdem scheint es uns als Wissenschaftlern beinahe unmöglich, bewusste Problemlösung oder Handlungsplanung zu betreiben, oder nachzudenken, ohne dies sprachbasiert zu tun, also die entsprechenden Gehirnareale für die Sprache zumindest ebenfalls zu aktivieren. Wahrscheinlich sind die Abstraktionsgrade, die durch Begriffe erreicht werden können, den Möglichkeiten der anderen Repräsentationsformen, wie zum Beispiel dem Bildgedächtnis, so sehr überlegen, dass es aus Effizienzgründen sinnvoller ist, mit Begriffen zu operieren. Wittgenstein versucht diese komplizierte Verknüpfung von Sprache und Denken genauer zu analysieren, indem er psychologisch interessante Spezialfälle heranzieht: „Stell dir Menschen vor, die nur laut denken könnten! (Wie es Menschen gibt, die nur laut lesen können.)“48 Erstaunlich, dass er überhaupt von solchen Fällen weiß, in denen Menschen nur noch laut und nicht mehr leise lesen können, da es sich hierbei um eine seltene Schädigung mehrerer separater Gehirnbereiche handelt. Hier ist er jedoch auf gedankliche Abwege geraten, denn diese Analogie zwischen Menschen, die nur laut denken können, und Menschen, die nur laut lesen können, lässt sich nur theoretisch ziehen, während es von den neuronalen Grundlagen her unmöglich ist, dass jemand nur noch laut denken könnte. Den andererseits wirklich auftretenden Effekt, dass jemand nach einer Gehirnschädigung nur noch laut lesen kann, nennt man in der Neuropsychologie heute Wortform-Dyslexie oder Buchstabier-Dyslexie: „Obwohl Patienten mit einer Wortform-Dyslexie Worte als Ganzheiten nicht erkennen oder sie lautieren können, können sie immer noch einzelne Buchstaben erkennen und können die Worte lesen, wenn man ihnen erlaubt, die Buchstaben einen nach dem anderen zu benennen. Deshalb lesen sie sehr langsam und brauchen bei längeren Worten mehr Zeit. Wie sie es 48 PU, Abschnitt 331, S. 384 53 erwarten, können Patienten mit einer Wortform-Dyslexie Worte identifizieren, die jemand laut ausgesprochen hat, genauso wie sie ihre eigene Aussprache erkennen können.“49 Die Erklärung für dieses Phänomen lautet folgendermaßen: Der Prozess der Ganz-Wort-Erkennung funktioniert aufgrund der Hirnschädigung nicht mehr. Die visuelle Erkennung einzelner Buchstaben funktioniert jedoch noch. Aber die Wörter können nicht als Summe der Buchstabenlaute ausgesprochen werden, da die Verbindung zum Gedächtnis, das die phonetische Kodierung, also den Klang der Buchstaben, enthält, unterbrochen ist. Da die Verbindung zu den motorischen Bereichen der Sprachsteuerung jedoch noch besteht, können die Buchstaben einzeln ausgesprochen und dann auditiv erkannt werden. Mit Hilfe der Erinnerung an das Buchstabieren der Wörter, gelingt dann zuletzt über die Sprachsteuerung das Aussprechen des gesamten Wortes. Es liegt also hauptsächlich eine Störung der neuronalen Verbindung zwischen der visuellen Erkennung und dem Wissen um die phonetische Kodierung vor. Die Patienten wissen sozusagen nicht mehr bewusst, wie die Buchstaben sich anhören, können diese Laute aber weiterhin erzeugen und auch wahrnehmen. Deswegen können sie die fehlende innerliche Verbindung äußerlich umgehen, indem sie den Buchstaben aussprechen und sich selbst dabei zuhören. Sie können in der Tat nur noch laut lesen, weil sie die Sprache benutzen müssen, um über die relevanten Informationen der isolierten Gehirnareale zu verfügen, die auf neuronalem Wege nicht mehr übermittelt werden können. Dies ist offensichtlich eine Besonderheit, die sich aufgrund der spezifischen Komplexität der neuronalen Realisierung des Lesevorgangs ergibt. Eine analoge Störung des Denkens, die dann dazu führen würde, dass die Patienten zu sich selber sprechen müssten, damit sie überhaupt denken können, ist nicht vorstellbar. Vielleicht hat Wittgenstein geahnt, dass diese scheinbare Analogie nicht richtig greift, denn er verfolgt dieses Gedankenexperiment nicht weiter, sondern lässt es für sich im Raume stehen. Bevor ich mich jetzt dem Tractatus zuwende, gilt es festzuhalten, dass Wittgenstein in seinem Spätwerk interessante Thesen bezüglich der psychologischen Prozesse der Sprachverarbeitung entwickelt, von denen sich viele heute neurobiologisch bestätigen lassen. Seine Gebrauchstheorie der Bedeutung ermöglicht ihm, zu erkennen, dass die psychologischen Begriffe seiner Zeit nicht auf die innerlich ablaufenden Prozesse Bezug nehmen, sondern nur auf die wahrnehmbaren Handlungen von Personen, die potentiell damit verknüpft sind. Er richtet seine Aufmerksamkeit mit der Gebrauchstheorie auf den Spracherwerb, statt Sprache als fertiges System einfach vorauszusetzen, wie er es im Tractatus macht. Zu vielen seiner diesbezüglichen Überlegungen gibt es weitere Studien in der Linguistik, die im 6. Kapitel thematisiert werden. 49 Carlson, Neil R.: Physiologische Psychologie -München: Pearson Studium, 2004, S. 614 54 3.3 Der Tractatus logico-philosophicus 3.3.1 Die Besonderheiten des TLP Wittgenstein entwickelte seine frühe Position, wie wir sie im Tractatus logico-philosophicus finden, in Auseinandersetzung mit den mannigfaltigen Problemen von Freges und Russells philosophischen Ansätzen. Trotz seiner relativ geringen Textmenge, die Wittgenstein nicht zur Veröffentlichung, sondern nur für sich selbst in seinem Tagebuch während des 1. Weltkriegs verfasste, behandelt der Tractatus eine große Zahl philosophischer Probleme: „Neben den Hauptargumenten, die die Sprache, die Welt und die Beziehungen zwischen beiden betreffen, befasst sich der Tractatus auch mit folgenden Punkten: die Natur der Logik und der logischen Form; Wahrscheinlichkeit; der Begriff der Zahl; Induktion und Kausalität; der Zweck der Philosophie; Solipsismus; Fragen zu Ethik, Religion und Leben. Die meisten dieser Themen werden sehr kurz behandelt, so dass die Kommentare dazu aphoristisch und dunkel erscheinen.“50 Die Kürze der Darstellung erfordert zwar hohe Konzentration beim Lesen und Nachvollziehen, und mag an einigen Stellen das Verständnis erschweren, aber dunkel kann man den Text eigentlich nicht nennen. Offensichtlich handelt es sich um eine Vielzahl interessanter philosophischer Themen, die in klarer Sprache und zudem in einer innovativen übersichtlichen Textstruktur behandelt werden. Daher hätte der TLP eigentlich eine überaus bedeutsame langfristige Wirkung in der philosophischen Diskussion erzielen können. Dies war allerdings nur bedingt der Fall: „Dem Tractatus war ein eigenartiges Schicksal beschieden. Er wird eher als ein Werk von historischem Interesse behandelt denn als eine denkerische Arbeit, mit der man sich ebenso kritisch auseinandersetzt wie mit anderen philosophischen Werken. Er wird oft erläutert, erklärt und interpretiert, aber nur selten wird er einer ernsthaften Kritik unterzogen. Dafür gibt es gute Gründe. Hauptsächlich hat das mit der Stellung des Tractatus in Wittgensteins philosophischer Entwicklung zu tun. Es handelt sich um ein Frühwerk, das von seinem Autor selbst später zurückgewiesen wurde. Wittgenstein baute sogar auf der Verwerfung der zentralen Thesen des Tractatus seine spätere Philosophie auf. Daher setzt man sich nur mit wenigen Thesen dieses Werkes noch zustimmend oder ablehnend auseinander. Die 50 Grayling, A.C.: Wittgenstein - Freiburg im Breisgau: Herder Verlag, 1999, S. 45 55 Kommentatoren sehen zwar die Notwendigkeit, diese Schrift zu erklären, aber die Notwendigkeit einer kritischen Bewertung sehen sie in der Regel nicht.“51 Grayling beschreibt hier leider korrekt, wie mit dem Tractatus innerhalb der Philosophie52 heute meistens umgegangen wird. Die Gründe, die er dafür angibt, dass es sich so verhält, sind jedoch eigentlich zu schwach, um die Tatsache wirklich zu erklären, dass trotz der starken Wirkung auf den Wiener Kreis das Werk heute wieder weniger beachtet wird. Wieso sollte man in der Philosophie ein Werk, von dem der Autor später einiges für falsch hielt, nicht mehr ernst nehmen, während man es ansonsten gewohnt ist und für ganz normale philosophische Praxis hält, 2500 Jahre alte Texte, die definitiv aus heutiger Sicht viele fehlerhafte Ansichten enthalten, ernsthaft zu untersuchen? Wenn die prinzipielle Möglichkeit besteht, dass der Autor sich geirrt hat, wieso soll er sich dann genau bei der Niederschrift seines ersten Werkes und nicht stattdessen bei der Revision seiner ersten Thesen geirrt haben? Wittgensteins zweite Schaffensphase kann nicht ernsthaft der Grund sein, warum sein erstes Werk nicht mehr so viel Aufmerksamkeit erhält. Ich denke, dass es sich eher so verhält, dass die Feinheiten der Argumentation des Tractatus nur schwer zu verstehen und selbst in philosophischen Kreisen nur für wenige Leser interessant sind. Das liegt daran, dass man eigentlich zuerst Russells Principia Mathematica lesen muss, da Wittgenstein zu seiner frühen Position vor allem in Abgrenzung von Russells und Freges Vorstellungen gelangt. Die Principia Mathematica zu lesen, ist jedoch aufgrund der verwendeten eigenwilligen Symbolik, die nicht mit derjenigen übereinstimmt, die man heute in Zusammenhängen der formalen Logik verwendet, ein extrem mühsames Unterfangen. Natürlich kann man aufgrund seiner klaren Struktur und Sprache die Grundkonzeption des TLP auch verstehen, ohne mit Russells und Freges philosophischem Ansatz oder Philosophie im Allgemeinen besonders vertraut zu sein, aber dann entgehen einem die vielen kleinen Anspielungen auf diverse philosophische Autoren und Positionen, die neben der Klarheit der Sprache und der Struktur die sprachliche Eleganz des Tractatus ausmachen. Selbst wenn die Abbildtheorie des Tractatus nicht ganz richtig ist, wird sich zeigen, dass sie den Gesetzmäßigkeiten der neuronalen Realisierung von Sprache näher kommt als viele andere Theorien. Sie und den gesamten Tractatus aufgrund von Wittgensteins Veränderung des Blickwinkels auf die Sprache in den Philosophischen Untersuchungen zu ignorieren, wäre überaus verfehlt. Es scheint mir aber zudem noch weitere Gründe zu geben, warum der TLP bisher nicht die Beachtung bekommen hat, die er verdient hätte. Die meisten philosophisch interessierten Leser erwarten von der Philosophie Problemlösungen für die „wichtigen Fragen des Lebens“ und halten es daher für enttäuschend oder sogar vollkommen inakzeptabel, wenn ihre Lebensprobleme nicht nur nicht gelöst werden, sondern 51 52 Grayling, A.C.: Wittgenstein - Freiburg im Breisgau: Herder Verlag, 1999, S. 67/68 Außerhalb der philosophischen Fachdiskussion ist der TLP relativ unbekannt geblieben. 56 als prinzipiell sprachlich unlösbare Scheinprobleme zurückgewiesen werden. Zudem darf man die revolutionäre Wirkung, die die Akzeptanz einiger Inhalte des Traktats auf die universitären Strukturen im Fachbereich Philosophie gehabt hätte, nicht unterschätzen. Wenn man Wittgensteins Vorstellungen von der Leistungsfähigkeit der Philosophie umgesetzt hätte, hätten sich Professoren, deren Fachgebiete in den Bereichen Ethik, Ästhetik und Metaphysik lagen, auf einmal zur Umschulung gezwungen gesehen: 6.42 Darum kann es auch keine Sätze der Ethik geben. Sätze können nichts Höheres ausdrücken. 6.421 Es ist klar, dass sich die Ethik nicht aussprechen lässt. Die Ethik ist transzendental. (Ethik und Ästhetik sind Eins.) 6.53 Die richtige Methode der Philosophie wäre eigentlich die: Nichts zu sagen, als was sich sagen lässt, also Sätze der Naturwissenschaft – also etwas, was mit Philosophie nichts zu tun hat -, und dann immer, wenn ein anderer etwas Metaphysisches sagen wollte, ihm nachzuweisen, dass er gewissen Zeichen in seinen Sätzen keine Bedeutung gegeben hat. Diese Methode wäre für den anderen unbefriedigend – er hätte nicht das Gefühl, dass wir ihn Philosophie lehrten – aber sie wäre die einzig streng richtige.53 Es lag also auch an den unerwünschten sozialen Folgen, dass der Tractatus nicht ernst genommen werden durfte. Dazu kommt jedoch noch, dass die geringe Anzahl noch verbliebener potentieller Leser, wie zum Beispiel die Mitglieder des Wiener Kreises, Probleme mit Wittgensteins Erwähnung des „Mystischen“ hatten. Wittgenstein setzt sich also mit seinem ersten Werk inhaltlich konsequent zwischen alle Stühle. Wie verhält es sich aber mit der formalen Seite des Buches? Der gesamte Text des Traktats ist durch seine Nummerierung strukturiert. Es gibt sieben Hauptsätze, von denen die ersten Sechs erklärt werden. Die Erklärungen der Hauptsätze (Die Sätze 1.1 und 1.2 erklären Satz 1. Die Sätze 2.1 und 2.2 erklären Satz 2, usw.) werden dann wiederum erklärt (von den Sätzen 1.11, 1.12, 1.13, 1.21, usw.). Die Menge der Erklärungen zu jedem Unterpunkt ist dabei angepasst an die inhaltliche Komplexität des jeweiligen Punktes und somit sehr unterschiedlich. Dadurch kann man den Text nicht nur wie einen gewöhnlichen Text als Ganzes lesen, sondern auch jederzeit die Erklärungen auf allen niedrigeren Stufen weglassen, die man gerade nicht benötigt (z.B. könnte man nur 3.1, 3.2, 3.3, 3.4 und 3.5 als Erklärung von 3 lesen, aber alle weiteren Erklärungen dieser Unterpunkte unbeachtet lassen). Die dadurch ermöglichten 53 TLP, S. 83 und S. 85 57 Nutzungsmöglichkeiten des Textes erinnern stark an die Möglichkeiten, die uns heutzutage in computerbasierten Hypertexten zur Verfügung stehen. Man kann aufgrund Wittgensteins zahlenbasierter Strukturierung viel leichter im Text „herumspringen“ als in einem herkömmlichen Text, und beliebig entscheiden, an welchen Stellen man ins Detail gehen möchte und an welchen Stellen nicht. 3.3.2 Die Bildtheorie Wittgensteins Bildtheorie der Bedeutung, die er im Tractatus darstellt und vertritt, überzeugt nicht nur durch ihre sprachliche Klarheit und Struktur, sondern auch in vielen inhaltlichen Punkten noch heute. Im Gegensatz zu anderen philosophischen Werken lassen sich die Thesen des Tractatus sehr leicht mit aktuellen neuropsychologischen Erkenntnissen vereinbaren, statt durch sie überholt zu wirken, weil Wittgenstein versuchte, die Psychologie vollkommen aus seiner Argumentation herauszuhalten. Stattdessen argumentiert er nur über die Strukturisomorphie von Sprache und Welt. Die Bildtheorie wird von ihm in vier Schritten entwickelt. Nach seinen Ausführungen über die Beschaffenheit der Welt (TLP 1 – 2.063) analysiert Wittgenstein zunächst unsere Praktiken der Abbildung der Welt (TLP 2.1 ff.). Er scheint hauptsächlich an Abbildungen durch Malen oder Zeichnen zu denken, aber die Ausführungen sind so allgemein, dass sie für viele weitere Formen der Abbildung genauso zutreffen. In einem dritten Schritt kommt er dann zu der These, dass wir mit Sprache eben genau dasselbe machen wie beim Malen, nämlich die Welt abzubilden versuchen. Dabei widmet er sich zunächst dem Gedanken als Bild der Tatsachen (TLP 3 ff.), bevor er aufgrund der Gleichheit von Gedanken und sinnvollen Sätzen dazu übergeht, Sätze und ihre abbildende Funktion näher zu untersuchen (TLP 4 ff.). Ich betrachte nun zunächst seine allgemeinen Überlegungen zur Funktionsweise von Bildern: 3.3.2.1 Die Funktionsweise von Bildern 2.1 Wir machen uns Bilder der Tatsachen. 2.11 Das Bild stellt die Sachlage im logischen Raume, das Bestehen und Nichtbestehen von Sachverhalten vor. 2.12 Das Bild ist ein Modell der Wirklichkeit. 2.13 Den Gegenständen entsprechen im Bilde die Elemente des Bildes. 58 2.131 Die Elemente des Bildes vertreten im Bild die Gegenstände. 2.14 Das Bild besteht darin, dass sich seine Elemente in bestimmter Art und Weise zu einander verhalten.54 Zunächst identifiziert Wittgenstein hier das Erschaffen von Bildern als generell menschliche Tätigkeit, ohne genau auszuführen, warum wir Bilder eigentlich für nützlich halten. Offensichtlich sind Bilder für uns nützlich zur Kommunikation von Wissensbeständen und zur Handlungsplanung in den verschiedensten Bereichen, sei es als Landkarte zur Routenplanung, als Bauplan, der dem Baupersonal ermöglicht, die Ideen des Architekten umzusetzen, oder als Skizze zur Visualisierung beliebiger Problemstellungen. Daher führt er dies nicht aus, sondern beschreibt direkt die Funktionsweise von Bildern. Ein Bild besteht aus mehreren Elementen, die die zugehörigen Elemente der Welt (die Gegenstände) vertreten. Es gibt also eine Zuordnung zwischen den Bildelementen und den Elementen des abgebildeten Ausschnitts der Welt. Darüber hinaus stehen die Elemente des Bildes untereinander in den gleichen Relationen wie die Gegenstände der Welt untereinander. Wenn man weiß, dass er vorhat, die Funktionsweise von Wörtern und Sätzen analog zu seiner Theorie der Bilder zu erklären, sieht man schon hier, dass manche Wörter den Bildelementen und damit den Gegenständen entsprechen werden, während die kompletten Sätze die Relationen zwischen ihren Elementen darstellen, und somit kompletten Bildern und Sachverhalten in der Welt entsprechen werden. Da er weiter hinten in seiner Abhandlung den Wahrheitsbegriff bezüglich seiner Bildtheorie der Sprache diskutieren wird, nimmt er ihn auch hier schon in Bezug auf Bilder in den Blick, um die Analogie zu vervollkommnen: 2.223 Um zu erkennen, ob das Bild wahr oder falsch ist, müssen wir es mit der Wirklichkeit vergleichen. 2.224 Aus dem Bild allein ist nicht zu erkennen, ob es wahr oder falsch ist. 2.225 Ein a priori wahres Bild gibt es nicht.55 Man kann ihm hier vorwerfen, die Analogie etwas zu übertreiben, weil er beim Schreiben dieser Textstelle natürlich schon weiß, dass er im weiteren Verlauf des Textes darauf hinaus will, dass Sätze genauso die Welt abbilden, wie Bilder es tun. Denn wir sind normalerweise nicht geneigt, in Bezug auf Bilder überhaupt von „Wahrheit“ zu reden. Entweder wir erkennen den auf dem Bild dargestellten Sachverhalt wieder, ohne dass uns gesagt werden muss, was da abgebildet wurde, oder 54 55 TLP, S. 14/15 TLP, S. 17 59 wir erkennen es zumindest, nachdem es uns gesagt wurde. In diesen beiden Fällen würden wir ein Bild wohl „gelungen“ nennen, aber eigentlich nicht „wahr“. Darüber hinaus gibt es noch den Fall, dass wir von einem Bild wissen, was es abbilden sollte, es aber „misslungen“ nennen und einige Korrekturen vorschlagen würden, damit es seinen Zweck der Abbildung doch noch erfüllen kann. Wenn man jedoch an eine fehlerhafte Skizze denkt, mit deren Hilfe jemand einen bestimmten Ort hätte finden sollen, kommen sich die Begriffe „misslungen“ und „falsch“ in ihrer Anwendbarkeit schon relativ nah. Wenn wir Wittgenstein hier also erst einmal folgen und „Wahrheit“ auch als akzeptablen Begriff zur Bewertung von Bildern ansehen, finden wir einen Einwand gegen Freges Wahrheitsbegriff vorgezeichnet, der bei der Behandlung von Wittgensteins Wahrheitsbegriff in Bezug auf Sätze noch genauer formuliert werden wird. Es handelt sich dabei um den gleichen Punkt, den ich im 2. Kapitel bei der Behandlung von Freges Bedeutungstheorie sowohl mit formalen als auch mit inhaltlichen Argumenten kritisiert habe. Denn es ist klar, dass die Wahrheit eines Bildes nur durch den Vergleich des Bildes mit dem abgebildeten Weltausschnitt festgestellt werden kann. Bevor ich nun zu Wittgensteins analoger Analyse der Funktionalität von Gedanken und Sätzen komme, möchte ich noch einen kleinen Exkurs anlässlich des oben zitierten Textabschnitts 2.225 machen. Es handelt sich dabei um eine von den vielen Randbemerkungen im Tractatus, die philosophisch noch relativ unbeachtet geblieben sind, obwohl sie den gemeinhin akzeptierten Lehrsätzen der philosophischen Tradition widersprechen: 3.3.2.2 Wittgenstein gegen Kant 2.225 Ein a priori wahres Bild gibt es nicht. 3.04 Ein a priori richtiger Gedanke wäre ein solcher, dessen Möglichkeit seine Wahrheit bedingte. 3.05 Nur so könnten wir a priori wissen, dass ein Gedanke wahr ist, wenn aus dem Gedanken selbst (ohne Vergleichsobjekt) seine Wahrheit zu erkennen wäre.56 Wittgenstein formuliert in Abschnitt 3 ziemlich knapp, ohne die komplette Aussage für Bilder aus 2.225 für Gedanken exakt genauso zu wiederholen. Die Analogie ist jedoch offensichtlich und der analoge Satz „Einen a priori wahren Gedanken gibt es nicht.“ wird durch die Formulierung im 56 TLP, S. 17 60 Irrealis impliziert. Wenn man weiter bedenkt, dass Wittgensteins Analyse ergibt, dass Bilder, Gedanken und Sätze genau gleich funktionieren, finden wir hier zwischen den Zeilen die provokante These „Einen a priori wahren Satz gibt es nicht.“ Wie sind dann aber die Sätze, die normalerweise als Beispiele für a priori gültige Sätze angeführt werden, zu deuten? Betrachten wir das klassische Beispiel „Junggesellen sind unverheiratete Männer“. Nun gibt es zwei Anwendungsfälle für einen solchen Satz, die man streng unterscheiden sollte: Im uninteressanteren Fall handelt es sich um eine Begriffsdefinition für einen Sprecher, der den Begriff „Junggeselle“ bisher nicht kannte. Dann versucht man mit diesem Satz eher folgendes auszudrücken: „Das Wort „Junggeselle“ bezeichnet im Deutschen dasselbe wie „unverheirateter Mann“. Dieser Satz ist kein a priori gültiger Satz, sondern eine Definition. Unter einer Definition versteht man die Festsetzung einer Wortbedeutung. Ein bisher unbekanntes Wort wird über bekannte Wörter erklärt. Ein solcher Satz ist also nicht a priori gültig, sondern informiert über eine neue oder zumindest einem Sprecher bisher unbekannte willkürliche Festlegung. Widmen wir uns also dem interessanteren Fall und nehmen an, es handele sich um einen Satz, dessen Bedeutungsbestandteile allen Beteiligten bekannt sind. Dann scheint es sich um einen a priori wahren Satz zu handeln. Wir müssen keine Untersuchungen in der Welt durchführen, um seinen Wahrheitswert zu wissen. In Wahrheit handelt es sich allerdings überhaupt nicht um einen Satz. Ein Sprecher, der den Begriff „Junggeselle“ versteht, übersetzt ihn automatisch gemäß seiner Definition als „ein Mann, für den das Attribut „unverheiratet“ gilt“. Also ergibt sich als formale Satzstruktur: F(a), wobei F für ein Attribut und a für einen Gegenstand des Gegenstandsbereichs steht, dem das Attribut zugesprochen wird. Die Struktur des Beispielsatzes lautet also: unverheiratet(Junggeselle) Aufgrund der Definition von Junggeselle [Junggeselle:= unverheiratet(Mann)] erhalten wir durch Einsetzung die folgende Satzstruktur: unverheiratet(unverheiratet(Mann)) Dazu sind zwei Interpretationen möglich: Der Gegenstandsbereich (der Junggesellen), dessen Objekten nun allen das Attribut „unverheiratet“ zugesprochen wird, wird bereits über genau dieses Attribut als Gegenstandsbereich definiert. Oder allen Objekten des Gegenstandsbereichs (der Männer) wird zunächst das Attribut „unverheiratet“ und dann das Attribut „unverheiratet“ zugesprochen, was zweimal dasselbe ist. Es wird also überhaupt nichts neues, oder anders betrachtet zweimal genau dasselbe ausgesagt. 61 Insofern könnte man eher von philosophischem Stottern reden als von a priori wahren Sätzen. Wenn einem jemand zweimal genau dasselbe mitteilt, dann kann man beim zweiten Mal natürlich sagen, dass man dies bereits vorher wusste. Aber diese Trivialität kann nicht als Rechtfertigung dienen, die Unterscheidung zwischen a priori und a posteriori wahren Sätzen aufrecht zu erhalten. Mittlerweile ist Kants Einteilung der Sätze in a priori und a posteriori wahr oder falsch aus verschiedenen anderen Gründen, unter anderem auch von Quine, kritisiert worden. Diese Unterscheidung war jedoch eine wichtige Grundannahme von Freges problematischen Überlegungen zu Identitätssätzen57 und wird bedenklicherweise auch heute noch oft in der philosophischen Diskussion argumentativ verwendet. 3.3.2.3 Sätze als Bilder der Wirklichkeit Wittgenstein schlägt nun den Bogen zu unseren sprachlichen Sätzen, die er für Bilder der Wirklichkeit hält, über den „Gedanken“, den er als eine Art inneres Bild, oder besser gesagt als Grundlage unseres abbildenden Umgangs mit der Welt überhaupt versteht. 3 Das logische Bild der Tatsachen ist der Gedanke 3.001 „Ein Sachverhalt ist denkbar“ heißt: Wir können uns ein Bild von ihm machen. 3.01 Die Gesamtheit der wahren Gedanken sind ein Bild der Welt.58 „Gedanke“ wird dabei keinesfalls als ein metaphysischer Begriff benutzt, wie ihn zum Beispiel Frege in Anlehnung an Platons Reich der Ideen verwendet. Es ist keine Entität damit gemeint, die in einem anderen Reich jederzeit existiert und die verschiedene Personen in irgendeinem Sinne zu verschiedenen Zeitpunkten oder auch gleichzeitig „erfassen“ können. Es ist ein Begriff, der aufgrund des geringen Kenntnisstandes innerhalb der Psychologie seiner Zeit zwangsläufig relativ unbestimmt hätte bleiben müssen. Wittgenstein blendet jedoch ganz bewusst jedwede psychologische Erklärung aus. Die Gesetzmäßigkeiten unseres Geistes werden im Tractatus nur indirekt über die prinzipiellen Erfordernisse für die Realisierung von Sprache thematisiert. Seine Theorie ist somit offen für eine psychologische Interpretation, die die neuronale Realisierung der Sprachprozesse genauer spezifiziert. Der „Gedanke“ ist also zunächst als unser (wie auch immer realisiertes) inneres Bild von den Sachverhalten zu verstehen, welches er später gleichsetzt mit unserem sprachlichen Bild von den Sachverhalten: 57 58 Vgl. Kap. 2.3 und 2.4 TLP, S. 17 62 4 Der Gedanke ist der sinnvolle Satz. 4.01 Der Satz ist ein Bild der Wirklichkeit. Der Satz ist ein Modell der Wirklichkeit, so wie wir sie uns denken.59 Durch die Gleichsetzung von Gedanke und Satz wird die Strukturanalogie zwischen Welt und Satz komplett gemacht. Gedanken sind demnach Sätze, die nur nicht aufgeschrieben oder ausgesprochen wurden, sozusagen die innerliche Version, die jederzeit in optisch oder akustisch wahrnehmbare Sätze transformiert werden kann. Sätze sind für Wittgenstein von ihrer logischen Struktur her genauso Bilder der Wirklichkeit, wie die Gedanken es sind. Sie sind nur die frei zugängliche Version derselben Bilder. Wenn man die Sätze mit entwickelten Fotografien vergleicht, könnte man die Gedanken mit den Daten auf einer Digitalkamera vergleichen, deren Anzeige defekt ist. Während die entwickelten Fotos betrachtet werden können, kann man die digitalen Daten nicht sehen. Sie sind aber genauso vorhanden und können zu normalen Fotografien entwickelt werden. 4.03 Ein Satz muss mit alten Ausdrücken einen neuen Sinn mitteilen. Der Satz teilt uns eine Sachlage mit, also muss er wesentlich mit der Sachlage zusammenhängen. Und der Zusammenhang ist eben, dass er ihr logisches Bild ist. Der Satz sagt nur insoweit etwas aus, als er ein Bild ist. 4.05 Die Wirklichkeit wird mit dem Satz verglichen. 4.06 Nur dadurch kann der Satz wahr oder falsch sein, indem er ein Bild der Wirklichkeit ist.60 Nun nimmt Wittgenstein wieder Bezug auf das, was er bei der Besprechung der Funktionsweise der Abbildung entwickelt hat. Die Bestandteile der Sprache funktionieren genau wie die Bestandteile des Bildes. Die Namen vertreten die Gegenstände und die anderen Wörter beschreiben die Relationen, die zwischen den Gegenständen bestehen. Der Satz teilt den Gedanken einer Person einer anderen Person mit. Das innere Bild wird übertragen, so dass nun die andere Person ebenfalls eine Vorstellung davon hat, wie es sich in der Welt verhält. Die Wahrheit eines Satzes kann genau wie bei einem Bild wieder nur über den Vergleich mit dem entsprechenden Weltausschnitt ermittelt werden. Dass der Satz überhaupt „wahr“ oder „falsch“ genannt werden kann, liegt nach Wittgenstein daran, dass er genauso wie ein Bild die Welt abbildet. Doch schauen wir uns den Wahrheitsbegriff in Abgrenzung zu Frege noch genauer an: 59 60 TLP, S. 30 TLP, S. 36-38 63 3.3.3 Der Wahrheitsbegriff 4.024 Einen Satz verstehen, heißt, wissen was der Fall ist, wenn er wahr ist. (Man kann ihn also verstehen, ohne zu wissen, ob er wahr ist.) Man versteht ihn, wenn man seine Bestandteile versteht. 4.025 Die Übersetzung einer Sprache in eine andere geht nicht so vor sich, dass man jeden Satz der einen in einen Satz der anderen übersetzt, sondern nur die Satzbestandteile werden übersetzt. (Und das Wörterbuch übersetzt nicht nur Substantiva, sondern auch Zeit-, Eigenschafts- und Bindewörter etc.; und es behandelt sie alle gleich.) 4.026 Die Bedeutungen der einfachen Zeichen (der Wörter) müssen uns erklärt werden, dass wir sie verstehen. Mit den Sätzen aber verständigen wir uns. 4.064 Jeder Satz muss schon einen Sinn haben; die Bejahung kann ihn ihm nicht geben, denn sie bejaht ja gerade den Sinn. Und dasselbe gilt von der Verneinung, etc.61 Wittgenstein zeigt hier auf, dass die Wahrheit eines Satzes und das Verständnis des Satzes unabhängig voneinander sind. Man kann einen Satz verstehen, ohne den Wahrheitswert zu kennen. Warum ist das so? Man versteht einen Satz, wenn man alle Wörter des Satzes versteht. Das heißt also, dass man versteht, welche Gegenstände erwähnt werden, welche Eigenschaften diese haben, und in welchen Relationen sie stehen. Die Übersetzungsargumentation zeigt treffend, dass für die Bedeutung das Prinzip der Kompositionalität gilt. Man muss nur die Bedeutung aller Wörter verstehen, um eine Übersetzung durchzuführen. Ebenso muss man als Kind nur die Wörter der Muttersprache lernen. Die Sätze werden nicht gelernt, sondern die erlernten Wörter werden dem Kommunikationsziel entsprechend immer unterschiedlich zu Sätzen zusammengestellt. Wenn man einen Satz versteht, könnte man also ein anderes Bild „malen“, das exakt denselben Sachverhalt, also dieselbe Gegenstandskonstellation abbildet, sei es mit anderen Wörtern, in einer anderen Sprache, wirklich mit einem Pinsel malend, oder skizzierend mit einem Stift. Die Bejahung und die Verneinung aber sind Handlungen, die auf Sätze angewendet werden können, deren Bedeutung man bereits erfasst hat. Diese Handlungen besagen dann, dass das Bild, das ein Satz malt, die Welt 61 TLP, S. 28 und S. 31 64 richtig oder falsch abbildet. Für meine Bedeutungstheorie möchte ich daher von der Betrachtung des Tractatus insbesondere folgende Punkte festhalten: Die Bildtheorie ist in sich schlüssig und die behauptete Strukturisomorphie zwischen Sprache und Welt lässt sich gut durch die Adaption neuronaler Netze an die Struktur der Messwerte aus der Umwelt erklären. Die Kompositionalität der Bedeutung muss in jeder Theorie gewährleistet sein, da sie ein offensichtliches Phänomen der Sprache darstellt. Und die Beschäftigung mit der Wahrheit eines Satzes stellt ein dem Verständnis der Satzbedeutung nachgeordnetes Phänomen dar. 65 3.4 Bildtheorie oder Gebrauchstheorie? 3.4.1 Welchen Ansatz benötigen wir für eine neuropsychologische Bedeutungstheorie? Die Ergebnisse bezüglich paralleler Aktivierung von Neuronen bzw. Neuronenverbänden in verschiedenen Gehirnarealen und unterschiedlichen Funktionsbereichen lassen sich viel besser mit der Bildtheorie des Tractatus als der Gebrauchstheorie der Philosophischen Untersuchungen vereinbaren. Innerhalb der Gehirnareale der sensorischen Verarbeitung kodiert ein bestimmtes neuronales Aktivitätsmuster einen bestimmten Messwert aus der Umwelt (das nennt man in der Neuropsychologie eine „neuronale Repräsentation“). Zum Beispiel führt die visuelle Wahrnehmung eines Baumes zu einer ganz spezifischen neuronalen Aktivität. Die Signaleingänge von der Netzhaut werden in Bereichen mit ansteigender Spezialisierung immer weiter hinsichtlich Form, Farbe, Konturen und Bewegung analysiert. Das Endergebnis dieser Teilaspektanalysen wird dann zusammengesetzt zu dem Bild, das wir bewusst wahrnehmen. Ebenso ruft die akustische Wahrnehmung der Schwingungen der Stimmbänder eines Mitmenschen zur Äußerung des Wortes „Baum“ eine ganz spezifische neuronale Aktivität hervor. Menschliche Gehirne haben (ebenso wie die Gehirne einfacherer Organismen) die Eigenschaft, mehrfach gleichzeitig auftretende neuronale Muster zu verknüpfen, das heißt, dass sie in späteren Fällen die jeweils anderen Neuronenverbände aktivieren, wenn nur eins der beiden verknüpften neuronalen Muster auftritt. Diese basale Eigenschaft von Gehirnen hat sich vor extrem langer Zeit entwickelt, da es für alle Organismen einen evolutionären Vorteil darstellt, wenn sowohl positive als auch negative Umweltbedingungen leichter wiedererkannt und dann entsprechend aufgesucht, bzw. gemieden werden können. Wenn man zum Beispiel in der Lage ist, die Geräusche, die ein gefährliches Raubtier verursacht, wiederzuerkennen und mit der visuellen Repräsentation der Gefahrenquelle zu verknüpfen, so kann man, wenn man das nächste Mal solche Geräusche hört, schon Fluchtverhalten an den Tag legen, bevor das Raubtier überhaupt in Sichtweite kommt. Das Lesen des Wortes „Baum“, das Hören desselben gesprochenen Wortes und das Sehen eines Baumes, oder eines hinreichend detaillierten Bildes eines Baumes führen also zu einer Aktivierung der jeweils anderen neuronalen Verarbeitungsgebiete. Das erklärt nicht nur wohlbekannte Effekte, wie das Erlebnis des „inneren Hörens“ der Worte beim Lesen, oder beim Betrachten eines Bildes, sondern auch Wittgensteins selbstverständliche Annahme der Bildtheorie als Grundlage seiner Sprachphilosophie im Tractatus. Die Wahrnehmungen von Objekten und Bildern werden nämlich in der Tat beim Erlernen der Sprache mit den ihnen entsprechenden Wörtern auf neuronaler Basis verknüpft. Die Besonderheit der Bildtheorie besteht darin, dass sie eine Strukturgleichheit von Sprache und 66 Welt postuliert. Diese in der Tat bestehende Strukturgleichheit basiert zum einen auf der gleichen Realisierung unserer Wahrnehmung der Welt und unserer Sprache durch neuronale Verknüpfungen (gleiche Bausteine ermöglichen gleiche Baustrukturen), und zum andern auf der direkten Verknüpfung von neuronalen Repräsentationen von Wörtern mit den Repräsentationen von Wahrnehmungen von Gegenständen. Eine solche physische Verknüpfung ermöglicht nicht nur genau die Referenz oder Abbildung, wie Wittgenstein sie mit seiner Bildtheorie beschreibt, sondern sie ermöglicht Aktivierungen in beide Richtungen, wie wir später noch sehen werden. Während die Bildtheorie gut mit der Beschreibung der neuronalen Vorgänge zusammenpasst, fokussiert Wittgenstein im Unterschied dazu mit der Gebrauchstheorie die äußerlichen Umstände unserer Kommunikationssituation. Die Bedeutung von Wörtern wird demnach festgelegt durch den üblichen gesellschaftlichen Gebrauch. Diese Beschreibung weicht zwar relativ stark von der Bildtheorie des Tractatus ab, ist aber insofern nützlich, als sie unsere Aufmerksamkeit auf den Prozess des Spracherwerbs zu lenken vermag. In vielen philosophischen Beschreibungen von Sprachprozessen liegt die Problematik genau darin, dass die Sprache von erwachsenen Sprechern als ein einheitliches Gesamtsystem betrachtet wird, und dadurch die ursprüngliche Situation des kindlichen Spracherwerbs in diesen Theorien nicht als wichtiger Faktor der Modellbildung erfasst wird. Die Gebrauchstheorie wird also für die neuropsychologische Bedeutungstheorie insofern relevant werden, als sie den Spracherwerb, also die Phase der Entstehung der neuronalen Strukturen, die die Sprachfähigkeiten realisieren, beschreibt. 3.4.2 Kein Verständnis der Sprachmechanismen ohne Psychologie Es gibt also viele Stellen in Wittgensteins Werk, an denen durch theoretische Überlegungen Thesen über die Funktionsweise der menschlichen Sprache aufgestellt werden, die sich heute durch neuropsychologische Erkenntnisse bestätigt finden. Aus diesem Blickwinkel gesehen könnte man sagen, dass die größte Veränderung zwischen Wittgensteins zwei philosophischen Ansätzen darin bestand, dass er im Spätwerk die Psychologie nicht mehr bewusst ausklammern und die Gesetzmäßigkeiten der Sprache rein analytisch finden wollte, sondern die Psychologie stattdessen in den Mittelpunkt seiner Untersuchungen über die menschliche Sprache stellte. Obwohl auch einige seiner Thesen in den PU im Widerspruch zum aktuellen Stand der Neuropsychologie stehen, findet sich eine weitaus größere Anzahl durch sie bestätigt. So zeigt sich zumindest, dass die Neuropsychologie auch in ihrem momentanen Entwicklungsstadium schon eine relevante Wissensquelle und Vergleichsgröße darstellt, deren Aussagen man nicht ignorieren, sondern sich für 67 die philosophische Begriffsbildung zu Nutze machen sollte. Daher liegt es nahe, eine neue Bedeutungstheorie auf neuropsychologischer Basis zu entwerfen, wie ich es im Verlauf dieser Arbeit tun werde. Eine ähnliche Grundidee, die ich in Kapitel 5 noch darstellen und analysieren möchte, findet sich bereits bei Willard Van Orman Quine. Zuvor möchte ich jedoch noch eine von mir in Auseinandersetzung mit Wittgensteins Thesen aus der Übergangszeit zwischen TLP und PU entwickelte Fortführung der formalen Logik darstellen, mit der man Wittgensteins Probleme mit Elementarsätzen auflösen kann. 68 4. Attributsskalenlogik 4.1 Ein Lösungsvorschlag für Wittgensteins Elementarsatzproblematik In diesem Kapitel werde ich die Attributsskalenlogik, eine von mir entwickelte Verfeinerung der Prädikatenlogik, vorstellen. Diese erlaubt es, bei der Formalisierung von Sätzen mehr von deren inneren Struktur zu erfassen, als dies bisher möglich war. Die Idee zu dieser Weiterentwicklung entstand anlässlich meiner parallelen Beschäftigung mit Optimierungsprozessen im Bereich der Didaktik der Logik und Ludwig Wittgensteins Bildtheorie im Tractatus logico-philosophicus. Obwohl die Attributsskalenlogik auch einen generell nützlichen Entwicklungsschritt für die Sprachphilosophie und Logik darstellt, ist sie primär darauf ausgelegt, Wittgensteins schwerwiegendes Problem mit den Elementarsätzen zu lösen. Daher soll Wittgensteins Problem, welches darin bestand, dass er keine Beispiele für Elementarsätze angeben konnte, obwohl deren Existenz aus seinem Ansatz logisch folgte, zunächst genau dargestellt werden. Während viele der Thesen zur Funktionalität von Sprache im Tractatus auch heute noch gültig sind, gibt es mindestens einen problematischen Teilbereich der in diesem Werk entwickelten Theorie. Dieser wurde jedoch in der Rezeption von Wittgensteins Werk nicht als ein Problem aufgefasst, welches man durch eine Erweiterung oder geringe Abwandlung der Theorie lösen könnte. Stattdessen stellte man diesen Bereich als ein zentrales Problem der Bildtheorie dar und nahm ihn zum Anlass, die gesamte Theorie zu verwerfen. Gemeint ist hier Wittgensteins Rede von den „Elementarsätzen“, die per Definition die einfachsten Sätze darstellen, und aus denen alle komplizierteren Sätze durch wahrheitsfunktionale Verknüpfungen gebildet werden. Üblicherweise wird Wittgensteins alternativer Fokus in seiner Spätphilosophie als Rechtfertigung angesehen, die Konzeption des Tractatus nicht weiter verfolgen zu müssen. Sein Aufsatz Some Remarks on Logical Form von 1929 wird demgemäß in der Sekundärliteratur als erster Schritt Wittgensteins auf dem Weg interpretiert, das System seines eigenen Frühwerks vollständig abzulehnen. So schreibt zum Beispiel David Pears in seiner Darstellung des Frühwerks unter anderem: „One of the most revealing pieces of evidence will be his 1929 retractation of his earlier extreme logical atomism. It is worth remarking incidentally that his own self-criticisms often provide the necessary key to his earlier views.“62 62 Pears, David: The False Prison – A Study of the Development of Wittgenstein´s Philosophy, Oxford, 1987 S.73 69 „Another reason why this much discussed example 63 is so important is that it is one of the points at which Wittgenstein began to change his mind in 1929. When he started to work out the implications of the logical atomism of the Tractatus, he soon realized that they were unacceptable.“64 Ich halte diese Art der Darstellung von Wittgensteins philosophischem Voranschreiten für verfälscht durch die starke philosophiegeschichtliche Wirkung der Philosophischen Untersuchungen. Das folgende Zitat belegt ebenso wie einige weiter unten angeführte, dass es Wittgenstein zu diesem Zeitpunkt nur um Verfeinerungen und Korrekturen seiner im Tractatus dargelegten Theorie ging: „It is, of course, a deficiency of our notation that it does not prevent the formation of such nonsensical constructions, and a perfect notation will have to exclude such structures by definite rules of syntax. These will have to tell us that in the case of certain kinds of atomic propositions described in terms of definite symbolic features certain combinations of the T's and F's must be left out. Such rules, however, cannot be laid down until we have actually reached the ultimate analysis of the phenomena in question. This, as we all know has not yet been achieved.“65 Versuchen wir daher die Zusammenhänge der Elementarsatzproblematik näher zu beleuchten, mit denen Wittgenstein sich zu dieser Zeit beschäftigte. Friedrich Waismann, der zwischenzeitlich Wittgensteins Ideen mitschrieb und sie für die Diskussion im Wiener Kreis sammelte, schreibt über Elementarsätze in seinen eigenen Thesen, die um 1930 herum entstanden sind, folgendes: „Dass es Elementarsätze gibt, ist keine Hypothese. Die Forderung der Existenz von Elementarsätzen ist die Forderung, dass unsere Aussagen Sinn haben. Dass wir die Sätze unserer gewöhnlichen Sprache verstehen, bürgt also schon dafür, dass es Elementarsätze gibt. Die Elementarsätze sind das, was allen anderen Sätzen Sinn gibt. Wir können die Sätze unserer Umgangssprache verstehen, ohne zu wissen, wie die Elementarsätze aussehen. So wie wir die meisten Ausdrücke verstehen, ohne eine Kenntnis ihrer Definition zu haben, oder wie wir uns bewegen, ohne zu wissen, wie jede einzelne Bewegung zustande kommt. Man könnte fragen: Wie ist es möglich, dass wir die Sätze unserer Umgangssprache 63 Das „viel diskutierte Beispiel“, auf das in diesem Zitat Bezug genommen wird, stellt das Problem der logischen Abhängigkeit der Farbsätze dar, welches weiter unten noch detailliert dargestellt wird. 64 Pears, David: The False Prison – A Study of the Development of Wittgenstein´s Philosophy, Oxford, 1987 S.83 65 Wittgenstein, Ludwig: "Some Remarks on Logical Form" in Proceedings of the Aristotelian Society, Suppl. vol. 9 (1929), S. 162-171, letzter Absatz 70 verstehen, wenn wir die Elementarsätze nicht kennen? Die Antwort lautet: Eine Regel anwenden heißt nicht: um die Regel wissen. Wir können z. B. neue Zeichen einführen durch Definition und wir können die schon bekannten Zeichen durch Definition zergliedern. In diesem letzten Fall verdeutlicht uns nur die Definition den Sinn der Sätze. Diese selbst aber können wir verstehen, ohne den Wortlaut der Definition zu kennen.“66 Wittgensteins Elementarsatzkonzeption stellt keinen empirischen Befund bezüglich des Vorgangs des primären Spracherwerbs von Kindern dar. Genauso wenig handelt es sich um eine Hypothese, auf deren Grundlage er seine Theorie entwickelt, sondern die Konzeption der Elementarsätze ist eine rein logische Folgerung aus seinem Theorieansatz. Denn er fragt im Tractatus nicht danach, wie unsere Sprache historisch entstanden sein könnte, oder wie jeder einzelne Sprecher sie in seiner Kindheit erlernt, sondern setzt ihre Existenz einfach als gegeben voraus. Stattdessen nimmt er von diesem bestehenden komplexen System ausgehend eine Systemanalyse vor. Da Sätze unterschiedlich komplex aufgebaut sein können, muss er zu dem Schluss kommen, dass es einfachere Bestandteile gibt, und dass man durch voranschreitende Vereinfachung irgendwann die einfachsten Strukturen finden können muss, die er dann Elementarsätze nennt. 4.221 Es ist offenbar, dass wir bei der Analyse der Sätze auf Elementarsätze kommen müssen, die aus Namen in unmittelbarer Verbindung bestehen. Es frägt sich hier, wie kommt der Satzverband zustande.67 Es ist uns aus dem alltäglichen Umgang mit der Welt einsichtig, dass die Aussage korrekt ist, dass man auf einfachere an ihrer Wirkung unterscheidbare Satzbestandteile stoßen muss, wenn man komplexe Sätze analysiert. Denn es gilt für jede Strukturanalyse in Bezug auf jedes komplexe System, dass man in der Komplexität kleinere Komponenten und deren wirksame Relationen auffinden kann. Man könnte geradezu sagen, dass jede wissenschaftliche Erklärung eines komplexen Systems über eine Beschreibung der Bestandteile und deren strukturbasierten Wirkungen abläuft. Betrachten wir zum Beispiel ein Tier, so können wir seine Überlebensfähigkeit darauf zurückführen, dass es über Mechanismen zur Bewegung und zum Stoffwechsel verfügt. Um den Stoffwechsel zu erklären, verweisen wir auf die Zusammenhänge zwischen Atmung und Verdauung. Die Atmung erklären wir anhand der Lungenbläschen und der Struktur der Lunge. Die Funktionalität der Lungenbläschen wird wiederum erklärt durch die Struktur ihrer Zellbestandteile, und immer so weiter bis hinunter zu Molekülen, Atomen und atomaren Bestandteilen. Lebewesen 66 67 Wittgenstein Werkausgabe Band 3, S. 233ff, Zitat S. 248 TLP, S. 38 71 und Sprachen sind jeweils komplexe Systeme, daher müssen sie in dieser Hinsicht gleichartig funktionieren und somit auf diese Art analysierbar sein. Im schlimmsten Fall hätte man nur immens viele solcher Bestandteile: 4.2211 Auch wenn die Welt unendlich komplex ist, so dass jede Tatsache aus unendlich vielen Sachverhalten besteht und jeder Sachverhalt aus unendlich vielen Gegenständen zusammengesetzt ist, auch dann müsste es Gegenstände und Sachverhalte geben.68 Man könnte meinen, dass die Unauffindbarkeit von Elementarsätzen das Problem sei, an dem die gesamte sprachphilosophische Konzeption des Tractatus scheitert, und dass diese Unauffindbarkeit der Grund für Wittgensteins zweiten Ansatz in den Philosophischen Untersuchungen wäre. Allerdings scheint mir dies am eigentlichen Problem vorbei zu gehen. Denn daran, „dass wir bei der Analyse der Sätze schließlich auf Sätze kommen müssen, die eine unmittelbare Verbindung von Gegenständen sind“69, hält er auch weiter fest, nachdem er die Probleme festgestellt hat, die seine Theorie mit den weiter unten erläuterten „Farbsätzen“ bekommt. Ein Grund, warum er die Form des Elementarsatzes nicht angeben zu können glaubt, besteht darin, dass er unterschiedlich komplexe Relationen als Inhalt eines Elementarsatzes zulassen will. Es geht zwar um die Abbildung einer unmittelbaren Verbindung von Gegenständen, aber die Menge der beteiligten Gegenstände ist beliebig, und es gibt keinen Grund, eine Zahl für die beteiligten Gegenstände einer Relation auszuzeichnen. 5.55 Wir müssen nun die Frage nach allen möglichen Formen der Elementarsätze a priori beantworten. Der Elementarsatz besteht aus Namen. Da wir aber die Anzahl der Namen von verschiedener Bedeutung nicht angeben können, so können wir auch nicht die Zusammensetzung des Elementarsatzes angeben. 5.553 Russell sagte, es gäbe einfache Relationen zwischen verschiedenen Anzahlen von Dingen (Individuals). Aber zwischen welchen Anzahlen? Und wie soll sich das entscheiden? - Durch die Erfahrung? (Eine ausgezeichnete Zahl gibt es nicht.)70 68 TLP S. 38 TLP 4.221 70 TLP S. 65 69 72 Da sich Relationen formal durch ihre Stelligkeit, also die Menge der benötigten Objekte zwischen denen eine Relation bestehen kann, unterscheiden, kann er keine allgemeine Form für Elementarsätze angeben. 5.554 Die Angabe jeder speziellen Form wäre vollkommen willkürlich.71 Nun wäre die Unmöglichkeit der Angabe einer allgemeinen Form zwar unschön, aber kein Grund, eine funktionierende Theorie zu verwerfen. Der eigentliche Kritikpunkt bestand ja darin, dass Wittgenstein auch keine Beispiele für Elementarsätze angeben konnte, die allen seinen strukturellen Anforderungen entsprachen. Die Frage ist jedoch, wieso er überhaupt von Relationen spricht, wo doch die einfachsten Sätze der Prädikatenlogik nur Gegenständen Eigenschaften zuweisen und gar keine Relationen zwischen Gegenständen thematisieren. Je nach formaler Schreibweise wird der Unterschied zwischen Attributen und Relationen natürlich mehr oder weniger verwischt. Wenn man Attribute als F(x) und Relationen als F(x,y) schreibt, dann scheint es da nur genau den numerischen Unterschied zu geben, den es auch zwischen einer zweistelligen und einer dreistelligen Relation [F(x,y) und F(x,y,z)] gibt. Doch falls man dies glaubt, lässt man sich von der Art der formalen Notation täuschen. Um den Unterschied zwischen Eigenschaften und Relationen zu verdeutlichen, überlegen wir, was wir in einem wissenschaftlichen Zusammenhang jeweils tun würden, um sie zu bestimmen. Um eine Eigenschaft (wie zum Beispiel „Länge“ oder „Temperatur“ eines Gegenstands a) zu bestimmen, würden wir eine Messung durchführen. Um eine Relation (wie zum Beispiel „a ist wärmer als b“) zu bestimmen, würden wir zunächst Messungen an a und an b durchführen und dann die Ergebnisse vergleichen. Wir sehen also: Eine Eigenschaft ist das Ergebnis einer Messung72, während eine Relation das Ergebnis eines Vergleichs von zwei oder mehr Messungen ist. Das sind fundamental unterschiedliche Tätigkeiten und man kann ihre jeweiligen Ergebnisse unmöglich durch die jeweils anderen Tätigkeiten erhalten. Nicht umsonst verfügen wir im Deutschen über die zwei Wörter „Attribut“ und „Relation“. Diesen Wörtern entsprechen zwei unterschiedliche Verfahrensweisen zur Bestimmung des jeweils von ihnen bezeichneten. Die gleichartige Schreibweise in der formalen Darstellung und die gleichartige Behandlung von Attributen und Relationen in der Prädikatenlogik erweisen sich daher als unangemessen und sollten aufgegeben werden. Genau diese Ungenauigkeit 71 TLP, S. 65 Eine wissenschaftliche Messung erfolgt stets mit speziellen Messinstrumenten, um Objektivität zu gewährleisten. Wir verwenden jedoch auch ganz alltäglich ungenaue Eigenschaftsbegriffe, wie „groß“ oder „grün“ bei denen wir nur unsere Wahrnehmungsorgane benutzen und wobei wir davon ausgehen, dass die Wahrnehmungsorgane unserer Mitmenschen ausreichend ähnlich funktionieren, und in den jeweiligen Handlungszusammenhängen keine größere Genauigkeit erforderlich ist. 72 73 in der formalen Bezeichnungsweise erschwert die Unterscheidung von Entitäten, die es zu unterscheiden gilt, und war wahrscheinlich einer der Gründe für Wittgensteins Probleme. Wenn man an Wittgensteins Bildtheorie denkt, dann liegt es in dieser Hinsicht ebenfalls näher, dass auch ein sehr einfaches Bild eine Konstellation von Dingen, oder zumindest mehrere Eigenschaften eines Gegenstands einfängt und nicht nur eine einzige Eigenschaft. Sobald man auch nur einen einzigen Gegenstand mit absolut gleichmäßiger Oberfläche malt, hat man bereits seine Farbe und seine Form dargestellt. Diese beiden Punkte könnten eine Erklärung sein, warum Wittgenstein nicht auf die Eigenschaft als elementarsten Bestandteil der Weltbeschreibung herunter geht, sondern Eigenschaften und Relationen in dieser Hinsicht nur als verschiedene mögliche Ausprägungen eines „Prädikats“ ansieht. Es spricht jedoch nichts dagegen, auf Relationen auf der untersten Ebene zu verzichten, denn die Welt ist auch komplett beschrieben, wenn alle einzelnen Eigenschaften genannt wurden. Alle Informationen über die Verhältnisse sind darin implizit enthalten. Wenn der Ort aller Gegenstände mit Koordinaten angegeben ist, dann ist dadurch auch die Entfernung zwischen zwei Gegenständen implizit gegeben. Wenn die räumliche Ausdehnung aller Gegenstände gegeben ist, dann sind auch alle Größenverhältnisse implizit gegeben. Wir benutzen Relationsangaben nur, weil ihre Struktur für manche unserer praktischen Handlungen nützlicher ist, aber sie enthalten keine zusätzlichen Informationen über die Welt. Diese Erkenntnis wird später bei der Lösung des Elementarsatzproblems noch nützlich sein, wenn ich zeigen werde, dass sich Elementarsätze finden und formalisieren lassen und sie immer die skalierte Messung von Eigenschaften bezeichnen. Es geht mir keinesfalls darum zu zeigen, dass sich Relationen als Eigenschaften darstellen lassen, oder dass Eigenschaften „primär“ gegenüber Relationen sind. In der Tat könnte man im Gegenteil argumentieren, dass uns Relationen alltäglich wichtiger sind, oder schneller auffallen als Eigenschaften. Man könnte manche Messungen von Eigenschaften stattdessen als Bildung von Relationen zwischen Maßstab und gemessenem Objekt betrachten. 73 Darüber hinaus könnte man darauf verweisen, dass uns die Erkennung von Eigenschaften mit unseren Wahrnehmungsorganen immer nur möglich ist, wenn es mehrere unterscheidbare Ausprägungen gibt. 74 Dies könnte man wiederum so auffassen, dass wir Eigenschaften nur aufgrund der Unterschiede zwischen den Ausprägungen, also aufgrund von Relationen wahrnehmen können. Aber diese Diskussionen 73 Was für Längenmessungen noch eine plausible Interpretation darstellt, funktioniert jedoch bei anderen Messungen, wie zum Beispiel beim Bestimmen von Gewicht, nicht so gut. 74 Denn ein Wahrnehmungsorgan, welches bei jedem Gegenstand genau die gleiche Eigenschaftsausprägung feststellen würde, hätte evolutionsbiologisch betrachtet keinen Nutzen. Es würde keine unterscheidbaren Daten liefern, die verschiedene Reaktionen ermöglichen würden, die wiederum die Überlebensfähigkeit des Organismus steigern könnten. 74 müssen wir an dieser Stelle nicht führen, denn für unsere Zwecke reicht es zu zeigen, dass die ganze Welt vollständig beschrieben wäre, wenn alle Eigenschaftsausprägungen genannt würden. Wenn wir nämlich keine Relationen zusätzlich zu den Eigenschaften zwingend benötigen, dann können wir doch eine allgemeine Form der Elementarsätze angeben, was Wittgenstein aufgrund seiner Gleichbehandlung von Eigenschaften und Relationen als „Prädikate“ unmöglich war. Wir betrachten daher die drei Sätze: 1) „a ist 5kg schwer.“ 2) „b ist 17kg schwer.“ 3) „a ist leichter als b.“ Während die ersten beiden Sätze immer mein Wissen von der Beschaffenheit der Welt vermehren, auch wenn mir der dritte Satz schon bekannt ist, kann dies der dritte Satz nur, falls mir mindestens einer der ersten beiden Sätze unbekannt ist.75 Wenn uns jemand zunächst die ersten zwei Sätze mitteilte und direkt im Anschluss daran den dritten Satz, dann wären wir irritiert, weil dieser Satz uns überflüssig erscheint. Auf die Relationsangaben kann also in der Tat verzichtet werden, wenn bereits alle Eigenschaften genannt sind. Wittgenstein erstellte im Tractatus Wahrheitswerttabellen und erhellte damit die Zusammenhänge, die wir heute in der Aussagenlogik behandeln. Gemäß seiner Bildtheorie beschreibt jeder Aussagesatz einen Ausschnitt der Welt, er malt sozusagen ein Bild, das die Zustände in der Welt widerspiegelt. Das Bild, das der Satz von der Welt malt, kann gelingen, aber auch zufällig oder gar vorsätzlich misslingen. Ob ein Satz wahr ist, hängt eben davon ab, was in der Welt der Fall ist. Daher gibt es zu jedem Satz zwei Fälle, eben den Fall, dass der Satz wahr ist, und den, dass er falsch ist. Da wir normalerweise aber komplexe Satzgefüge bilden, die mehrere einfache Sätze enthalten, entstehen dadurch 2n mögliche Wahrheitswertverteilungen für Satzgefüge aus n einfachen Sätzen. Darüber hinaus kann man diese Sätze nicht nur aneinanderreihen, sondern auch noch unterschiedlich zusammensetzen. Dazu verwenden wir in unserer Sprache verschiedene Konjunktionen, denen in der formalen Analyse später einige der Junktoren entsprechen. Bereits für die Verknüpfung von zwei Sätzen ergeben sich 16 unterschiedliche Junktoren, da zu allen vier Wahrheitswertkonstellationen jeweils zwei Definitionsmöglichkeiten bestehen. Für mehrstellige Junktoren ergeben sich daraus ( 2 2 n) Möglichkeiten, für die wir bereits für n=3 keine eigenen Bezeichnungen mehr in unserer Alltagssprache haben. 75 Selbst dann liefert der dritte Satz nur indirekt die ungenaue Information, dass a leichter als 17kg sein muss, oder im anderen Fall, dass b schwerer als 5kg sein muss. 75 Wittgenstein zeigt die Wahrheitswertverteilungen für ein bis drei Sätze in TLP 4.31. Die mit den Variablen p, q und r abgekürzten Sätze, die er dort verwendet, nennt er Elementarsätze: p q r p q p W F W W F F W F W W F W F W F F W W W F W F F F W F W F W W F F W F Abbildung 5: Wahrheitstafeln für 1-3 Elementarsätze gemäß TLP 4.31 Erst später führt er aus, dass diese Zusammenhänge auch für nicht elementare Sätze gelten: 5.31 Die Schemata No. 4.31 haben auch dann eine Bedeutung, wenn »p«, »q«, »r«, etc. nicht Elementarsätze sind. Und es ist leicht zu sehen, dass das Satzzeichen in No. 4.442, auch wenn »p« und »q« Wahrheitsfunktionen von Elementarsätzen sind, eine Wahrheitsfunktion von Elementarsätzen ausdrückt.76 Dabei besteht eben sein späteres Problem darin, dass immer dann, wenn die verwendeten Sätze nicht unabhängig voneinander sind, manche der Wahrheitswertverteilungen unmöglich sind. Und das ist leider häufiger der Fall, als man meinen sollte, insbesondere bei potentiellen Kandidaten für Elementarsätze, wie zum Beispiel den bereits erwähnten „Farbsätzen“: „Der Gegenstand a (gegeben mit spezifischen Raumzeitkoordinaten) ist rot.“ Wenn wir zu diesem Satz p den folgendermaßen lautenden Satz q nehmen: „Der Gegenstand a (gegeben mit denselben Raumzeitkoordinaten wie oben) ist blau.“, 76 TLP, S. 53 76 dann wissen wir, dass der Fall, in dem beide Sätze wahr sind, nicht eintreten kann. Die Wahrheitswerttabelle ist an dieser Stelle also nicht belegt, was uns daran zweifeln lässt, dass es sich um Elementarsätze handelt, denn Elementarsätze sollten logisch unabhängig voneinander sein: 4.211 Ein Zeichen des Elementarsatzes ist es, dass kein Elementarsatz mit ihm in Widerspruch stehen kann.77 Logisch unabhängig voneinander zu sein bedeutet jedoch, dass die Belegungen des einen keinen Einfluss auf die Möglichkeiten der Belegung des anderen haben können. Genau das ist aber bei den beiden obigen Sätzen der Fall. Wenn der eine wahr ist, kann der andere nicht gleichzeitig wahr sein. Im Gespräch mit Schlick und Waismann führt Wittgenstein am 2. Januar 1930 zum Thema Elementarsätze aus: „Ich hatte früher zwei Vorstellungen vom Elementarsatz, von welchen mir die eine richtig zu sein scheint, wogegen ich mich in der zweiten vollkommen geirrt habe. Meine erste Annahme war die, dass wir bei der Analyse der Sätze schließlich auf Sätze kommen müssen, die eine unmittelbare Verbindung von Gegenständen sind, ohne Zuhilfenahme logischer Konstanten, denn »nicht«, »und«, »oder« und »wenn« verbinden die Gegenstände nicht. Daran halte ich auch jetzt fest. Zweitens hatte ich die Vorstellung, dass die Elementarsätze unabhängig voneinander sein müssten. Die vollständige Weltbeschreibung wäre gleichsam ein Produkt von Elementarsätzen, die teils positiv, teils negativ sind. Hierin habe ich mich geirrt, und zwar ist folgendes daran falsch: Ich hatte Regeln für den syntaktischen Gebrauch der logischen Konstanten aufgestellt, zum Beispiel »p.q«, und hatte nicht daran gedacht, dass diese Regeln etwas zu tun haben könnten mit der inneren Struktur der Sätze. Falsch war an meiner Auffassung, dass ich glaubte, dass sich die Syntax der logischen Konstanten aufstellen lasse, ohne auf den inneren Zusammenhang der Sätze zu achten. So verhält es sich nicht. Ich kann z.B. nicht sagen: An einem und demselben Punkt ist rot und blau zugleich. Hier ist das logische Produkt unvollziehbar. Die Regeln für die logischen Konstanten bilden vielmehr nur einen Teil einer umfassenden Syntax, von der ich damals noch nichts wusste.“78 77 78 TLP, S. 38 Wittgenstein Werkausgabe Band 3, S. 73/74 77 Wittgenstein gibt also seine Konzeption der Elementarsätze keinesfalls auf, weil er sie nun für unhaltbar hält, sondern er problematisiert nur die Unabhängigkeitsforderung, die er für die Elementarsätze aufgestellt hatte. Die allgemeinen Regeln zur Funktionsweise der Junktoren erweisen sich als problematisch, wenn es einen inneren Zusammenhang zwischen den Sätzen gibt, der jedoch nicht darin besteht, dass der eine Satz einfach genau die Negation des anderen Satzes darstellt. Das Problem liegt allerdings nicht in den bisher formulierten Regeln innerhalb des formalen Systems begründet, sondern in den Regeln der Formalisierung. Wir müssten genauer unterscheiden können, welche logischen Strukturen wir bei der Abbildung der Sätze unserer normalen Sprache in unserem formalen System erhalten werden. Nur falls wir erlauben, dass beliebige Sätze der Normalsprache mit beliebigen Variablen formalisiert werden, dann können diese Probleme auftreten. Es gibt allerdings eigentlich keinen Grund, warum man die Symbolisierung mit beliebigen Variablen erlauben sollte. Wir benötigen nur eine geeignete Regel, die uns dabei hilft, die Problemfälle richtig zu handhaben. Ist es gerechtfertigt eine solche Regel einzuführen, oder spricht etwas gegen solche speziellen Regeln der Formalisierung? Abgesehen von dem Wunsch, zugunsten von mathematischer Eleganz möglichst wenige Regeln zu verwenden, spricht prinzipiell nichts dagegen. Wenn wir den simplen Fall der Negation betrachten, dann sehen wir direkt, dass wir für die Formalisierung in diesem Fall bereits eine spezielle Regel haben, die wir implizit immer anwenden. Wenn wir aufgefordert würden, die Sätze 1) „Sprachphilosophie ist schwer verständlich.“ und 2) „Sprachphilosophie ist nicht schwer verständlich.“ im Sinne der Aussagenlogik formal darzustellen, dann würden wir sie nicht mit p und q bezeichnen, sondern mit p und ~p. Auch wenn wir die detailliertere Analyseform der Prädikatenlogik verwenden würden, dann würden wir keinesfalls F(a) und G(a) [oder gar G(b)] als formale Analyse der obigen Sätze angeben, sondern F(a) und ~F(a). Das zeigt eindeutig, dass wir bei unserer logischen Analyse und der anschließenden formalen Darstellung immer schon auf die Inhalte der vorkommenden Sätze achten. Dabei gibt es auch keine scharfe Grenze, denn auch zwei oberflächlich unterschiedlich wirkende Sätze wie 1) „Karl spielt in diesem Spiel mit den schwarzen Schachfiguren.“ 78 und 2) „Karl hat dieses Schachspiel eröffnet.“ würden wir eher nicht als F(a) und G(a) darstellen, sondern als F(a) und ~F(a). Dies liegt daran, dass die Eröffnung einer Schachpartie immer vom Spieler mit den weißen Figuren vorgenommen wird. Daher behaupten die obigen Sätze, insofern sie sich auf dieselbe Schachpartie beziehen, auf etwas versteckte Art und Weise genau Gegenteiliges, was wir dann mit der Formalisierung F(a) und ~F(a) einfangen würden. Wir handeln also für den Fall der formalen Analyse von zwei Sätzen, von denen einer die Negation des anderen ist, bereits nach einer speziellen Regel. Wir könnten also unsere Verfahrensweise potentiell weiteren Regeln unterwerfen, falls uns dies nützlich wäre, um Wittgensteins Probleme mit den Elementarsätzen zu lösen. Der Fall der zwei Sätze über die zwei Farben am gleichen physikalischen Ort ist allerdings offensichtlich komplizierter, denn es handelt sich bei diesen Sätzen nicht um wechselseitige Negationen des jeweils anderen Satzes. Wenn wir wissen, dass etwas nicht rot ist, bedeutet das nicht, dass wir wissen, dass es blau ist. Obwohl sie nicht unabhängig voneinander sind, insofern es ausgeschlossen ist, dass die Sätze beide gleichzeitig wahr werden, können sie nicht als F(a) und ~F(a) geschrieben werden, da sonst Teile des Informationsgehalts verloren gingen. Die Aussage, dass etwas blau ist, hat schließlich mehr Informationsgehalt als die Aussage, dass etwas nicht rot ist.79 Trotzdem wäre es günstig, wenn sich der Zusammenhang der beiden Sätze in der formalen Darstellung widerspiegeln würde. Dazu muss jedoch die Darstellung und die Analyseform weiterentwickelt werden. Ebenso wie die Prädikatenlogik mehr von der Struktur eines Satzes einfängt, als die Aussagenlogik es vermag, benötigen wir nun eine noch weiter entwickelte Logik, die diese Strukturen unserer Sprache einfangen kann. Ich betrachte nun zunächst, welche Strukturen in der Aussagenlogik und der Prädikatenlogik bisher erfasst werden, um im Anschluss einen Vorschlag zur Erweiterung der formalen Logik zu machen, der Wittgensteins Farbsatzproblem angemessen lösen kann und auch darüber hinaus nützlich zu sein scheint. 79 Man könnte auch sagen, dass es sich nicht um kontradiktorische Gegensätze handelt, sondern um konträre. Die beiden Sätze können nicht gleichzeitig wahr, aber sie können beide gleichzeitig falsch sein. 79 4.2 Moderne Logik In dem philosophischen Teilgebiet, welches wir heute formale Logik nennen, versucht man, in dem komplexen und scheinbar relativ beliebigen System Sprache immer wiederkehrende allgemeine Strukturen zu finden und aufzuzeigen. Dazu verwendet man Symbole und gibt Regeln für die legitimen Kombinationen von Symbolen und Regeln zum Erreichen gültiger Schlüsse an. Man versucht so, eine konsistente Theorie formaler Schlüsse und Interpretationen zu erreichen. Die Ergebnisse der formalen Logik finden außerhalb der philosophischen Textanalyse auch Anwendung in der Mathematik und Elektrotechnik, insbesondere in der Computertechnologie. Der erste Schritt bestand dabei in der Entwicklung der Aussagenlogik, die sich mit Aussagen, also zunächst einfachen vollständigen Sätzen, und deren Kombinationsmöglichkeiten befasst. 4.2.1 Aussagenlogik In der Aussagenlogik beschäftigen wir uns mit den Junktoren, mit denen wir einfache Sätze miteinander verknüpfen, um komplexere Sätze zu erzeugen. Die Inhalte der einzelnen Sätze sind beliebig und werden daher bei der Betrachtung der Wahrheitswerte der Satzkombinationen komplett ignoriert und die gesamten Sätze nur mit jeweils einer einzigen Variable symbolisiert. Stattdessen werden die Wahrheitswerte der Satzverknüpfungen nur aufgrund der Konstellation der beteiligten Junktoren bestimmt. Diese Strukturanalyse ermöglicht uns zum Beispiel anzugeben, welche Argumentstrukturen immer zu wahren Sätzen führen, so lange die verknüpften Sätze wahr sind, oder welche Satzstrukturen immer falsch sind, unabhängig vom Wahrheitswert ihrer Teilsätze. Dadurch sind wir in der Lage, bessere Argumente in philosophischen Texten vorzutragen und die Argumente in Texten von anderen Autoren geschickter anzugreifen. Das ist möglich, indem wir aufzeigen, dass das gesamte Argument an einer bestimmten anfechtbaren Prämisse hängt, die vielleicht nicht einmal explizit angegeben wurde, oder indem wir zeigen können, dass die Argumentstruktur selbst nicht ausreicht, um die gewünschten Schlüsse zu beweisen. Die dadurch ermöglichten Analysen sind jedoch noch sehr grob. Denn bisher verfügen wir nur über die folgenden Analyseeinheiten: Sätze, Wahrheitswerte und Junktoren. 80 4.2.2 Prädikatenlogik In der Prädikatenlogik gehen wir daher einen Schritt weiter. Sie ermöglicht uns eine Analyse der Strukturen innerhalb der Sätze, die wir in der Aussagenlogik immer nur als Ganzheit behandelt haben. Die Prädikatenlogik geht von der potentiell fragwürdigen Prämisse aus, dass Sätze immer nur dazu verwendet werden, um Gegenständen bestimmte Eigenschaften zuschreiben. Die Kritik an dieser Voraussetzung hat zu den pragmatischen Ansätzen in der Bedeutungstheorie geführt, die an dieser Stelle jedoch nicht weiter diskutiert werden müssen. Betrachtet man die Bestandteile eines Satzes, so fällt schnell auf, dass jeder vollständige Satz zumindest aus einem Subjekt und einem Prädikat besteht. Die allgemeine Form eines Aussagesatzes lautet also: S ist (ein) P. „S ist das Subjekt. Es ist ein singulärer Term (Eigenname) und bezeichnet ein individuelles Objekt. (Subjekt als Zugrundeliegendes, als Träger einer Eigenschaft) Das Subjekt ist der Teil eines Satzes, über den etwas ausgesagt wird. P ist das Prädikat. Es ist ein allgemeiner Term (Begriff) und bezeichnet eine Eigenschaft.“80 Wir können nun Eigennamen, Individuenvariablen und Eigenschaftskonstanten verwenden, um die internen Satzstrukturen zu erfassen. Zusätzlich können wir noch die Analyseeinheit der Quantoren hinzufügen, um Mengenangaben, wie „alle“, „einige“ und „kein“ machen zu können, und die der Relationen (aRb), um Verhältnisse zwischen Objekten leichter anzeigen zu können. Unter Verwendung dieser Möglichkeiten ergeben sich für die folgenden Beispielsätze dann diese formalen Darstellungen ihrer internen Strukturen: Sokrates war klug, oder Platon war klug. K(a) ∨ K(b) Nicht alles, was glänzt, ist Gold. ~∀x( F(x) → G(x) ) Es gibt einen Ort, zu dem alle Straßen führen. ∃x( O(x) ∧ ∀y ( S(y) → F(y,x) ) ) 80 Zoglauer, Thomas: Einführung in die formale Logik für Philosophen, Göttingen, 2002 S. 71 81 4.3 Attributsskalenlogik als nächster Schritt Kehren wir nun zurück zu Wittgensteins Problemen mit den Elementarsätzen und der Farbwahrnehmung. Er kritisiert seine eigene Analyse der Wahrheitsfunktion „ ∧“, weil die Unvollziehbarkeit des logischen Produkts der Farbsätze nicht in seinen bis dahin formulierten Regeln der Syntax der logischen Konstanten enthalten ist. „Falsch war an meiner Auffassung, dass ich glaubte, dass sich die Syntax der logischen Konstanten aufstellen lasse, ohne auf den inneren Zusammenhang der Sätze zu achten. So verhält es sich nicht. Ich kann z. B. nicht sagen: An einem und demselben Punkt ist rot und blau zugleich. Hier ist das logische Produkt unvollziehbar. Die Regeln für die logischen Konstanten bilden vielmehr nur einen Teil einer umfassenden Syntax, von der ich damals noch nichts wusste.“81 Wenn man diese Zeilen und seine weiter unten noch zitierten Gedanken zu Maßstäben und der Tätigkeit des Messens liest, muss man sich wundern, dass Wittgenstein nicht selber schon versucht hat, diese „umfassende Syntax“ im Formalismus abzubilden, da er das Problem doch schon vollständig gedanklich erfasst und eingekreist zu haben schien. Da er dies aber leider unterlassen hat, bleibt uns somit dieser Schritt selbst überlassen, und ich werde versuchen, ihn im Folgenden zu gehen: Die Satzverknüpfung „a ist rot, und a ist blau“ darf nicht dargestellt werden als p ∧ q, oder als F(a) ∧ G(a), da die besondere Situation, die bei diesem Satz vorliegt, die das logische Produkt unvollziehbar macht, in dieser Darstellung nicht eingefangen werden würde. Das neue formale Analysesystem muss also in der Lage sein, diese besonderen Verhältnisse zwischen den Sätzen darzustellen. Wenn diese Besonderheit der logischen Strukturen erst einmal in der formalen Darstellung offen zu Tage tritt, dann kann das Problem auf mehrere unterschiedliche Arten gelöst werden. Es handelt sich bei Wittgensteins Farbsatzproblem nicht um ein spezielles Problem, welches nur bei der Farbwahrnehmung, oder allgemeiner nur beim Sehen auftritt, sondern bei allen sinnlichen Attributsbestimmungen. Sein problematischer Fall ließe sich dementsprechend folgendermaßen ganz allgemein beschreiben: Ein solcher Fall liegt in jeder Situation vor, in der einem einzigen 81 Wittgenstein Werkausgabe Band 3, S. 74 82 Attribut, das mehr als zwei Werte annehmen können muss 82, in zwei Sätzen jeweils ein unterschiedlicher Wert zugeschrieben wird. Daher muss die formale Darstellung sowohl das Attribut als auch den Wert des Attributs herausheben. Ich schlage deshalb eine Darstellung der Form F(x)=a vor, wobei x den Gegenstand, F das Attribut und a die Ausprägung des Attributs F bezeichnet. Wahrscheinlich ist es darüber hinaus sinnvoll, jedes Attribut immer noch mit einem Index i zu versehen, der die Skala oder die Zugangsweise zum Attribut genauer spezifiziert, da wir aus historischen Gründen teilweise bereits mehrere Skalen für ein Attribut haben. Sowohl für Temperaturmessungen als auch für Längenmessungen unterscheiden sich die verwendeten Skalen in Mitteleuropa von denen in den englischsprachigen Ländern. Obwohl man diese historisch gewachsenen Skalen auch vereinheitlichen könnte, werden wir möglicherweise auch aus nicht historischen Gründen ein Interesse daran haben, mehrere Skalen für ein Attribut verwenden zu können. Solange wir verstehen, wie unsere Skalen funktionieren, wir also wissen, wie wir messen und was als Messergebnis möglich ist, ist die Art der Skala prinzipiell beliebig. Die Einführung des Index i bringt uns somit zu der folgenden logischen Form: Fi(x)=a Die Struktur, die ich hiermit anzeigen möchte, könnte man auch anders symbolisieren. Daher einige Anmerkungen, was genau essentiell an dieser Formel ist und was nicht. Das „=“ steht hier natürlich nicht für eine Gleichheit oder gar Identität, sondern für die mathematische Operation der Zuordnung oder Funktion. Es ließe sich also ebenso gut, wie unten gezeigt wird, mit einem Pfeil „→“ darstellen. In beiden Fällen ist die Formalisierung zu lesen als: „Eine Messung des Attributs F liefert für den Gegenstand x den Wert a (auf der Skala i)“. Fi x → a Die Attribute F, von denen hier die Rede ist, sind basale Attribute aus unserer direkten oder durch technische Hilfsmittel verbesserten Wahrnehmung, wie Gewichte, Längen, Farben, Härtegrade, Lautstärken, usw. In der Philosophie ist es ansonsten üblich, beliebig komplexe Attribute bei der Formalisierung genauso zu behandeln wie einfache. Dass komplexere Attribute hier jedoch als 82 Falls das Attribut nur genau zwei unterschiedliche Werte annehmen kann, dann haben wir es mit einem einfachen Spezialfall zu tun, den wir ebenso problemlos mit der Negation darstellen könnten. Es wäre theoretisch auch noch der Spezialfall denkbar, dass es ein Attribut gäbe, das nur einen einzigen Wert annehmen kann. Für ein solches könnten wir jedoch niemals evolutionär Wahrnehmungsorgane entwickeln, da unsere Wahrnehmung immer auf für unser Leben relevante Unterscheidungen ausgerichtet ist. Daher wären solche Attribute für uns unsichtbar. 83 Beispiele gar nicht in Erscheinung treten können, ist nicht weiter verwunderlich, da wir uns ja auf der Suche nach den Elementarsätzen befinden, die der Natur der Sache nach die einfachsten Eigenschaften benennen sollen, und nicht die zusammengesetzten komplexeren Attribute, wie „ist ein Student“. Wittgensteins Farbsätze müssen also formal dargestellt werden als F(x)=a und F(x)=b, oder genauer als FarbemF (x) = rot und FarbemF (x) = blau, wobei mF für menschliche Farbwahrnehmung steht, oder in physikalischer Schreibweise als FarbeWellenlänge in nm (x) = 470 und FarbeWellenlänge in nm (x) = 700. Diese detaillierte Formalisierung ist erforderlich, denn es unterscheiden sich nicht die kompletten Sätze in ihrer Gesamtheit83, und auch nicht das Attribut84 oder der Zugang zum Attribut (die Skala) 85, sondern nur die zwei Messwerte auf derselben Attributsskala86. Dabei macht es für alle verwandten Fälle keinen Unterschied, ob es sich bei der Skala, auf der die möglichen Attributswerte liegen, um eine Nominalskala, eine Ordinalskala, oder eine Kardinalskala handelt 87. Auch mehrdimensionale Skalierungen sind unproblematisch. Bisher habe ich nur von Attributen gesprochen und nicht von Relationen, die klassischerweise ebenfalls unter die Prädikate der Prädikatenlogik fallen. Warum ich diese Gleichbehandlung von Attributen und Relationen für nicht wünschenswert halte, habe ich oben bereits ausgeführt. Doch wie würden Relationen in der Attributsskalenlogik aussehen, wenn man sie verwenden möchte? Da eine Relation das Ergebnis eines Vergleichs von zwei oder mehr Messungen eines bestimmten Attributs an mehreren unterschiedlichen Gegenständen ist, ergibt sich folgende formale Struktur für Relationsausdrücke: Fi(x)=a ∧ Fi(y)=b ∧ a-b=c Es werden für die Gegenstände x und y jeweils die Attributswerte des Attributs F auf der Skala i bestimmt. Diese Werte sind die Zahlen a und b. Das Ergebnis c der Subtraktion a-b kodiert den Unterschied zwischen den gemessenen Attributswerten. a-b=c lässt sich also z. B. lesen als a ist 83 In diesem Fall würde die Formalisierung F(x) und G(y) der Prädikatenlogik reichen. In diesem Fall würde die Formalisierung F(x) und G(x) der Prädikatenlogik reichen. 85 In diesem Fall bräuchte man bereits mindestens die Formalisierung Fi(x) und Fk(x), die PL nicht hergibt. 86 In diesem Fall braucht man die komplette Formalisierung F i(x) = a und Fi(x) = b der Attributsskalenlogik, ansonsten ist das spezielle Verhältnis der beiden Sätze in der Formalisierung nicht wieder zu erkennen. 87 Diese in der Statistik üblichen Unterscheidungen zwischen Skalen geben an, welche mathematischen Operationen mit einer entsprechend skalierten Variablen zulässig sind. Während man auf einer Nominalskala nur zwischen gleich und ungleich unterscheiden darf, erlaubt eine Ordinalskala auch eine Sortierung nach der Größe (< / >). Bei den Kardinalskalen kann man noch unterscheiden zwischen einer Intervallskala, die zusätzlich die Abstände zwischen den Messwerten korrekt wiedergibt und somit (+ / -) erlaubt, und einer Verhältnisskala, die darüber hinaus auch noch einen Nullpunkt aufweist, was Multiplikation und Division ermöglicht. 84 84 größer als b (und zwar um c), und könnte je nach den jeweiligen Ausprägungen von a und b auch als a>b oder a<b geschrieben werden. Man sieht an dieser formalen Darstellung deutlich, dass Relationen immer nur etwas explizit machen, was schon implizit in den Angaben der Attribute enthalten ist. Dies wird besonders klar, sobald in einer solchen Formel keine Variablen mehr stehen, sondern wirkliche Werte: Gewicht in g (Basketball) = 600 ∧ Gewicht in g (Fußball) = 430 ∧ 600 - 430 = 170 Dass 600 größer ist als 430, ist eine triviale Aussage, die aus der Funktionsweise unseres Zahlensystems folgt, und daher folgt die Relation, dass der Basketball schwerer ist als der Fußball, direkt aus der Angabe ihrer Gewichte. Relationen lassen sich also zumindest in Bereich wissenschaftlicher Messungen auf Attribute und basale Mathematik zurückführen und stellen somit kein eigenes Problem für die Elementarsätze mehr dar. Ich werde meine so entstandene Erweiterung der Prädikatenlogik im folgenden Attributsskalenlogik nennen. Zusätzlich zu den Analyseeinheiten der Aussagenlogik und der Prädikatenlogik beinhaltet sie die Unterscheidung zwischen Eigenschaft und Eigenschaftsausprägung und die Analyseeinheit der Skala. Sie verfügt über die gleichen Möglichkeiten und Gesetzmäßigkeiten wie die Prädikatenlogik, aber darüber hinaus löst sie Wittgensteins Farbsatzproblem und alle verwandten Probleme der Formalisierung von skalierten Attributen. Sie leistet dies, indem sie die Bildung von komplexen Satzverbindungen, bei denen sowohl der referenzierte Gegenstand als auch das Attribut und die Skala jeweils übereinstimmen, sich aber die behaupteten Messwerte unterscheiden, von den unproblematischen Satzverbindungen in der Formalisierung unterscheidbar macht. Dadurch, dass die problematischen Fälle sich nun von den unproblematischen visuell abheben, kann das Problem überhaupt erst angegangen werden. Es sind jedoch drei verschiedene Verfahrensweisen für die problematischen Fälle denkbar, die nun bereits an der Formalisierung zu erkennen sind. Diese drei Verfahrensweisen und ihre Implikationen werde ich im Folgenden vorstellen: 1. Man könnte die Wahrheitstafeln ganz genauso wie bisher verwenden, in dem Bewusstsein, dass der Fall, in dem die Sätze Fi(x)=a und Fi(x)=b gleichzeitig wahr sind, niemals auftreten kann, so dass der Wahrheitswert in dieser Zeile der Tabelle keine Rolle spielt. 85 2. Man könnte alle Junktoren für Fi(x)=a und Fi(x)=b [abweichend von der Standarddefinition für die unproblematischen Verknüpfungen von Fi(x)=a und Gk(x)=c] nur für die drei anderen Fälle definieren, und damit wahlweise eine mehrwertige oder unvollständige Logik erhalten. 3. Man könnte die Junktoren überhaupt nur für Fälle definieren, in denen die einzelnen Sätze entweder von verschiedenen Gegenständen x und y, oder von verschiedenen Eigenschaften F und G sprechen, so dass ein zusammengesetzter Satz aus zwei Teilsätzen, die von denselben Eigenschaften desselben Gegenstands sprechen, automatisch auch dieselbe Attributsausprägung behaupten würden. Bevor ich die Implikationen der drei verschiedenen Verfahrensweisen genauer untersuchen werde, gilt es jedoch noch festzuhalten, dass meine Formeln immer im Sinne einer exklusiven Logik zu interpretieren sind. Benutzt man eine exklusive Logik, dann bedeutet dies, dass die Bezeichnungen sowohl für die Gegenstände als auch für die Eigenschaften, die in einem gemeinsamen Kontext verwendet werden, eindeutig zu wählen sind. Wenn also in einer Formel die Eigenschaften F und G vorkommen, so kann es niemals der Fall sein, dass F und G dieselbe Eigenschaft bezeichnen. Ebenso gilt es, in einem Kontext nicht zwei verschiedenen Namen für denselben Gegenstand zu verwenden. Dadurch dass traditionell eher die inklusive Interpretation gelehrt wird, bei der es möglich ist, dass zwei verschiedene Namen für dasselbe verwendet werden, erscheint die exklusive Interpretation zunächst gewöhnungsbedürftig, sie ist jedoch eine gleichwertige Alternative und eigentlich die natürlichere Schreibweise: 5.53 Gleichheit des Gegenstandes drücke ich durch Gleichheit des Zeichens aus, und nicht mit Hilfe eines Gleichheitszeichens. Verschiedenheit der Gegenstände durch Verschiedenheit der Zeichen.88 Diese alternative Notation führt jedoch nicht zu einer weniger leistungsfähigen Logik, wie Wittgenstein im Tractatus durch die Übersetzung einiger Beispiele aus der inklusiven Logik in die exklusive Logik andeutet: 5.531 Ich schreibe also nicht »f(a,b).a=b«, sondern »f(a,a)« (oder »f(b,b)«). Und nicht »f(a,b).~a=b«, sondern »f(a,b)«. 5.532 88 Und analog: Nicht »(∃x,y).f(x,y).x=y«, sondern »(∃x).f(x,x)«; und nicht TLP, S. 62 86 »(∃x,y).f(x,y).~x=y«, sondern »(∃x,y).f(x,y)«. (Also statt des Russell‘schen »(∃x,y).f(x,y)«: »(∃x,y).f(x,y).v.(∃x).f(x,x)«.) 5.5321 Statt »(x):fx→x=a« schreiben wir also z.B. »(∃x).fx.→.fa:~(∃x,y).fx.fy«. Und der Satz »nur Ein x befriedigt f()« lautet: »(∃x).fx:~(∃x,y).fx.fy«.89 Ein vollständiger Beweis der gleichwertigen Leistungsfähigkeit im Anschluss an Hintikka findet sich mittlerweile bei Wehmeier.90 Aufgrund der Äquivalenz ist die Wahl der Darstellungsart zwar beliebig, aber ich halte die exklusive Interpretation für natürlicher und die entsprechenden Formeln sind für die nun folgenden Anwendungen kürzer. Darum ist zu beachten, dass im Folgenden in Formeln, wie Fi(x)=a ∧ Gk(x)=c unmöglich Gk und Fi dieselbe Eigenschaft bezeichnen können, so dass eine solche Formel keinesfalls mit der Formel Fi(x)=a ∧ Fi(x)=b zusammenfallen kann. So gewappnet können wir uns nun den drei möglichen Verfahrensweisen mit Farbsätzen widmen. 89 90 TLP, S. 62 Wehmeier, Kai F.: Wittgensteinian Predicate Logic, Notre Dame Journal of Formal Logic Volume 45, Number 1, 2004 87 4.3.1 Die drei alternativen Verfahrensweisen Der erste Vorschlag zum Umgang mit der neu gewonnenen formalen Unterscheidbarkeit lautete: Man könnte die Wahrheitstafeln ganz genauso wie bisher verwenden, in dem Bewusstsein, dass der Fall, in dem die Sätze Fi(x)=a und Fi(x)=b gleichzeitig wahr sind, niemals auftreten kann, so dass der Wahrheitswert in dieser Zeile der Tabelle keine Rolle spielt. Wir ändern also nichts an den Definitionen der Wahrheitstafeln, wie wir sie aus der Prädikatenlogik kennen. Sowohl für Fi(x)=a ∧ Gk(x)=c als auch für Fi(x)=a ∧ Fi(x)=b lautet die Wahrheitswertverteilung dann wie gehabt: Fi (x) = a Gk (x) = c Fi (x) = a ∧ Gk (x) = c W W W W F F F W F F F F Fi (x) = a Fi (x) = b Fi (x) = a ∧ Fi (x) = b W W W W F F F W F F F F Der große Vorteil dieser Vorgehensweise besteht darin, dass wir keine mehrwertige, oder nur teilweise definierte Logik erhalten. Wir können dadurch weiterhin beliebig komplexe Satzverknüpfungen mit Junktoren wie gewohnt ausführen und durchrechnen. Der Nachteil besteht darin, dass wir nun leider am Ende immer daran denken müssen, das scheinbare Ergebnis zu modifizieren, da wir sonst zu falschen Schlüssen gelangen, wie in folgendem Beispiel: 88 Fi (x) = a Fi (x) = b Fi (x) = a ∧ Fi (x) = b Fi (x) = a ∧ ~(Fi (x) = a) (Fi (x) = a ∧ Fi (x) = b) → (Fi (x) = a ∧ ~(Fi (x) = a)) W W W F F W F F F W F W F F W F F F F W Die Tabelle liefert uns als Ergebnis für den Satz (Fi (x) = a ∧ Fi (x) = b) → (Fi (x) = a ∧ ~(Fi (x) = a)) eine Kontingenz. Eine Kontingenz ist ein Satz, dessen Wahrheit in Abhängigkeit von den Wahrheitswertverteilungen seiner Teilsätze variiert. Die Akzeptanz des Satzes als Kontingenz wäre jedoch sowohl wegen unserer Intuitionen als auch wegen der noch nicht erfolgten Modifikation des Ergebnisses ein Fehler. Wenn wir jedoch nun die erste Zeile ignorieren, da in dieser Zeile der problematische Fall vorliegt, der niemals eintreten kann, dann erhalten wir eine Tautologie 91. In allen Fällen, die wirklich auftreten können, wird der Satz wahr, und der theoretische Fall der gleichzeitigen Wahrheit von Fi (x) = a und Fi (x) = b, in dem der Gesamtsatz falsch werden würde, kann, wie wir wissen, in der Praxis niemals auftreten. Das Ergebnis, dass der Satz eine Tautologie sein muss, stimmt mit unserer Intuition überein, die wir bezüglich eines entsprechend strukturierten Satzes unserer normalen Sprache haben: „Wenn ein Gegenstand 2 kg wiegt und derselbe Gegenstand 9 kg wiegt, dann wiegt ebendieser Gegenstand 2 kg und er wiegt nicht 2 kg.“ Insofern man nicht die Übersetzung von „Wenn ... dann“-Sätzen mit der logischen Implikation problematisieren möchte, sollte man diesen Satz sicherlich für eine Tautologie halten. Dieses Verfahren ist also durchaus möglich, allerdings nicht sehr elegant, insbesondere sobald man bei komplexen Satzverknüpfungen mehrere Zeilen am Ende als unmöglich heraus sortieren muss. Daher wenden wir uns nun, in der Hoffnung noch ein besseres Verfahren zu finden, der nächsten Möglichkeit zu. Der zweite Vorschlag zum Umgang mit der neu gewonnenen formalen Unterscheidbarkeit war: Man könnte alle Junktoren für Fi(x)=a und Fi(x)=b [abweichend von der Standarddefinition für die unproblematischen Verknüpfungen von Fi(x)=a und Gk(x)=c] nur für die drei anderen Fälle definieren, wie dies in der folgenden Tabelle für den Junktor „∧“ beispielhaft getan wurde. 91 Eine Tautologie ist ein Satz, dessen Wahrheit nicht in Abhängigkeit von den Wahrheitswertverteilungen seiner Teilsätze variiert, sondern bei allen möglichen Verteilungen immer wahr ist. 89 Fi (x) = a Fi (x) = b Fi (x) = a ∧ Fi (x) = b W W --- W F F F W F F F F Währenddessen bleibt für den unproblematischen Fall Fi(x)=a und Gk(x)=c weiterhin die gewohnte Definition in Kraft: Fi (x) = a Gk (x) = c Fi (x) = a ∧ Gk (x) = c W W W W F F F W F F F F Dieses Verfahren hätte einen ähnlichen Effekt, bringt aber ein schwerwiegendes Problem mit sich: Da man nun einen Fall hat, in dem ein Satz nicht eindeutig einen der zwei Wahrheitswerte erhält, müsste man neue Regeln aufstellen, wie in Fällen zu verfahren wäre, in denen mit der Zeile, die keinen Wahrheitswert enthält, weitere Satzverknüpfungen ausgeführt werden sollen. Man kann dazu jedoch nicht einfach eine bereits bekannte mehrwertige Logik verwenden, da diese normalerweise dazu konzipiert sind, Vagheit von Begriffen92, Wahrscheinlichkeiten oder die Ungewissheit zukünftiger Ereignisse abzubilden. Unser problematischer Fall ist jedoch weder eine Frage der Vagheit der Farbbegriffe, noch geht es um Wahrscheinlichkeiten, noch wird der Wahrheitswert durch Ereignisse in der Zukunft bestimmt werden. Daher müsste man für alle Junktoren neue sinnvolle Regeln festlegen, welchen Wahrheitswert sie annehmen, wenn einer oder sogar beide Wahrheitswerte der zu verknüpfenden Teilsätze undefiniert sind. Obwohl die so entstehenden Regeln wahrscheinlich rege Diskussionen unter Logikern auslösen würden, sollte eine solche Festlegung generell möglich sein. Ich werde dies jedoch aufgrund des mit einem solchen Projekt verbundenen Aufwands an dieser Stelle nicht weiter ausführen, da ich ohnehin den weiter unten folgenden dritten Ansatz für den besten halte. 92 Vgl. Blau, Ulrich: Die dreiwertige Logik der Sprache, Berlin, New York: de Gruyter, 1977 S. 21ff 90 Der Vorteil der zweiten gegenüber der ersten Methode besteht eigentlich nur darin, dass der folgende Satz immer eine offensichtliche Kontradiktion darstellt, insofern man sich mit x auf Raumzeitpunkte oder einen kleinen homogenen Gegenstandsbereich bezieht93: Fi (x) = a ∧ Fi (x) = b Genauso wie der Satz p ∧ ~ p eine Kontradiktion darstellt, gilt dies auch für den obigen Satz, daher kann man ihn genauso verwenden, zum Beispiel für den Beweis durch Widerspruch. In einem nichtwidersprüchlichen Satzsystem kommen also nicht Fi (x) = a und Fi (x) = b gleichzeitig als Prämissen vor, und sie können nicht beide abgeleitet werden. Diese Erkenntnis führt ins direkt zur dritten Möglichkeit, mit der neuen Unterscheidbarkeit von abhängigen und unabhängigen Sätzen umzugehen: Man könnte die Junktoren überhaupt nur für Fälle definieren, in denen die einzelnen Sätze entweder von verschiedenen Gegenständen x und y, oder von verschiedenen Eigenschaften F und G sprechen, so dass ein zusammengesetzter Satz aus zwei Teilsätzen, die von denselben Eigenschaften desselben Gegenstands sprechen, automatisch auch dieselbe Attributsausprägung behaupten würden. Dazu müsste man nur die Definition, wie aus zwei bestehenden Sätzen durch ihre Verknüpfung mit einem Junktor ein neuer Satz des formalen Systems gebildet werden darf, so verändern, dass es verboten ist, dass mehrmals Fi (x) mit unterschiedlicher Attributsausprägung vorkommt. Klassischerweise definiert man nämlich die syntaktischen Möglichkeiten einer Logik rekursiv, etwa folgendermaßen: Es seien „Φ“ ein Schemabuchstabe für Attributbuchstaben, „α“ ein Schemabuchstabe für Individuenkonstanten, und „ξ“ ein Schemabuchstabe für Variablen. Dann ist jede Formel der Form Φi (α1) = α2 eine wohlgeformte Formel. Weitere wohlgeformte Formeln erhält man anhand der folgenden Regeln: 93 Eine Kontradiktion liefert für alle möglichen Wahrheitswertverteilungen den Wahrheitswert F. Da der erste Fall unmöglich auftreten kann und alle anderen Fälle den Wahrheitswert F liefern, kann man hier von einer Kontradiktion sprechen. Man beachte, wie im Vergleich dazu die Wahrheitstafel der ersten Verfahrensweise das Erkennen dieser Kontradiktion erschwert. 91 1. Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ ∧ ψ) eine wohlgeformte Formel.94 2. Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ ∨ ψ) eine wohlgeformte Formel. 3. Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ → ψ) eine wohlgeformte Formel. 4. Wenn ϕ eine wohlgeformte Formel ist, dann ist (¬ϕ) eine wohlgeformte Formel. 5. Ist ϕ eine wohlgeformte Formel mit den Individuenkonstanten α1, α2, …, αn, die kein Vorkommnis der Variable ξ enthält, dann ist eine jede Formel ψ, in der von ϕ ausgehend eine der Individuenkonstanten α1, α2, …, αn an allen Stellen ihres Auftretens durch ξ ersetzt wurde, eine wohlgeformte Formel. 6. Ist ϕ eine wohlgeformte Formel und ξ eine Variable, die in ϕ vorkommt, dann ist ∀ξ (ϕ) eine wohlgeformte Formel. 7. Ist ϕ eine wohlgeformte Formel und ξ eine Variable, die in ϕ vorkommt, dann ist ∃ξ (ϕ) eine wohlgeformte Formel. 8. Nichts anderes ist eine wohlgeformte Formel. Die obigen Regeln 1. bis 3. müsste man so verändern, dass die doppelte Festlegung des Wertes eines Attributs für einen Gegenstand innerhalb einer wohlgeformten Formel unmöglich wird. Um dies zu erreichen, würden wir aus der Definition (D1) die Definition (D1*) machen müssen: (D1) Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ ∧ ψ) eine wohlgeformte Formel. (D1*) Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ ∧ ψ) eine wohlgeformte Formel, falls φ und ψ nicht sowohl Φi (α1) = α2 als auch Φi (α1) = α3 enthalten. Die Definitionen zur Erstellung wohlgeformter Formeln mit den anderen Junktoren müsste man entsprechend genauso verändern: (D2) Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ ∨ ψ) eine wohlgeformte Formel. (D2*) Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ ∨ ψ) eine wohlgeformte Formel, falls φ und ψ nicht sowohl Φi (α1) = α2 als auch Φi (α1) = α3 enthalten. (D3) Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ → ψ) eine wohlgeformte Formel. (D3*) Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ → ψ) eine wohlgeformte Formel, falls φ und ψ nicht sowohl Φi (α1) = α2 als auch Φi (α1) = α3 enthalten. 94 Hierbei und im Folgenden dürfen φ und ψ sowohl für komplexe, als auch für einfache Formeln stehen. 92 Nun lassen sich die problematischen Sätze in der formalen Sprache nicht mehr als wohlgeformte Formeln erzeugen. Dadurch stellen sich auch keine Probleme bei den Wahrheitswertverteilungen dieser Sätze mehr. Dieser Ansatz würde vollkommen für alle Belange der wissenschaftlichen Sprachverwendung ausreichen, da man in der Wissenschaft um korrekte Messungen und Wahrheitsfindung bemüht ist. Wenn wir jemanden bitten, eine Messung für uns durchzuführen, dann erwarten wir, dass er uns einen und nur einen Messwert für einen Raumzeitpunkt liefert. Und wenn er dies tut, dann fragen wir nicht erstaunt nach, ob es neben 22°C eventuell am selben Ort nicht auch 45°C gewesen sei. In einem Zusammenhang liefert eine Messung immer genau ein Ergebnis. Andernfalls würden wir nicht mehr von einer Messung reden. Möglicherweise könnten uns aber alltägliche Satzkonstruktionen, wie die folgende vor Probleme bei der Formalisierung stellen: „Was für ein Kleid trug sie denn gestern?“ „Es war blau oder grün. Ich weiß es nicht genau.“ Sätze dieser Art würden in einem wissenschaftlichen Kontext niemals vorkommen, sie sind aber ebenfalls unproblematisch. Sie beschreiben nur eine ungenaue Messung einer Eigenschaft, oder eine Unwissenheit bezüglich einer Eigenschaft. Bei einer Formalisierung würde dies nur zu einer ungenauen Angabe bei der Eigenschaftsausprägung führen („Wellenlänge zwischen 420nm und 575nm“, „ca. 1m“, etc.), die jedoch unproblematisch ist, solange nicht behauptet wird, dass mehrere unterschiedliche Ausprägungen gleichzeitig vorliegen. Es wäre jedoch sehr verdächtig, wenn uns bei der Lösung unseres philosophischen Problems die Anwendbarkeit auf und der Bezug zu unserer normalen Sprachverwendung verloren ginge. Denn dann hätten wir eine alternative künstliche Sprache geschaffen, die den real existierenden Sprachprozessen nicht mehr entspricht, geschweige denn sie erklären kann. Wenden wir uns daher der Überprüfung unserer bisherigen Überlegungen an unserer Alltagssprache zu. 4.3.2 Überprüfung an der Alltagssprache Bei der Beschäftigung mit komplexen Überlegungen zur Formalisierung besteht immer die Gefahr, dass die Ergebnisse zwar sinnvoll und elegant im formalen System wirken, man sich aber zu weit von unserem alltäglichen Sprachempfinden und -verständnis entfernt hat. Betrachten wir also den Fall der doppelten Angabe einer Eigenschaftsausprägung im Hinblick auf unseren alltäglichen Sprachgebrauch. Auf eine Äußerung wie 93 „Der Tisch ist einen Meter lang und zwei Meter lang“ würden wir im Allgemeinen antworten: „Du meinst wohl, dass der Tisch zwei Meter lang und einen Meter breit ist.“ Bei dem Satz „Der Pullover ist schwarz und weiß“ würde man wahrscheinlich nachfragen, ob er gestreift oder gepunktet ist. So oder so, würde man immer davon ausgehen, dass mit den Sätzen nicht einem Raumzeitpunkt zwei unterschiedliche Attributswerte zugewiesen werden sollten. Würde unser Gesprächspartner genau dies jedoch wollen und darauf beharren, so würde man mit ihm genauso freundlich weiter verfahren wie mit jemandem, der darauf beharrt, Sätze von der Form der klassischen Kontradiktion p ∧ ~ p zu behaupten. Wir sehen an diesen Überlegungen also, dass wir sowohl die Intuition haben, dass solche Sätze einen Widerspruch darstellen, als auch, dass wir im Alltag gar nicht auf die Idee kämen, Sätze mit einer solchen Struktur zu formulieren. Das bedeutet, dass unser philosophisch problematischer Fall im normalen Sprachgebrauch eigentlich nicht vorkommt, da er von impliziten Sprachregeln verboten wird. Diese impliziten Regeln können und sollten wir also mit Hilfe der oben genannten Möglichkeiten in unserem formalen System sichtbar machen. Dadurch werden dann die potentiell problematischen Sätze angemessen behandelt, und insbesondere erhält man eine Lösung für das Elementarsatzproblem. Es bleibt also festzuhalten, dass die formale Analyse in Form der Attributsskalenlogik zu unserem normalen Sprachgebrauch passt. Ihr Detailreichtum ist zwar eher auf die Lösung philosophischer Probleme ausgerichtet, aber sie bildet insbesondere auch unser alltägliches Sprachverhalten angemessen ab. 4.4 Maßstäbe und das Messen Mein Vorschlag für die Formalisierung eines Elementarsatzes in der Attributsskalenlogik lautete: Fi (x) = a „Eine Messung des Attributs F liefert für den Gegenstand x den Wert a (auf der Skala i)“ Wir sollten uns daher noch genauer mit den Begriffen der Messung und der Skala auseinandersetzen. Der Begriff der Skala ist relativ einfach, aber zugleich sehr wichtig. Wie man an einem Zollstock, auf dem Skalen sowohl für Zentimeter als auch für Inch aufgetragen sind, leicht sehen kann, können wir Skalen relativ beliebig festlegen. Wir wählen ein Referenzobjekt, das wir später unseren Maßstab nennen werden, auf dem wir eine regelmäßige Einteilung vornehmen, die sich auch regelmäßig fortsetzen lässt, so dass wir für jedes 94 Objekt einen eindeutigen Messwert bekommen. Welche Skala wir verwenden, ist prinzipiell gleichgültig, da sich die auf einer Skala ermittelten Messwerte problemlos in Werte einer anderen Skala umrechnen lassen, solange die Skalen sich auf das gleiche Attribut beziehen. Man kann beide Skalen natürlich auch auf einem Maßstab anbringen und gleichzeitig beide Messungen durchführen. Zum Verständnis des Begriffs „Messung“ ist es wichtig einzusehen, dass der Prozess der Messung immer schon die Gesamtheit der möglichen Ergebnisse voraussetzt. Die Art der Skala bestimmt die möglichen und unmöglichen Ergebnisse und die Reichweite der möglichen Schlussfolgerungen. Wittgenstein hat dies im Dezember 1929 schon selbst gesehen, ohne jedoch die von mir vorgeschlagene Verbesserung der Formalisierung zu entwickeln und damit seine im Tractatus dargelegte Theorie zu kräftigen: „Wenn ich einen Maßstab an einen räumlichen Gegenstand anlege, so lege ich alle Teilstriche zu gleicher Zeit an. Nicht die einzelnen Teilstriche werden angelegt, sondern die ganze Skala. Weiß ich, dass der Gegenstand bis zum Teilstrich 10 reicht, so weiß ich auch unmittelbar, dass er nicht bis zum Teilstrich 11, 12, und so weiter reicht. Die Aussagen, welche mir die Länge eines Gegenstands beschreiben, bilden ein System, ein Satzsystem. Ein solches ganzes Satzsystem wird nun mit der Wirklichkeit verglichen, nicht ein einzelner Satz. Wenn ich z. B. sage: Der und der Punkt im Gesichtsfeld ist blau, so weiß ich nicht nur das, sondern auch, dass der Punkt nicht grün, nicht rot, nicht gelb usw. ist. Ich habe die ganze Farbenskala auf einmal angelegt. […] Wenn aber meine jetzige Auffassung mit dem Satzsystem richtig ist, ist es sogar die Regel, dass man aus dem Bestehen eines Sachverhaltes auf das Nicht-Bestehen aller übrigen schließen kann, die durch das Satzsystem beschrieben werden.“95 Um die Begriffsklärung zu vervollständigen, möchte ich noch kurz darlegen, was ich unter einem Gegenstand verstehen möchte. Dazu gehören zunächst einmal alle Dinge, die wir im alltäglichen Sprachgebrauch so benennen würden, also feste materielle Einheiten, die sich als Gesamtheit potentiell bewegen lassen. Ebenso fallen aber auch kleinere materielle Einheiten wie Atome oder Moleküle darunter, die zum Zeitpunkt der Messung und Beschreibung als Gesamtheit betrachtet werden. Prinzipiell können wir unsere Betrachtungsebene beliebig groß oder klein wählen. Was wir dann jeweils Gegenstände nennen, variiert mit dem Fokus der Betrachtung; wichtig ist dabei nur, dass wir in einem Kontext immer nur gleichberechtigte Elemente problemlos gleich behandeln 95 Wittgenstein Werkausgabe Band 3, S.64 95 können. Wenn wir innerhalb eines Kontextes verschiedene Fokussierungen verwenden wollen, dann sollten wir uns bemühen, nicht die gleichen Prädikate zu verwenden, da ein Molekül nicht im selben Sinne blau oder hart genannt werden kann wie ein Stuhl. 4.5 Die Auswirkungen der Attributsskalenlogik Fassen wir die Ergebnisse dieses Kapitels kurz zusammen: Unter Verwendung der Prädikatenlogik war es Wittgenstein unmöglich Elementarsätze anzugeben, die seinen eigenen Forderungen nach Unabhängigkeit entsprachen. Ich habe versucht zu zeigen, dass dies durch Unzulänglichkeiten der Prädikatenlogik begründet war, und habe mit der Attributsskalenlogik eine Weiterentwicklung angeboten. Diese macht es möglich, sowohl eine allgemeine Form [Fi (x) = a] als auch Beispiele für Elementarsätze („Dieser Gegenstand wiegt 2 kg.“) anzugeben, die Wittgensteins Vorstellungen entsprechen. Was folgt nun aus den obigen Überlegungen zur Rettung der Elementarsätze in Wittgensteins Bildtheorie? Wenn die Elementarsätze keinen problematischen Punkt in seiner Theorie mehr darstellen, dann wird dadurch die Bildtheorie noch plausibler. Das Abbilden der Welt, um sie besser zu verstehen und sie beherrschbarer zu machen, kann als eine der wichtigsten Verwendungen von Sprache aufgefasst werden. Als Wissenschaftler strebt man danach, die Welt möglichst exakt und korrekt zu beschreiben, um Gesetzmäßigkeiten aufdecken zu können, die man dann verwendet, um Vorhersagen machen zu können und die korrekten Handlungen zu wählen, damit die gewünschten Effekte oder Veränderungen in der Welt eintreten. Das prinzipielle Ziel der Wissenschaften ist es also, alle Eigenschaftsausprägungen aller Gegenstände auf allen Betrachtungsebenen 96 und die Folgen, die sich aus diesen Strukturanalysen ergeben, als Gesetze anzugeben. Ein Elementarsatz Fi (x) = a behauptet genau eine solche Attributsausprägung für einen Gegenstand unter Angabe der verwendeten Skala und somit der Betrachtungsebene. Handelt es sich um einen wahren Elementarsatz, dann ergibt eine Messung an dieser Skala i, dass der Gegenstand x wirklich genau die Ausprägung a der Eigenschaft F aufweist. Wenn man die Konjunktion aller wahren Elementarsätze bilden könnte, hätte man damit die Welt vollständig beschrieben. Da die vollständige Konjunktion genauso komplex wäre, wie es die Welt selbst ist, kann dies natürlich nicht von uns erreicht werden. Aber die komplette Beschreibung ist auch unnötig, weil uns eigentlich immer nur die Folgerungen interessieren, die wir jeweils aus den genauen 96 Unterschiedliche Betrachtungsebenen sind zum Beispiel makroskopisch, mikroskopisch, molekular und atomar. 96 Beschreibungen von Teilbereichen unserer Welt entnehmen. Das Wissen um diese Naturgesetze ermöglicht uns dann, die Welt im Rahmen der bestehenden Möglichkeiten nach unserem Willen zu gestalten. Unsere gesamte Wissenschaft ist jedoch nur möglich aufgrund unserer Sprachfähigkeit. Die Sprache ist somit unser effizientestes Werkzeug, um die Welt intern zu repräsentieren, um sie dann analysieren und sinnvoll in ihr handeln zu können. 97 5. Willard Van Orman Quines Bedeutungstheorie 5.1 Person und Werk Willard Van Orman Quine (1908-2000) promovierte 1932 bei Whitehead in Harvard und war danach ein Jahr in Europa unterwegs, um mit den führenden Vertretern des Wiener Kreises zu diskutieren. Er traf dabei insbesondere auch mit Moritz Schlick und Kurt Gödel zusammen. Danach reiste er weiter nach Prag, wo er Rudolf Carnaps Vorträge besuchte, über dessen Philosophie er später selbst Vorlesungen hielt. In Warschau kam er ebenfalls noch in Kontakt mit Alfred Tarski. Obwohl er den Rest seiner Karriere in Harvard verbrachte, blieb dieser Aufenthalt in Europa folgenreich für seine Philosophie. Obgleich er zwei Dogmen des von Carnap geprägten logischen Empirismus kritisierte, vertrat er selbst grundsätzlich auch eine empiristische Position. Quine hielt es für die Aufgabe der Wissenschaften, die besten Theorien über die Funktionsweise der Welt aufzustellen. Die so entwickelten Satzmengen sollten sich auf die Kausalität der Außenwelt beziehen: „Das empirische Fundament der Theorien ist der Input unseres Gehirns, genauer die Aktivierung der Wahrnehmungsrezeptoren eines Subjekts in einer bestimmten Wahrnehmungssituation. Quine nennt dies den Reizeinfluss, dem ein Subjekt bei einer bestimmten Gelegenheit ausgesetzt ist. Wie kann sich nun die Wissenschaft auf Reizeinflüsse von Subjekten gründen? Das Bindeglied sind Beobachtungssätze wie »Dieser Kiesel ist blau«. Beobachtungssätze sind solche Sätze, die in einer bestimmten Wahrnehmungssituation bei allen sprachkompetenten Zeugen mit normal funktionierenden Sinnesorganen ein und dieselbe Reaktion hervorrufen, nämlich entweder Zustimmung oder Ablehnung.“97 Die Beobachtungssätze bilden also die Grundlage jeder wissenschaftlichen Theoriebildung. Zugleich stellt Quine aber auch fest, dass Beobachtungssätze die ersten Sätze beim kindlichen Spracherwerb sind: „Es kann schwerlich verwundern, dass Beobachtungssätze diese Doppelfunktion – als Vehikel wissenschaftlicher Belege und als Einlass in die Sprache – übernehmen, denn 97 Newen, A.: Willard Van Orman Quine in Otfried Höffe (Hrsg.) Klassiker der Philosophie 2 – Von Immanuel Kant bis John Rawls, München: Verlag C.H. Beck, 2008, S.324 98 Beobachtungssätze sind ja schlechterdings das Verbindungsmittel jedwelcher Sprache, sei es der wissenschaftlichen, sei es der Übrigen, mit der realen Welt, um die es unserer Sprache zu tun ist.“98 Dass Beobachtungssätze gleichzeitig die Grundlage unserer komplexesten Sprachverwendung in den Wissenschaften und der einfachsten Sprechversuche eines Kindes sind, ist für Quine anscheinend nicht einmal auf den ersten Blick verwunderlich. Umso verwunderlicher ist es jedoch, dass außer ihm bisher niemand versucht hat, eine Bedeutungstheorie zu erstellen, die die neuronalen Vorgänge beim Erlernen sprachlicher Fähigkeiten in den Vordergrund stellt. Quines Versuch eine naturalistische Bedeutungstheorie zu entwickeln, sah folgendermaßen aus: 5.2 Quines Ansätze zu einer naturalistischen Bedeutungstheorie Quine erkennt zunächst, dass wir anscheinend alltäglich vom Begriff der „Bedeutung“ problemlos Gebrauch machen können, ohne uns weiter fragen zu müssen, was wir damit eigentlich meinen: „Eine Bedeutung dagegen ist anscheinend ein Ding besonderer Art. Aber was genau? Man würde meinen, dass wir´s wüssten. Das Wort »Bedeutung« ist ein gewöhnliches Wort, ein überaus gewöhnliches Wort, das jedermann im Munde führt. Es kommt in einigen häufig gebrauchten Wendungen vor. Wir erkundigen uns nach der Bedeutung eines Worts; wir geben die Bedeutung eines Worts an; wir sagen, dass wir die Bedeutung eines Worts kennen; dass ein Ausdruck eine Bedeutung bzw. keine Bedeutung hat; und dass Ausdrücke die gleiche Bedeutung haben. Doch ein Kontext, in dem wir normalerweise nicht auf das Wort »Bedeutung« stoßen, ist der Kontext »eine Bedeutung ist« - »eine Bedeutung ist das und das«. Die Frage »Was ist eine Bedeutung?« erweist sich somit als spezifisch philosophische Frage.“99 Wenn wir allerdings anfangen, uns ebendiese philosophische Frage zu stellen, scheint uns der Begriff der Bedeutung nicht fassbar zu sein. Daher sprach Quine sich dafür aus, Bedeutungen nicht als eigenständige metaphysische Entitäten anzusehen. Der Grund, der ihn dazu bewogen haben mag, könnte darin bestehen, dass wir für Bedeutungen keine Identitätskriterien besitzen, aber 98 99 Quine, W.V.O.: Pursuit of Truth, Cambridge, Mass. 1990; dt. Unterwegs zur Wahrheit, Paderborn 1995, S. 7 Quine, W.V.O: Theories and things, Harvard. 1981; dt. Theorien und Dinge, Frankfurt a.M. 1985, § 5, S. 61 99 Identitätskriterien für ihn die Grundlage der Anerkennung der Existenz von Entitäten sind. Quines Forderung, Bedeutungen nicht als eigenständige Entitäten anzusehen, folgt also logisch aus seinen zwei ontologischen Grundprinzipien: seinem Identitätsprinzip der Ontologie und seinem Prinzip der ontologischen Sparsamkeit. „Das erste besagt, dass jede Annahme, es gebe ein Objekt O1 des Typs T, damit verknüpft ist, dass es zu diesem Objekt auch Identitätsbedingungen gibt, die zumindest die folgenden Fragen zu beantworten erlauben: Wodurch kann ich das Objekt O 1 von anderen Objekten O2 ... On unterscheiden, die ebenfalls vom Typ T sind? Wie kann ich andere Objekte abgrenzen, die nicht vom Typ T sind? Wenn es dagegen nicht einmal ein vages Identitätskriterium für ein vermeintliches Objekt gibt, so ist die Annahme, dass dieses Objekt (in irgendeiner Form) existiert, unbegründet.“100 Wenn wir behaupten, dass es Objekte eines bestimmten Typs gibt, dann müssen wir auch Identitätskriterien angeben können, die diese Objekte unterscheidbar machen. Können wir das nicht, dann fehlt uns jegliche Begründung für die Annahme der Existenz solcher Objekte. Quines zweites ontologisches Prinzip besagt jedoch, dass keine unnötigen Existenzannahmen gemacht werden sollen. Die in diesem Sinne einfachste wissenschaftliche Theorie, welche die wenigsten Existenzannahmen zur Erklärung eines Phänomens benötigt, stellt demgemäß immer die beste Theorie dar. Quine schlägt daher vor, Bedeutung über die Aktivierung der Wahrnehmungsrezeptoren eines Subjekts in einer bestimmten Wahrnehmungssituation zu definieren. Diese Aktivierungen nennt er auch Reizeinflüsse, und über diese gelangt er folgendermaßen zu der Reizbedeutung eines Satzes: „Die Reizbedeutung eines Satzes setzt sich zusammen aus der Menge der Reizeinflüsse, die zu einem Zustimmungsverhalten zu einer Äußerung führen und der Menge der Reizeinflüsse, die zu einem Ablehnungsverhalten zu einer Äußerung führen. [...] Zwei Sätze sind in Bezug auf einen Sprecher (bzw. in Bezug auf eine gesamte Sprache) bedeutungsgleich genau dann, wenn sie für einen Sprecher (bzw. für alle Sprecher einer Sprache) bei gleichen Reizeinflüssen das gleiche Zustimmungs- bzw. Ablehnungsverhalten nach sich ziehen.“101 100 Newen, A.: Willard Van Ornam Quine in Otfried Höffe (Hrsg.) Klassiker der Philosophie 2 – Von Immanuel Kant bis John Rawls, München: Verlag C.H. Beck, 2008, S. 334 101 Newen, A.: Willard Van Ornam Quine in Otfried Höffe (Hrsg.) Klassiker der Philosophie 2 – Von Immanuel Kant bis John Rawls, München: Verlag C.H. Beck, 2008, S. 329 100 Quine hält die Reizbedeutung für die einzig denkbare Grundlage für eine Bedeutungstheorie. Sein Ansatz hat jedoch komplizierte Nebenwirkungen. Er führt zu einem Bedeutungsholismus. Aufgrund seiner Definition der Reizbedeutung haben einzelne Wörter keine unabhängige festgesetzte Bedeutung, sondern ihre Bedeutung wird nur im Satzkontext festgelegt. Weiterhin ist die Bedeutung eines Satzes für ihn noch variabel im Hinblick auf das gesamte Satzsystem, in dessen Kontext er verwendet wird. Sein Gedanke ist dabei folgender: Wenn es zum Beispiel in einer Wissenschaft einen Paradigmenwechsel gibt, dann können wissenschaftliche Sätze im alten und neuen Paradigma jeweils unterschiedliche Zustimmungsverhalten nach sich ziehen. Oder um ein einfacheres Beispiel zu wählen: Wenn jemand nach einem Ortswechsel eine Temperaturangabe basierend auf der Celsiusskala macht, obwohl er sich in einem Kreis von Zuhörern befindet, in dem man normalerweise die Fahrenheitskala verwendet, wird er plötzlich unerwartet auf Ablehnung seiner Aussage stoßen. Der gesamtgesellschaftliche Kontext, in dem ein Satz geäußert wird, scheint also für die Bedeutung von Sätzen eine Rolle zu spielen. Damit richtet Quine mit seiner reizbasierten Bedeutungstheorie seine Aufmerksamkeit ebenfalls auf den sozialen Interaktionsaspekt von Sprachen, ähnlich wie Wittgenstein in den Philosophischen Untersuchungen mit seiner Gebrauchstheorie der Bedeutung. Quines Lösung der Frage, worin eine Bedeutung eigentlich besteht, kann jedoch nicht überzeugen. Daher werden wir in den folgenden Kapiteln seinen naturalistischen Ansatz fortführen und Bedeutung auf neurophysiologische Strukturen zurückführen. Obwohl er einige interessante und wichtige Details in die philosophische Diskussion eingebracht hat, ist Quines gesamter Ansatz aufgrund folgender zwei Probleme nicht weitgehend genug: 5.3 Die Probleme von Quines naturalistischer Bedeutungstheorie Erstens geht er mit seiner Definition der Reizbedeutung nicht weit genug in seinem naturalistischen Ansatz, sondern distanziert sich von den neuronalen Prozessen, die der Schlüssel zum Verständnis jedweder Sprachprozesse sind. Stattdessen bleibt er ganz bewusst auf der Ebene der äußerlichen Betrachtung von Reizen und Wahrnehmungen stehen: „Ein visueller Reiz wird für unsere jetzigen Zwecke vielleicht am besten mit dem Muster der chromatischen Bestrahlung des Auges identifiziert. Der Versuchsperson tief in den Kopf zu schauen, wäre selbst dann nicht angebracht, wenn es durchführbar wäre, denn mit dem 101 idiosynkratischen Verlauf ihrer Nervenbahnen oder der privaten Geschichte ihrer Gewohnheitsbildung wollen wir uns nicht befassen. Worum es uns geht, ist der ihr von der Gesellschaft eingeprägte Sprachgebrauch, folglich ihre Reaktionen auf Bedingungen, die normalerweise gesellschaftlicher Bewertung unterliegen.“102 Dabei entgeht ihm, dass das, womit er sich gerade nicht befassen will (die Struktur von Nervenbahnen und die Gewohnheitsbildung), aus biopsychologischer Sicht genau dasselbe ist wie das, womit er sich stattdessen befassen will (gesellschaftlich gesteuerter Spracherwerb), denn Spracherwerb wird realisiert durch die Ausbildung entsprechender neuronaler Strukturen. Er will die Bedeutung also ganz eng an die Aktivierung der Wahrnehmungsrezeptoren binden, was aus meiner Sicht schon nicht weitgehend genug wäre, weil man zur Erklärung der Bedeutung bis auf die Ebene der neuronalen Verarbeitungsprozesse hinunter muss, da die Verwendung von Sprache eben nicht nur aus der Wahrnehmung von Wörtern und ihrer Wiederholung besteht, sondern auch aus der Erstellung komplizierter neuer Wortverbindungen zu Sätzen. Aber mit seiner Definition schafft er noch nicht einmal die angestrebte enge Bindung an die Aktivierung der Wahrnehmungsrezeptoren. Stattdessen treten das Zustimmungs- und Ablehnungsverhalten von Sprechern in Bezug auf geäußerte Sätze in den Vordergrund seiner Theorie. Zweitens fokussiert er nicht die richtige Situation, um die Entstehung von Bedeutung zu erfassen. Wie im 6. Kapitel noch gezeigt werden wird, muss man sich auf die Situation des Spracherwerbs konzentrieren, um eine angemessene Bedeutungstheorie zu erstellen. Die Situation, die Quine betrachtet, ist jedoch zum einen sehr speziell auf das Wissenschaftssystem bezogen, insofern als es in seinem Szenario einer Sprechergemeinschaft darum geht, einen bestimmten Teil der Realität passend zu beschreiben. Zum anderen erweist sich diese Situation als vollkommen theoretisches Konstrukt, und seine Bedeutungstheorie somit als praktisch nicht anwendbar. Wie würde man bei Verwendung dieser Theorie zum Beispiel bestimmen, ob zwei Sätze bedeutungsgleich sind? Würde man eine Menge kompetenter Sprecher versammeln, die gewünschten Reizeinflüsse erzeugen, und dann ihr Verhalten betrachten? Das hört sich so schon relativ abstrus an, aber gemäß dieser Theorie müsste man nicht nur eine, sondern alle möglichen relevanten Reizkonstellationen erzeugen, um sicher zu gehen, dass die zwei geprüften Sätze bedeutungsgleich sind. Dieser hoch komplizierte Prüfungsmechanismus entspricht nicht unserer alltäglichen Intuition, dass jeder einzelne Sprecher sowohl bei Übersetzungen als auch bei beliebigen anderen Satzvergleichen innerhalb einer Sprache problemlos dazu in der Lage ist, korrekt über die Bedeutungsgleichheit von Sätzen zu entscheiden. Zusammenfassend bleibt daher festzuhalten, dass im Unterschied zu Quines Ansatz die kindliche 102 Quine, W.V.O.: Word and Object, Cambridge, Mass. 1960; dt. Wort und Gegenstand, Stuttgart 1980, § 8, S. 67 102 Spracherwerbssituation bei der Erstellung einer Bedeutungstheorie besonders berücksichtigt werden sollte. Die von Quine thematisierte Situation der radikalen Übersetzung entspricht eben nicht exakt dem kindlichen Spracherwerb, sondern dem Erwerb einer zweiten Sprache. Der Sprachforscher, der in seinem berühmten „Gavagai“-Beispiel die Dschungelsprache eines Eingeborenen erlernen will, hat ja bereits eine eigene Sprache erlernt. Betrachtet man es rein theoretisch, dann sind offensichtlich der Prozess, etwas ganz neu zu erlernen, und der Prozess, etwas mit bereits bekannten analogen Strukturen in Relation zu setzen, relativ unterschiedlich. Zu diesem theoretischen Unterschied findet sich aber auch ein physiologisches Korrelat. Die Gehirnstrukturen eines Kleinkindes unterscheiden sich offenbar stark von denen eines Erwachsenen. Der kindliche Erstspracherwerb basiert auf einem neuronalen Reifungsprozess, der nur in einem ganz bestimmten Lebensalter abläuft. Wird in diesem Zeitfenster keine Sprache erlernt, kann dies nur schwerlich nachgeholt werden. Weiterhin sollte die neue Theorie Bedeutung idealerweise wirklich nur über die Beschreibung von physischen Prozessen in menschlichen Wahrnehmungsorganen und Gehirnen erklären, statt zusätzlich auch noch auf Zustimmungs- und Ablehnungshandlungen angewiesen zu sein, da man sonst wie Quine mit den oben geschilderten unplausiblen Konsequenzen für die Aufwändigkeit der Klärung von Bedeutungsgleichheit und Übersetzungen konfrontiert ist. Wie sich zeigen wird, erledigt sich durch einen neurobiologischen Ansatz darüber hinaus auch das durch Quines Konzeption bedingte Problem des Bedeutungsholismus, da Wortbedeutungen dann nicht mehr nur im Satzkontext und in Abhängigkeit von Zustimmungsverhalten festgelegt werden. 103 6. Sprachentstehung und Spracherwerb In diesem Kapitel über die Sprachentstehung und den Spracherwerb werden sozusagen die Phylogenese und die Ontogenese der Sprache in den Blick genommen. Es geht sowohl um Fragen der Sprachentstehung als einem evolutionsbiologischen Prozess als auch um die exakten Verhältnisse beim Prozess des Spracherwerbs, den jedes menschliche Individuum am Anfang seines Lebens durchlaufen muss. Es werden dabei Experimente und Datensammlungen aus unterschiedlichen wissenschaftlichen Ansätzen mit dem Ziel betrachtet, ihre wichtigen Ergebnisse festzuhalten, um sie später mit den Erkenntnissen der Neuropsychologie zu einer einheitlichen Theorie zusammenzufügen. 6.1 Sprache und Denken Im ersten Teil dieses Kapitels werde ich mich mit den Zusammenhängen zwischen Sprache und Denken beschäftigen. Untersuchungen mit Fragestellungen dieser Art finden sich insbesondere in der Linguistik, die als zwischen Philosophie, Psychologie und Soziologie angesiedelte interdisziplinäre Wissenschaft mit diversen Methoden das System Sprache aus den unterschiedlichen Blickwinkeln betrachtet. Unter anderem untersucht sie auch die Entstehung und geschichtliche Entwicklung der Sprache, was in den weiteren Abschnitten dieses Kapitels von Interesse sein wird. Im Bereich der Linguistik ist die Sapir-Whorf-Hypothese sehr wirkungsvoll gewesen, nachdem sie in den 1950er Jahren durch die postume Veröffentlichung von Benjamin Lee Whorfs (1897-1941) Schriften bekannt wurde. Diese Hypothese hat zu einer sehr detaillierten Diskussion über die Verhältnisse zwischen unseren Denkprozessen und unserer Sprache geführt. Bevor man darüber nachzudenken beginnt, ob die Sprache unser Denken, oder unser Denken die Sprache formt, sollte man zuerst einmal zeigen, dass es sich dabei überhaupt um zwei unterschiedliche Dinge handelt. Einem wissenschaftlich ausgebildeten Erwachsenen könnte es aufgrund seiner Spezialisierung so vorkommen, als gäbe es überhaupt kein Denken ohne die Sprache. Denken entspräche für ihn seinem inneren Sprechen und keinen anderweitigen Prozessen. Diese These vertrat zum Beispiel auch der Psychologe James B. Watson (1878-1958), der Begründer des Behaviorismus. Seiner Ansicht nach bestand das, was die Psychologen vor der Etablierung des Behaviorismus die Gedanken einer Person nannten, in nichts anderem als einem Zu-sich-selbst-Sprechen dieser Person. Gibt es also zu den beiden unterschiedlichen Wörtern „Denken“ und „Sprechen“ wirklich 104 entsprechende unterschiedliche Prozesse in unseren Gehirnen? Auch wenn viele unserer effizientesten Gehirnvorgänge sprachbasiert ablaufen, muss man doch anerkennen, dass es darüber hinaus viele Prozesse gibt, die keine sprachliche Lösung erfordern, oder für die eine sprachliche Kodierung auch nur nützlich wäre. Dazu gehören die Optimierung der Geschwindigkeit von Bewegungsabläufen, der Erwerb von handwerklichem Geschick und Problemlösungsverfahren durch Herumprobieren, wie sie Tiere ohne Sprachfähigkeit auch verwenden. Dass Tiere auch ohne Sprache ihre Umwelt auf gewisse Art und Weise strukturieren und Gegenstände funktional klassifizieren, zeigt zum Beispiel der Bericht von einem Experiment, das der Gestaltpsychologe Wolfgang Köhlers 1914 durchführte. Dabei befand sich der Schimpanse Sultan in einem Käfig, vor dem Bananen ausgelegt wurden, die er mit den Armen nicht erreichen konnte. Im Käfig befanden sich auch mehrere Gegenstände, unter anderem eine Holzkiste und zwei hohle Bambusstangen, von denen jedoch keine lang genug war, um die Bananen mit ihrer Hilfe erreichen zu können. Zunächst zerrte Sultan die Kiste ans Gitter, bemerkte allerdings, dass diese ihn eigentlich nur behinderte und schob sie wieder weg. Danach schob er eine Stange so weit in Richtung der Bananen wie er konnte und verwendete die zweite Stange sehr geschickt, um die erste langsam noch weiter in die richtige Richtung zu schieben. Damit konnte er die Früchte dann zwar berühren, was ihn sichtlich erfreute, aber nicht erfolgreich zu sich manövrieren. Nachdem er auf diese Art mehrfach erfolglos war, gab er seine Bemühungen zunächst ganz auf. „Sultan hockt zunächst gleichgültig auf der Kiste, die etwas rückwärts vom Gitter stehen geblieben ist; dann erhebt er sich, nimmt die beiden Rohre auf, setzt sich wieder auf die Kiste und spielt mit den Rohren achtlos herum. Dabei kommt es zufällig dazu, dass er vor sich in jeder Hand ein Rohr hält, und zwar so, dass sie in einer Linie liegen; er steckt das dünnere ein wenig in die Öffnung des dickeren, springt auch schon auf ans Gitter, dem er bisher halb den Rücken zukehrte, und beginnt eine Banane mit dem Doppelrohr heranzuziehen. […] Sultan hockt am Gitter, ein Rohr hält er hinaus, und auf der Spitze hängt lose das zweite weitere Rohr, gerade im Abfallen; es fällt wirklich, Sultan zieht es heran, schiebt sofort mit der größten Sicherheit das dünnere wieder hinein, so dass jenes einigermaßen fest darauf sitzt, und holt mit dem verlängerten Werkzeug eine Frucht heran. […] Als dabei das lange Werkzeug hinderlich wird, indem es mit dem hinteren Ende zwischen die Gitterstangen gerät und bei Schrägbewegungen hängen bleibt, zerlegt das Tier es schnell in seine Teile und verrichtet den Rest der Arbeit mit nur einem Rohr; das geschieht von nun an stets, wenn das Ziel so nah gekommen ist, dass ein Rohr ausreicht, und 105 der Doppelstock nur mehr unbequem wirkt. - Das neue Ziel wird noch weiter gelegt. Die Folge ist, dass Sultan ausprobiert, welches der beiden weiten Rohre mit dem dünnen zusammen dienlicher ist; denn die beiden sind an Länge nicht sehr verschieden (64 und 70 cm), und das Tier legt sie natürlich nicht zum Vergleich aneinander. Niemals versucht Sultan die beiden breiten Rohre zusammenzubringen: Einmal hält er sie einen Augenblick einander ohne Berührung gegenüber und betrachtet die beiden Öffnungen, legt aber sogleich (ohne Ausprobieren) das eine fort und greift wieder zu dem dünneren dritten; die beiden weiten Rohre haben gleiches Lumen). - Die Lösung folgt ganz plötzlich: Sultan angelt mit einem Doppelrohr, bestehend aus dem dünneren und dem einen breiten Rohr, wobei er wie sonst das Ende von jenem in der Hand hält. Mit einem Male zieht er das Doppelrohr zu sich herein, dreht es um, so dass er das dünne Ende vor seinen Augen hat und das andere Ende hinter ihm in die Luft ragt, ergreift das dritte Rohr mit der Linken und führt die Spitze des Doppelstocks in die Öffnung ein. Mit dem Dreistock wird das Ziel mühelos erreicht; beim Heranziehen, als das lange Werkzeug sich hinderlich erweist, wird es alsbald wieder auseinandergenommen.“103 Auch wenn die Lösungsschritte gewisse Zufallselemente enthalten, so muss man doch sagen, dass der Schimpanse die Bedeutung der Stockstrukturen für sein Problem erkannt hat, und sich damit ein neues Problemlösungsverhalten erschlossen hat. Er hat dieses Problem geistig gelöst und da er nicht über menschliche Sprache verfügt, müssen die abgelaufenen Denkprozesse sprachfrei gewesen sein. Es gibt also offenbar Problemlösungsverfahren, die nicht sprachbasiert sind, und solche Prozesse klassifizieren wir normalerweise auch unter dem Begriff des Denkens. Damit sollte geklärt sein, dass Denken und Sprechen korrekterweise zwei unterschiedliche Prozesse genannt werden. Heutzutage sind solche Klassifizierungsprobleme aufgrund von neuropsychologischen Erkenntnissen leichter zu lösen als noch vor einigen Jahrzehnten. Wir können jetzt lokalisieren, in welchen Gehirnbereichen die verschiedenen Leistungen des menschlichen Gehirns erbracht werden. Somit fällt es leichter die verschiedenen Positionen auseinander zu halten, falls mehrere Autoren oder Sprecher unterschiedliches unter dem Begriff „Denken“ verstehen wollen. Es lassen sich zumindest die Bereiche der Wahrnehmung und Verarbeitung der Daten von den Sinnesorganen und der Steuerung der motorischen Fähigkeiten auch räumlich im Gehirn gut abgrenzen von anderen Prozessen, die man eher unter dem Oberbegriff „Denken“ zusammenfassen würde, wie zum Beispiel Sprachprozesse, Aufmerksamkeitssteuerung und gezielte Gedächtnisabrufe. 103 Köhler, W.: Intelligenzprüfungen an Menschenaffen – Berlin°Heidelberg°New York, Springer-Verlag, 1973, S.91-93 106 Sprechen und Denken basieren zwar beide auf Gehirnaktivität, aber sie sind zwei unterscheidbare Prozesse. Die interessante Frage bleibt jedoch: Formt unsere Sprache unser Denken, oder formt unser Denken unsere Sprache? Verschiedene Überlegungen dazu gab es schon seit dem späten Mittelalter, aber berühmt wurden sie erst durch Benjamin Lee Whorfs Hypothese: „Man fand, dass das linguistische System (mit anderen Worten, die Grammatik) jeder Sprache nicht nur ein reproduktives Instrument zum Ausdruck von Gedanken ist, sondern vielmehr selbst die Gedanken formt, Schema und Anleitung für die geistige Aktivität des Individuums ist, für die Analyse seiner Eindrücke und für die Synthese dessen, was ihm an Vorstellungen zur Verfügung steht. Die Formulierung von Gedanken ist kein unabhängiger Vorgang, der im alten Sinne dieses Worts rational ist, sondern er ist beeinflusst von der jeweiligen Grammatik. Er ist daher für verschiedene Grammatiken mehr oder weniger verschieden. Wir gliedern die Natur an Linien auf, die uns durch unsere Muttersprachen vorgegeben sind. Die Kategorien und Typen, die wir aus der phänomenalen Welt herausheben, finden wir nicht einfach in ihr – etwa weil sie jedem Beobachter in die Augen springen; ganz im Gegenteil präsentiert sich die Welt in einem kaleidoskopartigen Strom von Eindrücken, der durch unsern Geist organisiert werden muss – das aber heißt weitgehend: von dem linguistischen System in unserm Geist. Wie wir die Natur aufgliedern, sie in Begriffen organisieren und ihnen Bedeutungen zuschreiben, das ist weitgehend davon bestimmt, dass wir an einem Abkommen beteiligt sind, sie in dieser Weise zu organisieren – einem Abkommen, das für unsere ganze Sprachgemeinschaft gilt und in den Strukturen unserer Sprache kodifiziert ist. Dieses Abkommen ist natürlich nur ein implizites und unausgesprochenes, aber sein Inhalt ist absolut obligatorisch; wir können überhaupt nicht sprechen, ohne uns der Ordnung und Klassifikation des Gegebenen zu unterwerfen, die dieses Übereinkommen vorschreibt.“104 Whorfs Formulierungen ließen genügend Interpretationsspielraum, so dass sich im Anschluss zwei verschieden starke Versionen seiner These entwickeln konnten. Die schwächere Behauptung ist bekannt als „sprachliches Relativitätsprinzip“, welches besagt, dass die jeweilige Sprache das Denken beeinflusst und erleichtert, und somit zur Verschiedenheit der Denkstile in mehreren Sprachen beiträgt. Die als „Sprachdeterminismus“ bekannte Position geht weit darüber hinaus und behauptet, dass jeder Sprecher denkerisch an die Konventionen seiner jeweiligen Sprache gebunden ist, die die Interpretation der Welt bereits vorgibt. Diese sprachlichen Grenzen führen zu Grenzen in 104 Whorf, B.L.: Sprache, Denken, Wirklichkeit – Beiträge zur Metalinguistik und Sprachphilosophie – Hamburg: Rowohlt, 1963 S. 12 107 den Möglichkeiten, die Welt anders zu sehen, und letztlich zu einer Unübersetzbarkeit von Sprachen ineinander, insofern diese nicht nahe miteinander verwandt sind oder gemeinsame Sprachwurzeln haben. Während sich die europäischen Sprachen demnach noch ineinander übersetzen lassen, sollte eine Übersetzung einer europäischen Sprache in eine indianische Sprache gemäß der sprachdeterministischen Position unmöglich sein. Während man die schwache Version relativ problemlos akzeptieren kann, scheint die starke Version zu viel zu behaupten. Der Käfig, in den uns die jeweils eigene Sprache einsperrt, besteht nämlich nur in den schon bestehenden Kommunikationsmöglichkeiten und Begriffen. In der Tat kann es uns schwer fallen, gewisse neue Denkkonzepte in unserer Sprache zu kommunizieren, aber das Problem besteht nur in ihrer Kommunizierbarkeit und nicht in der Unmöglichkeit überhaupt neue Denkkonzepte zu entwickeln. Dass wir in der Tat immer neue Denkkonzepte entwickeln, und zu ihrer Kommunikation neue Umschreibungen und zuletzt sogar ganz neue Worte erschaffen, zeigt ein Blick auf die Geschichte der Wissenschaft und Technik sehr deutlich. Natürlich ist die wissenschaftliche Erfindung neuer Konzepte und die Erschaffung neuer Worte die Ausnahme, während der Normalfall der Sprachverwendung darin besteht, die altbekannten Worte zu verwenden und somit im Käfig der eigenen Sprache zu verbleiben, aber auch viele künstlerische Texte können als Versuch verstanden werden, mit alten Sprachmitteln etwas Neues auszusagen. Der flexible Umgang mit Sprache und die Umstrukturierung von Sprache sind also möglich, und somit ist der „Sprachdeterminismus“ nicht uneingeschränkt gültig, und dadurch muss auch die Unübersetzbarkeitsthese letztlich falsch sein. Um die Verhältnisse zwischen Sprache und Denken genauer zu erkennen, begann man diverse psychologische Experimente durchzuführen. Roger Brown und Eric Lenneberg führten 1954 das erste Experiment bezüglich Farbwahrnehmung und Farbnamen durch, dem in den folgenden 30 Jahren noch einige ähnliche Experimente folgen sollten. Diese Experimente sollten die verschiedenen Versionen der Sapir-Whorf-Hypothese bestätigen oder widerlegen. Unterschiedliche Sprachen verfügen über unterschiedliche und vor allem verschieden viele Farbnamen. Die Experimente sollten zeigen, wie sich die unterschiedlichen Arten der sprachlichen Gliederung des Farbraums auf den jeweiligen nichtsprachlichen Umgang mit Farben auswirken. Zunächst schien es Befunde zu geben, die für die Richtigkeit des „sprachlichen Relativitätsprinzips“ sprachen. Dies waren bessere Gedächtnisleistungen beim längerfristigen Behalten und Wiedererkennen von Farbtönen, für die es in der jeweiligen Sprache eigene Farbnamen gab, als für solche Farbtöne ohne eigenen Farbnamen in der Sprache des Probanden. Spätere Experimente von Brent Berlin und Paul Kay zeigten jedoch, dass bestimmte Farben (die Fokalfarben, die in den Experimenten von Brown und Lenneberg besser wieder erkannt wurden) für 108 alle Völker auffälliger sind und alle Sprachen ihr Farblexikon nach und nach in einer bestimmten Struktur um diese Fokalfarben herum zusammen bauen. Tatsächlich wurde 1973 die physiologische Grundlage für diese Strukturierung um die Fokalfarben herum entdeckt. Im Kniekörper des Zwischenhirns (Corpus geniculatum laterale) werden die Sinnesdaten aus den Augen von vier unterschiedlichen Zelltypen analysiert, die jeweils auf bestimmte Wellenlängen am stärksten und auf die Wellenlänge einer anderen Farbe am wenigsten reagieren. Diese Wellenlängen entsprechen den vier Fokalfarben (in den Gegensatzpaaren rot-grün und blau-gelb), die für alle Menschen besonders gut wieder erkennbar sind, und die bei der Sprachentstehung in jeder Sprache direkt nach der Unterscheidung hell-dunkel als erste Farben eigene Farbwörter bekommen. Bei der genaueren Untersuchung hatte sich nun also gezeigt, dass im Fall der Farbwörter die Wahrnehmung die Sprache beeinflusst und nicht umgekehrt, wie man zunächst angenommen hatte. Eleanor Roschs Experimente bei den Dani, einem Volk in Neu-Guinea, bestätigten diese Ergebnisse weiter. Obwohl die Dani nur über die sprachliche Unterscheidung hell-dunkel und keine Farbnamen verfügen, waren sie ebenfalls besser im Wiedererkennen von den Fokalfarben und verwechselten helle Grüntöne mit dunklen Grüntönen, statt mit hellen Rottönen, wie es ihre Sprache ihnen nahe gelegt hätte. Die Wahrnehmung steht also zumindest für so basale Analyseeinheiten, wie Farbtöne es sind, fest und die Sprache richtet sich in einem langfristigen evolutionären Prozess an diesen Strukturen aus. Unsere jeweilige Sprache verändert also nicht, wie die Welt für uns aussieht. 105 Obwohl dies eine wichtige Erkenntnis ist, die sich definitiv festzuhalten lohnt, gehen diese Untersuchungen eigentlich an der Fragestellung nach dem Verhältnis von Sprache und Denken vorbei. Denn unter dem Begriff „Denken“ verstehen wir normalerweise nicht das reine Wahrnehmen der Welt, sondern einen aktiven Umgang mit den Daten aus der Wahrnehmung. Es bedurfte also weiterer Experimente zur Klärung der Whorf-Hypothese. John Lucy fand 1992 bei der Erforschung der Sprache der Maya einen extremen Mangel an Pluralformen, der im Verhalten der Maya eine Präferenz zur Fokussierung von Substanzen und Materialien nach sich zu ziehen scheint. Abgesehen von Bezeichnungen für Lebewesen gibt es nur Singularformen in ihrer Sprache, wie es im Deutschen bei Wachs oder Schnee der Fall ist. Bei Sortierungsaufgaben ordnen die Maya unterschiedlich geformte Dinge mit unterschiedlichen Anwendungsformen zueinander, solange sie aus gleichem Material bestehen, statt unterschiedliche Materialien, die die gleiche Form und somit die gleichen Anwendungsmöglichkeiten aufweisen, zueinander zu sortieren. Diese Besonderheit der Klassifizierung entwickelt sich bei den Maya erst mit ungefähr acht Jahren heraus. In den ersten 105 Diese Schlussfolgerung mag an dieser Stelle übereilt erscheinen, wenn man allein die psychologischen Untersuchungen aus den 1950er Jahren betrachtet, die ich hier angeführt habe, aber diese Befunde wurden durch die neuropsychologischen Erkenntnisse über die zerebrale Verarbeitung des gesamten Sehprozesses bekräftigt. 109 Lebensjahren klassifizieren sie genauso, wie wir es tun. Ist das ein Beleg für die Überformung des Denkens durch die Besonderheiten der Grammatik der erlernten Sprache? Falls es so ist, dann sollten sich weitere Einflüsse der Sprache auf höhere kognitive Prozesse experimentell nachweisen lassen. Stephen Levinson untersuchte verschiedene Kulturen auf ihre sprachliche und faktische Raumorientierung. Dabei fand er drei verschiedene Arten der Raumorientierung, die mit ebenso unterschiedlichem Vokabular für die räumliche Orientierung einhergehen. Neben unserer europäischen egozentrisch-relationalen Orientierung gibt es auch die intrinsische (an den Besonderheiten der Umgebung ausgerichtete) und die an absoluten Koordinaten oder Himmelsrichtungen ausgerichtete Orientierung, die Sprecher von Sprachen verwenden, in denen äquivalente Wörter für die (für uns extrem wichtigen) Begriffe „davor“, „dahinter“, „links“ und „rechts“ fehlen, ohne dass dies ihre Orientierungsfähigkeiten beeinträchtigen würde. „Man lege vor der Versuchsperson einen Pfeil auf den Tisch, der mutmaßlich für den einen nach links, für den anderen nach Osten zeigt, drehe den Probanden um hundertachtzig Grad vor einen anderen Tisch und bitte ihn, den Pfeil genauso wieder hinzulegen, wie er ihn eben liegen gesehen hatte. Der egozentrische Relativist wird ihn so legen, dass er, von ihm selber aus gesehen, aufs Neue nach links zeigt, der Absolutist aber so, dass er nach rechts zeigt, dorthin, wo jetzt Osten ist. Und tatsächlich verstanden sich die Sprecher „absoluter“ Sprachen auch bei sprachfreien Orientierungsaufgaben jederzeit so zu positionieren, als hätten sie einen eingebauten Kompass – Aufgaben, bei denen „relativistische“ Westler versagten.“106 Es lässt sich also ein eindeutiger Zusammenhang zwischen der Art und Weise, wie sich verschiedene kulturelle Gemeinschaften im Raum orientieren, und ihrer jeweiligen Sprache herstellen. Auch bei nicht sprachbasierten Aufgaben erfolgt die Orientierung analog zu der jeweils typischen sprachlichen Beschreibung. Es ist jedoch nicht ganz einfach zu entnehmen, ob die Sprache die Raumorientierung beeinflusst, oder die Raumorientierung die Sprache. Da die Raumorientierung erlernt wird und dieser Lernprozess sprachlich gestützt in der jeweiligen Sprachgemeinschaft stattfindet, liegt es näher zu sagen, dass die Sprache die Entwicklung der anderen höheren kognitiven Fähigkeiten beeinflusst. Gleichzeitig beeinflussen aber unsere kognitiven Fähigkeiten und Lebenswelten unsere Ansprüche an die Leistungsfähigkeit unserer jeweiligen Sprache. Um in der Prärie den Büffelherden zu folgen, sind Orientierungen an der Sonne und an auffälligen Felsformationen oder Flüssen ideal. Begriffe wie links oder rechts sind dem 106 Zimmer, D.E.: So kommt der Mensch zur Sprache – München: Heyne, 2008 S. 204 110 gegenüber zur Orientierung in Wäldern oder anderen natürlichen Umgebungen nicht nur nicht nötig, sondern aufgrund der Unmöglichkeit geradlinigen Vorankommens oder rechtwinkligen Abbiegens geradezu unnütz. Um jedoch einen winzigen Gegenstand im richtigen Büro im richtigen Hochhaus in einer modernen Großstadt abzuholen, benötigt man andere Fähigkeiten und dadurch wird auch anderes Vokabular nötig und nützlich. Es gilt also folgende Punkte festzuhalten, bevor wir uns der historischen Entstehung der Sprachfähigkeit widmen: Die jeweilige Sprache beeinflusst keinesfalls unsere Wahrnehmung der Welt durch unsere Sinnesorgane, sondern nur unsere höheren kognitiven Prozesse. So kann uns zum Beispiel die sprachliche Formulierung eines Problems sehr dabei behindern, die Zusammenhänge klar zu erkennen und die beste Lösung zu finden. Andererseits beeinflussen unsere höheren kognitiven Prozesse auch unsere Sprachen. Denn wir verändern ständig den Wortschatz unserer Sprachen in Abhängigkeit von den Anforderungen, die von unserer Umwelt jeweils aktuell an uns gestellt werden. 6.2 Die historische Entstehung der Sprachfähigkeit Die Frage nach der historischen Entstehung der menschlichen Sprachfähigkeit eröffnet einen sehr interessanten Theoriebereich, in dem jedoch sichere Erkenntnisse nur schwer zu erreichen sind. Darum möchte ich mich diesem Thema auch nur kurz widmen, ganz unerwähnt bleiben soll es jedoch nicht, da es einige interessante Zusammenhänge zum kindlichen Spracherwerb gibt. Unsere heutigen Sprachfähigkeiten sind so komplex, dass es schwer fällt, sich vorzustellen, wie sie schrittweise aus primitiven Zeigegesten und wenigen undifferenzierten Kehlkopflauten entstanden sein sollen. Während niemand den Nutzen unseres ausgereiften Sprachsystems anzweifeln kann, scheint es schwieriger zu sein, für jeden kleinen Entwicklungsschritt evolutionsbiologische Begründungen anzugeben. Warum entwickelt sich ein System von Zeigegesten? Warum sind Geräusche nützlichere Signale als Gesten? Warum benötigt man extrem viele unterschiedliche Signale? Warum sind die Wörter aus Phonemen zusammengesetzt? Warum entwickeln sich Namen für Gegenstände und Tätigkeiten? Warum entwickeln sich Grammatiken für komplexe Satzstrukturen? Jeder weitere Entwicklungsschritt erfordert komplizierte Fortschritte im Bauplan der Kehlkopfstruktur, in der motorischen Leistungsfähigkeit bei der Produktion und in der Diskriminierungsfähigkeit beim Hören von schnellen Lautfolgen. Diese Fragen müssen beantwortet werden, so dass sich ein vollständiges widerspruchsfreies Erklärungssystem ergibt. Dabei gilt es, 111 die Ergebnisse von Untersuchungen zu Schädelverformungen bei archäologischen Funden ebenso zu beachten und mit dem Erklärungsansatz in Einklang zu bringen, wie heutige Erkenntnisse zur Hemisphärendominanz, oder zur tierischen Kommunikation. Auch aus den Vorgängen während des individuellen Spracherwerbs (in der Ontogenese) lassen sich potentiell Rückschlüsse auf die historische Entwicklung von Sprache in der Phylogenese ziehen. Auch wenn so niemals historische Gewissheit erlangt werden kann, gilt es doch zumindest, dass eine gute Theorie alle diese Hinweise sinnvoll in eine stimmige Geschichte integrieren können sollte. Betrachten wir daher die interessante Theorie, die Doris und David Jonas in ihrem Buch Das erste Wort107 dargestellt haben. Sie argumentieren dafür, dass Sprache sich in sozialen Beziehungen entwickelt haben muss, in denen es etwas zu kommunizieren gab. Heute benutzen wir Sprache zwar nicht mehr allein als Kommunikationswerkzeug, sondern zum Beispiel um im inneren Monolog effiziente Problemlösungen zu erarbeiten oder generell nachzudenken, aber dieser sekundäre Nutzen kann nicht der evolutionsbiologische Grund der Sprachentstehung sein. Da Doris und David Jonas die Beziehung zwischen Mutter und Kind als die engste soziale Beziehung identifizieren, sehen sie in ihr die Konstellation, in der Sprache phylogenetisch entstanden sein muss. Ihrer Einschätzung zufolge war es auch zu prähistorischen Zeiten die Mutter, die das Kind versorgte, auf es aufpasste und ihm spielerisch die natürliche Umwelt und die jeweils schon vorhandenen Kulturtechniken nahebrachte. In dieser sozialen Konstellation erlernte das Kind, was gefährlich war und was nützlich und wie man in dieser Welt in jeder Hinsicht bestmöglich zurechtkam. Diese Einschätzung basiert auf Beobachtungen des Sozialverhaltens von in Freiheit lebenden Schimpansen. Bei ihnen lässt sich beobachten, wie dieser Lernprozess noch heute abläuft. Und in Form dieses Prozesses in dieser sozialen Konstellation hat man ein evolutionsbiologisches Argument für die Sprachentstehung und Weiterentwicklung gefunden. Denn dieser Lernprozess verläuft mit sprachlicher Unterstützung natürlich sehr viel effizienter. Da effizienteres Lernen der für das Überleben relevanten Fähigkeiten sich direkt auf den evolutionsbiologischen Erfolg der betroffenen Individuen auswirken dürfte, ist abzusehen, wie der Evolutionsdruck die stetige Verbesserung der Kommunikation zwischen Mutter und Kind befördert. Dabei könnten sich die komplexeren Sprachstrukturen in langsamen Prozessen aus einer einfachen Kombination von hinweisenden Gesten mit den Lautzeichen zur Aufmerksamkeitssteigerung, wie sie bei Warnrufen im Tierreich üblich sind, entwickelt haben. Doris und David Jonas zeigen deutlich auf, dass man nicht den Fehler machen darf, unsere heutige Sprachverwendung zum Ausgangspunkt zu machen, wenn man eine evolutionsbiologische 107 Jonas, D.F./Jonas D.J.: Das erste Wort – Wie die Menschen sprechen lernten – Hamburg: Hoffmann und Campe, 1979 112 Erklärung für die Entstehung der Sprache entwickeln möchte. Der evolutionsbiologische Vorteil von sprachlichem Denken und Sprechen ist zwar unbestreitbar, aber diese komplexe Fähigkeit ist erst das Ergebnis von immens vielen kleinen evolutionären Schritten. Es muss nach genau der Konstellation gesucht werden, in der bereits das Gehen dieser ersten kleinen Schritte zur Entwicklung unserer heutigen Sprache den beteiligten Individuen einen deutlichen evolutionären Vorteil verschaffte. Obwohl die Beziehung zwischen Mutter und Kind wahrscheinlich nicht allein für die Entstehung und Weiterentwicklung der Sprache verantwortlich gewesen ist, da Kooperation auch in vielen anderen Bereichen nützliche Effekte hat (zum Beispiel bei Jagd, Kriegsführung und Werkzeugherstellung), liefert diese spezielle Konstellation jedoch eine überzeugende Erklärung für die Wichtigkeit des Gelingens von Kommunikation. Wenn die Überlebensrate der Kinder durch bessere Kommunikationsfähigkeiten gesteigert wird, dann werden die Individuen mit besseren Kommunikationsfähigkeiten evolutionsbiologisch gesehen erfolgreicher sein. Darüber hinaus gibt es weitere Indizien, die für die Entwicklung der Sprache im Kontext der Mutter-Kind-Beziehung sprechen: „In Japan wurden Makakentrupps lange und genau beobachtet. Dabei zeigte sich, dass einfache kulturelle - »protokulturelle« - Errungenschaften immer ein Werk der Jungtiere sind und ausschließlich in der Mutter-Kind-Beziehung weitergegeben werden. Eines Tages erfand ein Jungtier das »Körnerausschwemmen«: Der junge Makak warf eine Handvoll mit Schmutz vermischter Körner ins Wasser, sah die Körner oben schwimmen, fischte sie sauber heraus und wusch die Körner von nun an immer auf diese Weise. Nach einiger Zeit hatte sich seine Entdeckung ausgebreitet, aber nie zu den erwachsenen Männchen hin. Sie sind zu unbelehrbar, um sich auf derlei Neuerungen einzulassen. Einzig in den Mutter-KindBeziehungen kommen solche Neuerungen zum Zuge. Darf man diese Feststellung verallgemeinern auf die Hominiden, so kann sich die Sprache, deren ständige Verbesserungen mit ständigen Neuerungen verbunden waren, gar nicht anders als im Verhältnis von Mutter und Kind entwickelt haben.“108 Die Menge an benötigter Flexibilität, Lernfähigkeit und Lernwilligkeit spricht also ebenfalls für die historische Entstehung der Sprache in der Konstellation der kindlichen Erziehung durch die Mutter. Diese These passt auch mit vielen Fakten zusammen, die uns aus anderen Bereichen der Sprachforschung bekannt sind, zum Beispiel damit, dass der Spracherwerb heutzutage immer noch während der frühen Kindheit erfolgen muss, damit er überhaupt gelingen kann. Auch lässt sich bei 108 Zimmer, D.E.: So kommt der Mensch zur Sprache – München: Heyne, 2008 S. 258/259 113 Einwandererfamilien, deren Mitglieder alle die neue Landessprache erlernen müssen, beobachten, dass es den älteren Familienmitgliedern sehr viel schwerer fällt, die neue Sprache flüssig sprechen zu lernen. Wenn man jedoch die Wichtigkeit der Beziehung zwischen Mutter und Kind betont, dann folgt daraus nicht nur etwas über die Vorteile der Kinder beim Spracherwerbs, sondern auch, dass Frauen auch heute noch bessere sprachliche Fähigkeiten als Männer haben sollten, falls dieser Effekt nicht mittlerweile durch andere historische Gegebenheiten der Evolution ausgeglichen wurde. Und in der Tat schneiden Frauen im Durchschnitt bei Tests zu Sprachvermögen und Sprachverständnis besser ab als Männer: „Für diese Theorie spricht ebenfalls, dass Frauen bis auf den heutigen Tag den Männern im Durchschnitt sprachlich überlegen sind. Die Theorie macht auch die Annahme überflüssig, dass sich eine ausgebildete Gebärdensprache irgendwann, irgendwie in eine Lautsprache verwandelt haben muss. Lautkommunikation zwischen Mutter und Kind hat es schon in vorsprachlicher Zeit gegeben; es gibt sie sogar bei den schweigsamen Schimpansen. Also müsste nur ein bereits genutzter »Kanal« immer weiter ausgebaut worden sein. Vor allem aber hat die Theorie den Vorzug, sich logisch in die Ergebnisse der Hemisphärenforschung einzufügen. Der Stimmapparat kann nur von einer Hirnseite aus effektiv gesteuert werden. Erhielte etwa die Zunge ihre Bewegungsbefehle aus zwei Quellen, die linke Seite aus der rechten und die rechte Seite aus der linken Hemisphäre, so wie der rechte Arm vom linken Gehirn bewegt wird und der linke Arm vom rechten, so käme es möglicherweise zu Widersprüchen zwischen den beiden Kommandos, die jede flüssige Artikulation schwer machten. Wie sehr, sieht man an jener Variante des Stotterns, die auf eine mangelhafte Verseitigung der Sprachfunktionen im Gehirn zurückgeht. Gesprochene Sprache setzt also anscheinend voraus, dass sie nur von einer Gehirnseite aus gelenkt wird. Normalerweise ist es die linke Seite, das für die Sprachmotorik zuständige Broca-Areal der linken Hemisphäre. Warum aber wird die Sprache von derselben Hirnseite beherrscht, die auch die überlegene Hand kontrolliert, der linken? Es könnte gut darum sein, weil sich die entstehende Sprache auf jener Hirnseite ansiedelte, die bereits geschickter war bei der Steuerung feiner Bewegungen. Tatsächlich scheint die Rechtshändigkeit der Sprache voraus gegangen zu sein. Warum aber Rechtshändigkeit und mit ihr die Dominanz des linken Hirns? Welcher Umstand könnte die Hominiden bewogen haben, ihrer rechten Hand den Vorzug zu geben? Eine willkürliche Wahl? Nur bei einer einzigen Tätigkeit scheint es eine natürliche Vorliebe für eine bestimmte Körperseite zu geben: Mütter nehmen ihr Kind, noch heute, vorzugsweise links in den Arm. Sie tun es automatisch, weil die Herztöne es beruhigen. 114 Damit bleibt ihnen eine Hand zum Hantieren frei – die Rechte.“109 Es ist schwer zu beweisen, ob sich die Entwicklung wirklich so herum abgespielt hat. Ob zuerst die beruhigende Wirkung der Herztöne das linksseitige Tragen der Jungen bewirkt hat, und dann die linke Gehirnhemisphäre sich auf die Steuerung feiner sequentieller Bewegungsabläufe spezialisiert hat, was dann wiederum ideal war für die Übernahme der Steuerung der sequentiellen Bewegungsabläufe im Kehlkopf zur Spracherzeugung, ist jedoch auch nicht so wichtig. Auf jeden Fall passen alle diese Fakten zu einem stimmigen Gesamtbild zusammen, unabhängig davon in welcher Richtung sie sich gegenseitig bedingen. Selbst im unwahrscheinlichen Fall, dass die Kausalketten genau anders herum wären, also die heute feststellbare Präferenz der Mütter, ihre Kinder auf dem linken Arm zu tragen, nur durch die bereits bestehende Präferenz mit rechts zu hantieren bedingt wäre, dann hätte man keinen Beleg gefunden, der gegen diesen Theorieansatz spricht, sondern nur einen Beleg weniger, der den Ansatz untermauert. Die stets problematische These, dass sich die Lautsprache aus einer bereits ausdifferenzierten Gebärdensprache entwickelt haben soll, wird hier ebenfalls umgangen, indem die Sprachentstehung in die Kindererziehung verlegt wird, bei der sich schon für Schimpansen zeigen lässt, dass diese dabei Lautkommunikation mit Zeigegesten gemischt verwenden. Wir sind also in der Lage, eine nicht besonders detaillierte, aber immerhin widerspruchsfreie Theorie aufzustellen, wie die Sprachfähigkeit gemäß evolutionsbiologischer Prinzipien historisch entstanden sein kann. Da die vorgestellte Theorie besonderen Wert auf die Kindheit legt, betrachten wir nach diesem Ausflug in die Prozesse der Phylogenese nun die Prozesse der Ontogenese, also die einzelnen Entwicklungsschritte des Spracherwerbs bei Kindern. 6.3 Die Spracherwerbssituation Im dritten Teil dieses Kapitels werde ich mich mit den Prozessen des Spracherwerbs beschäftigen, da mir dies aus mehreren Gründen wichtig zu sein scheint. Im Bereich der philosophischen Bedeutungstheorien kommt der Spracherwerb manchmal zu kurz, oder er wird verfälscht dargestellt oder sogar überhaupt nicht thematisiert. Dies ist insofern nicht verwunderlich, als diese Darstellungen von erwachsenen Personen mit zumeist beeindruckenden sprachlichen Kompetenzen entwickelt wurden. Die Verhältnisse im kindlichen Gehirn zum Zeitpunkt des Spracherwerbs unterscheiden sich jedoch extrem von denen im Gehirn eines Erwachsenen. Insbesondere sorgt 109 Zimmer, D.E.: So kommt der Mensch zur Sprache – München: Heyne, 2008 S. 259/260 115 dieser strukturelle Unterschied dafür, dass aus den ersten Lebensjahren so gut wie keine abrufbaren Erinnerungen verbleiben, so dass eine Schilderung des eigenen Spracherwerbs völlig unmöglich ist. Wann immer solche Schilderungen trotzdem versucht werden, bestehen diese nicht aus Erinnerungen, sondern sind stattdessen nur vermeintliche Rekonstruktionen, die jedoch von der erwachsenen Gehirnstruktur verfälscht sind. Die Darstellung des Spracherwerbs von Augustinus in den Confessiones I/8, die Wittgenstein direkt am Anfang der Philosophischen Untersuchungen inhaltlich kritisch unter die Lupe nimmt, lässt sich daher rein strukturell noch viel weitgehender kritisieren: „Nannten die Erwachsenen irgend einen Gegenstand und wandten sie sich dabei ihm zu, so nahm ich das wahr und ich begriff, dass der Gegenstand durch die Laute, die sie aussprachen, bezeichnet wurde, da sie auf ihn hinweisen wollten. Dies aber entnahm ich aus ihren Gebärden, der natürlichen Sprache aller Völker, der Sprache, die durch Mienen- und Augenspiel, durch die Bewegungen der Glieder und den Klang der Stimme die Empfindungen der Seele anzeigt, wenn diese irgend etwas begehrt, oder festhält, oder zurückweist, oder flieht. So lernte ich nach und nach verstehen, welche Dinge die Wörter bezeichneten, die ich wieder und wieder, an ihren bestimmten Stellen in verschiedenen Sätzen, aussprechen hörte. Und ich brachte, als nun mein Mund sich an diese Zeichen gewöhnt hatte, durch sie meine Wünsche zum Ausdruck.“110 Augustinus Beschreibung trifft zwar in Hinsicht auf manche Aspekte des kindlichen Spracherwerbs zu, aber eine Darstellung des eigenen Spracherwerbs im Nachhinein ist unmöglich, da diese Fähigkeit genau die neuronalen Strukturen voraussetzen würde, deren Herausbildung eben erst durch den Spracherwerb geschieht. Auch im Hinblick auf seine Weltbeschreibung ist Augustinus Blickwinkel eindeutig der eines Erwachsenen. Die Fähigkeiten zur Diskrimination und erfolgreichen Wiedererkennung von Gegenständen und Lauten befinden sich ebenfalls noch in der Entwicklung, so dass die ablaufenden Lernprozesse in Wahrheit eher einem Zusammenfügen von visueller und akustischer Wahrnehmung entsprechen als einem Zuordnen von klar abgegrenzten Begriffen zu eindeutig erkannten Gegenständen, wonach es sich jedoch in seiner Beschreibung anhört. Doch statt weiter Augustinus problematische Darstellung zu kritisieren, möchte ich lieber zunächst die heute bekannten Daten bezüglich der beim Spracherwerb ablaufenden physiologischen Prozesse sammeln, um ein passenderes Bild vom Spracherwerb zeichnen zu können. 110 Übersetzung zitiert aus PU, Abschnitt I 116 6.3.1 Der kindliche Erstspracherwerb Der Ablauf des Erstspracherwerbs, also das Erlernen der gesprochenen Muttersprache durch ein Kind, unterscheidet sich deutlich vom zumeist schulisch gesteuerten Zweitspracherwerb. Es bestehen ebenfalls große Unterschiede zu Quines „radikalem Übersetzungsproblem“ und zum Erwerb der Kulturtechniken des Lesens und Schreibens. Während diese drei anderen Lernprozesse meistens gesteuert ablaufen und auf den bereits bestehenden Fähigkeiten in der gesprochenen Muttersprache aufbauen können, muss der Erstspracherwerb spontan und durch Nachahmung, statt mit der Hilfe einer strukturierenden sprachlichen Belehrung gelingen. Dabei müssen sehr komplexe Abläufe auf unterschiedlichen Ebenen gelernt werden. Angefangen von den kleinsten bedeutungsunterscheidenden Lauteinheiten, den in der Muttersprache üblichen Phonemen, über die Bildung von Wörtern aus Phonemen bis hin zur üblichen Syntax, die die legitimen Satzstrukturen bestimmt, in denen diese Wörter vorkommen können. Dieses gesamte Wissen muss jedoch aus den Erfahrungen mit Lautäußerungen der Erwachsenen entnommen und als implizites Wissen neuronal kodiert werden, wobei es auf allen Ebenen noch diverse Probleme zu meistern gilt. Zum Beispiel sind die Phoneme als vermeintlich einfachste Bestandteile nicht wirklich eindeutig, sondern eigentlich nur sprachspezifische Lautklassen von potentiell noch unterscheidbaren Lauten. Die wirklich geäußerten Phone innerhalb einer solchen Klasse können sich sowohl regional (man denke an die unterschiedliche Aussprache von /r/ in Bayern und im Rheinland) als auch im Wortzusammenhang noch deutlich voneinander unterscheiden. Die benötigte Geschwindigkeit bei der Aussprache von Wörtern und ganzen Sätzen führt zu diesem („Koartikulation“ genannten) Effekt der Anpassung der Aussprache von manchen Phonemen aufgrund der artikulatorischen Anforderungen der sie im Wort umgebenden Phoneme. Ich werde mich im Folgenden nacheinander den physiologischen Prozessen beim Erwerb der Sprachlaute, dann beim Erwerb der Wörter und zuletzt der Grammatik widmen: 6.3.2 Der Erwerb der Sprachlaute Die Grundvoraussetzung selbst für eine sprachliche Äußerung von nur einem einzigen Wort besteht in der Fähigkeit, die einzelnen Laute einer Sprache erzeugen zu können. Dazu müssen diese Laute sowohl durch die Wahrnehmung unterschieden, als auch aktiv mit Hilfe des Artikulationstrakts reproduziert werden können. 117 Die anatomischen Voraussetzungen für die Wahrnehmung von Sprachschall sind bei heranwachsenden Kindern bereits ab der 27. Schwangerschaftswoche gegeben. Aufgrund der Dämpfung des Schalls im Uterus können jedoch zu diesem Zeitpunkt noch keine Phoneme unterschieden werden, so dass pränatal nur eine gewisse Vorprägung auf die Prosodie der Muttersprache und natürlich auf die individuelle Stimme der Mutter erfolgt. Die Wahrnehmung des kompletten Sprachschalls beginnt dann erst mit der Geburt. Wie sieht es aber mit den Möglichkeiten der Lautproduktion aus? Diese entwickeln sich noch später in einem langwierigen Prozess: „Beim Neugeborenen sitzt der Kehlkopf hoch im Rachen, so dass bei der Nahrungsaufnahme Flüssigkeit und Speisebrei seitlich an ihm vorbei in die Speiseröhre gelangen können: Der Säugling kann, im Gegensatz zum älteren Kind und Erwachsenen, gleichzeitig Atmen und Schlucken. Die Möglichkeiten der Schallerzeugung sind dadurch aber stark eingeschränkt. Die Umgestaltung des Artikulationstraktes, die schließlich die Erzeugung des differenzierten Sprachschalls ermöglicht, vollzieht sich ab 0;2 und ist mit etwa 0;6111 weitgehend, bis zum Ende des ersten Lebensjahres vollständig abgeschlossen. Durch den nun tief sitzenden Kehlkopf und die rechtwinklige Biegung des Mund-RachenRaumes entsteht ein »Ansatzrohr« mit zwei Hohlräumen (Schlund und Mundhohlraum), und durch das klappbare Gaumensegel kann noch der Nasenhohlraum einbezogen werden; zugleich gewinnt die Zunge an Beweglichkeit. All dies sind Voraussetzungen für die Fähigkeit des Menschen zur Artikulation, insbesondere zur Äußerung unterschiedlicher Vokale.“112 Diese Umgestaltung des Artikulationstrakts erhöht zugleich die Gefahr des Erstickens, so dass man davon ausgehen kann, dass die besseren sprachlichen Fähigkeiten diesen potentiellen Nachteil mehr als aufgewogen haben müssen, damit sich dieser genetische Bauplan evolutionär durchsetzen konnte. Da die anatomischen Gegebenheiten im ersten Lebensjahr noch nicht die Produktion von Vokalen und Konsonanten ermöglichen, nennt man deren Vorläufer stattdessen „Vokanten“ und „Klosanten“. Säuglinge müssen die Erzeugung des Luftstroms erlernen, der für die Lautäußerung nötig ist, und dann spielerisch erforschen, wie die verschiedenen Verwendungen des Artikulationstrakts mit den unterschiedlichen Lauten korrelieren. 111 112 0;2 bedeutet im Alter von 0 Jahren und 2 Monaten, 0;6 entsprechend mit 6 Monaten Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 19/20 118 „Ab 0;4 treten die ersten ‹silbischen› Äußerungen auf, d.h., die Kinder beginnen systematisch Klosant-Vokant-Kombinationen zu produzieren. Man spricht vom ‹Babbel-› oder ‹Lallstadium›. Etwa ab 0;7 werden diese Silben auch wiederholt; das nennt man dann ‹repetitives› oder ‹kanonisches Babbeln›. Es ergeben sich Lautfolgen wie bababababa oder gagagagaga. Interessanterweise beobachtet man solche wiederholten, rhythmischen Bewegungen auch in der übrigen Motorik, z. B. des Rumpfes und der Gliedmaßen, was auf eine nicht-sprachspezifische Tendenz zu diesem Verhalten hindeutet.“113 Im Gegensatz zu Dittmann finde ich diese Beobachtung eigentlich gar nicht verwunderlich, denn die reine Lautproduktion ist schließlich auch nur eine koordinative motorische Leistung, wie Fahrrad fahren oder jede beliebige andere. Das Besondere der Sprache liegt in der Bedeutung, also darin, dass prinzipiell beliebige Geräuschfolgen in der Lage sind, bestimmte Inhalte zu symbolisieren und an andere Menschen zu übertragen. Dagegen ist die Lauterzeugung nur die Grundlage, auf der sich sprachspezifische Besonderheiten erst auf höheren neuronalen Entwicklungsstufen ausprägen können. Im weiteren Verlauf werden die verschiedenen Klosanten nach und nach erlernt und durch Wiederholung trainiert. Die Reihenfolge der erlernten Klosanten ist dabei weder zufällig, noch von der jeweiligen Muttersprache abhängig, sondern nur von der motorischen Schwierigkeit der Bildung der Klosanten: „In Bezug auf die Häufigkeit unterschiedlicher Klosanten setzt sich in der Phase kanonischen Babbelns die zwischen 0;4 und 0;8 beobachtete Entwickelung bei Kindern unterschiedlicher Muttersprachen fort: Zwischen 0;8 und 1;0 erhöht sich der Anteil von Klosanten wie [d], [m], [b] und [t] deutlich, [h] und [ʔ] gehen stark zurück: In der gesamten Babbelphase gibt es einen Trend von ‹hinten› nach ‹vorn›, von der Dominanz im Kehlkopf gebildeter zur Dominanz oberhalb des Kehlkopfes, im Rachen-Mund-Raum gebildeter Klosanten. Diese für alle Kinder der Welt geltende Verschiebung von ‹hinten› nach ‹vorne› während der Babbelphase kann man physiologisch erklären: Zur Bildung der ‹hinteren› Klosanten bedarf es nur der passiven, durch die Grobmotorik des Unterkiefers verursachten Bewegung des Zungenrückens relativ zum Gaumen. Zur Bildung der ‹vorderen› Klosanten hingegen bedarf es der feinmotorischen Steuerung der Zungenspitze, die sich erst im Laufe des ersten Lebensjahres vervollkommnet. Deshalb physiologischen Gründen universal.“114 113 114 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 21/22 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 22/23 119 ist diese Entwicklung aus Der Erwerb der Sprachlaute verläuft also für alle Menschen gleichartig und im selben Zeitraum, zumindest insofern keine physiologischen Missbildungen vorliegen. Obwohl die Lautwahrnehmung und -erzeugung natürlich die Grundlagen aller weiteren Entwicklungen darstellen, lässt sich die Besonderheit der menschlichen Sprache noch nicht auf dieser niedrigen Stufe auffinden. Viele andere Lebewesen verfügen über einfache Kommunikationsmöglichkeiten auf der Basis von Schallwellen. Betrachten wir also die Besonderheiten des Verlaufs des Erwerbs der Wörter auf der nächsten Stufe: 6.3.3 Der Erwerb der Wörter Sobald Kinder ungefähr ein Jahr alt sind, beginnen sich die verschiedenen Entwicklungsprozesse zu überlappen. Es werden weiterhin noch die Feinheiten verschiedener Konsonanten und Vokale erlernt, aber gleichzeitig werden schon die ersten Lautfolgen in bedeutungstragender Funktion benutzt. Die ersten Protowörter werden aus den zuerst gelernten und eindeutig unterscheidbaren Konsonanten und Vokalen gebildet. Bei diesen Protowörtern handelt es sich nicht mehr um Übungen einzelner Lautfolgen, sondern um eindeutige Bezeichnungsversuche von Gegenständen mit stark vereinfachten Versionen der Wörter der Sprache der Erwachsenen. Typische Beispiele sind [mama], [baba], [ba] für Buch oder [dɛdɛ] für Teddy. Einige solcher Protowörter gehen in die Ammensprache ein, die sich durch überzeichnete Artikulation und die Verwendung eines verringerten Wortschatzes und sehr einfacher syntaktischer Strukturen auszeichnet. Einige sehr wichtige Protowörter, wie zum Beispiel „Mama“ und „Papa“, sind sogar zum Bestandteil des Standardvokabulars der Erwachsenensprache geworden. „Ein attraktives Wort kann für das Kind Anlass sein, sich mit einem Phonem abzumühen, dass eigentlich noch nicht ins Repertoire passt. So kommt bei Annalena im 12. Lebensmonat und damit vorzeitig der Velar /k/ in kikeriki vor, ein zweifellos hochfrequentes und attraktives lautmalerisches Wort. Eine sprachvergleichende Studie ergab, dass sich mehrere Kinder in jeder der untersuchten Sprachen z. B. mit dem jeweiligen Wort für Schuh abmühten, obwohl es im Englischen und Französischen mit einem Frikativ (shoe, chaussure) und im Schwedischen gar mit einer Konsonantenverbindung (sko) beginnt – letztere ist besonders schwierig für Kinder im frühen Stadium des Phonemerwerbs. Die Reihenfolge des Phonemerwerbs wird also auch durch das Vorkommen der Phoneme in den Wörtern der 120 jeweiligen Sprache beeinflusst.“115 In den Fällen, in denen die artikulatorischen Hindernisse bei Wörtern für interessante Gegenstände doch zu groß sind, werden diese Wörter entweder vermieden, oder durch Gesten und einfache Protowörter (wie z. B. „Wauwau“) ersetzt. Ein weiteres Problem beim Erlernen der Wörter besteht darin, dass nicht alle Wörter einzeln unter idealen Bedingungen präsentiert werden. Wenn das Kind mit einem Erwachsenen zusammen ein Bilderbuch anschaut, dann kann das Kind auf einen Bildteil zeigen und sich das entsprechende Wort dazu vorsagen lassen, um es übend zu wiederholen. In solchen idealen Situationen können sowohl das Kind als auch die Erwachsenen den Lernprozess steuern, um Probleme zu meistern und Fehler bei der Artikulation und der Bedeutungszuweisung zu beheben. Viele Wörter müssen aber aus dem Zusammenhang entnommen werden, wenn sich die Erwachsenen miteinander unterhalten. Da die Erwachsenen sich aber dann nicht um klare Aussprache und deutlich hörbare Abgrenzungen der einzelnen Wörter bemühen, gelingt dies nicht immer. In diesen Fällen werden ganze Sätze als ein „Wort“ erlernt, dessen Gesamtbedeutung den Kindern ungefähr klar ist, ohne dass sie die einzelnen Bestandteile mit ihrer Bedeutung erkennen und den „Ein-Wort-Satz“ analysieren könnten: „Annalena äußerte u.a. data für das da (ab 0;10), getich, gehnis und weitere Formen (ab 1;3,19) für geht nicht! (in der gesprochenen Sprache: geht nich!), und es kann unterstellt werden, dass sie nicht als Wortfolge, sondern als ganzheitlicher Ausdruck produziert wurden. Daraus wiederum folgt, dass sie erst in einem späteren Stadium des Erwerbs analysiert und als zusammengesetzt erkannt werden. […] Annalena produzierte z. B. Äußerungen wie: bapaisisa (1;3,12) und bapaisisda (1;3,18), hier grob orthografisch wiedergegeben, mit der Bedeutung Papa ist nicht da.“ Die Protowörter und Ein-Wort-Sätze werden bereits in kommunikativer Absicht gebraucht. Es geht nicht mehr darum, einfach nur bestimmte Lautkombinationen zu üben, sondern es soll mit den Erwachsenen kommuniziert werden, Informationen sollen übermittelt und Handlungen angefordert werden. Nach der Phase des Erwerbs der einzelnen Sprachlaute, erreicht das Kind also schnell die Phase des Erwerbs der Bedeutung. Es gibt dazwischen keinen Zeitraum, in dem das Kind erst einmal alle möglichen Wörter (also nur deren Lautfolgen) erlernen würde, um dann erst später und unabhängig davon deren Bedeutungen zu erlernen. Stattdessen erfolgt die weitere Übung komplizierterer Lautfolgen anhand der Wörter, die von den Erwachsenen wiederholt gebraucht 115 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 27 121 werden, und die aufgrund ihrer Bedeutung für das Kind nützlich oder interessant sind. Betrachten wir daher nun den Erwerb der Bedeutung im Detail: 6.3.4 Der Erwerb der Bedeutung Um den dritten Schritt nach der Erzeugung einzelner Laute und nach der Kombination von Lauten zu den Lautfolgen von Wörtern schaffen zu können, benötigt das Kind kategoriales Wissen über die Welt. Die als Einheiten erkannten Wörter müssen mit den Informationen verknüpft werden, die das Kind bereits über die Welt gesammelt hat. Das setzt voraus, dass Kinder bereits sehr früh damit beginnen, die wiederkehrenden Dinge, Handlungen und Eigenschaften in der Welt zu erkennen und in Kategorien zu unterteilen, damit schon solches Wissen zur Anknüpfung der Wörter bereitsteht, sobald diese artikulatorisch gebildet werden können. Dieses früh erworbene Wissen lässt sich experimentell in der Tat nachweisen: „Elementare Einsichten in kausale Zusammenhänge, nämlich mechanische Verursachung, zeigen schon sechs Monate alte Säuglinge, andere konzeptuelle Differenzierungen sind ab 0;8 nachweisbar (Pauen 2007): Kinder beginnen nun, Männer von Frauen sowie Babys von größeren Kindern und Erwachsenen zu unterscheiden. Sie können auch Objekte nach Ähnlichkeiten kategorisieren, zwischen sich bewegenden Tieren (belebt) und Fahrzeugen (unbelebt) unterscheiden, und sie zeigen eine deutliche Tendenz zum Erkennen von Kausalbeziehungen, wobei sie eher Handelnden und Handlung aufeinander beziehen als Handlung und Handlungsempfänger.“116 Die Fähigkeit, Dinge zu unterscheiden und gleichartige Dinge in eine Kategorie zusammenzufassen, entwickelt sich also schon deutlich früher als die Fähigkeit, Wörter artikulieren zu können. Daher sind bereits viele einfache Konzepte und Kategorien entstanden, die mit den Wörtern verknüpft werden können, sobald ihre Artikulation möglich wird. „Im Hinblick auf den Spracherwerb ist nach Piaget die Erkenntnis der <Objektpermanenz> von herausragender Bedeutung: Etwa mit 0;8 beginnen Kinder nach einem Gegenstand, der z. B. durch ein Tuch abgedeckt wurde, zu suchen. Für Piaget ist die Vorstellung von der fortdauernden Existenz eines Objekts, unabhängig von der eigenen Wahrnehmung, der erste 116 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 36 122 komplexe <Begriff>, den das Kind entwickelt. Damit ist ein erster Meilenstein auf dem Weg zur Entwickelung der <Symbolfunktion> erreicht (Montada 2002): Das Kind kann nun eine <innere Repräsentation> von Handlungen und Gegenständen aufbauen.“117 Obwohl diese Prozesse zur Entwicklung der Symbolfunktion keinesfalls bewusst ablaufen, sind sie die Grundlage unserer wichtigsten Fähigkeiten und unseres Weltbildes. Jederzeit, also auch in den frühesten Kindertagen, beruht die Struktur aller unserer Erlebnisse auf den Naturgesetzen und darum werden diese als Erwartungen an alle zukünftigen Erlebnisse herangetragen. Effekte wie die Schwerkraft, die kausale Wirksamkeit, oder die von der eigenen Wahrnehmung unabhängige Objektpermanenz werden als immer gültige Prinzipien entdeckt und nach ihnen wird gehandelt, sehr lange bevor sie sprachlich benannt, geschweige denn verstanden werden können. Die innere Repräsentation von Handlungen und Gegenständen wird durch die sprachliche Symbolisierung fortgesetzt und flexibilisiert. Die einzelnen Wortformen können allerdings nur an die bisher gebildeten Konzepte angehängt werden, so dass die Bedeutungen der vom Kind zunächst benutzten Wörter sehr einfach sind und nicht mit den Bedeutungen der Erwachsenen übereinstimmen. „Unter den ersten Wörtern, die das Kind äußert, finden sich kontextspezifische Bezeichnungen, z. B. duck (Ente), gebraucht nur für drei gelbe Spielzeugenten (Weinert/Grimm 2008). Man spricht in diesem Fall von <Überdiskriminierung> der Bedeutung, denn der Bedeutungsumfang ist enger als in der Erwachsenensprache. Auch das gegenteilige Phänomen, die <Überdehnung> oder <Übergeneralisierung>, wird bei ein- bis zweijährigen Kindern regelmäßig beobachtet. Szagun (2008) schätzt, dass etwa 30% der Wörter überdehnt werden. Moë verwendet mit 1;1 das Wort sasa [zaza] (Wasser) für alles Flüssige, das Wort wawa [wawa] zunächst für die beiden Hunde der Familie, dann auch für alle anderen kleineren Tiere, Tauben eingeschlossen. Zu Übergeneralisierungen kommt es offensichtlich, weil Kinder noch unvollständige Bedeutungsrepräsentationen aufgebaut haben.“118 Die Kinder lernen neue Wortbedeutungen nicht durch Definitionen, sondern müssen die Bedeutungen anhand des Gebrauchs der Erwachsenen erraten. Kombiniert mit den noch ungenauen nicht-sprachlichen Repräsentationen und Kategorisierungen führt dies zu Abweichungen im Gebrauch gewisser Wörter, deren vollständiger Bedeutungsumfang erst schrittweise vom Kind erarbeitet wird: 117 118 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 36/37 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 38/39 123 „Eve Clark hat diese Hypothese in den 1970er Jahren zu einer «Theorie der semantischen Merkmale» ausgebaut: Sie geht davon aus, dass Kinder zunächst nur recht allgemeine Bedeutungselemente (<Merkmale>), wie [flüssig] oder [klein, läuft auf dem Boden], mit den entsprechenden Wörtern verbinden und erst nach und nach spezifischere Merkmale dazu erwerben, wie [klare, geruch- und geschmacklose Flüssigkeit] für Wasser. Elsen (1995) beschreibt, wie Annalena mit 0;9 das Wort Ei zunächst zur Bezeichnung des von ihr geschätzten Lebensmittels erwirbt, es aber mit Ende 1;0 auf alle eiförmigen bis runden Gegenstände anwendet, also überdehnt. Offensichtlich hat A. also das Wort Ei mit einem Bezugsobjekt, dem Referenten «Ei», erworben und zwei seiner Merkmale, nämlich die ungefähre Größe und die Form, zum Anwendungskriterium gemacht. Das Ei wird damit zu einem <prototypischen> Referenten für das Wort Ei, seine Merkmale bilden die Grundlage der Überdehnung. Mit 0;11,11 erwirbt A. das Wort Ball und verwendet es von 1;0 bis ca. 1;2 auch in der Bedeutung von Kugel. Interessant ist, dass sie ab ca. 1;2,5 Ei zunächst auch zur Bezeichnung von Tomaten, dann auch von Mohrenköpfen und Kartoffeln gebraucht, nicht mehr zur Bezeichnung von Nicht-Essbarem. Elsen schließt daraus: A. hat nun, neben den Merkmalen der ungefähren Größe und der Form, für Ei ein weiteres Merkmal [essbar/schmeckt gut] erkannt, das den Anwendungsbereich einschränkt. Für runde Gegenstände stehen zwei Wörter, Ei und Ball zur Verfügung, wobei das erstere (kleinere) essbare, das letztere nicht-essbare bezeichnet.“119 Die ersten korrekt artikulierten Wörter sind also eigentlich noch gar nicht die Wörter der Erwachsenensprache, da ihre Bedeutungen für die Kinder (aufgrund von Überdiskriminierung und Übergeneralisierung) stark von den allgemein üblichen Bedeutungen abweichen können. Das liegt neuropsychologisch betrachtet daran, dass zu diesem Zeitpunkt auf allen Ebenen noch massive neuronale Entwicklungen stattfinden. Es können sich noch die Aussprache der Wörter, das Wissen über die Welt im Hinblick auf die bezeichneten Dinge und die Vermutung, welcher Gegenstandsbereich mit spezifischen Wörtern bezeichnet werden kann, verändern. Wenn aber alle diese Bereiche noch variabel sind, und andauernd alles umgelernt werden muss, wieso gehen einem Kind dann nicht manchmal Wörter ganz verloren? Wieso können während der gleichen Entwicklungsphase drei verschiedene Dinge gelernt werden, nämlich, dass das richtige Wort „Hund“ lautet und nicht „Wauwau“, und dass es kategoriale Unterschiede gibt zwischen vierbeinigen Tieren, die bisher nicht realisiert wurden, und dass manche Vierbeiner mit dem Wort 119 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 39 124 „Katze“ und manche mit „Hund“ bezeichnet werden. Dass alle diese Veränderungen vorgenommen werden können, ohne dass die jeweils anderen Bereiche wieder ganz neu erarbeitet werden müssten, deutet auf eine bestimmte Struktur der neuronalen Realisierung hin. Die einzelnen Komponenten müssen demnach jeweils als intern stark verknüpftes neuronales Netz realisiert sein, das mit den anderen Komponenten nur über wenige neuronale Leiterbahnen verbunden ist. Nur dann kann sowohl leicht ein neues Wort („Hund“ statt „Wauwau“) mit den bereits bestehenden Wissensbeständen über Hunde verknüpft werden, als auch die Details der Aussprache und der Kategorisierungen verändert werden, ohne dass alles andere immer ganz neu gelernt werden muss (weitere Details dazu finden sich im Kapitel über Neuropsychologie). Während das Erlernen der ersten 50 Wörter ein schwieriger und langwieriger Prozess ist, nimmt die Geschwindigkeit dieses Prozesses danach rasch zu. Möglicherweise tritt ungefähr zu diesem Zeitpunkt die Einsicht auf, dass alle Gegenstände einen Namen haben, so dass das Kind anfängt diese Namen einzufordern und zu erlernen. Diesen Effekt der rasanten Beschleunigung der Wortschatzerweiterung bezeichnet man auch als den „Vokabelspurt“: „In einer Längsschnittstudie an 40 Kindern im Alter von 0;9 bis 1;9 fand man die ersten Wörter mit durchschnittlich etwa 1;0, das Verstehen von 50 Wörtern war mit durchschnittlich 1;1 erreicht, die Produktion von 50 Wörtern erst mit knapp 1;6 (Kauschke 2000). […] Höchstwahrscheinlich weisen alle Kinder eine diskontinuierliche Entwickelung des Wortschatzes auf, allerdings kann der Vokabelspurt auch deutlich später als mit 1;6 einsetzen. […] Bei Zweijährigen zählt man durchschnittlich aktiv zwischen 200 und 300 Wörtern – wiederum mit großer individueller Bandbreite. Mit zweieinhalb Jahren beherrschen Kinder im Durchschnitt dann mehr als 500 Wörter; zwischen 1;0 und 2;6 verzehnfacht sich also der Wortschatz. Die weitere Entwicklung ist nicht gut dokumentiert. Butzkamm/Butzkamm (2008) geben für Sechsjährige einen aktiven Wortschatz von über 5000 Wörtern an. Einsprachigen Wörterbüchern kann man entnehmen, dass die deutsche Standardsprache (also ohne Dialekte) rund 100000 Wörter hat. Wie viele davon ein durchschnittlich gebildeter Erwachsener beherrscht, ist aber nicht verlässlich zu berechnen (Dittmann 2002). Deshalb lässt sich auch die weitere quantitative Wortschatzentwicklung nicht sinnvoll beschreiben.“120 Doch bevor wir uns mit der lebenslangen Entwicklung des Wortschatzes beschäftigen, kehren wir noch mal zurück zu den ersten 50 Wörtern. Welche Wörter zuerst gelernt werden, hängt abgesehen 120 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 46/47 125 von der Landessprache sowohl von der dargebotenen Umwelt als auch von den artikulatorischen Möglichkeiten des Kindes ab. Doch gewisse Strukturen lassen sich immer wiedererkennen: „Unter den frühen Wörtern der Kinder findet man Bezeichnungen von Menschen in ihrem Umfeld, von Tieren (Spielzeugtiere oder Abbildungen, ggf. Haustiere), von (anderem) Spielzeug, Kleidungsstücken, Nahrungsmitteln, Körperteilen, Gegenständen im Haushalt und Fahrzeugen. […] Die Verben des frühen Wortschatzes bezeichnen Handlungen aus dem unmittelbaren Erfahrungsbereich des Kindes, die mit Bewegung verbunden sind, wie anzieh ´n, nehmen, spielen und fahren oder geht, wobei zunächst die Bezeichnung eigener Bewegungen überwiegt.“121 Eine Sortierung der ersten 50 Wörter nach grammatischen Kategorien kann potentiell irreführend sein, weil Kinder Wörter noch nicht wie Erwachsene im Satzzusammenhang benutzen, sondern einzeln, während sie versuchen, Zusammenhänge auszudrücken, für die eigentlich ein ganzer Satz erforderlich wäre. Das Substantiv „Arm“ könnte zum Beispiel benutzt werden, um den Wunsch auszudrücken, von einem Erwachsenen hochgehoben zu werden, also eigentlich um eine Tätigkeit zu bezeichnen und nicht einen Gegenstand. Da die gefundenen Werte in Bezug auf die grammatischen Kategorien der ersten 50 Wörter jedoch relativ gut mit den Erwartungen übereinstimmen, kann man davon ausgehen, dass dieser Effekt die Werte nur geringfügig beeinflusst: „Unter den ersten 50 Wörtern überwiegen bei den meisten Kindern die Nomina. Dies wurde bei Kindern mit unterschiedlicher Muttersprache gefunden, man spricht von <NomenVorliebe> des Kindes. Szagun (2002) errechnete bei 15 von 17 deutschen Kindern einen Anteil von 64,6% Nomina, 23,4% Funktionswörtern, 7,1% Verben und 4,6% Adjektiven. […] Funktionswörter haben in der frühen Kindersprache die Aufgabe, Beziehungen zwischen Personen, Handlungen und Gegenständen auszudrücken (<relationale Wörter>). So bezeichnen z.B. da und weg das Auftauchen und Verschwinden von Personen oder Gegenständen, ran, auf und ähnliche Wörter drücken Funktionen von bzw. mit Gegenständen aus, usw.“122 Die ersten Wörter bezeichnen also hauptsächlich die Gegenstände und die häufig wiederkehrenden Prozesse innerhalb der kindlichen Lebenswelt. Wörter für abstrakte und komplexe Begriffe 121 122 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 48/49 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 50 126 kommen erwartungsgemäß nicht vor. Sie werden erst viel später aus den einfacheren Begriffen gebildet. Wenn man eine Theorie vertritt, die besagt, dass Sprache zunächst hauptsächlich dazu dient, die Gegenstände in der Welt abzubilden, um Kommunikation über die Welt zu ermöglichen, dann bekommt man oft den Einwand zu hören, dass man so die abstrakten Begriffe nicht erklären könnte. Dabei wird von den Kritikern jedoch übersehen, dass die problematisierten Begriffe keinesfalls von Kindern verwendet werden, oder zumindest nicht in dem gleichen Sinn, in dem Erwachsene sie verwenden. Die Bedeutung der abstrakten Wörter wird in einem langwierigen neuronalen Prozess immer weiter verfeinert: „Insbesondere darf man nicht übersehen, dass auch beim älteren Kind noch <Bedeutungswandel> stattfindet, allerdings ist er subtiler als beim jüngeren Kind und ohne genauere Analyse oft gar nicht nachweisbar (Menyuk 2000). Betroffen sind, versteht sich, vor allem Abstrakta. Untersucht wurde u.a. der Erwerb von Leben, Mitleid, Mut, Geld und Bank. Gisela Szagun, die sich mit Mitleid und Mut befasst hat, geht davon aus, dass die Assoziation zwischen Wortform und Begriff schnell erlernt wird und stabil bleibt, dass sich aber der Begriff selbst (als Bedeutung der Wortform) im Laufe der Entwicklung stark verändert. Diese Veränderung ist nach Szagun als sukzessive, alters- und erfahrungsabhängige Begriffsstruktur empirisch fassbar.“123 Dass ein Kind eine Wortform kennt und sie grammatikalisch korrekt in einem Satz verwenden kann, bedeutet nicht, dass es die volle Bedeutung des Wortes kennt. Abstrakte Wörter werden also über lange Zeiträume ähnlich ungenau verwendet, wie zum Beispiel „Hund“ am Anfang des Spracherwerbs für alle Vierbeiner verwendet wird. Der wichtigste Unterschied besteht darin, dass der Bedeutungsunterschied (der abweichende Gebrauch eines abstrakten Wortes) für die anderen Sprecher schwerer zu erkennen ist, und er daher nicht so schnell korrigiert wird. Es muss erst viel Wissen über die Welt erworben werden, um die abstrakten Wörter mit einer großen Menge von dazu passendem Wissen verknüpfen zu können. Ein Kind, das von „Geld“ spricht, meint damit die physischen Münzen oder bunten Scheine, mit denen es sich etwas kaufen kann. Ein gebildeter Erwachsener weiß jedoch darüber hinaus, dass es verschiedene Währungen gibt auf der Welt, dass die meisten Menschen arbeiten müssen, um Geld zu bekommen, dass Geld eigentlich nur ein abstraktes System ist, um Tauschrechte anzuzeigen, und vieles mehr. Diese Veränderung der Bedeutung lässt sich für alle komplexen Begriffe nachweisen: 123 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 51 127 „Den <Bedeutungswandel> von Mut z.B. erhoben Szagun/Schäuble (1997) mittels eines Fragebogens und eines Interviews. Es zeigte sich, dass Sechsjährige die Erfahrung von Mut als Gefühl der Stärke oder den Gedanken an die Gefahr beschreiben, aber nicht mit Bezug auf Angst oder deren Überwindung. Mit zunehmendem Alter werden dann mehr Gefühle und psychische Zustände benannt, das Abwägen der Gefahr und das Gefühl der Stärke sind weiterhin dabei, aber die Faktoren Angst und Überwindung der Angst werden zunehmend häufiger angeführt. Ab dem 9. Lebensjahr wird Mut als zeitliche Folge von psychischen Zuständen erfahren, Erwachsene berichten übereinstimmend ein anfängliches Angstgefühl, gefolgt von dessen Überwindung, was sie als konflikthaft erleben. Für die Sechs- und Neunjährigen impliziert Mut, in eine physisch gefährliche Situation geraten zu sein, für Erwachsene hingegen, sich einer möglichen Verletzung auszusetzen. Die Beschreibungen des psychischen Zustands von Mut durch die Sechsjährigen korrespondiert dem beobachtbaren Verhalten, im Laufe der Entwicklung verschiebt sich dies in Richtung auf ein Verständnis von Mut als vielschichtiger emotionaler Erfahrung.“124 Es wurde also empirisch gezeigt, dass die Bedeutung eines Wortes für einen Sprecher nicht feststeht, sondern stattdessen intraindividuelle Entwicklungen der Bedeutungen bei allen Sprechern stattfinden. Daraus ergibt sich zwangsläufig auch, dass interindividuelle Unterschiede zwischen den Bedeutungen bestimmter Wörter für mehrere Sprecher vorliegen können, da diese Sprecher sich auf verschiedenen Entwicklungsstufen des Wissens um die Wortbedeutung befinden können. Diese Erkenntnis steht im Gegensatz zu vielen bisherigen Bedeutungstheorien, die Bedeutung für konstant und unabhängig vom Sprecher gehalten haben. Natürlich sind diese Bedeutungsunterschiede vergleichsweise gering, so dass eine Kommunikation der ungefähren Inhalte trotz dieser Unterschiede meistens gelingt, oder zumindest das Misslingen der Kommunikation unbemerkt bleibt. Die aktuellen neurobiologischen Ergebnisse passen gut zu dieser Erkenntnis, dass Bedeutung nicht konstant und unabhängig vom Sprecher, sondern flexibel ist, so dass diese Erkenntnis problemlos in die neuropsychologische Bedeutungstheorie integriert werden kann. 6.3.5 Der Erwerb der Grammatik Bisher haben wir uns nur mit dem Erwerb der einzelnen Wörter und deren Bedeutung befasst, während wir den Erwerb der Grammatik, also den Wissenszuwachs 124 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 51/52 128 bezüglich der Gesetzmäßigkeiten der legitimen Zusammenstellung von Wörtern zu Sätzen und den Erwerb der Flexionsformen der Muttersprache, ignoriert haben. Diese Vorgehensweise entspricht jedoch dem zeitlichen Verlauf des Spracherwerbs. Kinder verwenden keine Sätze der Erwachsenensprache, sondern zunächst Ein-, dann Zwei- und Dreiwortäußerungen. „Tatsächlich sind es in erster Linie Funktionswörter (Artikel, Konjunktionen, Präpositionen, usw.), Hilfsverben und Flexionsformen, die in den Zwei- und Dreiwortäußerungen fehlen, d.h. die eigentlich grammatischen Elemente im Satz; die Äußerung ist im Wesentlichen auf die Inhaltswörter reduziert. Stern/Stern (1928) nennen diese Sprechweise deshalb «Telegraphenstil». Durch ihre Bauart bedürfen die Äußerungen zum Verständnis der ergänzenden Intonation, der Mimik und Gebärden bzw. des situativen Kontextes.“125 Viele Monate bevor Kinder selbst vollständige Sätze formulieren können, setzt bei ihnen jedoch schon das Verständnis von Sätzen ein, deren Bedeutung nur durch ihre grammatikalische Struktur eindeutig bestimmt ist. Sie sind dann bereits in der Lage, die Bedeutungen von Sätzen zu unterscheiden, die jeweils aus genau denselben Wörtern bestehen, aber sich in ihrer grammatikalischen Struktur voneinander unterscheiden: „Hirsh-Pasek/Golinkoff (1996) konnten zeigen, dass Kinder zwischen 1;4 und 1;7, also in der späten Einwortphase bzw. am Beginn der Zweiwortphase, bereits in der Lage sind, die Wortfolge in <reversiblen Aktivsätzen> zu verstehen. […] Die untersuchten Kinder konnten zwischen Sätzen wie Big Bird is tickling Cookie Monster und Cookie Monster is tickling Big Bird unterscheiden, wobei die Leistungen der Mädchen über denen der Jungen lagen. Mit durchschnittlich 2;0 können englische Kinder auch zwischen transitivem und intransitivem Gebrauch von Verben unterscheiden: Nach der Aufforderung Look at Cookie Monster turning Big Bird (Schau auf CM, der BB herumdreht; to turn transitiv verwendet) schauten sie vorzugsweise auf eine Abbildung, die darstellte, wie Cookie Monster Big Bird im Kreis dreht, bei der Aufforderung Look at Cookie Monster and Big Bird turning (Schau auf CM und BB die sich drehen; to turn instransitiv verwendet) schauten sie vorzugsweise auf eine Abbildung, die darstellte, wie Cookie Monster und Big Bird sich im Kreis drehen.“126 Die Bedeutung gewisser grammatikalischer Strukturen kann von den Kindern demnach schon zu diesem frühen Zeitpunkt verstanden werden, während solches Wissen noch lange keine Anwendung 125 126 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 54/55 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 57 129 in der eigenen Sprachproduktion findet. Aufgrund der Komplexität der vielen teilweise parallel verlaufenden Lernprozesse sollte uns dies jedoch nicht wundern. Diese Lernprozesse werden von den erwachsenen Sprechern unterstützt, indem die an das Kind gerichteten Äußerungen immer den jeweils vorhandenen Sprachfähigkeiten des Kindes angepasst werden. Während im zweiten Lebensjahr durch die Verwendung der sogenannten stützenden Sprache hauptsächlich Hilfe beim Wortschatzaufbau geleistet wird, ändert sich der Stil der Kommunikation mit dem Kind im dritten Lebensjahr, um den jetzt erfolgenden Grammatikerwerb zu erleichtern. Von nun an wird die sogenannte „lehrende Sprache“ verwendet, die sich durch die folgenden Strukturmerkmale gegenüber der „stützenden Sprache“ auszeichnet: „(1) längere Äußerungen, (2) höhere durchschnittliche Anzahl von Nominalphrasen pro Äußerung, (3) Ja-/Nein- und W-Fragen – Letztere sind Fragen, die mit einem Fragewort beginnen, z.B. Wo willst Du hingehen? - (4) teilweise Wiederholung der eigenen oder der kindlichen Äußerung, mit oder ohne Modifikation, (5) Expansionen (Erweiterungen der kindlichen Äußerung).“127 Die Bezugspersonen erkennen also intuitiv, dass sie die Komplexität der Kommunikation mit dem Kind langsam erhöhen können. Insbesondere behalten sie dabei die Inhalte der Kommunikation bei, lenken aber durch Fragen, korrigierende Wiederholungen und leichte Variationen des jeweils Gesagten die Aufmerksamkeit des Kindes von den Inhalten auf die grammatikalisch korrekten Strukturen der jeweiligen Kommunikation. Die Erweiterungen der kindlichen Äußerungen spielen dabei wahrscheinlich eine entscheidende Rolle, da so immer nur kleine Neuerungen zu den schon beherrschten Kommunikationsformen dazugelernt werden müssen. „Die Mutter nimmt die grammatikalisch unvollkommene Äußerung teller machen auf, behält den Inhalt bei, verleiht ihm aber eine vollständige grammatische Form (Sollen wir da noch etwas auf den Teller machen). Das Kind kann seine eigene Äußerung formal mit diesem «Modell» vergleichen und aus den Veränderungen lernen. Wichtig ist, dass auf diese Weise «zwischen dem Schon-Gewussten und dem Noch-nicht-Gewussten keine zu große Diskrepanz» besteht (Grimm 1999): Die Mütter erweisen sich als sensitiv für das Leistungsniveau der Kinder.“128 Diese Hilfestellung durch die (die lehrende Sprache verwendende) Bezugspersonen erleichtert den 127 128 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 60 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 61 130 Kindern offensichtlich den Grammatikerwerb, aber könnte der Grammatikerwerb auch ohne diese Hilfe gelingen? Die Frage danach, wie wichtig das präsentierte Sprachmaterial im Verhältnis zu den genetischen Anlagen für den Erfolg des Grammatikerwerbs wirklich ist, wurde unterschiedlich beantwortet. Die zunächst entwickelten Theorien hielten gewisse angeborene sprachliche Kompetenzen für die entscheidenden Triebfedern des Spracherwerbs. Dem empirisch dargebotenen Sprachmaterial kam diesen Autoren gemäß nur geringe Bedeutung zu. Im Gegensatz zu diesen mittlerweile „nativistische Theorien“ genannten Ansätzen betonen die aktuelleren „funktionalistischen Theorien“ die Wichtigkeit des dargebotenen Sprachmaterials für den Grammatikerwerb. Im Folgenden werden wir diese beiden Ansätze und ihre Unterschiede etwas genauer betrachten. 6.4 Nativistische und Funktionalistische Theorien des Grammatikerwerbs 6.4.1 Nativistische Theorien des Grammatikerwerbs Als Hauptvertreter der nativistischen Theorien sind Noam Chomsky und Steven Pinker zu nennen. Ihre Theorien besagen, dass es angeborenes sprachspezifisches Wissen gibt, also spezialisierte Gehirnstrukturen, in denen die Grundstrukturen für potentielle grammatische Regeln bereits vorgegeben sind. Jede einzelne menschliche Sprache wäre demnach nur eine mögliche Ausprägung eines Regelsystems innerhalb gewisser allgemeingültiger Regeln. Der Spracherwerb bestünde hauptsächlich in der Leistung, aus dem (durch die erwachsenen Sprecher präsentierten) Sprachmaterial die einzelnen Parameter der Muttersprache zu erkennen, und diese Parameter für die eigenen zukünftigen Sprechversuche zu verwenden. Chomsky nennt diese Grundlagen aller menschlichen Sprachen Universalgrammatik: „Die Prinzipien, die die Form der Grammatik determinieren und eine Grammatik der geeigneten Form auf der Basis gewisser Daten auswählen, konstituieren dasjenige, was, dem traditionellen Gebrauch gemäß, als »universale Grammatik« bezeichnet werden kann. Die Untersuchung der universalen Grammatik ist, so verstanden, eine Untersuchung der Natur der menschlichen intellektuellen Fähigkeiten. Sie versucht die notwendigen und hinreichenden Bedingungen zu formulieren, denen ein System genügen muss, um sich als eine mögliche menschliche Sprache auszuweisen, Bedingungen, die nicht zufällig auf die existierenden menschlichen Sprachen zutreffen, sondern begründet sind in der menschlichen 131 »Sprachfähigkeit« und so die natürliche Organisation konstituieren, die determiniert, was als sprachliche Erfahrung zu gelten hat und welche Sprachkenntnis auf der Basis dieser Erfahrung möglich ist.“129 Chomsky und Pinker führen diverse Argumente zur Unterstützung ihrer nativistischen Positionen an, wovon die meisten allerdings nur ausreichen, um deutlich schwächere Thesen zu stützen als diejenigen, die sie vertreten. Für die Universalgrammatik wird zum Beispiel angeführt, dass Sprache für den Menschen ein universales, aber zugleich spezifisches Phänomen ist. Das kann man zwar so sehen, denn die Kommunikationssysteme anderer Lebewesen unterscheiden sich doch massiv in ihrer Leistungsfähigkeit vom menschlichen Kommunikationssystem, aber daraus folgt trotzdem nicht, dass Sprache ein genetisch bedingtes Phänomen ist. Wir unterscheiden uns auch in anderen Hinsichten von anderen Lebewesen, zum Beispiel durch das Kochen unserer Nahrung, was offensichtlich nicht genetisch bedingt, sondern eine erlernte Kulturtechnik ist. Als ein weiteres Argument für die Universalgrammatik wird die angebliche Mühelosigkeit und zeitliche Gebundenheit des Spracherwerbs angeführt. Chomsky vergleicht den Spracherwerb sogar mit der Entwicklung von Organen und sensorischen Fähigkeiten. Es ist zwar korrekt, dass für die einzelnen Phasen des Spracherwerbs nur gewisse Zeitfenster zur Verfügung stehen, aber mühelos und automatisch geht der Spracherwerb in vielen Hinsichten nicht vonstatten. Im Gegenteil ist in allen Phasen viel (idealerweise animierender und korrigierender) sprachlicher Input und viel Übung erforderlich. Man kann also eigentlich nur festhalten, dass das menschliche Gehirn nur in den ersten Lebensjahren in der Lage ist, die komplexen Strukturen der ersten erlernten Sprache aufzunehmen. Durch den Vergleich mit einfachen Wachstumsprozessen wird die Wichtigkeit der Sprachdarbietung durch die Umwelt fälschlicherweise ignoriert. Die während dieser Phase ablaufenden Prozesse im Gehirn genauer zu betrachten, ist das Ziel neuropsychologischer Untersuchungen, welche im siebten und achten Kapitel ausführlicher thematisiert werden. Dabei zeigt sich, dass es durchaus spezialisierte Gehirnareale gibt, in denen die Sprachverarbeitung normalerweise stattfindet, aber auch das ist wiederum nur ein Argument für schwächere Thesen als die von den Nativisten vertretenen. Denn diese Bereiche sind einfach nur gut geeignet für Assoziationen und Diskriminationen von sehr ähnlichen Wahrnehmungen, was zwar sehr günstig für die Sprachverarbeitung ist, aber nicht spezifisch dafür vorgesehen. Während wir Sprache normalerweise in spezifischen Bereichen der linken Gehirnhälfte verarbeiten, nutzen wir die dazu analogen Bereiche in der rechten Gehirnhälfte für die Erkennung und Unterscheidung von menschlichen Gesichtern. Einem erwachsenen Menschen kommt es zwar nicht so vor, weil er 129 Chomsky, N.: Sprache und Geist – Sinzheim: Suhrkamp, 1973, S.50 132 hochentwickelte Fähigkeiten für diese Unterscheidungsprozesse hat, aber menschliche Gesichter sind sich eigentlich ebenso extrem ähnlich, wie die Geräusche, die wir mit unseren Stimmbändern erzeugen. Wenn wir jemanden in einer uns völlig unbekannten Sprache reden hören, dann fehlen uns die Assoziationen und die Diskriminationsfähigkeit für manche der in der fremden Sprache enthaltenen Laute. Dadurch nehmen wir nur einen verwaschenen Singsang wahr statt einer bedeutungstragenden artikulierten Sprache, die für einen Sprecher dieser uns unbekannten Sprache jedoch vorliegt. Zu diesem Effekt gibt es auch einen analogen Effekt in der Gesichtswahrnehmung: Für Europäer ist es deutlich schwieriger asiatische Gesichter zu unterscheiden als europäische Gesichter. Das liegt jedoch keinesfalls an der Struktur asiatischer Gesichter, sondern an der mangelnden Vertrautheit mit asiatischen Gesichtern und daher dem Mangel an der erforderlichen Diskriminationsfähigkeit. Es lassen sich also durchaus bestimmte neuronale Gesetzmäßigkeiten feststellen, aber die sind nicht speziell auf die Sprachverarbeitung beschränkt, wie die Nativisten behaupten, sondern gelten für diverse kognitive Fähigkeiten. Auch gegen die These von der Armut des Stimulus, also die These, dass Kinder bestimmte Sprachstrukturen lernen, obwohl sie diese niemals gehört haben, wurden mittlerweile berechtigte Einwände erhoben. Insgesamt scheint mir Chomskys Theorie in vielen Aspekten zu stark von der Informatik und den Computerwissenschaften beeinflusst zu sein. Gemäß der Prinzipien- und Parameter-Theorie, die Chomsky später entwickelte, nutzt das lernende Kind den sprachlichen Input nur, um die Parameter zu setzen, die die zu erlernende Sprache aus allen möglichen Sprachen heraushebt. Eine solche Modellierung ist typisch für die Computerwissenschaften. Computer wurden zwar als informationsverarbeitende Systeme gewissermaßen nach dem Vorbild des Menschen modelliert, aber historisch deutlich früher und völlig ohne die Erkenntnisse der Gehirnforschung über die Abläufe neuronaler Informationsverarbeitung. Daher kann man die Erkenntnisse und Theorien der Computerwissenschaften nicht umgekehrt nutzen, um mit Sicherheit etwas über die menschliche Sprachverarbeitung zu erfahren. So verwundert es nicht, dass es auch empirisches Datenmaterial gibt, das der Parameter-Theorie widerspricht: „Erstens wird die Prinzipien- und Parameter-Theorie einem Merkmal der Entwicklung der grammatischen Kompetenz des Kindes nicht gerecht: Der Beobachtung, dass Kinder manchmal über einen längeren Zeitraum korrekte und inkorrekte Konstruktionen nebeneinander verwenden. Auch wurde nachgewiesen, dass Kinder nicht unbedingt alle mit einer grammatischen Kategorie verbundenen Funktionen gleichzeitig erwerben. Es kann vorkommen, dass ein Kind ein Nomen bereits syntaktisch produktiv zur Bezeichnung verschiedener semantischer Rollen (z.B. Handelnder, Ziel einer Handlung) benutzt, die 133 Pluralbildung dieses Wortes aber noch nicht beherrscht, oder dass einige Worte einer Wortart bereits gemäß der grammatischen Funktion verwendet werden, andere nicht (Tomasello/Olguin 1993). Wenn ein Parameter einmal gesetzt, die entsprechende einzelsprachliche Konstruktion also erworben ist, dürfte das nicht geschehen.“130 Obwohl die Nativisten viele gute Ansätze hatten und die Erforschung der Sprachverarbeitung damit enorm vorangetrieben haben, sind doch viele ihrer Punkte angreifbar, oder bedürfen zumindest leichter Korrekturen oder Verfeinerungen, wie insbesondere durch die Fortschritte innerhalb der Neuropsychologie deutlich wird. Chomsky hat daher den eigentlichen Inhalt dessen, was unter der Universalgrammatik verstanden werden sollte, in seinen weiteren Publikationen immer weiter ausgedünnt: „In radikalem Unterschied zur ursprünglichen Fassung erwägt er sogar, die UG könne nur ein einziges Element enthalten, nämlich Rekursivität, d.h., etwas verkürzt gesagt, die Fähigkeit, Nebensatzkonstruktionen zu bilden (Hauser et al. 2002). Und schließlich räumt er gar die Möglichkeit ein, aufgrund zukünftiger empirischer Arbeiten könne sich die UG als «empty set», also als leer erweisen (Fitch et al. 2005). Damit wäre der nativistischen Theoriebildung die Basis komplett entzogen.“131 Wenden wir uns daher nun den funktionalistischen Theorieansätzen zu: 6.4.2 Funktionalistische Theorien des Grammatikerwerbs Die neueren funktionalistischen Theorien des Grammatikerwerbs sind aus der Kritik der nativistischen Ansätze entstanden und definierten sich daher zunächst hauptsächlich negativ über die Ablehnung gewisser nativistischer Grundannahmen. So wird zum Beispiel die Annahme einer angeborenen Universalgrammatik verworfen. Stattdessen wird der Grammatikerwerb nur mit Hilfe der durch die Umwelt dargebotenen Sprache erklärt. Durch den Vergleich des Spracherwerbs in strukturell unterschiedlichen Muttersprachen wurde gezeigt, dass sowohl die Häufigkeit des Vorkommens in der dargebotenen Sprache als auch die Komplexität bestimmter Konstruktionen den jeweiligen Zeitpunkt des Erwerbs beeinflussen. 130 131 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 77 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 78 134 „So erwerben Kinder das grammatische Genus im Spanischen, das ein transparentes, also für das Kind gut zugängliches System bildet, früher als das Genus im Walisischen, das ein schwer durchschaubares System mit vielen sich überlappenden Form-FunktionsZusammenhängen bildet.“132 Es gibt jedoch keinen absoluten Zusammenhang zwischen der Häufigkeit der Darbietung und dem Zeitpunkt des Erwerbs. Die Grammatik wird also nicht durch reine Speicherung und Wiederholung erlernt. Die Sprache muss auch in einem passenden Verhältnis zum bereits erworbenen Wissen über die Umwelt stehen, beziehungsweise für das Kind auch praktisch nützlich sein. Aber sobald ein Kind für den Erwerb bestimmter grammatischer Strukturen generell bereit wäre, hängt der wirkliche Zeitpunkt des Erwerbs doch von der Menge der Darbietungen und der Komplexität des Materials ab: „Für jede Konstruktion muss das Kind ein gewisses Maß an Erfahrung sammeln, eine kritische Masse des Input, um die relevanten Verallgemeinerungen leisten zu können, wenn denn die Entwicklung für diese Verallgemeinerungen reif ist. Die kritische Masse ist umso kleiner, je transparenter die Konstruktion ist.“133 Bisher hatten wir den Worterwerb und den Grammatikerwerb weitgehend unabhängig voneinander betrachtet. Das entspricht jedoch eher nativistischen Ansätzen, die problemlos eine klare Trennlinie zwischen dem Erwerb des Lexikons und dem Erwerb der grammatischen Regeln ziehen würden. Gemäß den funktionalistischen Theorien sind die Prozesse des Worterwerbs und des Grammatikerwerbs jedoch nicht völlig voneinander unabhängig, sondern die grammatischen Regeln werden jeweils im Zusammenhang mit und speziell für den Gebrauch der einzelnen Wörter erlernt: „Tomasello hingegen postuliert einen Erwerb von Grammatik, der mit dem Erwerb des einzelnen Wortes untrennbar verbunden ist: Konstruktionen werden «um das Wort», vor allem das konkrete Verb, «herum» erworben, das frühe grammatische Wissen besteht in einem Inventar von relativ unabhängigen «Verb-Insel»-Konstruktionen, die eine Szene oder Erfahrung, die das Kind gemacht hat, mit einer Konstruktion koppeln (Tomasello 2006). Empirisch spricht für diese Idee, dass erworbene Konstruktionen zunächst über Tage und Wochen überwiegend unverändert mehrfach geäußert und nur zu einem geringen Prozentsatz produktiv ausgeweitet werden (Tomasello 2000b).“ 132 133 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 79 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 80 135 Diese Theorie der Anbindung des Wissens über grammatische Strukturen an die einzelnen Wörter passt auch zu den neuropsychologischen Vorstellungen, wie neuronale Verknüpfungen im Allgemeinen funktionieren. Alle Informationseinheiten, die man über ein bestimmtes Wort wissen kann (Bedeutung, Wortart, Deklination/Konjugation, Verwendung im Satz, etc.), werden miteinander vernetzt. Die Funktionsweise solcher Netze wird im Rahmen des Konnektionismus, einem alternativen funktionalistischen Ansatz, mit Hilfe von künstlichen neuronalen Netzen untersucht. Diese virtuellen Netze verfügen nicht über eine Universalgrammatik, sondern sie verändern ihre Netzstruktur und die jeweiligen Verknüpfungsstärken zwischen den Knoten aufgrund des gegebenen sprachlichen Inputs. Die Lernergebnisse dieser künstlichen neuronalen Netze sind relativ beeindruckend. Sie zeigen jedoch nur, wie die Lernprozesse auf der reinen Zeichenebene potentiell ablaufen könnten. Die Rückbindung an die Erfahrungen in der Welt, die den Wörtern erst ihre Bedeutung verleiht, wird dabei weggelassen. Insofern kann man dem Konnektionismus bisher noch vorwerfen, nur ein unvollständiges Bild des Spracherwerbs zu zeichnen, weil für Kinder beim Spracherwerb immer die Bedeutung und die Funktion der sprachlichen Elemente eine wichtige Rolle spielt. Tomasello nennt daher zwei allgemeine menschliche Fähigkeiten, die er für essentiell für den Spracherwerb hält: „Erstens das Erkennen von Intentionen, das die artspezifischen menschlichen kognitiven Fähigkeiten umfasst, die für die Aneignung von Symbolen und die funktionalen Dimensionen der Sprache verantwortlich sind; und zweitens Muster-Erkennung, das ist die Gesamtheit der den Primaten eigenen kognitiven Fähigkeiten, die in Abstraktionsprozessen eine Rolle spielen.“134 Unter Mustererkennung versteht man die Fähigkeit, in einer Datenmenge Regelmäßigkeiten zu erkennen. Dass Mustererkennung auch beim Spracherwerb eine signifikante Rolle spielt, sollte nicht verwundern. Mustererkennung ist die Grundlage fast aller unserer kognitiven Fähigkeiten, sei es bei Wahrnehmungsanalysen, wie der Gesichts-, Sprach- oder Texterkennung, bei der Zusammenfassung von detailliertem Datenmaterial zu größeren Einheiten zur effizienteren Abspeicherung, oder bei jedweder Form des Problemlösens. So betrachtet könnte man auch sagen, dass Menschen eigentlich die ganze Zeit nur dabei sind, auf den verschiedensten Ebenen Mustererkennung zu betreiben. Die andere essentielle Grundlage für den Spracherwerb besteht in der generell nützlichen Fähigkeit, 134 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 84 136 die Absichten unserer Mitmenschen erkennen zu können, bevor sie diese in die Tat umsetzen. Insbesondere in den frühen Erwerbsphasen ist es für das Kind nützlich zu erkennen, worauf der Sprecher gerade seine Aufmerksamkeit gerichtet hat. Diese Fähigkeit ermöglicht es dem Kind, die noch unbekannten und somit für es selbst bisher bedeutungslosen sprachlichen Äußerungen zumindest auf die richtigen Bestandteile der Welt zu beziehen. Im Allgemeinen lässt sich festhalten, dass die funktionalistischen Theorien eher der Psychologie näher stehen und die Wichtigkeit der menschlichen Interaktion für den Grammatikerwerb betonen, während sich die nativistischen Theorien des Grammatikerwerbs eher an Computermodellen der Sprachverarbeitung orientiert hatten. Fassen wir kurz zusammen, welche Erkenntnisse wir aus der detaillierten Betrachtung der Sprachentstehung und des kindlichen Spracherwerbs gewonnen haben, die bei der Erstellung einer neuropsychologischen Bedeutungstheorie auf jeden Fall beachtet werden sollten: 1. Sprache und höhere kognitive Prozesse beeinflussen sich gegenseitig. 2. Sprache beeinflusst nicht unsere basalen Wahrnehmungsprozesse. 3. Der Erwerb der Lauterzeugung erfolgt nach einem festen Schema, beruhend auf den genetisch determinierten Wachstumsprozessen. 4. Die ersten Wörter bezeichnen die Gegenstände und die häufig wiederkehrenden Prozesse innerhalb der kindlichen Lebenswelt und keine Abstrakta. 5. Im Kindesalter zeigen sich häufig Überdiskriminierungen und Übergeneralisierungen von Wortbedeutungen. 6. Es findet Bedeutungswandel im Verlauf des Lebens statt. 7. Es gibt Bedeutungsunterschiede zwischen Sprechern. 8. Die Verständigung zwischen Sprechern ist trotz potentieller Bedeutungsunterschiede möglich dank der gemeinsamen Umwelt, auf die die Sprache sich bezieht. 137 7. Die Neuropsychologie der Sprache 7.1 Die neuropsychologische Grundlagen In diesem Kapitel werde ich die neuropsychologischen Grundlagen darstellen, mit denen man vertraut sein sollte, um meine Modellierungen zur Funktionsweise von Sprachprozessen besser nachvollziehen zu können. Es werden zunächst der Aufbau von Nervenzellen und ihre allgemeine Funktionsweise thematisiert. Im Anschluss daran geht es um die biochemischen Grundlagen neuronalen Lernens. Der fächerübergreifende Ansatz dieser Arbeit bringt es leider mit sich, dass man in Hinsicht auf den Detailreichtum nicht jedem Leser gerecht werden kann. Insbesondere bei der Gestaltung dieses Kapitels erwies es sich als schwierig, das Vorwissen der potentiellen Leser einzustufen. Während einerseits Psychologen mit Spezialisierung auf Biopsychologie dieses Kapitel nur kurz überfliegen müssen, sind die Darstellungen für Sprachphilosophen an manchen Stellen eventuell zu knapp. Obwohl es in diesem Kapitel einzig und allein um die physiologischen Grundlagen geht, habe ich an vielen Stellen biologische Details weggelassen, um stattdessen die funktionalen Strukturen deutlicher herausstellen zu können, die ich später für die Theoriebildung verwenden werde. Ich hoffe jedoch, einen akzeptablen Mittelweg gefunden zu haben, der einige der empirischen Erkenntnisse der Neuropsychologie für Sprachphilosophen nachvollziehbar und nutzbar macht. Denjenigen Lesern, die durch meine Darstellung animiert werden, sich diese biologischen Prozesse noch weiter im Detail anzuschauen, möchte ich Carlsons Physiologische Psychologie empfehlen. 7.2 Die Nervenzellen Nervenzellen (Neuronen) sind die physikalische Grundlage aller unserer Wahrnehmungen, ihrer Verarbeitung und unserer motorischen Aktivitäten. Das Nervensystem erstreckt sich prinzipiell durch den gesamten menschlichen Körper, wobei im Allgemeinen zwischen dem Zentralnervensystem (bestehend aus Gehirn und Rückenmark) und dem peripheren Nervensystem (den Sinnesorganen) unterschieden wird. Diese Unterscheidung ist allerdings nur topografisch, denn funktionell betrachtet liegen keine zwei voneinander unabhängigen Systeme vor. Die Nervenzellen erfüllen nur je nach ihrer Lage unterschiedliche Funktionen für den Organismus. Das menschliche 138 Gehirn besteht aus ca. 100.000.000.000 Neuronen, wobei jedes einzelne Neuron mit bis zu 60.000 anderen Neuronen direkt vernetzt sein kann. Wenn man sich das gewaltige Ausmaß an Möglichkeiten einer solchen informationsverarbeitenden Netzstruktur vorzustellen versucht, dann verschwindet die zunächst vorhandene philosophische Verwunderung darüber, wie menschliche Gehirne so komplexe Leistungen, wie Spracherzeugung, Gesichtserkennung und Motorkoordination erbringen können. In Abhängigkeit von ihrer jeweiligen Funktion kann auch die Form der Nervenzellen stark variieren. Trotzdem lassen sich einige grundlegende Strukturen erkennen, die Neuronen normalerweise aufweisen. Sie bestehen aus einem Soma, einem Axon und vielen Dendriten und Endknöpfen, wie sie hier schematisch dargestellt sind: Abbildung 6: Abbildung aus Carlson, Neil R.: Physiologische Psychologie – München: Pearson Studium, 2004 S. 36 Das Soma enthält den Zellkern und die anderen für die Lebensprozesse der Zelle relevanten Strukturen, die für unsere funktionale Betrachtungsweise der Nervenzelle als Ort der Informationsverarbeitung jedoch weniger wichtig sind. Ganz im Gegensatz zu den Dendriten, die die Orte sind, an denen die Informationen von den umgebenden Neuronen meistens ankommen. An diesen baumartigen Verästelungen heften sich die Endknöpfe anderer Nervenzellen an und ermöglichen über chemische Prozesse (die in den Kapiteln „Neurotransmitter und Rezeptoren“ und 139 „Die Freisetzung des Neurotransmitters“ detailliert dargestellt werden) eine Informationsübertragung zwischen den Neuronen. Diese Kontaktstellen, die die Endknöpfe mit anderen Neuronen bilden, werden Synapsen (von gr. σύν, syn = zusammen, ἅπτειν, haptein = ergreifen, fassen, tasten) genannt. Der winzige verbleibende Raum zwischen einem Dendrit und einem Endknopf wird dementsprechend als synaptischer Spalt bezeichnet. In diesem Spalt findet die chemische Informationsübertragung durch Neurotransmitter statt. Um bei der Beschreibung der Vorgänge an einer Synapse deutlich zwischen den Prozessen in den beiden beteiligten Neuronen unterscheiden zu können, sind die Bezeichnungen präsynaptisches und postsynaptisches Neuron üblich, wobei das präsynaptische Neuron immer dasjenige ist, das Informationen überträgt, während das postsynaptische Neuron sie empfängt. Ein oder mehrere Endknöpfe des präsynaptischen Neurons sitzen also auf einem Dendriten des postsynaptischen Neurons und bilden dort jeweils eine Synapse. Das Axon stellt sozusagen die Leitung dar, entlang der die Informationen weitergeleitet werden. Es ist in Relation zu den anderen Bestandteilen meistens deutlich länger als die Größenverhältnisse in der obigen Abbildung vermuten lassen. Es leitet die Informationen in Form von Aktionspotentialen unidirektional vom Zellkörper bis zu den Endknöpfen. Axone sind bei erwachsenen Menschen meistens von einer Myelinscheide umgeben, die die Geschwindigkeit der Weiterleitung der Aktionspotentiale erhöht und dafür sorgt, dass das Neuron weniger Energie benötigt, um sein Natriumgleichgewicht zu erhalten. Aktionspotentiale sind kurze elektrochemische Impulse mit feststehender Stärke und Dauer, die sich an allen Verzweigungen des Neurons jeweils unvermindert in beide Äste fortsetzen. An den Ausläufern aller dieser Verzweigungen befinden sich die Endknöpfe, die wiederum die Funktion haben, die Informationen an andere Neuronen weiterzugeben. Wenn ein Aktionspotential einen Endknopf erreicht, dann setzt dieser Endknopf Neurotransmitter genannte Substanzen frei, die von der anliegenden Nervenzelle aufgenommen werden. Es gibt viele verschiedene Neurotransmitter. Je nach Art der Verschaltung und des Neurotransmitters wird die aufnehmende Zelle dadurch erregt oder gehemmt und somit wird beeinflusst, ob in ihrem Axon ebenfalls ein Aktionspotential auftreten wird oder nicht. Funktional betrachtet ähnelt ein Neuron also einerseits einem Kabel zur Datenübertragung, andererseits ist jedes Neuron selbst bereits ein komplexer Baustein (im Sinne eines Logikgatters 135), dessen Output von einer großen Zahl an eingehenden Inputs abhängt, aber der auch an viele 135 Logikgatter sind technische Realisierungen der Wahrheitstafeln, die Wittgenstein im TLP einführte. In einem Logikgatter ergibt sich in Abhängigkeit von allen Werten an den Eingängen ein eindeutiger Wert am Ausgang. Aus multiplen Logikgattern kann man einen komplexeren Baustein namens Flip-Flop bauen. Aus mehreren Flip-Flops konstruiert man Datenspeicher und Zähler und wiederum aus diesen erstellt man einen Mikroprozessor. Logikgatter sind also der Grundbaustein für unsere moderne Computertechnologie. Und Neuronen sind funktional betrachtet äquivalent zu komplexen Logikgattern. 140 verschiedene Empfänger weitergeleitet wird. Doch wie beeinflussen die vielen an den Dendriten (oder direkt am Soma) eintreffenden biochemischen Botschaften der Nachbarneuronen die Entstehung von Aktionspotentialen in einem spezifischen Neuron? In den beiden folgenden Abschnitten wird diese Frage im Detail behandelt. 141 7.3 Neurotransmitter und Rezeptoren Die an den Endknöpfen in den synaptischen Spalt freigesetzten Neurotransmitter heften sich an die postsynaptischen Rezeptoren an und bewirken damit in der Empfängerzelle kurzfristig lokale Veränderungen des Membranpotentials. Dies kann zum Beispiel durch transmittergesteuerte Ionenkanäle geschehen, die sich nur für Ionen öffnen, wenn sich ein passender Neurotransmitter an ihrem Bindungsort anheftet. Ist eine derartige Verbindung hergestellt, dann verändert der durch den geöffneten Ionenkanal erfolgende Ionenstrom in Abbildung 7: Abbildung aus Carlson S. 67 die Empfängerzelle deren Membranpotential. Eine solche aus einem Ionenkanal und einem Rezeptor bestehende Konstellation wird ionotroper Rezeptor genannt. Dies ist die einfachste Rezeptorform, die direkt das postsynaptische Membranpotential beeinflusst, sobald bei ihr Neurotransmitter eintreffen. Darüber hinaus gibt es auch noch metabotrope Rezeptoren, die durch ihre Aktivierung eine Reihe biochemischer Ereignisse in der Empfängerzelle auslösen, die unter anderem auch postsynaptische Potentiale bewirken, welche allerdings langsamer entstehen und länger andauern. Die dabei entstehenden sekundären Botenstoffe können die Zellfunktionen zwar noch viel weitgehender beeinflussen, aber diese Details brauchen hier nicht behandelt zu werden. Aus funktionaler Sicht reicht es zu wissen, dass Nervenzellen durch diese Prozesse in der Lage Abbildung 8: Abbildung aus Carlson S. 68 sind, Informationen über ihre Zellgrenzen hinaus an andere Neuronen weiter zu geben. Aber was macht eine Empfängerzelle mit den eingehenden Informationen, insbesondere wenn sie viele unterschiedliche Signale von mehreren anderen Neuronen erhält? Die verschiedenen Botschaften müssen zu einem Verhalten integriert werden: 142 7.4 Neuronale Integration Je nachdem welche Neurotransmitter an den eingehenden Synapsen freigesetzt werden und über welche Rezeptoren die Empfängerzelle dort verfügt, werden in der empfangenden Zelle entweder excitatorische oder inhibitorische postsynaptische Potentiale ausgelöst. Es handelt sich dabei jeweils um lokale Veränderungen der elektrischen Ladung innerhalb des Somas der Zelle durch Ioneneinstrom. Excitatorische postsynaptische Potentiale (EPSPs) verändern die Verhältnisse in der Nervenzelle so, dass die Wahrscheinlichkeit für die Bildung von Aktionspotentialen steigt, während inhibitorische postsynaptische Potentiale (IPSPs) die Wahrscheinlichkeit dafür senken. Beide Potentialarten werden von den Dendriten ausgehend durch das Soma bis zum Axonhügel geleitet, wo sich die Effekte aufsummieren. Als Axonhügel bezeichnet man den Bereich, an dem das Axon aus dem Soma austritt. Falls die elektrische Depolarisierung am Axonhügel insgesamt stark genug ist, dann wird ein Aktionspotential ausgelöst (man sagt dazu auch: das Axon „feuert“). Dazu muss eine bestimmte Erregungsschwelle überschritten werden. Das ist zum Beispiel der Fall, wenn mehrere EPSPs eintreffen (siehe Abbildung 10a). Treffen jedoch im selben Zeitraum auch inhibitorische postsynaptische Potentiale (IPSPs) in der Nervenzelle ein, dann wird der Depolarisierung entgegengewirkt, so dass kein Aktionspotential ausgelöst wird (siehe Abbildung 10b). Abbildung 9: neuronale Integration - Abb. aus Carlson S. 72 143 7.5 Das Aktionspotential Zellmembranen sind nicht einfach durchlässig für die sie umgebenden Substanzen. Stattdessen gibt es verschiedene komplexe Mechanismen, die dafür sorgen sollen, dass innerhalb von Zellen die lebensnotwendigen chemischen Zusammensetzungen bestehen bleiben, obwohl außerhalb ebendieser Zellen andere Bedingungen bestehen mögen. So kommt es auch dazu, dass Ionen nur in bestimmten Verhältnissen in die Zelle gelassen werden. Dadurch stellt sich ein Membranruhepotential ein, also eine gewisse elektrische Grundladung innerhalb einer Nervenzelle. Ein Aktionspotential besteht in einer extrem kurzfristigen (ca. 1 Millisekunde dauernden) Veränderung dieser elektrischen Ladung auf +40 mV gegenüber dem Membranruhepotential von -70 mV. Diese blitzschnelle Ladungsveränderung wird verursacht durch eine kurze Zunahme der Durchlässigkeit der Zellmembran für Na+ Ionen, die dadurch in die Zelle einströmen können. Diesem Effekt folgt eine ebenso kurze Zunahme der Durchlässigkeit der Zellmembran für K+ Ionen, die dadurch aus dem Neuron ausströmen können. Innerhalb von nur 2 Millisekunden normalisiert sich die elektrische Ladung wieder, wobei kurzfristig sogar eine Hyperpolarisation auf ca. -80 mV stattfindet, bevor sich das Abbildung 10: Aktionspotential – Abb. aus Membranruhepotential wieder einstellt. Carlson S. 56 Jedes solche Aktionspotential wird entlang des Axons unidirektional bis zu seinen vielen Endknöpfen weitergeleitet. Die feste Richtung ist dabei kein Resultat der Bauweise des Axons selbst, sondern durch den Startpunkt des Potentials bedingt. Falls man künstlich ein Aktionspotential in der Mitte eines Axons erzeugen würde, dann würde sich dieses von dort aus in beide Richtungen des Axons fortsetzten, aber so etwas kommt auf natürliche Weise nicht vor. Da bei lebenden Nervenzellen natürliche Aktionspotentiale immer nur am Axonhügel entstehen, setzen sie sich von dort aus nur in eine Richtung entlang des Axons fort. Mit Hilfe von Aufzeichnungselektroden und einem Oszilloskop kann man die Wanderung dieses elektrischen 144 Signals genauer beobachten. Zur Erleichterung der Messungen nimmt man dafür zum Beispiel das Riesenaxon eines Tintenfisches. So kann man leicht feststellen, dass sowohl die Größe als auch die Form des Potentials über die gesamte Strecke hinweg konstant bleiben. Aus solchen Experimenten leitet sich das Alles-oder-nichts-Gesetz ab, welches besagt, dass ein Aktionspotential entweder ausgelöst wird oder nicht, und dass, sobald ein Aktionspotential erst einmal ausgelöst wurde, seine Form über alle Aufspaltungen des Axons hinweg konstant weitergeleitet wird. Dieses Gesetz legt natürlich die Frage nahe, wie neuronale Aktivität dann für unsere Wahrnehmungen und unsere Bewegungssteuerung verantwortlich sein kann. Sowohl unsere Wahrnehmungen als auch unsere Muskelkontraktionen können offensichtlich in ihrer Intensität stark variieren. Neuronen scheinen aber keine Abstufungen übertragen zu können, sondern nur über zwei verschiedene Zustände zu verfügen, was nicht ausreicht, um die stufenlos veränderlichen Werte unserer Wahrnehmung und Bewegungssteuerung umzusetzen. Die Antwort besteht darin, dass nicht ein einziges Aktionspotential die erforderlichen Informationen kodiert, sondern die Frequenz der Aktionspotentiale. Starke Reize und starke Muskelkontraktionen entsprechen jeweils hohen Aktionspotentialfrequenzen in den entsprechenden beteiligten Nervenzellen. Dieses Prinzip, welches besagt, dass Intensitätsvariationen von Reizen durch Frequenzvariationen der Aktionspotentiale realisiert werden, wird das Gesetz der Frequenzkodierung genannt. Zusammen mit dem Alles-oder-nichts-Gesetz erklärt es, wie Neuronen stufenlos veränderliche Informationen kodieren und intern weiterleiten können. Damit wäre der Prozess der neuronalen Informationsweiterleitung fast vollständig beschrieben. Es fehlt nur noch der Prozess der Freisetzung des Neurotransmitters an den Endknöpfen, sobald das Aktionspotential dort ankommt. Diese freigesetzten Neurotransmitter übertragen die Information über die aktuelle Feuerrate eines Neurons dann an genau die Neuronen, mit denen es über seine Endknöpfe vernetzt ist. 145 7.6 Die Freisetzung des Neurotransmitters Neurotransmitter sind biochemische Botenstoffe, die für die Informationsübertragung zwischen Nervenzellen erforderlich sind. Es wurden bereits über 40 verschiedene Neurotransmitter gefunden. Sie können erregende Wirkung haben, wie zum Beispiel Glutamat, oder hemmende Wirkung wie zum Beispiel Gamma-Aminobuttersäure (GABA) und Glycin. Die unterschiedlichen Systeme für Motivation, Lernen, Gedächtnis, Entwurf von Bewegungsabläufen, etc. verwenden jeweils spezifische Neurotransmitter. Daher können altbekannte klinische Diagnosen, wie endogene Depression, Zwangsstörung oder Panikstörung, mittlerweile mit Störungen in den Ausschüttungsmengen spezifischer Neurotransmitter in Zusammenhang gebracht werden. Mangel oder Überschuss von spezifischen Neurotransmittern in den dazugehörigen Gehirnarealen führen zu den Effekten, die als Morbus Alzheimer (Acetylcholin), Schizophrenie (Dopamin) oder endogene Depression (Serotonin) diagnostiziert werden. Zusätzlich zu den Neurotransmittern gibt es auch noch Neuromodulatoren, die die Wirksamkeit der Neurotransmitter verstärken oder abschwächen können. An dieser Stelle wollen wir uns jedoch nur der unmodulierten Informationsübertragung zwischen Neuronen mithilfe von Neurotransmittern widmen. Abbildung 11: Freisetzung des Neurotransmitters – Abb. aus Carlson S.65 Im Detail erfolgt die Ausschüttung laut Almers Modell von 1990 in folgenden Schritten: 146 „Einige synaptische Vesikel sind an der präsynaptischen Membran angedockt und befinden sich in Bereitschaft, ihren Neurotransmitter in den synaptischen Spalt freizusetzen. Das Andocken erfolgt durch das Anheften von Proteinmolekülen der Vesikel an Proteinmoleküle, die sich in der präsynaptischen Membran befinden. Die Aktivzone der präsynaptischen Membran enthält spannungsgesteuerte Calciumkanäle. Diese Kanäle öffnen sich infolge der Depolarisation der Membran des Endknopfes durch das eintreffende Aktionspotential. Wie Natriumionen auch befinden sich Calciumionen (Ca 2+) in höherer Konzentration in der extrazellulären Flüssigkeit. Folglich strömt bei geöffneten spannungsgesteuerten Calciumkanälen Ca2+ in die Zelle, getrieben von der Diffusionskraft und der elektrostatischen Kraft. Der Einstrom von Ca2+ ist ein entscheidender Schritt; wenn man ein Neuron in eine Lösung legt, die keine Calciumionen enthält, dann führt ein Aktionspotential nicht mehr zur Freisetzung von Neurotransmitter. […] Nach Almers (1990) binden sich die in die Endknöpfe einströmenden Calciumionen an die Bündel derjenigen Proteinmoleküle, die die Membran der synaptischen Vesikel mit der präsynaptischen Membran vereinigen. Infolge dessen bewegen sich Abschnitte dieser Proteinmoleküle seitwärts, wodurch eine Fusionspore entsteht – eine Öffnung durch beide Membranen. Der Fusionsprozess dauert etwa 0,1 ms.“136 Da der gesamte Prozess der Freisetzung nur wenige Millisekunden dauert, benötigt man aufwändige Versuchsanordnungen, in denen nach der Auslösung des Aktionspotentials direkt eine Schockgefrierung der Zellen erfolgt, um die Freisetzung der Neurotransmitter beobachten zu können. Die folgenden Bilder sind auf diese Art entstanden. 136 Carlson S. 64/65 147 Abbildung 12: fusionierte synaptische Vesikel – Abb. aus Carlson S. 66 Auf diesen Bildern sieht man die Fusionszone eines Endknopfes von außen, also sozusagen aus der Sicht der postsynaptischen Membran. Abbildung 13a zeigt den Zustand unmittelbar vor der Ausschüttung des Neurotransmitters, während man auf Abbildung 13b die kreisförmigen Öffnungen in der präsynaptischen Membran während der Freisetzung des Neurotransmitters erkennen kann. 148 Da bei der Fusion der synaptischen Vesikel mit der präsynaptischen Membran die Membran des Endknopfes etwas dicker wird, könnte dieser Prozess nicht immer wieder ablaufen, falls es nicht einen gegenläufigen Prozess gäbe. Ansonsten würde die Membranfläche und damit die gesamten unkontrolliert anwachsen. Ausdehnung der Endknöpfe einfach immer weiter Dieser gegenläufige Prozess wird Pinozytose genannt und findet an der Stelle statt, an der das Axon in den Endknopf übergeht. Dabei werden Membranknospungen in das Zytoplasma zurückgeführt, was die Gesamtfläche der Membran wieder verringert. Während eines circa einminütigen Prozesses gelangen diese Membranknospen zu den Zisternen, wo aus ihnen neue synaptische Vesikel gebildet werden, die wiederum mit Neurotransmitter befüllt werden. Von Abbildung 13: Pinozytose - Abbildung aus Carlson S. 66 präsynaptischen hier aus wandern diese dann zur Membran, um für die Ausschüttung im Falle weiterer eintreffender Aktionspotentiale bereit zu stehen. So kann dieser Prozess beliebig oft wiederholt werden. Und mit der Erklärung dieses kleinen Kreislaufs schließt sich auch der größere Kreis der Darstellung der neuronalen Informationsübertragung. Es wurde gezeigt, wie Neuronen auf Neurotransmitter anderer Neuronen reagieren, wie Aktionspotentiale intern weitergeleitet werden, und wie Neuronen selbst Neurotransmitter ausschütten. Obwohl diese Darstellung noch mit vielen weiteren biologischen Details angereichert werden könnte, reicht sie aus, um einerseits bereits die Komplexität der biochemischen Vorgänge erahnen zu lassen, um andererseits aber auch die rein funktionale Analyse nicht aus den Augen zu verlieren. Jedes Neuron lässt sich funktional als komplexes Logikgatter interpretieren. Es verfügt über eingehende Daten und seine Ausgabe hängt von diesen Eingängen in eindeutiger Weise ab. Da jedes einzelne Neuron mit bis zu 60.000 anderen Neuronen direkt vernetzt sein kann, was einer 149 Gesamtheit von 60.000 Eingängen und Ausgaben entspricht, stellt jedes einzelne Neuron bereits einen hochkomplexen Baustein dar. Das menschliche Gehirn besteht jedoch aus ca. 100.000.000.000 Neuronen. Dies ist eine Anzahl von Bausteinen, die schon an sich schwer vorstellbar ist, aber das Potential der möglichen Netzstrukturen aus dieser Menge an Elementen ist natürlich noch exponentiell höher. Angesichts dieses Potentials verringert sich die Verwunderung, die uns häufig überkommt, wenn wir philosophische Fragestellungen bezüglich unserer Sprache bearbeiten. Obwohl unsere Sprachfähigkeiten so wunderbar vielfältig und komplex sind, können sie problemlos durch unser exponentiell komplexeres neuronales Netz realisiert werden. 7.7 Neuronales Lernen Dass unsere Neuronen hochkomplexe Bausteine sind, erklärt aber nicht, wieso wir in der Lage sind, extrem unterschiedliche Fähigkeiten wie Schachspielen und Stabhochsprung zu erlernen und zu meistern. Eine Sprache zu erlernen ist mindestens genauso schwierig wie diese beiden Fähigkeiten zu erwerben. Der Unterschied besteht nur darin, dass wir viel früher damit anfangen eine Sprache zu lernen, und sobald wir damit angefangen haben, gibt es keinen Tag mehr, an dem wir diese Fähigkeit nicht anwenden. Nur deswegen scheint uns als Erwachsene das Sprechen so einfach zu sein. Durch meine Rede von Bausteinen und Logikgattern drängte sich dem Leser eventuell der Vergleich zwischen Mensch und Computer auf. Dieser Vergleich scheint mir jedoch wenig nützlich, denn selbst in rein funktionaler Betrachtungsweise sind die Unterschiede zwischen den Datenverarbeitungsstrukturen massiv. Insbesondere sind Neuronen keine statischen Bausteine, sondern sie sind über die Zeit hinweg flexibel. Sie können wachsen und neue Verknüpfungen mit anderen Neuronen ausbilden, ihre Endknöpfe können sich vergrößern und deren Anzahl kann sich ändern. Unbenutzte oder dysfunktionale Neuronen sterben ab, während häufig benötigte Neuronen und Cluster gestärkt werden. Genau diese neuronale Flexibilität, die während der Kindheit am größten ist, ermöglicht es uns je nach Training, in den unterschiedlichsten Bereichen unglaubliche Fähigkeiten zu entwickeln. In den verschiedenen Entwicklungsschüben, die beim Menschen bis zur Pubertät andauern, entstehen zunächst große Mengen nicht-myelinisierter Neuronen. Die Leitungsgeschwindigkeit dieser Neuronen ist 30-35mal langsamer als die von myelinisierten Neuronen. Sie stellen die unspezifische noch maximal lernfähige Netzstruktur dar, die aufgrund der Anforderungen der Umwelt eingestellt und spezialisiert werden kann. Erst nachdem sich die zur 150 Umwelt passenden neuronalen Strukturen gebildet haben, werden die Neuronen myelinisiert, was die Schnelligkeit der Reaktion erhöht, aber auch die persönlichen Fähigkeiten und Verarbeitungsstrukturen festigt und unflexibler macht. Neuronales Lernen stellt also eine aktivitätsabhängige Veränderung von Verschaltungsmustern und Funktionsabläufen dar. Viele verschiedene biochemische Mechanismen ermöglichen Veränderungen von Verschaltungen mit jeweils unterschiedlichen Wirkungsgraden in Hinsicht auf Langfristigkeit und Bedeutsamkeit der Auswirkungen. Eine davon wird als Langzeitpotenzierung bezeichnet. Es handelt sich dabei um eine langzeitige Zunahme der Erregbarkeit eines Neurons für einen bestimmten synaptischen Input, verursacht durch wiederholte hochfrequente Aktivität genau dieses Inputs. Betrachten wir, was dabei im Detail geschieht. Die hochfrequente Aktivität an einer Synapse führt zu excitatorischen postsynaptischen Potentialen (EPSPs), die wiederum ein oder mehrere Aktionspotentiale auslösen. Durch das Aktionspotential wird die Zelle kurz depolarisiert. Das Gleichzeitige Auftreten dieser Depolarisation mit der hochfrequenten Stimulation Abbildung 14: Langzeitpotenzierung – Abb. aus einer Synapse führt zur Stärkung dieser Synapse. Man Carlson S. 506 kann experimentell nachweisen, welche Vorgänge essentiell für eine solche Langzeitpotenzierung sind, indem man - wie in der Abbildung gezeigt - die Depolarisation des Zellkörpers und die Stimulation des Axons selbst vornimmt. Dabei kann man die Zeitpunkte der beiden elektrischen Stimulationen variieren, womit man zeigen kann, dass die Depolarisation zum gleichen Zeitpunkt stattfinden muss, damit die Stimulation der Synapse zu einer Stärkung der Synapse führt. Da durch eine einzelne Stimulation keine Depolarisation bewirkt wird, folgt daraus, dass nur hochfrequente Stimulationen eine Langzeitpotenzierung bewirken können, genau wie es die folgende Grafik veranschaulicht: 151 Abbildung 15: hochfrequente Stimulation – Abb. aus Carlson S. 505 Man weiß nun, wodurch Langzeitpotenzierung, also eine langzeitige Zunahme der Erregbarkeit eines Neurons für einen bestimmten synaptischen Input, ausgelöst wird, aber welche biochemischen Prozesse sorgen eigentlich für die Stärkung der synaptischen Effizienz? Mindestens zwei unterschiedliche Effekte können vorliegen, die Vergrößerung der Synapse bis hin zur Ausbildung zusätzlicher Synapsen und die Einfügung zusätzlicher Rezeptoren in die postsynaptische Membran. Die Umstrukturierung einer Synapse sieht man in der folgenden Abbildung schematisch dargestellt: Abbildung 16: Synapsenumstrukturierung – Abb. aus Carlson S. 513 152 Die vergrößerte postsynaptische Aktivzone wird zunächst zweigeteilt von einem in der Mitte entstehenden Dorn, durch dessen Wachstum auch der präsynaptische Endknopf deformiert wird. Dadurch entstehen zwei getrennte Aktivzonen, die zu voller Größe heranwachsen. Der so entstandene verzweigte Spine entwickelt sich zuletzt zu zwei einzelnen Spines. Dadurch sind die zwei beteiligten Neurone jetzt mehrfach verbunden, was bedeutet, dass das postsynaptische Neuron stärker auf Aktionspotentiale des präsynaptischen Neurons reagiert als zuvor. Die Einfügung zusätzlicher Rezeptoren in die postsynaptische Membran stellt eine andere Möglichkeit der stärkeren Verknüpfung von Neuronen dar. Diese zusätzlichen Rezeptoren bewirken eine stärkere Reaktion im postsynaptischen Neuron bei gleichbleibender Menge an ausgeschüttetem Neurotransmitter durch den präsynaptischen Endknopf. Auch dieser Umbau ist ein Teil der vielen Prozesse, die Langzeitpotenzierung bewirken. In der folgenden Abbildung sieht man den Einbau zusätzlicher AMPA-Rezeptoren neben bereits bestehenden NMDA-Rezeptoren in der postsynaptischen Membran. Abbildung 17: Einbau zusätzlicher Rezeptoren – Abb. aus Carlson S. 506 Wie man sieht, handelt es sich um einen mehrstufigen Prozess, für den genau die Bedingungen für Langzeitpotenzierung erfüllt sein müssen, damit er stattfinden kann. Zunächst muss der NMDA153 Rezeptor durch den Neurotransmitter Glutamat aktiviert werden, so dass überhaupt Calciumionen in das Zellinnere gelangen können, wo sie das calciumabhängige Enzym CaM-KII (Typ II CalziumCalmodulin-Kinease) in den dendritischen Spines aktivieren. Nur in aktivierter Form dockt CaMKII an den NMDA-Rezeptor an und kann sich dann mit Verbindungsproteinen zu einer Art Aufhängung für AMPA-Rezeptoren entwickeln. Wenn nun noch gleichzeitig AMPA-Rezeptoren in Vesikeln zur Membran transportiert werden, dann können sich diese an die Aufhängungen binden, so dass es zusätzliche Rezeptoren in der postsynaptischen Membran gibt, die auf Glutamat reagieren. Auch auf diese Weise entsteht eine stärkere Aktivierbarkeit des postsynaptischen Neurons durch das präsynaptische Neuron. An dieser Stelle können nicht einmal alle bisher bekannten Möglichkeiten neuronalen Lernens besprochen werden und es ist davon auszugehen, dass in der Zukunft noch weitere gefunden werden. Wie wir noch sehen werden, sind für meine Bedeutungstheorie insbesondere genau die Prozesse interessant, die Verknüpfungen zwischen zunächst nicht zueinander gehörenden Bereichen realisieren. Daher betrachten wir noch die assoziative Langzeitpotenzierung, die einen Sonderfall der Langzeitpotenzierung darstellt. Abbildung 18: assoziative Langzeitpotenzierung - Abbildung aus Carlson S. 509 Bei der assoziativen Langzeitpotenzierung werden durch die gleichzeitige Stimulation starker Synapsen, die ein postsynaptisches Aktionspotential auslösen, und schwacher Synapsen eines Neurons, deren Aktivität nicht für die Auslösung eines Aktionspotentials ausgereicht hätte, die schwachen Synapsen langfristig gestärkt. Dieser und ähnliche mittlerweile gefundene Prozesse 154 bestätigen die von Donald Hebb 1949 vorgeschlagene Regel. Die Hebb´sche Regel besagt, dass je häufiger Neuron A gleichzeitig mit Neuron B aktiv ist, umso stärker werden die beiden Neuronen aufeinander reagieren. Sie wird häufig abgekürzt als "What fires together, wires together". Weiterhin sind diese Prozesse die biochemische Grundlage von klassischem und instrumentellem Konditionieren, die jeweils leicht beobachtbare Lernprozesse darstellen. Betrachten wir die neuronalen Vorgänge beim klassischen Konditionieren, wie sie in der folgenden Zeichnung dargestellt sind. Beim klassischen Konditionieren werden zwei Reize durch Lernen miteinander verbunden, so dass der zunächst neutrale Reiz zuletzt die gleiche Reaktion auslöst wie der andere Reiz. Als äußerliche Reize liegen in diesem Beispiel ein Luftstoß auf das Auge, der einen Lidschlag zum Schutz des Auges auslöst, und ein 1000 Hertz Ton vor, der zunächst keine spezifische Reaktion bei dem Versuchstier bewirkt. Abbildung 19: Hebb´sche Regel - Abbildung aus Carlson S. 498 „Wird der Ton von 1000 Hz zuerst dargeboten, dann wird die schwache Synapse T aktiv. Wenn der Luftstoß unmittelbar danach folgt, wird die starke Synapse P aktiv und veranlasst das motorische Neuron, zu feuern. Dieses Feuern des motorischen Neurons stärkt jede Synapse mit diesem Neuron, die zu diesem Zeitpunkt aktiv gewesen ist. Natürlich betrifft das Synapse T. Nach mehreren Paarungen der zwei Reize wird Synapse T stark genug, um das motorische Neuron selbst zum Feuern zu bringen. Es hat Lernen stattgefunden. Offenkundig gibt es im auditiven System des Kaninchens mehr als ein Neuron, ebenso in dessen motorischen System – mit Neuronen, die das Ohrenwackeln steuern, das Naserümpfen steuern, das Rennen, das Schnüffeln, das Kauen und alles andere, was ein 155 Kaninchen sonst so tun kann. Aber vor dem Lernen sind all diese Verbindungen schwach; das Hören eines Tones von 1000 Hz erzeugt eine so geringe Aktivierung der Neurone des motorischen Systems, dass das Tier keine offene Reaktion zeigt. Von all den tausenden Synapsen des motorischen Systems, die durch den Ton von 1000 Hz aktiviert werden, werden nur genau diejenigen gestärkt, die sich auf Neuronen befinden, die genau zu diesem Zeitpunkt feuerten.“137 Man sieht hier einen typischen Lernprozess auf neuronaler Ebene nachgezeichnet. Wichtig daran ist vor allem, dass es bei einem solchen Lernprozess gelingt, neue eigenständige funktionale Netzstrukturen zu bilden, indem bestehende Verbindungen gestärkt werden, die sich über verschiedene Wahrnehmungsmodalitäten und somit auch über verschiedene Gehirnareale erstrecken. Dabei müssen die assoziierten Neuronen nicht wie im Beispiel direkt miteinander verbunden sein, sondern sie können über dazwischenliegende Neuronen vernetzt sein, deren Verbindungen untereinander jeweils gestärkt werden. Genau diese Art von neuronalem Lernen wird die Grundlage meiner Modellierung des Spracherwerbs und damit der Funktionsweise von Bedeutung sein. In diesem Kapitel wurden die neurophysiologischen Grundlagen besprochen, deren Kenntnis in den weiteren Kapiteln vorausgesetzt wird. Der prinzipielle Aufbau von Neuronen und die Funktionalität ihrer Kommunikation untereinander wurden dabei dargestellt. Man konnte nachvollziehen, wie Aktionspotentiale entstehen und wie mit Neurotransmittern Botschaften an andere Neuronen weitergeleitet werden. Die Stufenlosigkeit aller Informationen, wie zum Beispiel bei Intensitäten von Wahrnehmungen und Muskelkontraktionen konnten durch die Frequenzkodierung von Aktionspotentialen erklärt werden. Sehr wichtig werden im weiteren Verlauf unsere Erkenntnisse zur neuronalen Plastizität und zu den Prozessen des neuronalen Lernens werden, da sie die physiologische Grundlage des Spracherwerbs bilden. 137 Carlson S. 499 156 8. Die neuronale Realisierung von Sprache 8.1 Wortrepräsentationen durch neuronale Netze Die menschliche Sprache basiert auf Prozessen in unseren Gehirnen. Sei es die Steuerung unseres Kehlkopfs und der Stimmbänder beim Sprechen, die Steuerung der Hand- und Armmuskulatur beim Schreiben, das Wiedererkennen und Verstehen von einzelnen Wörtern oder die Erzeugung von grammatisch korrekten Satzstrukturen. Das ist in den Neurowissenschaften unstrittig, doch von einer allgemein anerkannten Theorie, die die Details der vielen komplexen Prozesse bei der Sprachverarbeitung darstellen und vorhersagen kann, ist man noch weit entfernt. In diesem Kapitel soll ein Theorieansatz gezeigt werden, der mit den Versuchsergebnissen bezüglich einfacher Prozesse der Sprachverarbeitung vereinbar ist und zugleich eine gute Vorstellung davon geben kann, wie die komplexeren Prozesse darauf aufbauen könnten. Es sind immens viele Arten vorstellbar, wie Sprache neuronal verarbeitet werden könnte. Gibt es neuronale Korrelate von sprachlichen Bestandteilen und falls ja, was genau sind die Elemente, für die sich neuronale Korrelate aufspüren lassen? Der im weiteren Verlauf verfolgte Ansatz von Friedemann Pulvermüller138 besagt, dass es ein eindeutiges und auffindbares neuronales Korrelat zu jedem einzelnen Wort gibt. Dieses Korrelat kann interpersonal unterschiedlich sein, aber innerhalb einer Person führt die wiederholte Wahrnehmung eines spezifischen Worts wieder zu der gleichen neuronalen Aktivität. Die Annahme der Existenz eines neuronalen Korrelats zu jedem Wort scheint jedoch gewisse philosophische Einwände nahezulegen. Wenn man behaupten würde, dass jedem Wort genau ein Neuron oder die Aktivierung genau eines Neurons entspricht, dann würden sich in der Tat schwerwiegende Fragen wie die folgenden ergeben, für die es keine Antworten zu geben scheint: Wieso korreliert die Aktivität genau dieses Neurons mit diesem spezifischen Wort? Wie konnte eine Verknüpfung zwischen genau diesem Neuron und diesem Wort überhaupt entstehen? Zwischen was genau besteht die Korrelation überhaupt? Entspricht die Aktivität des spezifischen Neurons der Aussprache oder der Schreibweise oder der Bedeutung des Wortes oder allen drei Dingen zugleich? Aber wie wir sehen werden, können alle diese Fragen entweder leicht beantwortet werden, oder stellen sich überhaupt nicht mehr, sobald man wie Pulvermüller nicht einzelne Neuronen, sondern diskrete funktionale Netze als neuronale Korrelate unserer Wörter postuliert. Neben der Auflösung 138 Pulvermüller, F.: The Neuroscience of Language, Cambridge, 2002 157 dieser Fragen hat diese Theorie zugleich den Vorteil, leichter experimentell überprüfbar zu sein, denn die Aktivität einer funktionalen neuronalen Netzstruktur lässt sich mit den aktuellen Techniken der funktionellen Magnetresonanztomographie und der Elektroenzephalographie eher aufspüren als die Aktivität eines einzelnen Neurons. Was genau soll unter einem funktionalen neuronalen Netz in diesem Sinne verstanden werden? Unter einem funktionalen Netz versteht man eine Menge von Neuronen, die 1. stark miteinander verknüpft sind 2. über eine spezifische Menge kortikaler Bereiche verteilt sind 3. zusammen als funktionale Einheit operieren und 4. deren Teilbereiche funktional voneinander abhängig sind, so dass jeder Teil notwendig für das optimale Funktionieren des Netzes ist.139 Die Neuronen, die ein solches funktionales Netz bilden, haben aufgrund ihrer Vernetzungsstruktur die Tendenz, sich gegenseitig zu aktivieren und damit relativ schnell das gesamte funktionale Netz zum Feuern zu bringen. Aufgrund der multidirektionalen Verbindungen ergeben sich aufeinander abgestimmte hochfrequente Aktivitätsrhythmen. Wenn eigenständige funktionale Netze wirklich die neuronalen Korrelate unserer Wörter sind, dann sollte man diese hochfrequente Aktivität auch experimentell auffinden können. In der Tat gibt es bereits diverse experimentelle Studien, die mit dieser These gut vereinbar sind. Mit Hilfe von Magnetenzephalographie wurden in einem Experiment die Unterschiede der neuronalen Reaktionen auf akustisch dargebotene Wörter und Pseudowörter untersucht. Die Pseudowörter bestanden dabei aus typischen Silben der untersuchten Sprache, die in der gegebenen Zusammensetzung keine echten Wörter bildeten, sich von den dargebotenen wirklichen Wörtern aber jeweils nur minimal unterschieden. Dabei wurden signifikante Unterschiede zwischen der Verarbeitung von Wörtern und Pseudowörtern festgestellt. Ungefähr eine halbe Sekunde nach der Präsentation waren die hochfrequenten Reaktionen deutlich höher bei den Präsentationen der echten Wörter der untersuchten Sprache. Das entspricht genau den Erwartungen. Die Schallwellen erreichen die Versuchsperson und werden im Unterschied zu anderen Umgebungsgeräuschen sowohl für die 139 Vgl. Pulvermüller, F.: The Neuroscience of Language, Cambridge, 2002 S. 24 158 Wörter als auch für die Pseudowörter als potentielles Sprachsignal erkannt, welches im Wernicke Areal den Prozessen der Worterkennung unterzogen wird. Sobald die Worterkennung abgeschlossen ist, wird bei den echten Wörtern das funktionale Netz aktiviert, während bei den Pseudowörtern nichts dergleichen passiert. Weitere Experimente mit Magnetenzephalographie und Elektroenzephalographie lieferten ähnliche Ergebnisse. Um auszuschließen, dass die Messungen durch die zwangsweise vorliegenden minimalen Unterschiede zwischen Wörtern und Pseudowörtern beeinträchtigt werden, wurde dabei von genau den finnischen Konsonanten Gebrauch gemacht, die die Aussprache von zweisilbigen Wörtern klar und deutlich in zwei Bestandteile aufteilen. Dadurch ließen sich die Reaktionen im Gehirn auf die beiden Silben einzeln aufzeichnen. Die zweite Silbe war für die Wörter und Pseudowörter jeweils genau gleich, während die erste Silbe der Pseudowörter sich minimal von der ersten Silbe der echten Wörter unterschied. Beobachtet wurde ein deutlicher Unterschied zwischen den neuronalen Prozessen für Wörter und Pseudowörter nach 200ms und weitere Unterschiede 500ms nach ihrer jeweiligen Präsentation. Das bedeutet, dass die Worterkennung bereits nach 200ms abgeschlossen ist, in dem Sinne, dass zu diesem Zeitpunkt bereits erfolgreich zwischen Wörtern und Nicht-Wörtern unterschieden werden konnte. Es scheint mir plausibel, dass zu diesem Zeitpunkt nur die Wortform erfolgreich analysiert wurde, ohne dass die Bedeutung bereits verfügbar ist. Der Unterschied nach 500ms entspräche dann der anschließenden Aktivierung des funktionalen Netzes, also dem Einholen der zugehörigen Gedächtnisinhalte zur Erkennung der Bedeutung. Alternativ könnte auch bereits nach 200ms die Aktivierung des funktionalen Netzes zum ersten Mal angestoßen werden, die hochfrequente Aktivität durch Rückkopplungsprozesse jedoch erst nach 500ms auftreten. Diese experimentellen Resultate sind also mit der These der Wortrepräsentation durch funktionale Netze kompatibel, aber noch kein Beweis ihrer Richtigkeit. Weiterhin ist die bisher vorliegende Beschreibung der Netzstruktur extrem allgemein, so dass sich noch keine experimentell überprüfbaren Vorhersagen über Aktivierungsorte machen lassen. Um von der These eine genauere Vorstellung zu erhalten und sie zu überprüfen, betrachten wir zunächst diese Fragen: Aus welchen kortikalen Bereichen beinhaltet ein funktionales Netz, das ein spezifisches Wort repräsentiert, jeweils Neuronen? Gibt es überhaupt prinzipiell unterschiedliche Netzstrukturen für Wörter, und falls ja, worin unterscheiden sie sich? Gibt es Ähnlichkeiten zwischen Netzstrukturen von Wörtern verwandter Bedeutungskategorien oder grammatischer Kategorien? 159 „Word use in the context of objects and actions lead to associations between neurons in the cortical core language areas and additional neurons in areas processing information about the words´ referents. This is implied by the correlation learning principle and the cortex´s long-range connections between motor and sensory systems. Functional webs could therefore provide the basis for the association, in the psychological sense, between an animal name and the visual image it relates to, or between an action verb and the action it normally expresses. Strong links within the web can account for one´s impression that the image is automatically aroused by the word form presented alone, and that, vice versa, the image almost automatically calls the name into active memory. The neuron ensembles linking phonological information and information about the actions and perceptions to which a word refers are termed word webs here. They would include the phonological webs in perisylvian areas critically involved in processing perceptions and actions, and additional neurons in various cortical sites where sensory and action-related information converges and is being merged. The type of entity a word usually refers to should be reflected in the cortical topography of the functional web that realizes it.“140 Wenn man den Prozess des Spracherwerbs bedenkt, dann erscheint einem die beschriebene Netzstruktur zumindest für die zunächst erworbenen Wörter ganz natürlich. Die Wörter werden im Zusammenhang erlernt. Es liegen gleichzeitig zu jeder Äußerung immer eine Menge Umweltdaten vor, auf die sich die Erwachsenen mit ihren Äußerungen beziehen. Das Kind stellt eine Verknüpfung zwischen seinen sonstigen Wahrnehmungen und den Wörtern her. In seinem Gehirn entstehen neue neuronale Verbindungen, oder bestehende werden gestärkt oder geschwächt, genau wie im Kapitel neurologische Grundlagen dargestellt. Diese neuronale Verschaltung ist am einfachsten nachzuvollziehen für den Fall, dass ein Wort beim Betrachten eines Bildes gelernt wird. In diesem Fall werden einfach nur die Daten im visuellen Gedächtnis mit den Daten aus der Worterkennung verknüpft. In Wirklichkeit werden aber solche Netze immer und in beliebigen Lernsituationen gebildet. Insofern sie gleichzeitig aktiv sind, werden Repräsentationen aus allen Bereichen mit den Wortformrepräsentationen verknüpft. So könnte zum Beispiel „Hammer“ genauso wie „hämmern“ mit genau den neuronalen Strukturen vernetzt werden, die benötigt werden, um den typischen Bewegungsablauf des Hämmerns zu steuern, also mit den kortikalen Bereichen für die Motorik der für das Hämmern präferierten Hand und dem entsprechenden Arm, falls diese Wörter zugleich mit der praktischen Verwendungsweise erlernt werden. Daher lassen sich Aktivierungsmuster für Gruppen von Wörtern, deren Bedeutungen ähnlich sind, vorhersagen. 140 Pulvermüller, F.: The Neuroscience of Language, Cambridge, 2002 S. 56 160 Diese Wortgruppen müssen sich keinesfalls zwingend in ihren grammatischen Kategorien ähnlich sein, sondern in dem Sinne, dass sie auf ähnliche Weise erlernt werden, oder mit ähnlichen motorischen Prozessen assoziiert sind. Da Wörter in unterschiedlichen Zusammenhängen erlernt werden und je nach Lebenslauf später noch verschiedene weitere Assoziationen mit ihnen verknüpft werden können, können sich die neuronalen Netzstrukturen eines spezifischen Wortes zwischen Menschen strukturell massiv unterscheiden. So werden die meisten Menschen zum Beispiel Wale nur von Bildmaterial kennen und daher wird der Hauptbestandteil des Wortnetzes im visuellen Assoziationscortex liegen. Ein langjähriger Waltrainer im Sea World beispielsweise verfügt jedoch über viel weitgehendere Erfahrungen mit Walen und sein neuronales Netz für das Wort „Wal“ wird daher auch deutlich mehr Neuronen aufweisen, die in Gehirnbereichen liegen, die zur Verarbeitung akustischer und taktiler Informationen dienen. Aufgrund dieser potentiellen Unterschiede zwischen neuronalen Wortnetzen von Versuchspersonen und des Mangels an Vorabuntersuchungen, in welche Kategorie die untersuchten Wörter aufgrund der persönlichen Erwerbssituationen wirklich gehören, müssen die Ergebnisse von einigen Untersuchungen, die die neuronalen Unterschiede zwischen Wörtern der klassischen grammatischen Kategorien untersuchen, mit Vorbehalt betrachtet werden. In einem der Experimente zur Bestätigung der These, dass Wörter als funktionale Netze realisiert sind, fanden Pulvermüller, Lutzenberger und Preissl (1999) deutliche Unterschiede zwischen den Wortnetzen von Tiernamen und Werkzeugbezeichnungen. Tiernamen führten zu deutlich höheren Aktivierungen im visuellen Cortex, während die Werkzeugbezeichnungen eher zu Aktivierungen im Motorcortex führten, wie auf der folgenden Abbildung zu sehen ist. Die dunklen Markierungen auf den beiden linken Gehirnansichten stellen die Aktivierungen für Werkzeugbezeichnungen dar, die nicht auch für die Tierbezeichnungen vorlagen, während auf den beiden rechten Ansichten die Aktivierungen für Tierbezeichnungen zu sehen sind, die für Werkzeugbezeichnungen nicht vorlagen. Alle Ansichten zeigen jeweils nur die linke Gehirnhälfte, auf den oberen Bildern von außen gesehen, während die unteren Bilder die Ansicht aus der Gehirnmitte darstellen. 161 Abbildung 20: Aktivierungen von Wörtern für Werkzeuge und Tiere – Abb. aus Pulvermüller S. 58 Der größte in diesem Experiment gemessene Unterschied in den Aktivitätsmustern bestand jedoch nicht zwischen Tierbezeichnungen und Werkzeugbezeichnungen, sondern zwischen Verben, die physische Tätigkeiten ausdrücken, einerseits und ausgewählten Nomen, die Tiere oder große von Menschen hergestellte Objekte bezeichnen, andererseits. Abbildung 21: Aktivierungen von Wörtern für Tätigkeiten und primär visuell zugänglichen Objekten – Abb. aus Pulvermüller S. 58 Dieses Ergebnis ließe sich zwar auf den ersten Blick als Beleg für eine unterschiedliche neuronale Verarbeitung von Verben und Nomen interpretieren, die Detailergebnisse zeigen aber, dass die vorliegenden Prozesse komplexer sind als vom linguistischen Standpunkt aus erwartet. Man erkennt 162 hier nebenbei auch, dass es zur philosophischen Einteilung belebt/unbelebt auf dieser Verarbeitungsebene keine neuronale Entsprechung zu geben scheint. Die Ähnlichkeit zwischen den Aktivierungen für Tiernamen und Bezeichnungen für „große von Menschen hergestellte Objekte“ widersprechen herkömmlichen Erwartungen an Wortkategorien, sind aber mit der Theorie, dass Wörter als unabhängige funktionale Netze realisiert werden, problemlos zu erklären. Für die Objekte, die durch Wörter dieser beiden Wortgruppen benannt werden, verfügen die Versuchspersonen wahrscheinlich primär über visuelle Informationen und sie wurden nur anhand von Bildmaterial erlernt. Daher ergeben sich strukturell ähnliche neuronale Muster. Das erklärt auch die gefundenen Diskrepanzen innerhalb der Kategorie „Tiernamen“, für die man eigentlich einheitliche Ergebnisse erwartet hätte. Es ergaben sich jedoch deutliche Abweichungen vom üblichen Aktivierungsmuster der Tierkategorie für manche Tiernamen. Für „Katze“ oder „Hund“ liegen im Unterschied zu „Hai“ oder „Wal“ bei einer europäischen Versuchsperson auch Daten von den anderen Sinnen vor, so dass sich gemäß der Theorie der unabhängigen Wortnetze eine deutlich abweichende neuronale Netzstruktur für diese Wörter ergeben muss. Gemäß dieser Theorie, dass Wörter intern durch unabhängige neuronale Netze realisiert werden, müsste es problematische Ergebnisse geben, wenn man nach spezifischen Aktivierungen für die herkömmlichen grammatischen Kategorien sucht. Und so verhält sich auch. In einer weiteren Studie konnte man den Unterschied zwischen den neuronalen Aktivierungen von Substantiven, die etwas mit dem Sehen zu tun hatten, und Verben für Tätigkeiten bestätigen, darüber hinaus aber auch einen vergleichbaren Unterschied nur zwischen Nomen, wenn die einen mit dem Sehen zu tun hatten und die anderen mit Tätigkeiten. Dagegen gab es keinen Unterschied zwischen Nomen und Verben, falls diese jeweils einen starken Tätigkeitsbezug aufwiesen. Aus der Struktur eines Wortnetzes kann man also nichts über die grammatische Klassifikation (die Wortart) eines Wortes ableiten, sondern nur über seine Bedeutung, seine physikalische Referenz. Es wurden weitere Experimente unternommen, um die exakteren Vorhersagen zu überprüfen, die sich aus der These ergeben, dass die Struktur eines Wortnetzes seine Bedeutung (im Sinne physischer Referenz) widerspiegelt. Pulvermüller, Hummel und Härle untersuchten 2001 die neuronalen Aktivierungen durch verschiedene Verben, die sich auf Tätigkeiten mit unterschiedlichen Körperteilen bezogen. Insbesondere ging es um Tätigkeiten mit den Beinen („walking“), mit den Armen („waving“) und dem Gesicht („talking“). Wie erwartet wiesen die Wortnetze aller dieser Verben Aktivierungen im Motorcortex auf, aber die genaue Lage der 163 Aktivierung entsprach darüber hinaus auch jeweils dem Bereich, der für die Steuerung genau des Körperteils zuständig war, das man zur Ausführung der benannten Tätigkeit benötigte. Dazu muss man wissen, dass im primären motorischen Cortex Neuronen, die für die Steuerung von im Körper nahe zusammen liegenden Muskeln zuständig sind, auch meistens in benachbarten Regionen liegen, was somatotope Organisation genannt wird. Im folgenden Bild sieht man die Lokalisation der motorischen Areale und welche Bereiche des primären motorischen Cortex jeweils welche Körperzonen steuern: Abbildung 22: Kartierung des primären motorischen Cortex und motorischer Homunkulus - Abb. aus Carlson S. 304 Der ebenfalls dargestellte motorische Homunkulus veranschaulicht anhand der Größenverhältnisse seiner Körperzonen, dass überproportional viel kortikale Kapazität für die Bewegung der Sprachmuskulatur und der Hände verwendet wird. An dem pink gezeichneten Frontalschnitt des 164 primären motorischen Cortex der linken Gehirnhälfte sind die Körperbereiche eingetragen, die jeweils von diesen kortikalen Bereichen gesteuert werden. Der Bereich für die Beine befindet sich also mittig oben (dorsal medial), während sich die Gesichtsbereiche außen weiter unten befinden (dorsal lateral) und die Bereiche für Arme und Hände dazwischen liegen. Wir erwarten also für die Untersuchung der neuronalen Reaktionen auf die Präsentation von Verben, die sich auf Bewegungen mit gewissen Körperteilen beziehen, jeweils unterschiedliche neuronale Aktivierungen. Für Wörter wie „talking“ sollten sich Aktivierungen im inferioren präzentralen Gyrus ergeben, während „walking“ zu neuronaler Aktivität im dorsomedialen Bereich des präzentralen Gyrus führen sollte. Dieser Unterschied zeigte sich bei der Präsentation der unterschiedlichen Verben im Experiment deutlich: Abbildung 23: Aktivierungen von Wörtern mit inhaltlichem Bezug auf die Bewegung von Beinen, Armen und dem Gesicht – Abb. aus Pulvermüller S. 63 Die relevanten neuronalen Aktivitätsmuster sind entsprechend der angenommenen funktionalen Netze hier als Netzstruktur dargestellt. Der untere Netzbestandteil, der bei allen drei Kategorien gleich aussieht, repräsentiert die Aktivitäten im Wernicke- und Broca-Areal, den primären Arealen für die Sprachverarbeitung. Diese Aktivitäten entsprechen der Erkennung eines akustischen Geräusches als Wort, der Erkennung der phonologischen Bestandteile und der Wortform, aber noch nicht der Bedeutung. Selbstverständlich sind auch diese Bestandteile der aktivierten Netze nicht identisch, wie die schematische Zeichnung oben fälschlicherweise suggerieren könnte, sondern unterscheiden sich für jedes Wort. Aufgrund der immens hohen Anzahl an Neuronen im menschlichen Gehirn, sind diese feinen regionalen Aktivitätsunterschiede selbstverständlich nicht darstellbar, für unsere Zwecke aber auch nicht interessant. Der entscheidende Unterschied besteht doch im sehr deutlichen Unterschied der Orte der Aktivierungen außerhalb der primären Sprachverarbeitungsregionen. Diese Unterschiede zeigen sich sowohl in Untersuchungen mit 165 Elektroenzephalographie (EEG) als auch in Untersuchungen mit der funktionellen Magnetresonanztomographie, wie man in den folgenden Abbildungen erkennen kann: Abbildung 24: Aktivierungsunterschiede für Verben mit inhaltlichem Bezug auf Hände und Füße in funktioneller Magnetresonanztomographie – Abb. aus Pulvermüller S.63 Die Aktivierungen bei Verben mit Bezug auf Aktivitäten mit den Händen sind im fMRT-Bild weiß markiert, während die für Verben mit Beinbezug schwarz sind. Man kann deutlich erkennen, dass die schwarzen Punkte eher mittig oben liegen, während sich die weißen eher seitlich außen konzentrieren. Das entspricht den Erwartungen gemäß der Kartierung des primären motorischen Cortexes (siehe Abbildung 23). In der folgenden Abbildung sieht man links die Korrelation zwischen den Aktivierungen bei Gesichts-, Arm- und Beinbewegungen und der Darbietung der entsprechenden Verben. Das rechte Bild zeigt den Lokalisationsunterschied der Aktivierungen zwischen Wörtern für Aktivitäten mit Gesichtsbezug und wiederum solchen mit Beinbezug, diesmal im EEG. 166 Abbildung 25: Aktivierungsunterschiede für Verben mit inhaltlichem Bezug auf Hände und Füße im Elektroenzephalogramm – Abb. aus Pulvermüller S.63 Wir können somit festhalten, dass die Theorie der unabhängigen funktionalen Netze durch die experimentellen Befunde nicht nur nicht widerlegt, sondern gestützt wird. Zugleich scheinen andere Theorieansätze es schwer zu haben, die Ergebnisse dieser Experimente umzudeuten und in ihre Darstellung der ablaufenden Prozesse zu integrieren. Es ist daher bis auf weiteres davon auszugehen, dass jedes einzelne Wort in einem eigenen funktionalen Netz repräsentiert wird und die erfolgreiche Worterkennung im Wernicke Areal dazu führt, dass das funktionale Netz des erkannten Wortes in einen hochfrequenten Aktivierungszustand versetzt wird. Aufgrund der Art und Weise des Spracherwerbs bestehen die funktionalen Wortnetze meistens aus Neuronen in den Assoziationscortices, die die relevanten Gedächtnisinhalte sensorischer oder motorischer Natur zu diesem Wort kodieren. Das wiederum bedeutet, dass uns diese sensorischen und motorischen Gedächtnisinhalte bewusst werden, sobald wir das zugehörige Wort hören. Auf genau diese Weise führt das erfolgreiche Erkennen eines Wortes also dazu, dass wir automatisch seine Bedeutung erfassen (genau in dem Bedeutungsumfang, den das Wort in Abhängigkeit von unseren Erfahrungen für uns hat, der nicht genau deckungsgleich sein muss mit dem Bedeutungsumfang, den das Wort für einen anderen Sprecher hat). 167 8.2 Polysemie und Synonymie als Überschneidung von funktionalen Netzen Wenn man nun davon ausgeht, dass es unabhängige funktionale Netze für alle Wörter gibt, dann drängen sich weitere Fragen auf. Denn wohlbekannte und unbestreitbare Effekte wie zum Beispiel Polysemie und Synonymie würden sich schwerlich erklären lassen, wenn zu jedem Wort ein eigenes Netz bestünde, das mit den anderen Wortnetzen überhaupt nichts zu tun hätte. Doch dass die Wortnetze vollständig unabhängig voneinander sind, sollte gar nicht behauptet werden. Um Polysemie und Synonymie auf neuronaler Ebene verstehen zu können, kommen wir auf die Feinstruktur der Wortnetze zurück. Sie bestehen jeweils aus einem Neuronennetzbestandteil in den primären Spracharealen in der linken Gehirnhälfte, das phonologische Daten und die Wortform kodiert, und aus einem zweiten Bestandteil, der sich über verschiedene Bereiche in beiden Gehirnhälften erstreckt, dessen genaue Struktur von den semantischen Eigenschaften des Wortes abhängt. Es spricht nichts dagegen, dass sich Wortnetze von irgendwie verwandten Wörtern einige Neuronen teilen. Im Gegenteil sprechen die Ergebnisse von Priming Experimenten sogar stark dafür, dass es sich so verhält. Bei diesen Experimenten konnte man nachweisen, dass zuvor gegebene Reize die Reaktion auf nachfolgende Reize deutlich verändern können. So gelang den Versuchspersonen zum Beispiel die Erkennung eines extrem kurz dargeboten Brotlaibs sehr viel besser (80% statt 40% erfolgreiche Erkennungen), wenn zuvor eine Küche dargeboten worden war. Diesen Effekt nennt man Priming und er basiert auf der neuronalen Voraktivierung von Inhalten, die mit den jeweils aktuell gegebenen Inhalten assoziiert sind. Aufgrund ihrer teilweisen Voraktivierung sind diese Inhalte im folgenden Zeitraum leichter abzurufen als andere Inhalte, die mit den vorherigen Inhalten überhaupt nichts zu tun haben. Die jeweils aktiven Netze könnten also Neuronen als Bestandteile haben, die auch Bestandteil anderer Netze sind, und die durch ihre hochfrequente Aktivität diese anderen Netze in einen voraktivierten Zustand versetzen. Für die Fälle der Polysemie und der Synonymie liegen jeweils unterschiedliche neuronale Situationen vor: Bei der Polysemie gibt es mehrere Bedeutungsnetze zu nur einem Wortformnetz, während bei der Synonymie mehrere Wortformnetze an dem gleichen Bedeutungsnetz hängen. Die neuronalen Überschneidungen müssen nicht das jeweils ganze phonologische oder semantische Teilnetz betreffen, sondern können auch nur in Teilbereichen vorliegen, wie es bei Oberbegriffen von Begriffen (Hyperonymen) für den semantischen Netzteil der Fall ist. Für den phonologischen Netzteil sind solche Teilüberschneidungen auch denkbar (so wie bei „Maus“ in „Schmaus“), wobei 168 man bedenken muss, dass es sich bei diesen Fällen nur in schriftlicher Form um eine vollständige Inklusion des kürzeren Wortes handelt, während die Aussprache des eingeschlossenen Wortes durch den Rest des längeren Wortes in den meisten Fällen beeinflusst wird, so dass in diesen Fällen keine vollständige Inklusion vorliegt, wie die folgende Abbildung sie fälschlicherweise suggeriert. Abbildung 26: neuronale Netzstrukturen bei Polysemie, Synonomie, Hyperonymie und Wortformeinschluß – Abb. aus Pulvermüller S.85 Neuronale Wortnetze können sich also an verschiedenen Stellen überschneiden und so wohlbekannte sprachliche Effekte, wie den der Bedeutungsgleichheit oder den der Mehrdeutigkeit auslösen. Es stellt sich jedoch die Frage, wieso meistens trotzdem das in der Situation richtige Wortnetz aktiviert wird, auch in den Fällen, in denen mehrere Wortnetze zur Auswahl stehen. Es findet sozusagen immer ein zeitliches Wettrennen statt, welches Netz zuerst vollständig in hochfrequente Aktivität versetzt wird. Dieses Rennen wird von vielen Faktoren beeinflusst, wie 169 zum Beispiel von der jeweiligen Häufigkeit des Vorkommens in der Sprache, oder von den Voraktivierungen durch den sensorischen und sprachlichen Kontext. An was man denkt, wenn jemand von einem „Läufer“ spricht, wird sich stark unterscheiden, je nachdem ob man gerade bei einem Marathon, in einer Teppichfabrik, bei einem Schachturnier, oder bei einem Volleyballspiel ist. Gleichgültig welcher Fall davon gerade zutrifft, benötigt man zu jedem Zeitpunkt jedoch nur die eine gerade passende der verschiedenen Bedeutungen und die anderen nicht. Durch einen speziellen Regulierungsprozess wird verhindert, dass die anderen Wortnetze noch zusätzlich aktiv werden, nachdem das erste bereits in hochfrequente Aktivität geraten ist. In der folgenden Abbildung sieht man diesen Regulierungsprozess für zwei solche Netze schematisch dargestellt (die Bestandteile des einen Netzes sind schwarz und die des anderen weiß gefärbt und werden „Knoten“ genannt). Die Pfeile stellen die Richtungen von erregenden Aktivierungen dar, während die anderen Verbindungen hemmende Wirkung haben. Man beachte, dass zwei hintereinander geschaltete hemmende Verbindungen wiederum erregende Wirkung an ihrem Zielknoten haben. Abbildung 27: Zwei sich teilweise überlappende neuronale Netze, deren gleichzeitige vollständige Aktivierung durch subkortikale hemmende Netzstrukturen im Neostriatum verhindert wird (aus Pulvermüller S. 81) Der überlappende Bestandteil (dargestellt durch den schwarzweißen Knoten) führt zwar jeweils zu einer Aktivierung der sich gegenseitig hemmenden „Kontrahenten“ im Neostriatum, aber das stärker aktivierte Netz führt zu weiteren Aktivierungen des Knotens der zugehörigen Farbe. Nehmen wir an, dass der schwarze Knoten im Neostriatum schneller/stärker aktiviert wird als der 170 weiße Knoten. Das führt zu einer weiteren Aktivierung des schwarzen Netzwerks durch Hemmung der Hemmung des Knotens im Thalamus, was die verstärkende Feedbackschleife zum Cortex aktiviert. Außerdem wird der weiße Knoten im Neostriatum vom schwarzen Knoten gehemmt. Dadurch erfolgt keine weitere Verstärkung der Aktivität des weißen Netzwerks aufgrund der nicht erfolgenden Hemmung im Pallidum, die zur Hemmung im Thalamus führt, so dass es keine verstärkende Feedbackschlaufe zurück zum Cortex gibt. Durch diesen Prozess wird nur genau das Wortnetz aktiviert, das im gegeben Zusammenhang am wahrscheinlichsten ist, was meistens zu richtigen Resultaten führt, aber natürlich nicht immer. Solche Fehler durch Aktivierung alternativer Wortnetze lassen sich in der Tat beobachten. Sie sind zum Beispiel die Quelle von Missverständnissen oder auch Belustigung, wenn bei Polysemie der Hörer eine andere Wortbedeutung wahrnimmt als der Sprecher sie beabsichtigt hatte. Es kann auch vorkommen, dass beim lauten Vorlesen eines Textes der Leser von ihm selbst unbemerkt statt eines Wortes ein anderes bedeutungsgleiches Wort ausspricht, welches überhaupt nicht im Text steht. 8.3 Schriftsprache als optionale angehängte Netzstruktur Auch mit Bedeutungsgleichheit und Polysemie haben wir also keine theoretischen Probleme. Aber wir haben uns bisher auch nur mit der phonologischen Wortform und der Bedeutung auseinander gesetzt und andere Sprachbestandteile vernachlässigt. Wie verhält es sich zum Beispiel mit affektiven Tönungen, die manchen Wörtern anhaften, oder mit dem orthographischen Wissen, über das wir potentiell verfügen? Die Schriftsprache wird normalerweise erst erlernt, wenn das Sprechen schon relativ gut beherrscht wird. Für die meisten Europäer gibt es heute keinen erkennbaren Unterschied zwischen ihren mündlichen und schriftlichen Kommunikationsfähigkeiten. Das war jedoch lange Zeit deutlich anders. Lesen und schreiben konnte nur ein geringer Bevölkerungsanteil, meistens nur die Geistlichen und Adeligen. Doch auch heute gibt es noch Analphabeten in Deutschland. Aktuelle Studien schätzen den Bevölkerungsanteil derjenigen Menschen, die nicht Lesen und Schreiben können, auf 5-10% der deutschen Bevölkerung. Die Fähigkeiten des Lesens und Schreibens sind also sozusagen optional. Sie stellen ein Wissen dar, über das man zusätzlich zur Lautsprache verfügen kann, aber das für die primären Sprachfähigkeiten nicht erforderlich ist. 171 Aus theoretischer Sicht kann dieses optionale Wissen genauso als Netzfortsatz an die Repräsentation der Wortform angehängt sein, wie der Netzbestandteil, der die Bedeutung des jeweiligen Wortes darstellt. Lerntheoretisch betrachtet entstehen die Verbindungen zwischen den neuronalen Repräsentationen von akustischen Lauten und der visuellen Struktur der Buchstaben (und später zwischen Lautfolgen und ganzen Wörtern) genauso wie zwischen allen anderen assoziierten Datenbeständen. Experimente weisen darauf hin, dass das Wissen, wie ein Wort geschrieben wird, von Neuronen im Brodmann Areal 37141 kodiert sein könnte, während affektive Gehalte von Wörtern durch Verbindungen zur Amygdala repräsentiert werden könnten. Dieses Modell nach Pulvermüller besagt also, dass alle relevanten Informationen, die man zu einem Wort hat, aufgrund der Mechanismen des zugrundeliegenden autoassoziativen Netzwerkmodells zu einer Netzstruktur verbunden werden. Darin besteht ein wichtiger Unterschied zu herkömmlichen modularen Modellen, wie dem von Ellis & Young (1988). Solchen Modellen zufolge findet die Verarbeitung der verschiedenen Informationstypen in jeweils eigenen Modulen statt, die nicht alle direkt miteinander vernetzt sind. In der folgenden Abbildung sieht man in der oberen Tabelle die modulare Verknüpfungsstruktur entsprechend der Vorstellung von Ellis & Young. Schwarze Punkte zeigen die starke neuronale Vernetzung innerhalb eines Moduls an, während die weißen Punkte anzeigen, von welchen Modulen auf der linken Seite es eine Verbindung zu welchen Modulen oben gibt. Die untere Tabelle zeigt dagegen die Verbindungen im autoassoziativen Netzwerkmodell, wobei die schwarzen Punkte lokale Vernetzungen anzeigen, während die weißen Punkte für Langstreckenverknüpfungen stehen. In beiden Tabellen wird von dem allgemeinen Fall ausgegangen, dass die entsprechenden Daten, beziehungsweise Module zu ihrer Verarbeitung vollständig vorliegen. Wie bereits erwähnt, können im Einzelfall einige von ihnen nicht vorhanden sein (zum Beispiel bei Analphabetismus), oder aufgrund von Gehirnschäden beeinträchtigt oder ausgefallen sein. 141 Dieses Areal erweist sich experimentell als sehr wichtig für das Lesen herkömmlicher Schrift als auch von Blindenschrift. Vgl. Carlson S.611 172 Abbildung 28: postulierte neuronale Verbindungen zwischen Sprachmodulen in den unterschiedlichen Modellen – Abb. aus Pulvermüller S.92 173 Zu Beginn dieses Kapitels hatte ich erwähnt, dass sich mit der Theorie der Wortrepräsentation durch autoassoziative neuronale Netze die schwerwiegenden Fragen, denen sich eine Theorie gegenüber sähe, in der ein Wort durch nur ein Neuron repräsentiert würde, problemlos beantworten lassen. Warum dies so ist, sollte durch dieses Kapitel klar geworden sein. Um damit gleichzeitig einige Ergebnisse des Kapitels zusammenzufassen, werde ich diese Fragen nun explizit beantworten. Wieso korreliert die Aktivität genau dieses Neurons mit diesem spezifischen Wort? Wie konnte eine Verknüpfung zwischen genau diesem Neuron und diesem Wort überhaupt entstehen? Zwischen was genau besteht die Korrelation überhaupt? Entspricht die Aktivität des spezifischen Neurons der Aussprache, oder der Schreibweise, oder der Bedeutung des Wortes, oder allen drei Dingen zugleich? Es gibt kein einzelnes Neuron dessen Aktivität einem Wort entspricht, sondern ein komplexes Netzwerk aus vielen Neuronen. Jedes einzelne Neuron in diesem Netzwerk repräsentiert einen winzigen Aspekt des Wortes. Selbst nur einzelne Teilaspekte von Wörtern, wie die akustische Wortform, die Bedeutung, die Schreibweise oder die dazugehörige Motorik werden jeweils schon durch eine Vielzahl von unterschiedlichen Neuronen repräsentiert. Die Verknüpfung zwischen einem solchen Aspekt der Welt und einem Neuron entsteht durch die sensorische Wahrnehmung, die zum Gehirn geleitet und dort verarbeitet wird, um im Fall der Relevanz abgespeichert zu werden. Die einzelnen Neuronen, welche die verschiedenen Aspekte des gleichen Wortes repräsentieren, verknüpfen sich durch neuronales Lernen zu einer Netzstruktur, deren Teilnetze sich leicht gegenseitig aktivieren können. 8.4 Funktionswörter und Grammatik Mit der Theorie der Wortrepräsentation durch autoassoziative neuronale Netze haben wir zwar eine solide Grundlage für das Verständnis der neuronalen Prozesse der Sprachverarbeitung gelegt, aber offensichtlich haben wir uns bisher nur mit einzelnen Wörtern beschäftigt. Es fehlen also noch Erklärungen für die Verarbeitung ganzer Sätze und der dabei auftretenden grammatischen Strukturen. Im Satzverband begegnen uns darüber hinaus auch die bisher relativ unbeachteten Funktionswörter (Synsemantika), die hauptsächlich eine grammatische Funktion im Satz haben, aber keine Bedeutung (im Sinne eines physikalischen Referenzobjekts). Widmen wir uns zunächst diesen Funktionswörtern. In Hinsicht auf die akustische Worterkennung, Aussprache und 174 Schreibweise gibt es keinen funktionalen Unterschied zu den bisher thematisierten Objekt- oder Inhaltswörtern. Die Funktionswörter verfügen jedoch nicht über einen neuronalen Netzbestandteil außerhalb der Broca- und Wernicke-Areale, da es keine sensorischen Daten gibt, mit denen sie etwas zu tun haben, so dass keine Verknüpfungen zum sensorischen Gedächtnis gebildet werden. Die folgende Abbildung illustriert den Unterschied zwischen den neuronalen Netzen von Inhaltswörtern und Funktionswörtern. Abbildung 29: schematische Darstellung linkshemisphärischer Netzstrukturen von Inhaltswörtern und Funktionswörtern – Abb. aus Pulvermüller S. 117 Es ist leicht einzusehen, warum dieser Theorie zufolge abstrakte Funktionswörter keine Netzbestandteile in den Assoziationscortices aufweisen sollten, aber verhält es sich wirklich so? In der Tat sprechen die Ergebnisse in der Aphasieforschung stark dafür. Als Aphasien bezeichnet man durch Schädigungen (Läsionen) der an der Sprachverarbeitung beteiligten Gehirnbereiche entstandene Sprachstörungen. Es gibt mehrere verschiedene Hauptklassifikationen mit deutlich unterscheidbaren Krankheitsbildern, wobei sich die kleineren Auswirkungen der Schädigungen auf die Sprache der Patienten in jedem Einzelfall natürlich immer unterscheiden, was aufgrund der Komplexität der Gehirnstruktur jedoch auch nicht anders zu erwarten ist. Für so stark unterschiedliche Netzstrukturen, wie wir sie für Inhalts- und Funktionswörter postuliert haben, sollte es jedoch auch kategorial deutlich unterscheidbare Auswirkungen von unterschiedlichen Läsionstypen geben. Während das Verstehen und die aktive Verwendung von Funktionswörtern allein durch Störungen in den primären Spracharealen beeinträchtigt werden sollte, sollte im Gegensatz dazu die Verarbeitung 175 von Inhaltswörtern misslingen, falls Störungen in den thematisch jeweils passenden Bereichen der Assoziationscortices vorliegen. In der Tat gibt es genau diese beiden unterschiedlichen Effekte, die als Agrammatismus und als anomische Aphasie bezeichnet werden, welche jeweils mit den passenden Läsionen einhergehen. „Agrammatismus nennt man die Schwierigkeit der Nutzung grammatikalischer Konstruktionen. Diese Störung kann auch für sich allein auftreten ohne Schwierigkeiten beim Aussprechen der Worte (Nadeau, 1988). Personen mit einer Broca´schen Aphasie verwenden kaum Funktionsworte. Überdies verwenden sie selten grammatikalische Markierungen wie Hilfswörter. […] In einer gewöhnlichen Unterhaltung verstehen Personen mit Broca´scher Aphasie alles, was ihnen gesagt wird. Sie sind irritiert und verwundert über ihre Unfähigkeit ihre Gedanken ordentlich auszusprechen und unterstützen ihr unzulängliches Sprechen mit Gesten. […] Schwartz, Saffran und Marin (1980) zeigten Patienten mit Broca´scher Aphasie Bildpaare, in denen die Handlungsträger und Handlungsobjekte ausgetauscht wurden: Beispielsweise ein Pferd tritt eine Kuh und eine Kuh tritt ein Pferd; ein Traktor zieht ein Auto und ein Auto zieht einen Traktor; ein Tänzer applaudiert einem Clown und ein Clown applaudiert einem Tänzer. Bei der Darbietung jedes Bildpaares lasen sie die Grundaussage zum Bild, z.B. Das Pferd tritt die Kuh. Die Aufgabe der Probanden bestand darin, auf das richtige Bild zu zeigen, um zu erkennen, ob die grammatikalische Konstruktion des Satzes verstanden wurde. Die Leistung der Probanden war sehr dürftig.“142 Der als Agrammatismus bezeichnete Effekt wird ausgelöst von Läsionen im Broca´schen Areal und führt zu einem Verlust grammatischer Fähigkeiten und Verständnisproblemen in Bezug auf Funktionswörter, während das Verständnis von Inhaltswörtern relativ gut erhalten bleibt. Da der größte Teil der neuronalen Netze von Funktionswörtern sich im beschädigten Gehirnareal befindet, ist es wahrscheinlicher, dass diese nicht mehr angemessen funktionieren, während die neuronalen Netze von Inhaltswörtern aufgrund ihrer Verteilung über mehrere kortikale Bereiche durch den Schaden im Broca Areal nur einen geringen Anteil ihrer Netzstruktur verlieren und somit potentiell weiter funktionieren können. Der genau umgekehrte Fall liegt bei der anomischen Aphasie vor, bei der die primären Sprachareale unbeschädigt sind, während sich in anderen Gehirnbereichen Läsionen befinden und es bei ansonsten flüssiger Sprache zu Wortfindungsstörungen kommt: 142 Carlson S. 587 176 „Die Sprache von Patienten mit anomischer Aphasie ist flüssig und grammatikalisch korrekt, ihr Sprachverständnis ist ausgezeichnet, aber sie haben Schwierigkeiten damit, die passenden Worte zu finden. Sie nutzen oft Umschreibungen, um das Fehlende zu ersetzen. Die anomische Aphasie unterscheidet sich von der Wernicke´schen Aphasie. Personen mit einer anomischen Aphasie verstehen, was andere zu ihnen sagen. Was sie selbst sagen, ergibt vollständigen Sinn, auch wenn sie Umschreibungen nutzen, um etwas zu sagen. […] Anomie wurde als eine partielle Amnesie für Worte beschrieben. Sie kann das Resultat von Läsionen anteriorer oder posteriorer Bereiche des Gehirns sein, aber nur posteriore Läsionen führen zu einer flüssigen Anomie. Die wahrscheinlichste Lokalisation von Läsionen, die zu einer Anomie ohne die anderen Symptome der Aphasie führen (Verständnisschwierigkeiten, Agrammatismus, Artikulationsschwierigkeiten), ist der linke Temporal- oder Parietallappen, ohne dass das Wernicke´sche Areal einbezogen ist. Im Falle der oben beschriebenen Frau war der mittlere und untere Gyrus des Temporallappens geschädigt, in denen sich ein wichtiger Bereich des visuellen Assoziationscortex befindet. Das Wernicke´sche Areal war nicht geschädigt.“143 Bei der anomischen Aphasie treten also Wortfindungsstörungen in Bezug auf Inhaltswörter auf, während es keine Probleme mit Funktionswörtern und Satzstrukturen gibt. Das entspricht genau den Erwartungen gemäß der Theorie, da das Broca Areal unbeschädigt ist. Darüber hinaus sollten sich sogar je nach Läsion die von den Wortfindungsstörungen betroffenen Wortbedeutungen kategoriell vorhersagen lassen. Dazu sind mir jedoch noch keine größeren Studien bekannt. Da Läsionen immer durch unerwünschte zufällige Ereignisse entstehen, sind die beschädigten Bereiche bei jedem Patienten unterschiedlich, so dass vergleichende Studien mit vielen Patienten schwierig sind. Am Einzelfall sind diese kategorialen Ausfälle jedoch in der Tat belegt worden: „Als meine Kollegen und ich die anomische Patientin untersuchten, beeindruckte mich die Tatsache, dass es ihr schwerer fiel, Substantive im Vergleich zu anderen Worten zu finden. Ich prüfte ihre Fähigkeit, Handlungen zu benennen, indem ich sie fragte, was die Leute, die man in einer Bildserie sah, taten. Sie machte beim Finden von Verben zumeist keine Fehler. Obwohl sie nicht sagen konnte, was ein Junge in seiner Hand hält, bereitete es ihr keine Schwierigkeiten zu sagen, dass er das warf. Sie wusste, dass ein Mädchen etwas erkletterte, 143 Carlson S. 600 177 konnte mir aber nicht sagen, was sie erkletterte (Zaun). Sie hatte keine Schwierigkeiten, unanschauliche Adjektive zu finden. Beispielsweise konnte sie sagen, dass Zitronen sauer schmecken, das Eis kalt ist und dass sich ein Katzenfell weich anfühlt.“144 Die unterschiedlichen Netzstrukturen von Inhaltswörtern und Funktionswörtern führen also zu den erwarteten unterschiedlichen Ausfallerscheinungen dieser Wortkategorien in Abhängigkeit vom jeweiligen Läsionsort. Wir haben daher nun eine gute Vorstellung davon wie Inhaltswörter und Funktionswörter funktionieren und durch welche Art von neuronalen Netzstrukturen sie jeweils realisiert werden. Im Bereich der Grammatik gibt es natürlich über die Funktionswörter hinaus noch viele weitere Effekte zu erklären. Zum Beispiel besteht ein Satz nicht aus einer ungeordneten Menge an Wörtern, sondern die Wortreihenfolge kann und wird meistens sehr wichtig sein, um die Bedeutung eines Satzes richtig zu verstehen. Das bedeutet, dass es zusätzlich zu den neuronalen Repräsentationen von Wörtern auch noch neuronale Strukturen geben muss, die die Informationen über die zeitliche Struktur der im Satzverband gesprochenen Wörter verarbeiten. In diesem Forschungsbereich gibt es jedoch bisher nur wenige empirische Ergebnisse und die vorhandenen theoretischen Erklärungsansätze sind aufgrund der komplexen zeitlichen Prozessstruktur, die sie zu beschreiben trachten, sehr aufwändig. Darüberhinaus stehen grammatische Betrachtungen an dieser Stelle nicht im Zentrum unseres Interesses. Daher soll hier nur ein kurzer Ausblick erfolgen, um anzudeuten, dass auch von diesen Prozessen erklärt werden kann, durch welche neuronalen Strukturen sie möglicherweise realisiert werden. In Pulvermüllers Theorie wird die neuronale Struktur, die solche Prozesse, für die ein zeitlicher Ablauf relevant ist, leisten kann „sequence set“, „sequence detector“ oder „sequence web“ genannt (siehe unten Abbildung 30). Es handelt sich dabei prinzipiell um ein funktionales neuronales Netz, das aber noch weitere Eigenschaften aufweisen muss, die in der Definition eines funktionalen Netzes bei ihm noch nicht enthalten sind. Es muss in der Lage sein, durch Bahnung unterschwellig voraktiviert zu werden („priming at the neuronal level“) und es muss aufgrund seiner Verschaltungsstruktur spezifisch auf Abläufe reagieren können. Da diese Anforderungen von natürlichen neuronalen Netzen problemlos erfüllt werden können, entwickelt Pulvermüller ein mathematisches Modell über die Aktivierungsverhältnisse in solchen Netzstrukturen. Dadurch ist abzusehen, wie zum Beispiel unsere grammatischen Erwartungen bezüglich der jeweils nächsten Wörter eines Satzes (erwarten wir als nächstes ein Substantiv oder ein Verb, etc.) während des 144 Carlson S. 600 178 Hörens dieses Satzes auf neuronaler Ebene durch Voraktivierungen und Aufrechterhaltung von bestehenden Aktivierungen bewirkt werden könnte. Abbildung 30: Übersicht über die verschiedenen Benennungen von unterschiedlichen Arten von neuronalen Strukturen - Abb. aus Pulvermüller S.171 Es sind also offenbar Modelle möglich, die unsere hochkomplexen und vielgestaltigen Fähigkeiten im Bereich der Sprache auf neuronale Prozesse zurückführen. Wie wir bereits gesehen haben, lassen sich im Bereich einzelner Wörter für die Realisierung als funktionale Netze auch schon empirische Nachweise erbringen. Dass die empirischen Nachweise für zeitliche Abläufe deutlich schwieriger sind und daher in diesen relativ neuen Forschungsbereichen noch nicht vorliegen, sollte nicht verwunderlich sein. An dieser Stelle sollen jedoch keine unbelegten Theorien weiter verfolgt, sondern stattdessen die bisherigen Erkenntnisse zusammengetragen werden. 179 9. Neuropsychologische Bedeutungstheorie - Ein neuer Ansatz 9.1 Bedeutung ist eine neuronale Verknüpfung Nun sollen die diversen in den Kapiteln jeweils gewonnenen Erkenntnisse zu einer einheitlichen Theorie zusammengefügt werden. Es gilt somit, die einzelnen Erkenntnisse, die bei der Betrachtung der Bedeutungstheorien von Frege, Wittgenstein und Quine gewonnen wurden, mit den Wissensbeständen zum Spracherwerb aus der Linguistik und den neurobiologischen Erkenntnissen zu vereinen. Es geht darum, einen alternativen Entwurf einer Bedeutungstheorie zu erstellen, in dessen Zentrum neuronale Prozesse stehen. Dabei soll der seltsamen Entität „Bedeutung“ eine physikalische Grundlage zugeordnet werden, genau wie Quine es sich gewünscht hatte. Natürlich kann es sich im Rahmen dieser Arbeit nur um eine erste Skizze einer neuropsychologischen Bedeutungstheorie handeln, die jedoch eine interessante und erfolgversprechende Basis für weitere Forschungen darstellen sollte. In der folgenden Darstellung werde ich in physiologischer Hinsicht nicht so ins Detail gehen, wie in den Kapiteln 7 und 8, sondern eher philosophische Strukturanalyse betreiben. Dadurch wird die entstehende Theorie zugleich etwas allgemeiner und ausbaufähiger in Hinblick auf zukünftige Erkenntnisse bezüglich neurophysiologischer Details. Trotzdem werden die bereits beschriebenen neuronalen Prozesse vorausgesetzt, auch wenn sie nicht im Detail wieder dargestellt werden. Mein grundlegender und aus philosophischer Perspektive ungewöhnlicher Vorschlag besteht darin, dass Bedeutung ein physikalisches Objekt ist. Bedeutung besteht in der physischen neuronalen Vernetzung der neuronalen Repräsentation eines Wortes (als aktuelle Reiz-Wahrnehmung oder Gedächtnisinhalt) und der neuronalen Repräsentation eines Gegenstands (als aktuelle ReizWahrnehmung oder sensorischer Gedächtnisinhalt) im Gehirn eines Sprechers. Ich werde zunächst ausführen, wieso es strukturanalytisch überhaupt sinnvoll ist, die Bedeutung als Vernetzung zu bestimmen. In weiteren Schritten zeige ich dann, wie man sich diese physische neuronale Verknüpfung vorzustellen hat, welche Gehirnstrukturen durch sie verknüpft werden, wie die Kompositionalität der Bedeutung realisiert wird und wie wir von einfachen Wörtern, die Gegenstände bezeichnen, zu komplizierten theoretischen Begriffen fortschreiten. Weiterhin gilt es noch darzustellen, wie diese Theorie den Spracherwerb, die Bedeutungsunterschiede von Wörtern für verschiedene Sprecher, und die Möglichkeit der Entstehung und Weiterentwicklung einer Sprache als System von Zeichen erklärt. Zuletzt werde ich dann noch zeigen, inwiefern meine Theorie die wichtigsten Herausforderungen 180 für jede Bedeutungstheorie bewältigen kann, und warum einige verwandte Themenbereiche, die in anderen Bedeutungstheorien unnötigerweise einbezogen werden, in meiner Bedeutungstheorie ausgeblendet werden. Es wird sich nämlich zeigen, dass sie nicht nur theoretisch auf eine andere Ebene gehören, sondern auch physisch vollkommen anders realisiert werden. 9.1.1 Von der Referenz zur Verknüpfung In der philosophischen Diskussion der Bedeutung als Referenz finden sich häufig Pfeilmetaphern. Die Wörter sind offensichtlich mit den Gegenständen verknüpft, sie deuten auf sie. Bei dieser Betrachtungsweise liegt eine Symbolisierung mit einem Richtungspfeil nahe. Das Wort bedeutet den Gegenstand „Dreieck“ Wortbedeutung als einseitige Referenz Damit betont man einen wichtigen konzeptionellen Teil der Bedeutung, der in Quines Reizbedeutung und Wittgensteins Gebrauchstheorie nicht genug hervorgehoben wird. Wir sind nämlich durchaus häufig in der Lage, mit einem einzigen Wort für andere Personen eindeutig auf ein bestimmtes Objekt hinzuweisen. Darüber hinaus lassen sich aber noch weitere Effekte beobachten, die immer dann auftreten, wenn ein Wort geäußert wird. Man erinnert sich zumeist direkt an vergangene sensorische Wahrnehmungen genau des Gegenstands, auf den der Sprecher verweisen wollte, oder hat im allgemeinen Fall zumindest eine oder mehrere Vorstellungen von Objekten, die man mit diesem Wort normalerweise verbindet. Aufgrund der Art der Formulierung der Fragestellung, wie Wörter auf Gegenstände deuten können, blieb jedoch bisher die andere Richtung völlig unbeachtet. Aber auch der Anblick von Gegenständen aktiviert die ihnen entsprechenden Bezeichnungen im Sprachareal. Man ist zwar nicht gezwungen, die Namen von Gegenständen auszusprechen, oder an sie zu denken, wie es bei der extrem starken neuronalen Verknüpfung zwischen Schrift- und Lautsprache der Fall ist 145, aber die entsprechenden Regionen werden voraktiviert, so dass ein Zugriff leichter möglich wird. Die neuronale Verknüpfung besteht also in beide Richtungen. Das eine aktiviert das jeweils andere. Daher sollte Bedeutung nicht mit einem Richtungspfeil symbolisiert werden, sondern mit einem Pfeil in beide Richtungen, um die 145 Vgl. PU, Abschnitt 165, S. 325: „Ja, ich kann ein deutsches gedrucktes Wort gar nicht ansehen, ohne einen eigentümlichen Vorgang des innern Hörens des Wortklangs.“ Vgl. auch Kapitel 3.2.2 181 Relation der beidseitigen Verknüpfung abzubilden. Wort und Gegenstand sind verbunden „Dreieck“ Wortbedeutung als zweiseitige Verknüpfung 9.1.2 Eine Verknüpfung zwischen zwei neuronalen Repräsentationen Hier stellt sich die komplizierte Frage, wieso ein Wort (sei es als Geräusch oder als Zeichenfolge) überhaupt auf einen Gegenstand verweisen kann, also wie so unterschiedliche Dinge überhaupt verknüpft sein können. Die Antwort besteht darin, dass diese Dinge in der Welt überhaupt nicht direkt verknüpft sind. Verknüpft werden in Wirklichkeit nur neuronale Repräsentationen von Wörtern und neuronale Repräsentationen von Gegenständen. Ohne den Zwischenschritt über menschliche Gehirne können Wörter und Gegenstände nicht verbunden sein, wenn man vom trivialen Sonderfall der direkten Beschriftung von Gegenständen mit ihrem Namen absieht. Das wird offensichtlich, wenn man ein Wort einer Sprache betrachtet, die man nicht versteht. Es gibt dann für uns von diesem Wort überhaupt keine Verbindung zu dem Gegenstand, der von dem uns unbekannten Wort bezeichnet wird. Eine solche Verbindung besteht nur in den Gehirnen von Sprechern dieser uns unbekannten Sprache. Bei einer Analyse der relevanten Entitäten finden sich also auf den ersten Blick vier verschiedene Typen: Gegenstände, Zeichen146, neuronale Repräsentationen von Gegenständen und neuronale Repräsentationen von Zeichen. Wir haben es demnach mit zwei zunächst voneinander unabhängigen Entitäten zu tun, die jeweils mit einer anderen verknüpft sind. Erst diese beiden anderen sind dann untereinander verknüpft. Wie bereits gezeigt wurde, wird diese zweite Verbindung durch andere neuronale Prozesse realisiert als die erste, aber diese Detailtiefe benötigen wir an dieser Stelle nicht. In der Welt gibt es die physischen Zeichen (Lautbilder und Schriftbilder) und die davon theoretisch separierbaren restlichen Gegenstände. Es liegt zwar kein prinzipieller Unterschied zwischen den physischen Zeichen (zum Beispiel realisiert als strukturierte Tintenflecken auf Papier) und anderen physischen Gegenständen vor, aber wir erwerben in der Kindheit einen komplexen Erkennungsmechanismus, der dafür sorgt, dass wir als lesefähige Erwachsene bei der visuellen Analyse unserer Umwelt die spezielle Struktur von Buchstaben direkt 146 „Zeichen“ wird hier als allgemeine Formulierung benutzt, unter die alle unterschiedlichen Ausprägungen (für die akustische, visuelle oder haptische Wahrnehmung gedacht) fallen, in der die Wortform physisch vorliegen kann. 182 erkennen. Aufgrund einer analogen Fähigkeit erkennen wir auch Sprachlaute einer uns völlig unbekannten Sprache trotzdem direkt als Sprachlaute und verwechseln sie nicht mit anderweitigen Geräuschen. Der Unterschied zwischen Zeichen und den restlichen Gegenständen besteht also nicht in der Welt, sondern nur in unserem Umgang mit ihnen. Er besteht darin, dass bei Menschen mit Lesefähigkeiten (zusätzlich zu den basaleren Analyseprozessen in Hinblick auf Farben und Kontraste) in Bezug auf Zeichen eine detailliertere Formanalyse ähnlich wie bei der Gesichtserkennung automatisch abläuft. Nur diese erlernte Analysefähigkeit hebt die Zeichen aus der Menge der anderen wahrgenommenen Gegenstände heraus. Denn Zeichen nehmen wir genau wie Gegenstände durch Licht- und Schallwellen mit unseren Wahrnehmungsorganen wahr, und in unseren Gehirnen laufen dadurch neuronale Verarbeitungsprozesse und Veränderungen der neuronalen Verschaltungsstruktur ab, an deren Ende spezifische Aktivitätsmuster stehen, die dann jeweils die Repräsentationen einer dieser beiden Entitäten darstellen. Alle vier Entitäten (Gegenstände, Zeichen, neuronale Repräsentationen von Gegenständen und neuronale Repräsentationen von Zeichen) können gleichzeitig bestehen, ohne dass man von Bedeutung reden müsste. Gegenstände und Zeichen haben offensichtlich sowieso keine Bedeutung, solange keine psychischen Systeme involviert sind, die sie wahrnehmen, aber auch die Repräsentationen von Gegenständen oder Zeichen durch neuronale Strukturen sind noch nicht die Bedeutung, sondern die Bedeutung besteht in der Vernetzung dieser neuronalen Repräsentationen. Sie ist physisch realisiert als (mindestens) ein neuronaler Pfad, der dazu führt, dass die eine von der jeweils anderen neuronalen Repräsentation aktiviert wird, oder unter hemmenden Umständen zumindest eine Voraktivierung stattfindet. Im folgenden Diagramm findet sich eine übersichtliche Darstellung der bisher durchgeführten allgemeinen Analyse: 183 Gehirn eines Menschen Bedeutung Haben die Tendenz sich gegenseitig zu aktivieren (neuronales Lernen) Wahrnehmungsorgane sammeln Informationen über die Außenwelt Physisches Zeichen Neuronale Repräsentation eines Gegenstands Wiederholte Wahrnehmung führt zur Erstellung der neuronalen Repräsentation Wiederholte Wahrnehmung führt zur Erstellung der neuronalen Repräsentation Neuronale Repräsentation eines Zeichens Gegenstand Es gibt keine Verknüpfung zwischen Gegenstand und Zeichen in der Welt Außenwelt Abbildung 31: Bedeutung als neuronale Verknüpfung zwischen neuronalen Repräsentationen von Zeichen und neuronalen Repräsentationen von Gegenständen 147 147 „Zeichen“ wird hier als allgemeine Formulierung benutzt, unter die alle unterschiedlichen Ausprägungen (für die akustische, visuelle oder haptische Wahrnehmung gedacht) fallen, in der die Wortform physisch vorliegen kann: Schallwellen, Schwarzschrift, Reliefschrift oder Punktschrift 184 Dieser grundlegenden Strukturanalyse der ablaufenden Prozesse werden nun weitere Details hinzugefügt. Bedeutung ist immer an ein hoch entwickeltes „psychisches System“ 148 gebunden. Daher ist Bedeutung sprachbasiert und kein absoluter Begriff, in dem Sinne, dass sich niemals angeben lässt, was ein Wort W bedeutet. Angeben lässt sich immer nur, was ein Wort W in der Sprache S für die meisten Sprecher der Sprache S üblicherweise bedeutet, oder was es für einen bestimmten Sprecher der Sprache S (eventuell abweichend von der allgemein üblichen Bedeutung) bedeutet. Bedeutung ist eine Verknüpfung, die auf zwei verschiedenartigen Verknüpfungen basiert. Die beiden Verknüpfungsarten können und sollten unterschieden werden: Die erste Verknüpfung stellt die Verknüpfung zwischen Gegenständen und ihren neuronalen Repräsentationen dar. Sie erfolgt über die Wahrnehmungsorgane und die daran anschließenden neuronalen Verarbeitungswege, in denen die Wahrnehmungsdaten nach relevanten Kategorien wie Farbe, Form, Kontur, Bewegung, usw. zunächst einzeln in spezialisierten Gehirnarealen analysiert und dann für unsere bewusste Wahrnehmung wieder zu einem Gesamtbild zusammengesetzt werden. Dieser Prozess ist automatisiert und kann nicht bewusst beeinflusst werden. Wiederholte Wahrnehmung verwandter Strukturen in der Umwelt führt zu einer entsprechenden Anpassung der neuronalen Strukturen, so dass die Wiedererkennung von bereits bekannten, aber auch die Unterscheidung von sehr ähnlichen Dingen in Zukunft vereinfacht wird. Diese basale Wahrnehmung und Gedächtnisbildung funktioniert für die Verknüpfung zwischen Zeichen und ihrer neuronalen Repräsentation ganz genauso wie für die Verknüpfung zwischen Gegenständen und ihrer neuronalen Repräsentation. Dies ist nicht weiter verwunderlich, denn Zeichen sind für unsere Sinne ebenso physische Objekte und hinsichtlich ihrer Objekthaftigkeit nicht zu unterscheiden von den „Gegenständen“, sondern nur hinsichtlich unseres Umgangs mit ihnen. Während unseres Lebens spezialisieren sich Neuronenverbände auf eben die Fähigkeiten, die wir häufig benötigen. Das gilt sowohl für die Neuronen in den Analysepfaden der Wahrnehmung als auch für die Motorneuronen, die unsere Bewegungen steuern. Im Gehirn eines professionellen Musikers werden sich zum Beispiel die neuronalen Bereiche zur akustischen Wahrnehmung und zur Feinkoordination der Hände und Finger vergrößern und sehr spezialisierte Neuronen ausbilden. Die Feinkörnigkeit der Repräsentation bestimmter Umweltbereiche variiert demnach für jeden einzelnen Menschen in Abhängigkeit davon, welche Relevanz die Daten für ihn haben. Diese Unterschiede zwischen den Repräsentationen verschiedener Menschen erklären in einem späteren Schritt die Möglichkeit der 148 Mit dem Begriff „psychisches System“ wird hier immer ein menschliches Gehirn bezeichnet, und er sollte nicht mit unterbestimmten metaphysischen Begriffen wie „Geist“ oder „Seele“ verwechselt werden. Der einzige Grund, von psychischen Systemen statt von Gehirnen zu reden, besteht darin, die prinzipielle Möglichkeit offen zulassen, dass durch Evolution oder menschliche Technik irgendwann ähnliche Strukturen entstehen könnten, die keine menschlichen Gehirne sind, aber auch über die Funktionalität der Bedeutung verfügen. 185 Bedeutungsunterschiede von gleichen Wortformen für mehrere Sprecher, insofern diese leicht unterschiedliche Repräsentationen mit gleichen Wörtern verknüpfen. An dieser Stelle geht es jedoch erst einmal nur um die generelle Möglichkeit der Gedächtnisbildung und der Bildung von Repräsentation der Gegenstände und der Zeichen im Gehirn. Bisher haben wir Erklärungen für die Entstehung neuronaler Repräsentationen von Gegenständen in einem Gehirnareal und neuronaler Repräsentationen von Zeichen in einem anderen Gehirnareal, wobei eine neuronale Repräsentation eben darin besteht, dass spezifische neuronale Strukturen immer nur dann aktiv werden, wenn genau der repräsentierte Gegenstand wahrgenommen wird, oder die Person sich gerade erfolgreich an genau diesen Gegenstand erinnert. Damit verbleibt nur noch die Frage nach der Realisierung der Verknüpfung zwischen zwei solchen Repräsentationen: Die zweite Verknüpfung stellt die Verknüpfung zwischen den neuronalen Repräsentationen der Zeichen und den neuronalen Repräsentationen der Gegenstände dar. Sie wird realisiert durch eine oder mehrere neuronale Bahnen zwischen den zwei neuronalen Netzbereichen, die die jeweilige Repräsentation enthalten. Diese starke Verbindung ermöglicht die schnelle Aktivierung des jeweils anderen Bestandteils des funktionalen neuronalen Netzes149. Die interessante Frage ist natürlich, wieso genau diese neuronale Bahn ausgebildet worden sein sollte. Es sind ja nicht alle Neuronen untereinander verknüpft. Ein bestimmter Gegenstand wurde oft genug wahrgenommen, um eine Repräsentation im visuellen Assoziationscortex verursacht zu haben, und das Lautbild eines bestimmten Wortes hat ebenfalls eine Repräsentation im Wernicke´schen Areal verursacht. Wieso werden jedoch jetzt genau die richtigen Wortformrepräsentationen mit den Repräsentationen genau der Gegenstände verknüpft, die sie in der Landessprache der Person gewöhnlich bezeichnen? Diese Verknüpfung ermöglichen neuronale Lernmechanismen, unter anderem der als assoziative Langzeitpotenzierung bekannte Effekt. Es handelt sich dabei um eine spezielle Form der Langzeitpotenzierung, bei der die gleichzeitige Stimulation schwacher und starker Synapsen eines Neurons dafür sorgt, dass die schwachen Synapsen gestärkt werden.150 Synapsen ermöglichen generell die biochemische Signalübertragung an andere Neuronen. Sie können jedoch unterschiedlich stark ausgeprägt sein, so dass sehr unterschiedliche Verschaltungen möglich sind. Wenn ein Neuron aktiviert wird, wird es dies zwar an seinen Synapsen signalisieren, aber dadurch fangen die Neuronen, an denen die Synapsen anliegen, nicht direkt ebenfalls an zu feuern.151 Abgesehen davon, dass es neben aktivierenden auch hemmende Verschaltungen von Neuronen gibt, muss erst ein bestimmter Schwellenwert positiver Aktivierung überschritten werden, damit ein Neuron anfängt zu feuern. Die assoziative Langzeitpotenzierung besteht nun darin, dass 149 Siehe Kapitel 8.1 Die Details dieses Prozesses wurden in Kapitel 7.7 beschrieben. 151 Siehe Kapitel 7.4 150 186 immer wenn ein Neuron erfolgreich aktiviert wurde, genau die schwachen Synapsen vergrößert werden, die gleichzeitig aktiv waren, während stärkere Synapsen dafür sorgten, dass der Schwellenwert zur Aktivierung dieses Neurons überschritten wurde. Das bedeutet, dass „zufällig“ immer gleichzeitig ablaufende Prozesse langfristig miteinander verknüpft werden, und sich dann gegenseitig aktivieren. Offensichtlich ist es für einen Organismus nützlich, zusammengehörige Daten aus der Umwelt, die von verschiedenen Wahrnehmungsorganen häufig zur gleichen Zeit ermittelt werden, als zusammengehörig zu kategorisieren. Darum verwundert es nicht, dass es einen solchen neuronalen Mechanismus der Verknüpfung gibt. Und ebendieser ermöglicht auch die Verknüpfung zwischen den neuronalen Repräsentationen der Zeichen und den neuronalen Repräsentationen der Gegenstände, also die physische Realisierung der Bedeutung. Betrachten wir diesen Mechanismus im Detail: Die zwei bedeutsamsten Gehirnareale für die Sprachfähigkeit sind das Wernicke´sche Areal und das Broca´sche Areal.152 Im Wernicke-Areal findet die Worterkennung statt, während im Sprachproduktion Broca-Areal gesteuert die wird. Interessanterweise liegt das Wernicke-Areal genau im auditiven, Grenzgebiet dem zwischen visuellen dem und dem somatosensorischen Assoziationscortex. Die verschiedenen Assoziationscortices erhalten ihre Informationen entsprechenden Arealen: von primären „Neuronale den jeweils sensorischen Schaltkreise im sensorischen Assoziationscortex analysieren Abbildung 32: Lokalisation der primären Sprachareale – Abb. aus Carlson S. 586 die Information, die sie aus dem primären sensorischen Cortex erhalten; hier findet Wahrnehmung statt und es erfolgt die Gedächtnisbildung. Die Anteile des sensorischen Assoziationscortex, die den primären sensorischen Arealen am nächsten liegen, erhalten die Information nur von einem sensorischen System. Beispielsweise analysiert die Region, die sich unmittelbar an den primären visuellen Cortex anschließt, visuelle Information und speichert visuelle Gedächtnisspuren. Dagegen erhalten die Regionen des sensorischen Assoziationscortex, die sich weiter entfernt von den primären sensorischen Arealen befinden, Information von mehr als einem sensorischen System. Daher sind sie an verschiedenen Arten von Wahrnehmungen und Gedächtniseintragungen beteiligt. Diese Regionen erlauben die 152 Zur Verbesserung der Lesbarkeit im Folgenden als „Wernicke-Areal“ und „Broca-Areal“ abgekürzt. 187 Integration der Information aus mehreren sensorischen Systemen. Beispielsweise können wir die Verbindung zwischen dem Anblick eines bestimmten Gesichtes und dem Klang einer bestimmten Stimme herstellen.“153 Da das Wernicke-Areal an der Grenze von drei Assoziationscortices liegt, erscheint es sinnvoll, dass genau hier die Verknüpfung von visuell verarbeiteter Schriftsprache und auditiv erfasster Lautsprache stattfindet. Diese Lage ist außerdem ideal für die Bedeutungsverknüpfung, weil die Gedächtnisinhalte aller Sinne in den angrenzenden Arealen vorliegen, so dass sich kurze neuronale Wege ergeben. Welche weiteren Belege gibt es für die These, dass die Bedeutung von Wörtern realisiert wird durch Verknüpfungen des Wernicke-Areals mit den Zellverbänden in den umliegenden Regionen der drei Assoziationscortices? Der wichtigste Beleg besteht darin, dass unterschiedliche Schädigungen Assoziationscortex für den im Verlust bestimmter unterschiedlicher Arten Bedeutung sorgen. sprachlichen Fähigkeiten von Die Patienten mit von solchen Schädigungen sind prinzipiell vollständig vorhanden, nur jeweils einer bestimmten Kategorie von Wörtern kann keine Bedeutung mehr zugeordnet werden. Ein solches Beispiel ist der Fall der Autotopagnosie, bei der eine Schädigung des Assoziationscortex im linken Parietallappen dazu führt, dass die Patienten die eigenen Körperteile nicht mehr benennen können: „Personen, die sich ansonsten ganz normal unterhalten können, sind nicht in der Lage, zuverlässig auf ihre Ellbogen, ihre Knie oder ihre Wangen zu Abbildung 33: Lokalisation der Assoziationscortices – zeigen, wenn man sie darum bittet. Und sie Abb. aus Carlson S. 96 153 Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 96 188 können Körperteile nicht benennen, wenn der Untersucher auf diese zeigt. Allerdings haben sie keine Schwierigkeiten damit, die Bedeutung anderer Worte zu verstehen.“154 Es gibt multiple analoge Fälle zur Autotopagnosie, in denen Patienten die Bedeutung von Wörtern in bestimmten anderen Kategorien verloren ging. So beschreibt Carlson den Fall einer Patientin mit Schädigung im rechten Parietallappen wie folgt: „Sie war aufgeweckt und intelligent und zeigte keine Anzeichen von Aphasie. Allerdings verwechselte sie Richtungen und andere räumliche Relationen. Wenn man sie darum bat, konnte sie auf die Zimmerdecke und auf den Fußboden zeigen, aber sie konnte nicht sagen, was sich oberhalb des anderen befindet. Ihre Wahrnehmung anderer Menschen war anscheinend völlig normal. Sie konnte aber nicht sagen, ob sich der Kopf einer Person oberhalb oder unterhalb des Körpers befindet. Ich schrieb eine Reihe von Fragen mit mehrfacher Antwortauswahl auf, um ihre Fähigkeit zu prüfen, ob sie Worte zur Bezeichnung räumlicher Relationen verwenden konnte. Die Ergebnisse dieses Tests zeigten mir, dass sie die Bedeutung solcher Worte wie oben, unten und unterhalb nicht verstand, wenn sie sich auf räumliche Relationen bezogen. Sie konnte diese Worte aber ganz normal verwenden, wenn sie sich auf nichträumliche Relationen bezogen.“155 Die bisher erwähnten Fälle bezogen sich auf Störungen im somatosensorischen Assoziationscortex, so dass bisher auch noch andere Thesen über die neuronale Realisierung von Bedeutung möglich wären. Es gibt aber auch Beispiele für Probleme mit Bedeutungen, in denen die anderen Assoziationscortices betroffen sind. Man betrachte die Beschreibung eines solchen Falls, in dem eine linkstemporale Hirnschädigung vorlag, die es dem Patienten T. B. unmöglich machte, die Bedeutung von Wörtern für Lebewesen zu erklären: „Wenn er beispielsweise gebeten wurde, das Wort Nashorn zu definieren, dann sagte er: »Ein Tier. Zu den Funktionen kann ich nichts sagen«. Zeigte man ihm aber das Bild eines Nashorns, dann sagte er: »Enorm, wiegt über eine Tonne, lebt in Afrika.« Ganz ähnlich war es, wenn man ihn bat anzugeben, was ein Delfin sei, dann sagte er: »Ein Fisch oder ein Vogel.« Aber beim Anblick eines Bildes des Delfins sagte er: »Der Delfin lebt im Wasser... Delfine werden trainiert, hochzuspringen und aus dem Wasser herauszukommen.« [...] Wenn man T. B. bat, die Bedeutung der Worte für unbelebte Gegenstände zu definieren, hatte er 154 155 Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 596 Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 596 189 keine Schwierigkeiten.“156 Diese Befunde, dass die Wahrnehmung von Wörtern aus unterschiedlichen Kategorien unterschiedliche Gehirnregionen aktiviert, wurden mit funktionellen bildgebenden Verfahren bei gesunden Personen in mehreren Experimenten bestätigt: „Spitzer et al. (1995) baten ihre Versuchspersonen, Bilder zu benennen, die zu vier verschiedenen semantischen Kategorien gehörten: Tiere, Möbel, Früchte und Werkzeuge. FMRT-Schnittbilder zeigten einige kategorial spezifische Aktivationsorte im Frontal- und Temporallappen.“157 Doch kommen wir nochmal zurück zu den oben beschriebenen Defiziten der verschiedenen Patienten. Es ist wichtig festzuhalten, dass sie alle nicht an einer massiven Gehirnschädigung leiden, die keine genauen Rückschlüsse auf spezifische neuronale Strukturen zuließe. Die Patienten sind in der Lage, die Wortformen der für sie problematischen Wörter genauso wie die Wortformen von allen anderen Wörtern wahrzunehmen und zu wiederholen. Das bedeutet, dass ihre Worterkennung im Wernicke-Areal noch einwandfrei funktioniert. Darüber hinaus sind ihre Gedächtniseinträge über die jeweils relevanten Gegenstände ebenfalls noch vorhanden. Diese Gedächtniseinträge können ganz normal abgerufen und angewendet werden, wenn die Gegenstände nicht sprachlich referenziert, sondern bildlich dargestellt werden, oder einfach physisch präsent sind. Dies zeigt, dass in allen oben angeführten Beispielen, in denen Patienten die Bedeutungen gewisser Wörter nicht mehr angeben konnten, jeweils nur die neuronale Verknüpfung zwischen Worterkennung und den Gedächtnisinhalten in den Assoziationscortices beschädigt ist. Und das wiederum stützt meine oben erläuterte These, dass die Bedeutung eines Wortes einem Sprecher genau dann bekannt ist, wenn eine funktionierende neuronale Verknüpfung zwischen seiner Repräsentation des Wortes (nach erfolgreicher Worterkennung im Wernicke-Areal) und seiner Repräsentation des zugehörigen Gegenstands (der relevanten Gedächtnisinhalte für diesen Gegenstand in den sensorischen Assoziationscortices) vorliegt. Die bisherige Modellierung ist allgemeingültig, unabhängig von den physischen Details der Realisierung der neuronalen Verknüpfungen. Eine mit hoher Wahrscheinlichkeit zutreffende weitergehende Theorie darüber, wie diese Verknüpfungen als funktionale neuronale Netze aufgebaut sind, wurde im 8. Kapitel dargestellt. Aber man könnte diese Spezifikation auch auslassen und die Theorie damit offener für zukünftige Forschungen in physiologischen Detailfragen halten. 156 157 Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 596 Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 596 190 9.2 Die Kompositionalität der Bedeutung Unsere philosophischen Betrachtungen haben gezeigt, dass die Bedeutung eines Satzes sich zusammensetzt aus der Summe der Bedeutungen der Wörter, die er enthält. Wie die einzelnen Wortbedeutungen neuronal realisiert sind, habe ich in der obigen Theorie dargestellt. Welche neuronalen Prozesse sind nun die Grundlage dafür, dass wir komplexe Bedeutungsstrukturen in Form von Sätzen bilden können? Man kann sich die Konstruktion der Gesamtbedeutung als aus zwei unterschiedlichen Verarbeitungsprozessen zusammengesetzt vorstellen. Auf der einen Seite haben wir einfach nur die Summe der Aktivierungen der einzelnen Wörter. Wir sind problemlos dazu in der Lage, eine oder mehrere mögliche Weltbeschreibungen aus einer zufällig oder nach Anfangsbuchstaben geordneten Wörtermenge, die keine übliche Satzstruktur aufweist, zu entnehmen (z. B.: das die Kind Mutter tadelt). Darüber hinaus ist es allerdings genauso offensichtlich, dass wir über ein implizites Wissen der grammatischen Regeln unserer Muttersprache verfügen. Wir gewinnen also die exakte Bedeutung des Satzes auch mit Hilfe seiner Struktur. Es läuft also, immer wenn mehrere Wörter wahrgenommen werden, ein Analyseprozess parallel zur Wortbedeutungsaktivierung ab, der anhand der Wortreihenfolgen und des Kasus der Wörter zusätzliche Informationen ermittelt, die allein aus der Summe der Wortbedeutungen nicht zu entnehmen sind. Das zeigt sich deutlich bei einer Untersuchung an Patienten mit einer Schädigung im Broca-Areal, die als Broca´sche Aphasie bezeichnet wird, und die unter anderem Agrammatismus zur Folge hat, sich ansonsten aber dadurch auszeichnet, dass es Probleme bei der Sprachproduktion, aber nicht beim Verständnis von Wörtern gibt. „Schwartz, Saffran und Marin zeigten Patienten mit Broca´scher Aphasie Bildpaare, in denen die Handlungsträger und Handlungsobjekte ausgetauscht wurden: Beispielsweise ein Pferd tritt eine Kuh und eine Kuh tritt ein Pferd; ein Traktor zieht ein Auto und ein Auto zieht einen Traktor; ein Tänzer applaudiert einem Clown und ein Clown applaudiert einem Tänzer. Bei der Darbietung jedes Bildpaares lasen sie die Grundaussage zum Bild, z. B. Das Pferd tritt die Kuh. Die Aufgabe der Probanden bestand darin, auf das richtige Bild zu zeigen, um zu erkennen, ob die grammatikalische Konstruktion des Satzes verstanden wurde. Die Leistung der Probanden war sehr dürftig.“158 Es ist also höchst wahrscheinlich, dass es mehrere parallele Analyseprozesse gibt, genau wie es bei der bereits deutlich besser erforschten visuellen Wahrnehmung der Fall ist, bei der Farbe, Form und 158 Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 587 191 Bewegung einzeln verarbeitet und später wieder zusammengesetzt werden 159. Wenn wir an gesprochene Sprache denken, fallen uns sogar noch weitere parallele Analysepfade ein, wie zum Beispiel der Versuch der Entnahme von Absichten und Stimmungen allein aus der Prosodie des Sprechers, die mit den beabsichtigten Bedeutungen der geäußerten Sätze nicht überein stimmen müssen. Die Bedeutung eines Satzes setzt sich also zusammen aus der Summe der Wortbedeutungen kombiniert mit den Ergebnissen der Analysepfade bezüglich der Grammatik und Prosodie. 9.3 Die Entstehung komplexer theoretischer Begriffe Die bisherigen Ausführungen gingen zunächst von der klassischen Vereinfachung aus, dass Wörter immer nur auf Gegenstände und deren Attribute oder Bewegungen verweisen. Diese Vereinfachung ist jedoch durchaus legitim, um zunächst die Grundlagen der neuronalen Realisierung von Bedeutung zu erläutern, wenn es prinzipiell möglich ist, die Entstehung der höherstufigen Begriffe, über die wir zweifelsfrei ebenfalls verfügen, in einem zweiten Schritt zu erklären. In diesem speziellen Fall ist es darüber hinaus auch noch besonders sinnvoll, zunächst die einfachen gegenstandsbezogenen Bedeutungen zu erklären, denn wie im 6. Kapitel gezeigt wurde, sind es genau diese Wörter, die Kinder zuerst lernen, wenn sie damit beginnen, ihre Muttersprache zu erlernen. Wenn sich im Gehirn eines Kindes eine Menge neuronaler Repräsentationen von Objekten und auch von Phonemen und Wörtern, und ebenfalls einige Verknüpfungen zwischen ihnen ausgebildet haben, kann es damit anfangen, nach dem Vorbild der Erwachsenen Wörter zu bedeutungsvollen Sätzen zu verbinden. Durch genaue Beobachtung der Reaktionen der Umwelt auf die Sprechversuche werden im weiteren Verlauf Korrekturen vorgenommen und ausdifferenziertere Begriffe gebildet. Dabei werden neue Wörter erlernt oder bereits bekannte Wörter mit detaillierteren neuronalen Repräsentationen verknüpft. Zum Beispiel wird ein Langhaardackel zunächst nur als „Wauwau“, dann als „Hund“ oder „kleiner Hund“ bezeichnet, bevor aufgrund elterlicher Belehrungen diese Hunderasse anhand ihrer speziellen Attribute von anderen unterschieden und mit dem üblichen Namen versehen werden kann. Wir bauen also aus den einfachen Bedeutungen „Hund“, „klein“, „kurze Beine“, „langes Fell“ durch neuronale Verknüpfung über parallele Aktivierung in einer zweiten Lernphase kompliziertere Bedeutungen 159 Zu den Details der Verarbeitung der visuellen Wahrnehmung siehe Carlson, Neil R.: Physiologische Psychologie München: Pearson Studium, 2004, S. 194 – 239 192 auf. Dabei ist es jedoch irrelevant, ob die neuen Verknüpfungen mit neuronalen Repräsentationen eines Gegenstandes verknüpft werden. Es ist möglich, beliebige neue Wörter nur mit der Kombination mehrerer Wortrepräsentationen zu verknüpfen. Wenn wir das Wort „Junggeselle“ über die Definition erlernen, statt am Beispiel, dann erweitert sich unsere neuronale Struktur in der Hinsicht, dass das neue neuronale Netz, das die Repräsentation der Wortform des Wortes „Junggeselle“ darstellt, mit den Repräsentationen von „Mann“ und „unverheiratet“ verknüpft wird. Wenn wir Beispiele von Junggesellen kennen, verknüpfen wir die sensorischen Repräsentationen im Gedächtnis ebenfalls mit diesen, andernfalls eben nicht. Daher können wir Wörter wie „Pegasus“ zu verwenden lernen, obwohl wir keine neuronale Repräsentation eines Gegenstands mit diesem Wort verknüpfen können. Wir verknüpfen „Pegasus“ einfach mit den Worten „Pferd“ und „Flügel“ und deswegen automatisch auch mit allen damit verbundenen sensorischen Gedächtnisinhalten. Dadurch können wir sogar eine bildliche Vorstellung von Objekten gewinnen, die es in der Welt überhaupt nicht gibt, indem wir die sensorischen Gedächtnisinhalte über Pferde und Flügel gleichzeitig aktivieren und zusammenfügen. Prinzipiell funktioniert dies genauso wie für jede Person in fiktionalen Texten, deren Name mit den fiktiven Beschreibungen ihres Aussehens und mit ihren Taten verknüpft wird. Durch diese neuronalen Verknüpfungsmöglichkeiten ist die Möglichkeit der Entstehung sowohl unserer Wörter für Fantasieobjekte als auch der Wörter mit beliebig komplexer Bedeutung aus den „einfachen“ Wörtern, die mit sensorischen Repräsentationen von Gegenständen verknüpft sind, hinreichend erklärt. Es bleibt jedoch noch die Problematik der abstrakten oder theoriebasierten Begriffe, wie „Gerechtigkeit“, „Existenz“, den logischen Junktoren oder grammatischen Satzelementen, bei denen nicht auf den ersten Blick zu sehen ist, inwiefern sie aus den wahrnehmungsbasierten Begriffen zusammengesetzt sein sollten. Solche Wörter bezeichnen die Ergebnisse komplizierter und langfristiger Analyseprozesse unserer Wahrnehmungsdaten. Sie wurden nach der Erarbeitung eines theoretischen Konzepts per Definition in die Sprache eingeführt. Während des kindlichen Spracherwerbs werden solche Wörter nicht erlernt, oder es wird zunächst nur ein verschwommenes grammatikalisches Wissen erworben, in was für Sätzen solche Wörter vorkommen. Zum Beispiel enthalten frühe kindliche Sätze mit Aufzählungen wie „Papa, Mama, Opa Garten gehen.“ zunächst kein „und“ zwischen den aufgezählten Gegenständen. Erst durch den korrigierenden Eingriff anderer Sprecher wird erlernt, dass in solchen Sätzen immer dieses seltsame Wort, das weder für einen Gegenstand noch für eine Eigenschaft oder eine Tätigkeit steht, verwendet werden muss. Es wird zunächst nur die grammatische Strukturregel erlernt, wann „und“ zu verwenden ist. Erst viel später kann dann die Wortbedeutung von „und“ über das Verstehen der diesem Wort zugrunde liegenden theoretischen Konzeption erworben werden. Ähnlich verhält es sich mit „Gerechtigkeit“. Wie in Kapitel 6.3.4 gezeigt wurde, wird für solche Wörter zunächst eine 193 sehr basale Bedeutung angelegt, die im Verlauf des Lebens noch massiv verändert und verfeinert wird. Somit konnte gezeigt werden, wie die Wörter ohne offensichtlichen Bezug auf Gegenstände, Eigenschaften oder Tätigkeiten in einem späteren Lernprozess erworben werden, der auf den bereits gelernten Wörtern mit Gegenstandsbezug aufbaut. 9.4 Spracherwerb und Bedeutungsunterschiede Die soziale Situation, in der Bedeutung gemäß meiner neuropsychologischen Theorie festgelegt wird, unterscheidet sich deutlich von der Zustimmungssituation, die Quine beschreibt. Es handelt sich um die Situation des zumeist kindlichen Erlernens eines Wortes. Durch die wiederholte gleichzeitige Wahrnehmung eines Wortes und eines Gegenstands wird die neuronale Verknüpfung langsam ausgebildet. Zunächst vermag der Lernende nur grob einzuschätzen, was mit einem spezifischen Wort gemeint sein soll. Zum Beispiel könnte das Wort „Hund“ zunächst für alle möglichen Vierbeiner angewendet werden. Erst durch den korrigierenden Eingriff der anderen Sprecher und die Abgrenzung zu ähnlichen Begriffen entsteht später ein genaueres Verständnis der Worte. Die neuronale Netzstruktur differenziert sich langsam weiter aus. Diese so konstruierte Bedeutungstheorie erlaubt Bedeutungsunterschiede für verschiedene Sprecher und erklärt, wie diese entstehen können. Denn Bedeutungsunterschiede sind ein weiterer offensichtlicher Fakt unserer normalen Sprachen, der in denjenigen Theorien ignoriert wird, welche die Bedeutung in einem metaphysischen Bereich ansiedeln, so dass die Bedeutung vom Sprecher unabhängig festzustehen scheint. Aber selbstverständlich kann für zwei Sprecher der gleichen Sprache S das Wort W unterschiedliche Dinge bedeuten. Das liegt daran, dass die beiden Sprecher während des Erlernens unterschiedlichen Situationen ausgesetzt waren, so dass unterschiedliche neuronale Verknüpfungen ausgebildet wurden. Dabei kann es sich um regionale Unterschiede der Sprache handeln, so dass der gleiche Gegenstandsbereich mit unterschiedlichen Wörtern verknüpft wird. Oder es herrscht bei gleichen Wörtern Uneinigkeit über den Gegenstandsbereich, der mit ihnen verknüpft ist. Dieser zuletzt genannte Fall ist natürlich schwieriger zu entdecken und führt daher eher zu Missverständnissen in der Kommunikation, während der zuerst genannte Fall durch das Erfragen der Bedeutung des unbekannten Wortes leicht aufgelöst werden kann. Obwohl uns Missverständnisse und regionale Differenzen im Sprachgebrauch gut bekannt sind, müssen Bedeutungsunterschiede zwischen Sprechern doch eher die Ausnahme als die Regel sein, weil sonst überhaupt keine Sprache jemals hätte entstehen können. Es muss also in jeder Theorie, die Bedeutungsunterschiede zwischen Sprechern zulässt und diese erklärt, zusätzlich eine Erklärung 194 geben, wieso die Verknüpfungen zwischen Wörtern und Welt im Normalfall für verschiedene Sprecher gleich oder ähnlich genug gelingen. Aber auch dies wird klar bei der Betrachtung der Funktionsweise des Spracherwerbs. Ein Kind erfindet sich keine eigene Sprache in einer isolierten Umgebung, sondern es erlernt die Wörter im Zusammenhang der Lebenswelt seiner Mitmenschen. Die Sprache ist also schon weitgehend fertig und an die jeweiligen Lebensumstände der Region angepasst. Weiterhin wird die Sprache in genau derselben Umwelt erlernt, in der sie die anderen Sprecher auch verwenden. Also werden wirklich bei dem neuen Sprecher dieselben physischen Gegebenheiten oder zumindest relativ ähnliche mit den Wörtern verbunden wie bei der Sprechergemeinschaft, in die er hinein geboren wurde. In der Polarregion lernt man eher verschiedene Bezeichnungen für die Beschaffenheit von Schnee und Eis, im Dschungel die Namen der gefährlichen und der essbaren Tiere und in einer hochtechnisierten Gesellschaft die Namen von Computerbauteilen. Aber in allen Fällen liefert die gemeinsame Umwelt ähnliche physische Bezugspunkte für alle Sprecher einer Sprache, so dass die Sprecher sich im Normalfall mit ihren Wörtern auf dieselben Objekte beziehen und sich dadurch erfolgreich verständigen können, obwohl die genauen Lernumstände und somit die Bedeutungen potentiell voneinander abweichen. 9.5 Die Möglichkeit der Sprachentstehung und Weiterentwicklung Diese theoretische Erklärung der Entstehung der Bedeutung im Spracherwerb und der Bedeutungsunterschiede von Wörtern für mehrere Sprecher scheint jedoch vorauszusetzen, dass eine Sprache schon vollständig bestehen muss, damit ein neuer Sprecher sie erlernen kann. Falls das der Fall wäre, könnte man dieser Theorie daher vorwerfen, dass sie die historische Entstehung und Entwicklung einer Sprache überhaupt nicht erklären könnte. Dieser Vorwurf lässt sich jedoch problemlos zurückweisen. Wie in Kapitel 6.2 dargestellt wurde, ist das menschliche Sprachsystem auf der Grundlage sozialer Interaktionen Schritt für Schritt von primitiven Bausteinen aus natürlich gewachsen. Immer wenn neue Wörter oder sprachliche Verhaltensweisen nötig waren, wurden sie der Sprache hinzugefügt. Dieser Prozess der Spracherweiterung ist jedoch ein völlig anderer als der Prozess des kindlichen Spracherwerbs, bei dem die Sprache bereits vorliegt. Erst wenn man ein kompetenter Sprecher geworden ist, kann man eigene Wörter, oder Redensarten in die Sprache einbringen. Dieser Prozess der Veränderung der Sprache ist möglich und nötig, aber er ist ein völlig anderer Prozess, der in Bezug auf ein Individuum zu einem viel späteren Zeitpunkt auftritt als das kindliche Erlernen einer Sprache. Für neu entwickelte technische Verfahren und Objekte werden ständig neue Wörter benötigt, aber auch kulturelle Untergruppen entwickeln häufig 195 neue Bezeichnungen oder Redeweisen, die dann entweder Kennzeichen dieser Gruppen werden, oder sich allgemein durchsetzen, oder einfach nach einiger Zeit wieder verschwinden. Dieser Vorgang der Erzeugung eines neuen Wortes entspricht einem Taufprozess und liegt zum Beispiel bei wissenschaftlichen Definitionen, oder der Entwicklung einer wissenschaftlichen Fachsprache vor. Er darf nicht mit dem kindlichen Erlernen von Wörtern durch wiederholte Reizverknüpfung verwechselt werden. Es geht dabei um den Versuch, alle anderen kompetenten Sprecher davon zu überzeugen, einen neuen Begriff in der vorgeschlagenen Weise zu verwenden. Ein solcher Versuch kann auch scheitern. Falls dieser Versuch jedoch nicht scheitert, so dass das neue Wort in die Sprache aufgenommen wird, dann fügen es langfristig alle kompetenten Sprecher zu ihrem Wortschatz hinzu, und er kann schon bald nicht mehr von anderen Begriffen unterschieden werden. Spätere Sprechergenerationen erlernen ihn dann genauso wie alle anderen Begriffe. Auf diese Art kann die Menge der in einer Sprache enthaltenen Wörter in einem langsamen historischen Prozess anwachsen. 9.6 Die Vorteile neuropsychologischer Bedeutungstheorie Durch diese Unterscheidung zwischen dem personalen Spracherwerb in der Kindheit und der nicht personengebundenen Sprachentwicklung sind einige der Hauptprobleme, denen sich viele andere Sprach- und Bedeutungstheorien gegenüber sehen, zufriedenstellend gelöst. Diese Theorie beschreibt, wie es möglich ist, überhaupt eine Sprache zu erlernen, in der Bedeutungsunterschiede zwischen Sprechern möglich sind, zugleich aber die Sprache als System sich immer weiter entwickeln kann. Das Wort „Bedeutung“ bekommt in Form der beschriebenen neuronalen Netzstruktur einen eindeutigen physischen Bezug und verliert dadurch seinen ungenauen metaphysischen Status, genau wie Quine es gefordert hatte. Es kann von nun an zur Beschreibung der in der Tat im menschlichen Gehirn ablaufenden neuronalen Verknüpfungs- und Aktivierungsprozesse verwendet werden. Es zeigen sich weder offensichtliche Schwachpunkte in den Erklärungsmöglichkeiten, die einem mit dieser Bedeutungstheorie zur Verfügung stehen, noch steht sie im Widerspruch zu unseren herkömmlichen Verwendungsweisen von Sätzen, in denen das Wort „Bedeutung“ vorkommt. Wir können zum Beispiel den Satz „Willard weiß nicht, was das Wort W bedeuten soll.“ genauso wie vorher verwenden. Der einzige Unterschied besteht darin, dass wir jetzt wissen, warum Willard nicht weiß, was das Wort W bedeutet, nämlich weil es in seinem Gehirn keine neuronale Verknüpfung zwischen der Repräsentation der Wortform des Wortes W und einer Repräsentation eines beliebigen Gegenstands oder anderen Wortnetzen gibt. Auch alle anderen 196 Sätze zum Thema Bedeutung, wie zum Beispiel „Wir sind uns nicht einig über die Bedeutung des Wortes x.“ erfahren durch die Theorie keine Umdeutung, in dem Sinne, dass sie anders verwendet werden müssten. Man verfügt jetzt nur über das zusätzliche Wissen, dass die beteiligten Personen mit demselben Wort unterschiedliche neuronale Repräsentationen verknüpft haben. Durch die Analyse ihrer jeweiligen Lernprozesse hinsichtlich dieses Wortes ließe sich die Begründung dafür finden, warum die Bedeutungen für die Beteiligten voneinander abweichen, und es könnte dann leicht eine Übereinkunft gefunden werden, welcher Bedeutungsgehalt mit der Wortform sinnvollerweise in der Zukunft verknüpft sein sollte. Auch für die formale Darstellung von Sprache in der philosophischen Logik ändert sich nur aufgrund unserer physischen Verortung der Bedeutung nichts. Denn die im 4. Kapitel dargestellte Weiterentwicklung der Prädikatenlogik zur Attributsskalenlogik ist davon völlig unabhängig. Die Attributsskalenlogik stellt einen großen Fortschritt der formalen Darstellung dar, weil sie die Lösung von Wittgensteins Elementarsatzproblem erlaubt und damit die Bildtheorie als wissenschaftliches Konzept rehabilitiert. Die Bildtheorie passt wiederum zu der Erkenntnis, dass die in der Kindheit zuerst erlernten Wörter alle einen starken Weltbezug aufweisen, und die anderen Wortbedeutungen sich aus ihnen aufbauen lassen. Daher bewirkt nicht die physische Verortung der Bedeutung eine Veränderung am logischen Formalismus, sondern die Weiterentwicklung des logischen Formalismus ermöglicht die Ausarbeitung der bereits bestehenden philosophischen Theorie, so dass sie mit den empirischen Ergebnissen der Linguistik und der Neurobiologie zusammenpasst. Um die Nützlichkeit unserer neuropsychologischen Bedeutungstheorie zu beweisen, betrachten wir im Folgenden einige beispielhafte Probleme aus der neueren Sprachphilosophie, die nun leichter aufgelöst werden können. So findet sich zum Beispiel in Albert Newens Einführung in die Sprachphilosophie eine übersichtliche Zusammenstellung der wichtigen sprachlichen Phänomene, die Herausforderungen für jede Bedeutungstheorie darstellen. Ich zitiere diese zunächst, bevor ich erläutere, inwiefern diese Herausforderungen von der vorliegenden Bedeutungstheorie gelöst werden: „Dazu gehören 1. informative Identitätsaussagen wie »Der Abendstern ist identisch mit dem Morgenstern«, 2. wahre negative Existenzaussagen wie »Pegasus existiert nicht« sowie 3. nichtwidersprüchliche Überzeugungen trotz oberflächlich widersprüchlicher Äußerungen. Letzteres liegt vor, wenn Peter glaubt, dass der Abendstern ein von der Sonne beleuchteter Körper ist, aber nicht glaubt, dass der Morgenstern ein von der Sonne beleuchteter Körper ist. Alle diese Beispiele stellen eine besondere Herausforderung dar, weil sie entweder zwei 197 Arten, über ein und dasselbe Objekt nachzudenken, involvieren und deshalb nicht trivial (1) oder widersprüchlich (3) werden oder gar kein Objekt einbeziehen (2) und trotzdem sinnvoll und wahr sind. Die Arbeiten von Kripke haben darüber hinaus zu einer Berücksichtigung von (4) Modalaussagen geführt, wie z. B. »Es ist notwendig, dass Cicero identisch ist mit Tullius«.“160 Wie ich in Kapitel 2.3 und 2.4 dargestellt habe, entsteht das Problem der informativen Identitätsaussagen nur aufgrund der Problematik von Freges Verwendung des Identitätsbegriffs für diverse eindeutig unterschiedliche Phänomene, die eigentlich auch begrifflich unterschieden werden sollten: zur Bezeichnung der Gleichheit von Attributen, der Wiedererkennung von Gegenständen zu verschiedenen Zeitpunkten und der Verwendbarkeit von zwei unterschiedlichen Wörtern zu den gleichen Zwecken. „Identität“ ist daher kein wohldefinierter Begriff, wie Wittgenstein im Tractatus161 ausführt, und jedwede philosophische Argumentation, die zwingend auf der Verwendung dieses Wortes in Freges problematischer Verwendungsweise beruht, ist zurückzuweisen. Das Problem der informativen Identitätsaussagen ist somit gar kein Problem für Bedeutungstheorien, sondern ein Problem für den von Frege überfrachteten Identitätsbegriff. Die Information, die man seit Frege Sätzen der Form „a = b“ beilegen wollte, ist eine Belehrung über die Bedeutung von Wörtern, wie man sie gemäß meiner Theorie in einer fortgeschrittenen Spracherwerbssituation in der folgenden Form finden könnte: „Man hat den Planeten, den wir heute „Venus“ nennen, früher je nach dem Zeitpunkt seiner Beobachtung mit den zwei verschiedenen Wörtern „Morgenstern“ und „Abendstern“ bezeichnet, weil man ihn nicht wiedererkannt hatte. Man hielt die Venus zudem für einen Stern statt für einen Planeten.“ Ein Sprecher, der vor Erhalt dieser Information schon über separate neuronale Realisierungen der Bedeutungen von „Morgenstern“ und „Abendstern“ verfügen würde, was heutzutage jedoch nicht mehr vorkommen dürfte, müsste einfach nur die neue neuronale Repräsentation für die Wortform „Venus“ ausbilden. Diese würde dann mit den sensorischen Gedächtnisinhalten über Morgen- und Abendhimmel und auch mit den ehemals verwendeten Wörtern „Morgenstern“ und „Abendstern“ verknüpft. Es handelt sich um einen theoretisch völlig unproblematischen neuronalen Lernprozess, der immer auftritt, wenn von zwei Namen gelernt wird, dass sie auf dasselbe Objekt verweisen. Die Modalaussagen von Saul Kripke beinhalten ebenfalls problematische Identitätssätze. Dazu gesellt sich bei Kripke noch der ebenfalls problematische Begriff der „Notwendigkeit“, für den er 160 Newen, A./Schrenk, M.: Einführung in die Sprachphilosophie - Darmstadt: Wissenschaftliche Buchgesellschaft, 2008, S. 88 161 TLP 5.5303 Beiläufig gesprochen: Von zwei Dingen zu sagen, sie seien identisch, ist ein Unsinn, und von Einem zu sagen, es sei identisch mit sich selbst, sagt gar nichts. Vgl. auch Kapitel 2.3 198 eine gewisse Absolutheit beansprucht. Notwendig sind Dinge aber immer nur im Hinblick auf ein relatives Bezugssystem. Wenn man die Randbedingungen des Bezugssystems verändert, dann verlieren die scheinbar notwendigen Aussagen ihre Notwendigkeit. Man betrachte ein Schachspiel, in dem Schwarz am Zug ist, als Bezugssystem. Ein legaler Zug besteht dann darin, dass genau eine schwarze Figur (gemäß ihren Bewegungsregeln) auf ein anderes Feld gesetzt wird. War dieses Feld von einer gegnerischen Figur besetzt, wird diese aus dem Spiel genommen. Es ist also den Spielregeln gemäß notwendig, dass genau dies als nächstes geschehen wird. Aber das muss trotzdem nicht der Fall sein, denn verschiedenste andere Szenarien sind denkbar: Das Spielbrett könnte aufgrund eines unerwarteten Ereignisses verlassen und das Spiel nie beendet werden, oder bei der Rückkehr kann nicht mehr rekonstruiert werden, wer am Zug war, so dass der Spieler mit den weißen Figuren irrtümlich nochmal zieht, oder der Spieler mit den schwarzen Figuren lässt den eindeutig unterlegenen Gegner sogar absichtlich nochmal ziehen. Auch gewichtigere Sätze, die uns sehr viel notwendiger erscheinen, wie „ein Gegenstand muss immer irgendeine Farbe haben“, sind immer nur notwendig in Hinblick auf ein Bezugssystem. In diesem Fall in Bezug auf ein funktionierendes menschliches visuelles Wahrnehmungssystem. Es sind multiple Weltzugänge möglich, die keine Farbwahrnehmung beinhalten, sei es bei anderen Lebewesen, oder bei Menschen bedingt durch neuronale Ausfälle, die zu Achromatopsie162 führen, oder durch generelle Blindheit. Dass Kripke entgegen unserer obigen Ausführungen „Notwendigkeit“ in Bezug auf den ebenfalls problematischen Begriff „Identität“ absolut statt relativ verwenden zu können glaubt, sollte uns kritisch gegenüber Kripkes Konzeption werden lassen. Die Herausforderungen (1) und (4) stellen somit gar keine speziellen Herausforderung für zukünftige Bedeutungstheorien mehr dar, denn diese scheinbaren Probleme verschwinden sobald man eine sprachanalytische Klärung der Begriffe „Notwendigkeit“ und „Identität“ vornimmt, wie sie mit Bezug auf Freges Bedeutungstheorie im Kapitel 2.3 bereits ausgeführt wurde. Die Herausforderung der wahren negativen Existenzaussagen, wie zum Beispiel »Pegasus existiert nicht«, stellt für eine neuropsychologische Bedeutungstheorie kein Problem dar. Da wir, sobald wir einige Wortformen erlernt haben, und diese mit unseren Wahrnehmungsdaten verknüpft sind, neue Wörter über eine Kombination von bereits bekannten Wörtern definieren und erlernen können,163 ohne eigene sensorische Repräsentationen für diese zu benötigen, können wir potentiell Wörter erlernen, zu denen es keine Gegenstände in der Welt gibt. Mit der Aussage »Pegasus existiert nicht« sprechen wir nicht über einen paradoxerweise existierenden und nicht existierenden Gegenstand, sondern darüber, dass wir ein Wort geschaffen haben, das zur Bezeichnung einer spezifischen Gegenstandskonstellation (Pferd + Flügel) dient, die es so in der Welt nicht gibt. Dabei 162 163 Vgl. Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 223 Vgl. Kapitel 9.3 199 handelt es sich in den meisten Fällen um Namen von Elementen in fiktionalen Texten, in Ausnahmefällen um einen Namen für eine Gegenstandskonstellation, die es bisher noch nicht gibt, die aber jemand hervorzubringen beabsichtigt. Wir sprechen also über Wörter, deren Besonderheit darin besteht, dass beim Spracherwerb die neuronale Repräsentation der Wortform nicht direkt mit den aktuell vorliegenden sensorischen Repräsentationen verknüpft wird, sondern stattdessen mit der Summe der sensorischen Repräsentationen von bereits bekannten einfacheren Wörtern, über die das neue Wort definiert wird. Diese indirekte Verknüpfung ermöglicht es uns meistens sogar, eine visuelle Vorstellung des theoretischen Gegenstands aus den einzelnen visuellen Gedächtnisinhalten der definitorisch verknüpften Wörter zu erzeugen. Es ist also neuropsychologisch nachvollziehbar, wie ein Wort ohne Bezugsgegenstand in der Welt gelernt werden kann. Die Aussage, dass es einen mit einem so konstruierten Wort zu bezeichnenden Gegenstand gar nicht gibt auf der Welt, ist trivialerweise wahr. Somit entfällt die scheinbare Paradoxie der gleichzeitigen Existenz und NichtExistenz. Es existiert nur ein Name für eine sprachlich beschreibbare Gegenstandskonstellation, deren definitorische Bestandteile zwar existieren, aber niemals in dieser Konstellation auftreten. Die beobachteten Vorkommnisse von nichtwidersprüchlichen Überzeugungen trotz oberflächlich widersprüchlicher Äußerungen lassen sich ebenfalls leicht anhand des neuropsychologischen Modells erklären. Der jeweilige Sprecher verfügt aufgrund ungewöhnlicher Umstände während seines Spracherwerbs bezüglich gewisser Wörter nicht über die gleichen Bedeutungen, über die der jeweilige Zuhörer, oder gar die ganze Sprechergemeinschaft üblicherweise verfügt. Seine abweichende neuronale Verknüpfung bestimmter Wörter führt dazu, dass er problemlos für ihn nichtwidersprüchliche Sätze bilden kann, die unter Annahme der Standardbedeutung für den Zuhörer oder die Sprachgemeinschaft nicht miteinander kompatibel sind, so dass sie dem Sprecher widersprüchliche Überzeugungen unterstellen müssen. In Newens obigem Beispiel fehlt dem Sprecher im Vergleich zur Sprachgemeinschaft einfach die neuronale Verknüpfung, die besagt, dass „Morgenstern“ und „Abendstern“ dasselbe Objekt bezeichnen. Daher kann er glauben, dass der Abendstern ein von der Sonne beleuchteter Körper ist, und zugleich nicht glauben, dass der Morgenstern ein von der Sonne beleuchteter Körper ist. Seine Überzeugungen und seine Äußerungen sind nicht widersprüchlich für ihn selbst, weil er nicht weiß, dass alle anderen Sprecher mit den Namen „Morgenstern“ und „Abendstern“ dasselbe Objekt bezeichnen. Nur aus der Sicht der besser informierten Sprachgemeinschaft stellt der Satz einen Widerspruch dar. Die vielen weiteren bekannten Gedankenexperimente und Problemstellungen der neueren Sprachphilosophie können nun ebenfalls aus einem neuen Blickwinkel untersucht werden. Bei manchen wird man einfach nur das Wissen um die neuronale Realisierung zum philosophischen 200 Modell hinzufügen, während andere Thesen nun möglicherweise widerlegt werden können. So zum Beispiel Hilary Putnams These, dass Bedeutungen nicht im Kopf seien. Zu dieser These kam Putnam ausgehend von seinen Überlegungen zu Begriffen für „natürliche Arten“, wie „Tiger“ oder „Wasser“ mit seinem berühmten Gedankenexperiment zur „Zwillingserde“. „Angenommen es gäbe irgendwo im All eine Zwillingserde, die unserer Erde sehr weitgehend ähnelt, außer dass die Flüssigkeit, die auf der Zwillingserde »Wasser« genannt wird, nicht die chemische Struktur H2O besitzt, sondern XYZ. Die Flüssigkeit mit der chemischen Struktur hat jedoch dieselben Oberflächeneigenschaften wie die Flüssigkeit mit der chemischen Struktur H2O. Beide Flüssigkeiten sind geruchlos, farblos, durstlöschend usw., und sie lassen sich erst mit Hilfe einer chemischen Analyse unterscheiden. Auf der Erde gibt es eine Person Tom, die auf der Zwillingserde einen physischen Doppelgänger Zwillings-Tom hat, d.h. Tom und Zwillings-Tom haben gemäß Gedankenexperiment insbesondere dieselben Gehirnzustände und dieselben innerpsychischen Zustände. Trotzdem ist es so, dass Tom mit dem Satz »Wasser ist durstlöschend« im Deutschen etwas anderes sagt als Zwillings-Tom mit demselben Satz im Zwillingsdeutschen; denn gemäß unseren Sprachintuitionen bezeichnet das Substanzwort »Wasser« im Deutschen die Flüssigkeit mit der chemischen Struktur H2O, während es im Zwillingsdeutschen die Flüssigkeit mit der Struktur XYZ bezeichnet. […] Putnam stellt erstens fest, dass der Inhalt eines Satzes, der natürliche Artbegriffe enthält, davon abhängt, auf welchem Planeten bzw. allgemeiner in welcher Umgebung er geäußert wird bzw. welche natürliche Art genau durch den Begriff bezeichnet wird. Zweitens ist Putnam bei dem Gedankenexperiment davon ausgegangen, dass Tom und Zwillings-Tom dieselben internen (sowohl innerphysischen als auch innerpsychischen) Zustände haben. Insofern folgt, dass der Inhalt der Äußerung eines Satzes nicht allein durch die internen Zustände einer Person festgelegt wird, insbesondere ist der Inhalt eines Satzes nicht allein durch die Hirnzustände bestimmt. So ergibt sich der Slogan »Bedeutungen sind nicht im Kopf«.“164 Dieses verblüffende Ergebnis scheint in vollständigem Widerspruch zu meinen Ausführungen zu stehen, dass Bedeutungen physische Strukturen sind und im Gegenteil überhaupt nur „im Kopf“ eines Menschen bestehen können. In Wirklichkeit sind die Gegensätze weniger extrem, denn die Bedeutung wurde zwar als physische Struktur im Kopf verortet, aber ebenso wurde ausgeführt, dass diese auf der Wahrnehmung von Gegenständen und Wortformen in der Welt basiert und somit nicht 164 Newen, A./Schrenk, M.: Einführung in die Sprachphilosophie - Darmstadt: Wissenschaftliche Buchgesellschaft, 2008, S. 127 201 unabhängig von der Welt entstehen kann. Diesen Aspekt beweist Putnam, aber sein bekannt gewordener Slogan behauptet zu viel. Denn Putnams Gedankenexperiment zeigt eigentlich nur, dass Bedeutungen auf Erfahrungen mit der Umwelt aufgebaut werden und es potentiell Bedeutungsunterschiede zwischen Sprechern aufgrund der Unterschiedlichkeit der Erwerbssituation einer Wortbedeutung gibt. Denn der einzig relevante Faktor für den Bedeutungsunterschied in seinem theoretischen Beispiel besteht in dem postulierten Unterschied zwischen den Flüssigkeiten, die jeweils in den ansonsten vollständig gleichen Erwerbssituationen vorliegen. Dieser Unterschied ist den beiden Zwillingen aber unbekannt, daher gibt es zu diesem Zeitpunkt keinen Bedeutungsunterschied für die beiden. Solange sie nicht mit den Ergebnissen einer chemischen Analyse konfrontiert würden, könnten Tom und sein Zwilling problemlos zwischen ihren Welten hin und herreisen und sich erfolgreich unterhalten, ohne zu merken, dass sie möglicherweise zwei verschiedene Wörter benötigen für die zwei sehr ähnlichen, aber potentiell unterscheidbaren Flüssigkeiten in den jeweiligen Welten. Denn solange sie diese Flüssigkeiten sowieso nicht unterscheiden können, benötigen sie auch keine zwei unterschiedlichen Wortformen. Für beide bedeutet „Wasser“ nur ungenau eine trinkbare Flüssigkeit auf beiden Welten in diversen Gewässern. Putnams gedanklicher Fehler liegt in seiner Intuition, dass „Wasser“ im Deutschen etwas Unveränderliches bedeute, was unter anderem die Strukturformel H2O einschließt. Für Tom kann gemäß Putnams Konstruktion das Wissen um die Strukturformel jedoch kein Bestandteil der Bedeutung sein, da er sonst nicht mehr vollständig mit seinem Zwilling übereinstimmen könnte, da für den Zwilling dann die andere Strukturformel Bestandteil der Bedeutung sein müsste. Damit zeigt das Gedankenexperiment eigentlich, dass Bedeutungen nicht allgemeingültig sein müssen, sondern interpersonal geringfügig variieren können. Dass zwei Wörter nötig sein könnten, insofern es irgendeinen relevanten Grund gibt, die beiden Flüssigkeiten zu unterscheiden, weiß zu diesem Zeitpunkt nur der bereits besser informierte „chemisch versierte“ Teilnehmer des Gedankenexperiments. Dabei sollte sich sein Wissen über chemische Zusammenhänge jedoch in Grenzen halten, damit er Putnam überhaupt weiter folgen möchte. Dazu müsste er ansonsten zumindest von seinem chemischen Grundwissen absehen, dass eine Flüssigkeit mit der Strukturformel XYZ unmöglich genau dieselben Eigenschaften wie H 2O haben kann, da die Oberflächeneigenschaften eines Stoffes immer von den Strukturen dieses Stoffes auf der Molekularebene abhängig sind. Somit wird natürlich fragwürdig, was Putnams Gedankenexperiment aufgrund seiner fehlerhaften Prämissen überhaupt zeigen kann. Denn aus falschen Prämissen kann man bekanntlich beliebige Schlüsse ziehen. Wenn man von diesem Fehler abstrahiert, dann verbleibt als beabsichtigte Struktur des Falles eine Situation, in der zwei Sprecher dasselbe Wort für zwei unterschiedliche Dinge erlernen und verwenden. Was eigentlich nur zeigt, 202 dass (solange die Sprecher der Sprache darin übereinstimmen) es prinzipiell beliebig ist, welche Wortform mit welchem Weltwissen verknüpft wird, und dass Erfahrungen mit der Umwelt erforderlich sind, um Bedeutungen aufzubauen. Sobald die theoretischen Zwillinge Wissen über die chemischen Strukturen ihrer Flüssigkeiten erhalten, wird dieses unterschiedliche Wissen in Form einer neuronalen Repräsentation an die bisher gleiche neuronale Netzstruktur angehängt. Dadurch unterscheiden sich ab diesem Zeitpunkt die neuronalen Strukturen der bisher gleichen Zwillinge in Hinblick auf das Wort „Wasser“. Erst jetzt liegen unterschiedliche Bedeutungen für das Wort „Wasser“ vor, und daher können sie auch jetzt erst erkennen, dass sie ein neues Wort benötigen für die Flüssigkeit, die auf ihrem Planeten jeweils nicht vorkommt. Denn nun gehören zur Wortbedeutung von „Wasser“ für Tom nicht nur die Eigenschaften trinkbar, farblos, geschmacklos, die Erinnerung an Seen, Flüsse usw., sondern auch die chemische Strukturformel H 2O. Somit ergäbe sich in Gesprächen nach weiteren Weltenwechseln der Zwillinge potentiell die Situation, in der sie sich auf ein neues Wort für eine oder beide Flüssigkeiten einigen müssten. Damit sind die biopsychologischen Vorgänge, die in Putnams theoretischer Situation auftreten würden, hinreichend dargestellt. Es wurde gezeigt, dass selbst die Vorgänge in dieser kontrafaktischen Zwillingsweltkonstellation problemlos erklärt werden können, wenn man Bedeutungen auf physische neuronale Strukturen zurückführt. Darüber hinaus konnte die theoretische Situation sogar nutzbar gemacht werden, um zu zeigen, dass Bedeutung interpersonal variiert und nicht irgendwo außerhalb einzelner Menschen als eigene Entität feststeht. Somit folgt aus Putnams Gedankenexperiment keinesfalls sein bekannter Slogan, sondern mit gewissen Einschränkungen gewissermaßen dessen Gegenteil. 9.7 Pragmatik und Wahrheitswert eines Satzes Bei jeder Theorie stehen bestimmte thematische Aspekte im Vordergrund, während andere weniger Beachtung finden. Ich möchte nun auf einige der von meiner Theorie scheinbar vernachlässigten Teilaspekte eingehen, und zeigen, dass diese Aspekte nicht ignoriert werden, weil sie mit der Theorie unvereinbar sind, sondern weil sie auf eine andere Ebene gehören. Im Zusammenhang mit Freges Definition der Bedeutung als Wahrheitswert hatten wir in Kapitel 2.2.1 festgestellt, dass wir es beim Wahrheitswert nicht mit einer einfachen Funktion zu tun haben, sondern mit einer Funktion einer Funktion. Der Wahrheitswert eines Satzes ist etwas, das von einer Funktion, deren Argumente der Satz und ein Bereich der Welt sind, festgelegt wird. Wir hatten gesehen, dass der Wahrheitswert eines Satzes auf keinen Fall die Bedeutung eines Satzes sein kann, da die Bedeutung eines Satzes 203 schon bekannt sein muss, damit ihr ein Wahrheitswert durch die Wahrheitsfunktion (unter Zuhilfenahme der Welt) zugeordnet werden kann. Weiterhin können nur Sätzen Wahrheitswerte zugeordnet werden und nicht Wörtern. Die Bedeutung von Wörtern besteht aber in der neuronalen Verknüpfung zwischen den neuronalen Repräsentationen von Wortformen und den neuronalen Repräsentationen von Gegenständen. Der Wahrheitswert eines Satzes wird also dadurch festgestellt, dass zunächst die Bedeutung eines Satzes ermittelt wird, indem die neuronalen Aktivierungen der enthaltenen Wörter mit den zusätzlich vorhandenen Informationen (Satzstruktur, Prosodie, aktuelle Wahrnehmungssituation, usw.) verrechnet werden, und dann die Gegenstände, deren Repräsentationen im Satz vorkommen, aufgesucht werden, um die Wahrnehmung der Gegenstandskonstellation mit der Satzbedeutung zu vergleichen. Dies ist offensichtlich eine Operation, die die Bedeutung als Grundlage benötigt, um funktionieren zu können. Insofern ist sie thematisch verwandt, aber gehört nicht direkt zur Diskussion des Bedeutungsbegriffs, oder gar in den Bedeutungsbegriff hinein, wie Frege dies fälschlicherweise annimmt. Diese Erkenntnis formuliert Wittgenstein schon im Tractatus: 4.024 Einen Satz verstehen, heißt, wissen was der Fall ist, wenn er wahr ist. (Man kann ihn also verstehen, ohne zu wissen, ob er wahr ist.) Man versteht ihn, wenn man seine Bestandteile versteht.165 Der Wahrheitswert eines Satzes kann nur bestimmt werden, nachdem die Bedeutung des Satzes bereits eindeutig geklärt ist. Der so entstandene Wahrheitsbegriff ist demnach immer relativ zu einer Sprache und abhängig davon, dass die Bedeutungen der in diesem Satz vorkommenden Wörter verstanden werden und nicht strittig sind. Weiterhin wurde der thematische Bereich, der unter dem Stichwort Pragmatik bekannt ist, also Theorien, die sich auf Austins und Searles Sprechakttheorie, oder Wittgensteins Sprachspiel- und Lebensformkonzeptionen berufen, scheinbar nicht aufgenommen. Dies ist insofern nicht korrekt, als diese Konventionen des Gebrauchs von Wörtern laut meiner Theorie in der kindlichen Spracherwerbssituation am Beispiel mit erlernt werden. Ganz im Gegenteil wird die im 6. Kapitel erfolgte Betrachtung der philosophisch bisher eher vernachlässigten speziellen Situation des kindlichen Spracherwerbs sehr hilfreich sein, um einige Aspekte der Gebrauchstheorie besser verstehen zu können. Darüber hinaus gibt es vor allem in den akustischen Versionen von Sprachen diverse Konventionen, die nicht an einzelne Wörter gebunden sind, sondern über die Anordnung der Wörter oder die 165 TLP S. 36 204 Tonhöhenfolge zusätzliche Informationen zu übermitteln versuchen. In dieser Form wird ausgedrückt, dass der Sprecher sich bestimmte Informationen oder Handlungen von anderen Personen erhofft (Fragen, Bitten, Befehle, Beleidigungen, etc.). Diese sind jedoch nur Abkürzungen, deren Inhalte durch längere Aussagesätze nicht nur überhaupt, sondern meistens sogar eindeutiger ausgedrückt werden könnten. Zum Beispiel kann die normale Satzstellung eines Aussagesatzes in Ausnahmefällen eine Frage kodieren, falls der Satz mit ansteigender Intonation ausgesprochen wird.166 Diese im Tonfall verborgenen Bedeutungsbestandteile können immer auch explizit gemacht werden durch Satzerweiterungen wie „Sagen Sie mir, ...“, „Ich rate Ihnen, ...“, „Ich verbiete Ihnen, ...“ oder „Ich bitte Sie, ...“. Diese erweiterten Sätze können den gleichen Effekt erzielen wie die Sätze mit den in der Intonation verborgenen Informationen. Im Fall der Verwendung von Schriftsprache benötigen wir ebenfalls eine Symbolik, falls wir solche Abkürzungen verwenden wollen, da uns die Intonation nicht zur Verfügung steht. Wir verwenden dann zum Beispiel die Symbole, die wir bezeichnenderweise „Fragezeichen“ und „Ausrufungszeichen“ nennen. Überaus deutlich zeigt sich nun, dass es sich bei diesen Sprechakten nur um symbolische Abkürzungen handelt, die uns für unsere Bedeutungstheorie nicht übermäßig interessieren müssen. Es ist zwar richtig, dass es diese Abkürzungen gibt, und auch, dass sie dazu führen, dass häufiger die Wirkung eines Satzes nicht die Wirkung ist, die der Sprecher eigentlich beabsichtigt hatte, aber dies ist prinzipiell dem Sprecher selbst anzulasten. Wenn er sorgfältiger formuliert hätte, hätte es keinen Unterschied zwischen Wirkungsabsicht und Wirkung gegeben. Betrachten wir den auf einem öffentlichen Platz geäußerten Satz: „Sie dürfen hier nicht rauchen.“ Auf diese Äußerung könnte ein angesprochener Raucher, der vermutet, dass der Sprecher nur anzeigen will, dass er sich durch den Rauch belästigt fühlt, möglicherweise unfreundlich erwidern: „Es zwingt sie doch niemand in meiner Rauchwolke zu stehen.“ Falls die Wirkungsabsicht jedoch darin bestand, dass die angesprochene Person aus Gründen des Feuerschutzes sofort das Rauchen einstellt, wäre es eben angemessener gewesen, zu sagen: „Löschen Sie sofort ihre Zigarette. Hier besteht Explosionsgefahr.“ Der perlokutionäre Akt, wie Austin und Searle es nennen, also das Erzielen der vom Sprecher beabsichtigten und beim Hörer auch tatsächlich eingetretenen Wirkung der Äußerung, ist demnach ein Teilaspekt erfolgreicher Kommunikation, aber er hat weder etwas mit dem grundlegenden Spracherwerb noch mit der Bedeutung von Wörtern zu tun. Nur wenn ein Sprecher die Bedeutungen vieler Wörter seiner Sprachgemeinschaft, die üblichen Satzstrukturen und die üblichen Intonationen kennt, kann er dafür sorgen, dass beim Hörer tatsächlich die beabsichtigte Wirkung der Äußerung eintritt. Auf jeden Fall gehört die Betrachtung der Kompetenz, Aussagen zu 166 Zum Beispiel kann der Satz „Er wohnt in Bochum.“ ohne Umstellung in die übliche Satzstruktur einer Frage („Wohnt er in Bochum?“) durch Verwendung ansteigender Intonation zur Frage „Er wohnt in Bochum?“ werden. 205 wählen, die die gewünschte Wirkungsabsicht haben, nicht zur Bedeutungstheorie. Denn die Bedeutung der einzelnen Wörter steht für jeden einzelnen Sprecher (im Idealfall in Übereinstimmung mit seiner Sprachgemeinschaft) fest, und zwar unabhängig von den Absichten, die dieser Sprecher mehr oder weniger effektiv mit ihnen zu verfolgen versucht. 9.8 Zusammenfassung und Ausblick Ausgehend von einigen wichtigen philosophischen Bedeutungstheorien habe ich versucht, eine neue Theorie darzulegen, die diese Ansätze soweit wie möglich vereint und zugleich nicht im Widerspruch zu den Ergebnissen der Neuropsychologie steht, sondern sich darum bemüht, allen theoretischen Bestandteilen ein physiologisches Korrelat zuzuordnen. Dabei habe ich gezeigt, warum Freges Unterscheidung zwischen Sinn und Bedeutung unnötig ist. Aufgrund meiner dabei erfolgten Ausführungen zur Problematik des Identitätsbegriffs erledigen sich auch die Probleme bezüglich der informativen Identitätsaussagen und der Modalaussagen, die bisher für jede Bedeutungstheorie wichtige Herausforderungen und Probleme darstellten. In Bezug auf Wittgensteins zwei Bedeutungstheorien konnte ich zeigen, dass viele seiner psychologischen Theorien in den Philosophischen Untersuchungen mit den neuen Erkenntnissen der Neuropsychologie übereinstimmen. Während sein Spätwerk daher die Grundlage meiner Ausführungen zum Spracherwerb und zur Sprachentwicklung darstellt, liefert der Tractatus mit der Bildtheorie das Grundgerüst des eigentlichen Kerns meiner Bedeutungstheorie. Dieses Modell der Wortbedeutung als Referenz wird nur aufgrund neuropsychologischer Fakten zu einer in beide Richtungen wirksamen Verknüpfung erweitert. Wittgensteins Früh- und Spätwerk werden somit nicht als widersprüchliche Konzepte gesehen, sondern ergänzen sich in dieser Interpretation zu einer umfassenden Bedeutungstheorie, die sowohl den kindlichen Spracherwerb als auch die ausgereiften Sprachmechanismen erwachsener Sprecher erklären kann. Die scheinbare Unmöglichkeit, Beispiele für Elementarsätze anzugeben, war ein großes Problem von Wittgensteins Bildtheorie. Im 4. Kapitel wurde jedoch gezeigt, dass dieses Problem durch Unzulänglichkeiten der Prädikatenlogik begründet war, und ich habe mit der Attributsskalenlogik eine entsprechende Weiterentwicklung des logischen Formalismus angeboten. Diese Weiterentwicklung macht es möglich, sowohl eine allgemeine logische Form [Fi (x) = a] als auch Beispiele für Elementarsätze anzugeben, die Wittgensteins Vorstellungen entsprechen. Damit entfällt der größte Schwachpunkt der Konzeption im Tractatus, wodurch die Verwendung einer modifizierten Bildtheorie noch plausibler wird. 206 Durch die Verbindung der beiden oben genannten Theoriebestandteile mit der Darstellung der Gehirnprozesse, die diesen jeweils zugrunde liegen, wird Quines Forderung nach einer Naturalisierung der Bedeutung nachgekommen, die seine eigene Theorie leider nur unzureichend erfüllen konnte. Im 5. Kapitel wurde gezeigt, dass sein Versuch der Bindung von Bedeutung an die Aktivierung von Wahrnehmungsrezeptoren und an das Zustimmungs- und Ablehnungsverhalten von anderen Sprechern nicht weitgehend genug war, und auch sein berühmtes Gedankenexperiment der „radikalen Übersetzung“ nicht leisten konnte, was es versprach, da es nicht den primären Spracherwerb fokussierte. Obwohl viele der philosophisch relevanten Ergebnisse dieser Arbeit auch ohne Bezug auf die Neuropsychologie hätten entstehen können, sollte man den zusätzlichen Erkenntniswert, der durch interdisziplinäres Vorgehen und die damit einhergehende Veränderung des Blickwinkels entsteht, nicht unterschätzen. Anhand meiner Ausführungen sollte offensichtlich geworden sein, dass die Neuropsychologie jetzt schon für das Verständnis unserer Sprachprozesse sehr hilfreich sein kann und zukünftige weitere Fortschritte im Verständnis neuronaler Prozesse dabei helfen werden, die Analysen von komplexen Sprachprozessen noch weiter zu verbessern. Natürlich konnte im 7. und 8. Kapitel auch nur ein Teil des bereits vorhandenen neurobiologischen Wissens bezüglich der Realisierung von Sprachprozessen angesprochen werden, so dass sich ausgehend von der hier dargelegten Bedeutungstheorie viele interessante Forschungsperspektiven eröffnen. Zum Beispiel wäre es sicher von philosophischem Interesse, die Gedankenexperimente und viel diskutierten Problemstellungen innerhalb der Sprachphilosophie der letzten 50 Jahre unter Anwendung neuropsychologischer Erkenntnisse erneut zu betrachten, wie ich es beispielhaft in Kapitel 9.6 mit Putnams Gedankenexperiment zur Zwillingserde getan habe. Dadurch könnten möglicherweise elegante Lösungen für einige dieser Probleme gefunden werden, oder zumindest Konzepte für zukünftige neuropsychologische Experimente entwickelt werden, die hilfreich bei ihrer Lösung sein könnten. 207 Eidesstattliche Erklärung Vor- und Zuname: Hans Joachim Höh Geburtsdatum: 14.08.1977 Geburtsort: Hagen Hiermit erkläre ich an Eides statt, – dass ich die vorgelegte Dissertation selbständig und ohne unzulässige fremde Hilfe angefertigt und verfasst habe, dass alle Hilfsmittel und sonstigen Hilfen angegeben und dass alle Stellen, die ich wörtlich oder dem Sinne nach aus anderen Veröffentlichungen entnommen habe, kenntlich gemacht worden sind; – dass die Dissertation in der vorgelegten oder einer ähnlichen Fassung noch nicht zu einem früheren Zeitpunkt an der Ruhr-Universität Bochum oder einer anderen inoder ausländischen Hochschule als Dissertation eingereicht worden ist. Bochum, 06.01.2013 __________________________ Hans Joachim Höh 208 Abbildungsverzeichnis Abbildung 1: Freges Unterscheidung von Sinn und Bedeutung für Wörter und Sätze S. 16 Abbildung 2: Freges Unterscheidung von Sinn und Bedeutung für Wörter und Sätze S. 33 Abbildung 3: Bedeutung von Wörtern und Sätzen S. 34 Abbildung 4: unterschiedliche potentielle Analysehinsichten bedeutungsvoller Sätze S. 34 Abbildung 5: Wahrheitstafeln für 1-3 Elementarsätze gemäß TLP 4.31 S. 76 Abbildung 6: Neuron - Abbildung aus Carlson S. 36 S.139 Abbildung 7: ionotroper Rezeptor - Abbildung aus Carlson S. 67 S.142 Abbildung 8: metabotroper Rezeptor - Abbildung aus Carlson S. 68 S.142 Abbildung 9: neuronale Integration - Abbildung aus Carlson S. 72 S.143 Abbildung 10: Aktionspotential - Abbildung aus Carlson S. 56 S.144 Abbildung 11: S.146 Freisetzung des Neurotransmitters - Abbildung aus Carlson S.65 Abbildung 12: fusionierte synaptische Vesikel - Abbildung aus Carlson S. 66 S.148 Abbildung 13: Pinozytose - Abbildung aus Carlson S. 66 S.149 Abbildung 14: Langzeitpotenzierung - Abbildung aus Carlson S. 506 S.151 Abbildung 15: hochfrequente Stimulation - Abbildung aus Carlson S. 505 S.152 Abbildung 16: Synapsenumstrukturierung - Abbildung aus Carlson S. 513 S.152 Abbildung 17: Einbau zusätzlicher Rezeptoren - Abbildung aus Carlson S. 506 S.153 Abbildung 18: assoziative Langzeitpotenzierung - Abbildung aus Carlson S. 509 S.154 Abbildung 19: Hebb´sche Regel - Abbildung aus Carlson S. 498 S.155 Abbildung 20: Aktivierungen von Wörtern für Werkzeuge/Tiere - Abb. aus Pulvermüller S. 58 S.162 Abbildung 21: Aktivierungen für Tätigkeiten/visuelle Objekte – Abb. aus Pulvermüller S. 58 S.162 Abbildung 22: Kartierung des primären motorischen Cortex und motorischer Homunkulus Abb. aus Carlson S. 304 S.164 Abbildung 23: Aktivierungen von Wörtern mit inhaltlichem Bezug auf die Bewegung von Beinen, Armen und dem Gesicht – Abb. aus Pulvermüller S. 63 S.165 Abbildung 24: Aktivierungunterschiede für Verben mit inhaltlichem Bezug auf Hände und Füße in funktioneller Magnetresonanztomographie – Abb. aus Pulvermüller S.63 S.166 Abbildung 25: Aktivierungunterschiede für Verben mit inhaltlichem Bezug auf Hände und Füße im Elektroenzephalogramm – Abb. aus Pulvermüller S.63 S.167 Abbildung 26: neuronale Netzstrukturen bei Polysemie, Synonymie, Hyperonymie und Wortformeinschluß – Abb. aus Pulvermüller S.85 S.169 Abbildung 27: Teilweise überlappende neuronale Netze, deren gleichzeitige vollständige Aktivierung durch subkortikale Hemmung verhindert wird – Abb. aus Pulvermüller S. 81 S.170 Abbildung 28: postulierte neuronale Verbindungen zwischen Sprachmodulen in den unterschiedlichen Modellen – Abb. aus Pulvermüller S.92 S.173 Abbildung 29: schematische Darstellung linkshemisphärischer Netzstrukturen von Inhaltswörtern und Funktionswörtern – Abb. aus Pulvermüller S. 117 Abbildung 30: Übersicht über die verschiedenen Benennungen von unterschiedlichen Arten 209 S.175 von neuronalen Strukturen – Abb. aus Pulvermüller S.171 S.179 Abbildung 31: Bedeutung als neuronale Verknüpfung zwischen neuronalen Repräsentationen von Zeichen und neuronalen Repräsentationen von Gegenständen S.184 Abbildung 32: Lokalisation der primären Sprachareale aus Carlson S. 586 S.187 Abbildung 33: Lokalisation der Assoziationscortices aus Carlson S. 96 S.188 210 Literaturverzeichnis Beckermann, A. : Analytische Einführung in die Philosophie des Geistes – Berlin; New York: de Gruyter, 2001 Blau, U.: Die dreiwertige Logik der Sprache, Berlin, New York: de Gruyter, 1977 Carlson, N.R.: Physiologische Psychologie – München: Pearson Studium, 2004 Chomsky, N.: Sprache und Geist – Sinzheim: Suhrkamp, 1973 Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 Dummett, M.: Frege. Philosophy of Language – London, 1973 Dummett, M.: The Interpretation of Frege’s Philosophy – London, 1981 Dummett, M.: Frege. Philosophy of Mathematics – London, 1991 Everett, D.L.: Das glücklichste Volk. Sieben Jahre bei den Pirahã-Indianern am Amazonas - München: DVA, 2010 Frege, G.: Function und Begriff – Jena: Verlag von Hermann Pohle, 1891 SB - Frege, G.: Über Sinn und Bedeutung – in Zeitschrift für Philosophie und philosophische Kritik, NF 100, 1892 Forum für Philosophie Bad Homburg (Hrsg.): Realismus und Antirealismus – Frankfurt a.M.: Suhrkamp, 1992 Gabriel, Gottfried u.a. (Hg.): Gottlob Frege: Wissenschaftlicher Briefwechsel, Hamburg 1976 Grayling, A.C.: Wittgenstein aus der Reihe Philosophie jetzt! – Freiburg im Breisgau: Herder Verlag, 1999 Gumperz, J.J./Levinson, S.C.: Rethinking linguistic relativity – Cambridge University Press, 1996 Hacker, P.M.S.: Wittgenstein´s Place in Twentieth-century Analytic Philosophy – Oxford: Blackwell Publishers Ltd., 1997 Herrmann, C./Fiebach, C.: Gehirn und Sprache – Frankfurt am Main: Fischer Verlag, 2007 Hume, D.: Ein Traktat über die menschliche Natur, Bd. 1. Über den Verstand – Hamburg, 1989 Jacquette, D. (Hg.): Philosophy of Logic – An Anthology – Oxford: Blackwell Publishers Ltd., 2002 211 Jonas, D.F./Jonas D.J.: Das erste Wort – Wie die Menschen sprechen lernten – Hamburg: Hoffmann und Campe, 1979 Karnath, H.-O./Thier, P.: Neuropsychologie – Heidelberg: Springer Medizin Verlag, 2003 Keil, G.: Quine zur Einführung – Hamburg, 2002 Klann-Delius, G.: Spracherwerb – Stuttgart: Verlag J.B. Metzler, 2008 Köhler, W.: Intelligenzprüfungen an Menschenaffen – Berlin ° Heidelberg ° New York, Springer-Verlag, 1973 Kolb, B./Whishaw, I.Q.: Neuropsychologie – Heidelberg - Berlin - Oxford: Spektrum Akademischer Verlag, 1996 Kripke, S. A.: Name und Notwendigkeit – Frankfurt am Main: Suhrkamp, 1981 Kutschera, F. von/Breitkopf, A.: Einführung in die moderne Logik – Freiburg/München: Alber, 2000 Lepore, E./Smith B.C.: The Oxford Handbook of Philosophy of Language – Oxford: Oxford University Press, 2008 Macho, T.H.: Wittgenstein – München: Deutscher Taschenbuch Verlag, 2001 Martens, E./Schnädelbach, H. (Hg.): Philosophie Band 2 – Reinbek bei Hamburg: Rowohlts Enzyklopädie, 2003 Newen, A.: Willard Van Orman Quine in Otfried Höffe (Hrsg.) Klassiker der Philosophie 2 – Von Immanuel Kant bis John Rawls - München: Verlag C.H. Beck, 2008 Newen, A./Schrenk, M.: Einführung in die Sprachphilosophie - Darmstadt: Wissenschaftliche Buchgesellschaft, 2008 Pardey, U.: Identität, Existenz und Reflexivität. Sprachanalytische Untersuchungen zur deskriptiven Metaphysik Weinheim: Beltz/Athenäum Monographien Philosophie, 1994 Pardey, U.: Freges Kritik an der Korrespondenztheorie der Wahrheit – Paderborn: Mentis, 2004 Pardey, U.: Begriffskonflikte in Sprache, Logik, Metaphysik - Paderborn: Mentis, 2006 Pears, D.: The False Prison – A Study of the Development of Wittgenstein´s Philosophy, Oxford, 1987 Pulvermüller, F.: The Neuroscience of Language, Cambridge, 2002 Quine, W.V.O.: Pursuit of Truth, Cambridge, Mass. 1990; dt. Unterwegs zur Wahrheit, Paderborn 1995 212 Quine, W.V.O: Theories and things, Harvard. 1981; dt. Theorien und Dinge, Frankfurt a.M. 1985 Quine, W.V.O.: Word and Object, Cambridge, Mass. 1960; dt. Wort und Gegenstand, Stuttgart 1980 Stepanians, M.S.: Gottlob Frege zur Einführung – Hamburg, 2001 Störig, H.J.: Kleine Weltgeschichte der Philosophie, Frankfurt a.M.:Fischer 1998 Von Savigny, E. (Hrsg): Ludwig Wittgenstein, Philosophische Untersuchungen (Klassiker auslegen ; Bd. 13) – Berlin: Akademie Verlag, 1998 Von Savigny, E.: Wittgensteins „Philosophische Untersuchungen“ - Ein Kommentar für Leser, Band 1&2 – Frankfurt a.M.: Klostermann, 1988 Waismann, F.: Logik, Sprache, Philosophie – Stuttgart: Reclam, 1985 Wehmeier, K.F.: Wittgensteinian Predicate Logic, Notre Dame Journal of Formal Logic Volume 45, Number 1, 2004 Wehmeier, Kai F.: Wittgensteinian Tableaux, Identity, and Co-Denotation – in Erkenntnis 69, S. 363-376, 2008 Werning, M.: The ‘complex first’ paradox: What’s needed to compose neurally distributed lexical meanings? in Behavioral and Brain Sciences, 28 (Online suppl.), 2005 Werning, M.: The complex first paradox. Why do semantically thick concepts so early lexicalize as nouns? in Interaction Studies, 9(1), 2008. Whitehead, A.N./Russell, B.: Principia Mathematica – Baden-Baden: Suhrkamp Taschenbuch Verlag, 1986 Whorf, B.L.: Sprache, Denken, Wirklichkeit – Beiträge zur Metalinguistik und Sprachphilosophie – Hamburg: Rowohlt, 1963 PU - Philosophische Untersuchungen zitiert aus Wittgenstein, L.: Werkausgabe Band 1 – Frankfurt a.M.: Suhrkamp, 1984 TLP - Tractatus logico-philosophicus zitiert aus Wittgenstein, L.: Werkausgabe Band 1 – Frankfurt a.M.: Suhrkamp, 1984 Wittgenstein, L.: "Some Remarks on Logical Form" in Proceedings of the Aristotelian Society, Suppl. vol. 9 (1929) Wittgenstein, L.: Werkausgabe Band 3 – Frankfurt a.M.: Suhrkamp, 1984 213 Wittgenstein, L.: Über Gewißheit – Frankfurt a.M.: Suhrkamp, 1970 Zimmer, D.E.: So kommt der Mensch zur Sprache – München: Heyne, 2008 Zoglauer, T.: Einführung in die formale Logik für Philosophen, Göttingen, 2002 214 Hans Joachim Höh Mansfelder Str. 58 44892 Bochum 0176 / 23124941 [email protected] Lebenslauf: Geb. 14.08.1977 in Hagen 1984-1988 Grundschule Rüggeberg in Ennepetal 1988-1997 Abitur am Reichenbach Gymnasium Ennepetal 1997-1998 Zivildienst im Klinikum Wuppertal-Barmen 1998-2001 Universität Dortmund Diplom Informatik mit Nebenfach Psychologie 2001 Ruhr-Universität Bochum Magister Philosophie/Geschichte 2001-2002 Ruhr-Universität Bochum Magister Philosophie/Psychologie/Sozialwissenschaften 2002-2003 Universität Wuppertal Magister Philosophie/Psychologie/Sozialwissenschaften 2003-2008 Ruhr-Universität Bochum Magister Philosophie/Psychologie/Sozialwissenschaften 2009-2013 Ruhr-Universität Bochum Promotiosstudiengang Philosophie 215