Neuropsychologische Bedeutungstheorie - Ruhr

Werbung
Ruhr-Universität Bochum
Fakultät für Philosophie und Erziehungswissenschaft
Neuropsychologische Bedeutungstheorie –
Eine Neubewertung Wittgensteins, Freges und Quines
verschiedener Sprachkonzepte zur Erstellung einer
aktuellen neuropsychologischen Bedeutungstheorie
Inauguraldissertation
zur Erlangung des akademischen Grades
eines Doktors der Philosophie
vorgelegt von:
Hans Joachim Höh
aus Hagen
Referenten:
Prof. Dr. U. Pardey
PD Dr. Michael Anacker
Dekan:
Prof. Dr. J. Wirth
Datum der mündlichen Prüfung:
15.07.2013
Neuropsychologische Bedeutungstheorie –
Eine Neubewertung Wittgensteins, Freges und Quines verschiedener
Sprachkonzepte zur Erstellung einer aktuellen neuropsychologischen
Bedeutungstheorie
Inhaltsverzeichnis
Vorwort
6
1. Einleitung
7
1.1 Entstehung der Dissertation
7
1.2 Wissenschaft und Philosophie
7
1.3 Analytische Sprachphilosophie
9
1.4 Ziel der Dissertation
11
1.5 Strukturübersicht
13
2. Gottlob Freges Bedeutungstheorie
15
2.1 Person und Werk
15
2.2 Die Bedeutung eines Satzes ist sein Wahrheitswert
17
2.2.1 Formaler Einwand
18
2.2.2 Inhaltlicher Einwand
21
2.2.3 Der Sachverhalt als Alternative zum Wahrheitswert als Satzbedeutung
23
2.3 Freges Sinn eines Satzes
24
2.4 Freges Entitätsverdoppelung: Sinn und Bedeutung
32
3. Ludwig Wittgensteins Bedeutungstheorien
35
3.1 Wittgensteins zwei philosophische Ansätze
35
3.1.1 Person und Werk
35
3.1.2 Die PU als Fortführung des TLP statt als philosophische Wende
37
3.1.3 Ideale Sprache oder Normale Sprache
39
3.2 Die Philosophischen Untersuchungen
41
3.2.1 Eike von Savignys Wittgenstein Interpretation
41
3.2.2 Spracherwerb – Schwerpunkt Lesefähigkeiten
45
2
3.2.3 Lesen und Gesichtserkennung als identisch funktionierende Vorgänge
46
3.2.4 Neuropsychologische Forschung zur Verbesserung des psycholog. Vokabulars
48
3.2.5 Phonetisches Lesen, Ganz-Wort-Lesen und Dyslexien
50
3.2.6 Denken und Sprechen als Einheit
51
3.3 Der Tractatus logico-philosophicus
55
3.3.1 Die Besonderheiten des TLP
55
3.3.2 Die Bildtheorie
58
3.3.2.1 Die Funktionsweise von Bildern
58
3.3.2.2 Wittgenstein gegen Kant
60
3.3.2.3 Sätze als Bilder der Wirklichkeit
62
3.3.3 Der Wahrheitsbegriff
64
3.4 Bildtheorie oder Gebrauchstheorie?
66
3.4.1 Welchen Ansatz benötigen wir für eine neuropsychologische Bedeutungstheorie?
66
3.4.2 Kein Verständnis der Sprachmechanismen ohne Psychologie
67
4. Attributsskalenlogik
69
4.1 Ein Lösungsvorschlag für Wittgensteins Elementarsatzproblematik
69
4.2 Moderne Logik
80
4.2.1 Aussagenlogik
80
4.2.2 Prädikatenlogik
81
4.3 Attributsskalenlogik als nächster Schritt
82
4.3.1 Die drei alternativen Verfahrensweisen
88
4.3.2 Überprüfung an der Alltagssprache
93
4.4 Maßstäbe und das Messen
94
4.5 Die Auswirkungen der Attributsskalenlogik
96
5. Willard Van Orman Quines Bedeutungstheorie
98
5.1 Person und Werk
98
5.2 Quines Ansätze zu einer naturalistischen Bedeutungstheorie
99
5.3 Die Probleme von Quines naturalistischer Bedeutungstheorie
101
6. Sprachentstehung und Spracherwerb
104
6.1 Sprache und Denken
104
3
6.2 Die historische Entstehung der Sprachfähigkeit
111
6.3 Die Spracherwerbssituation
115
6.3.1 Der kindliche Erstspracherwerb
117
6.3.2 Der Erwerb der Sprachlaute
117
6.3.3 Der Erwerb der Wörter
120
6.3.4 Der Erwerb der Bedeutung
122
6.3.5 Der Erwerb der Grammatik
128
6.4 Nativistische und Funktionalistische Theorien des Grammatikerwerbs
131
6.4.1 Nativistische Theorien des Grammatikerwerbs
131
6.4.2 Funktionalistische Theorien des Grammatikerwerbs
134
7. Die Neuropsychologie der Sprache
138
7.1 Die neuropsychologische Grundlagen
138
7.2 Die Nervenzellen
138
7.3 Neurotransmitter und Rezeptoren
142
7.4 Neuronale Integration
143
7.5 Das Aktionspotential
144
7.6 Die Freisetzung des Neurotransmitters
146
7.7 Neuronales Lernen
150
8. Die neuronale Realisierung von Sprache
157
8.1 Wortrepräsentation durch neuronale Netze
157
8.2 Polysemie und Synonymie als Überschneidung von funktionalen Netzen
168
8.3 Schriftsprache als optionale angehängte Netzstruktur
171
8.4 Funktionswörter und Grammatik
174
9. Neuropsychologische Bedeutungstheorie - Ein neuer Ansatz
180
9.1 Bedeutung ist eine neuronale Verknüpfung
180
9.1.1 Von der Referenz zur Verknüpfung
181
9.1.2 Eine Verknüpfung zwischen zwei neuronalen Repräsentationen
182
9.2 Die Kompositionalität der Bedeutung
191
9.3 Die Entstehung komplexer theoretischer Begriffe
192
9.4 Spracherwerb und Bedeutungsunterschiede
194
4
9.5 Die Möglichkeit der Sprachentstehung und Weiterentwicklung
195
9.6 Die Vorteile neuropsychologischer Bedeutungstheorie
196
9.7 Pragmatik und Wahrheitswert eines Satzes
203
9.8 Zusammenfassung und Ausblick
206
Eidesstattliche Erklärung
208
Abbildungsverzeichnis
209
Literaturverzeichnis
211
Lebenslauf
215
5
Vorwort
Ich hatte das Glück, sowohl diverse geistes- als auch naturwissenschaftliche Fächer studieren zu
können. Im Vergleich zu Studenten der mittlerweile üblichen kürzeren und spezialisierteren
Studienstrukturen, verfüge ich daher über einen potentiell weiteren Blickwinkel, der insbesondere
hilfreich dabei ist, Verfahren aus anderen wissenschaftlichen Bereichen zu übertragen und damit
neue Problemlösungen zu finden. Bei einem so entstehenden fächerübergreifenden Text, wie er hier
vorliegt, besteht aber immer auch die Gefahr, dass die Leser die für sie jeweils fachfremden Anteile
ignorieren oder kritisieren. Ich kann nur hoffen, dass das Gegenteil der Fall sein wird. Für den
wissenschaftlichen Fortschritt in allen Bereichen kann es immer nur nützlich sein, sich auf
alternative Verfahren gedanklich einzulassen. Die großen wissenschaftlichen Paradigmenwechsel
basierten immer auf der Bereitschaft von einzelnen Wissenschaftlern, die Perspektive zu wechseln
und die bisherigen gedanklichen Pfade zu verlassen. Wenn durch diese Dissertation die Bereitschaft
zur Einnahme fächerübergreifender Perspektiven gefördert würde, dann wäre damit viel mehr
erreicht als durch eine Zustimmung in den hier behandelten Detailfragen.
Ich danke meinen Betreuern, der Barbara-Wengeler-Stiftung, Ellen, meinen Eltern und meinen
Freunden für ihre diversen Formen der Unterstützung, ohne welche diese Dissertation nicht
entstanden wäre.
6
Neuropsychologische Bedeutungstheorie –
Eine Neubewertung Wittgensteins, Freges und Quines verschiedener
Sprachkonzepte zur Erstellung einer aktuellen neuropsychologischen
Bedeutungstheorie
1. Einleitung
1.1 Entstehung der Dissertation
Diese Arbeit entstand ausgehend von meinem besonderen Interesse für die Arbeiten Ludwig
Wittgensteins. In der konzeptionellen Anfangsphase beschäftigte ich mich nur mit den
Unterschieden und Zusammenhängen zwischen seinem Frühwerk und seinem Spätwerk. Dabei
fielen mir besonders die extrem unterschiedlichen Bedeutungstheorien im Tractatus und den
Philosophischen Untersuchungen auf. Da sich bei einem so exakten Denker wie Wittgenstein schon
zwei so verschiedene Bedeutungsbegriffe finden, liegt es nahe, dass die Funktionsweise der
Bedeutung schwer verständlich und in der Philosophie umstritten ist. In der Tat liegen in den
Werken von Frege und Quine weitere jeweils äußerst andersartige Konzeptionen zur Erklärung von
Bedeutung vor. Daher beschloss ich, die verschiedenen Bedeutungstheorien zu analysieren, ihre
Stärken
und
Schwächen
aufzudecken,
um
dann
auf
der
Grundlage
der
aktuellen
Forschungsergebnisse der Neuropsychologie eine neue Bedeutungstheorie zu erstellen. Diese sollte
versuchen, die unterschiedlichen philosophischen Ansätze zu integrieren und darüber hinaus die
physiologischen Prozesse darzustellen, die der Entstehung von Bedeutung zugrunde liegen. Aus
philosophischer Sicht ist möglicherweise nicht direkt klar, warum diese naturwissenschaftlichen
Erkenntnisse überhaupt zur Klärung dieser scheinbar rein systemtheoretischen Fragen nützlich sein
sollten. Daher möchte ich zunächst kurz den Philosophiebegriff erläutern, der meinem Denken und
damit auch dieser Arbeit zugrunde liegt.
1.2 Wissenschaft und Philosophie
Darüber, was genau man unter „Philosophie“ zu verstehen hat, gab es zu verschiedenen Zeiten
innerhalb der historischen Entwicklung der Philosophie unterschiedliche Ansichten. Auch heute
7
gibt es fachintern noch diverse unterschiedliche Verfahren und damit einhergehend unterschiedliche
Formen des Selbstverständnisses. Daher erscheint es mir sinnvoll, zunächst mein eigenes
Verständnis von Philosophie genau zu erläutern. Wenn man von der griechischen Wortbedeutung
und dem Verständnis bei Sokrates und Platon ausgeht, versteht man Philosophie als das allgemeine
Streben nach Erkenntnis. Dieses Streben nach Erkenntnis wird jedoch nicht, wie Platon und
Aristoteles glaubten, durch ein ihm vorausgehendes Staunen ausgelöst, sondern von der
evolutionsbedingten menschlichen Grundsituation. Die Gehirnareale, die uns von den anderen
Säugetieren unterscheiden, ermöglichen es uns, komplexe langfristig geplante Handlungen und
bewusste Bewertungen der Umweltbedingungen durchzuführen. Dies ist ein evolutionärer Vorteil,
der uns nicht nur außergewöhnliche Handlungsmöglichkeiten eröffnet, sondern auch überhaupt den
Hauptunterschied zwischen der Art unserer und der anderer tierischer Existenz darstellt. Da wir
jedoch nicht mehr über komplette instinktive Programme verfügen, um auf die Umwelt zu
reagieren, ist es nun nicht nur möglich, sondern auch zwingend erforderlich, möglichst geschickt zu
planen und gute Entscheidungen zu treffen, um unser Überleben zu gewährleisten. Je besser man
die Situation, in der man sich befindet, analysieren und verstehen kann, desto bessere
Entscheidungen sind möglich. Daher ist es ein natürliches Bestreben des Menschen, sein Wissen zu
vermehren und seine Erkenntnisfähigkeiten zu verbessern. Dieses Bestreben findet bei jedem
Menschen Ausdruck in alltäglicher Neugier und dem Erwerb grundlegender Lebenskompetenzen.
Durch extreme Fortsetzung dieses Strebens nach Wissen ohne Beachtung der direkten praktischen
Anwendbarkeit, entstanden jedoch die Philosophie und die modernen Wissenschaften. Die
Wissenschaften und die Philosophie sind diesem Verständnis entsprechend keine Gegenpole oder
Konkurrenten. Während in den einzelnen Wissenschaften dem jeweils aktuellen Paradigma folgend
häufig nur in einer Richtung weiter geforscht wird, stellt Philosophie das allgemeine Streben nach
Erkenntnis dar, welches die eigenen Grundlagen und die Paradigmen der Einzelwissenschaften
immer wieder auch in Frage stellen kann. Philosophie wird somit als vereinigende Gesamttheorie
gesehen. Sie sollte niemals zu Ergebnissen kommen, die zu den entsprechenden Ergebnissen der
Einzelwissenschaften
in
direktem
Widerspruch
stehen.
Im
Gegenteil
sollten
die
Einzelwissenschaften beim Voranschreiten ihrer Forschung philosophische Annahmen beweisen,
aber auch widerlegen können. Philosophie ist so verstanden gleichzeitig Metawissenschaft, aber im
Vergleich mit den Einzelwissenschaften nicht von übergeordnetem Erkenntniswert. Sie ist zunächst
relativ methodenloses freies Denken, das dazu geeignet ist, üblicherweise unhinterfragt angewandte
wissenschaftliche Paradigmen zu korrigieren und Erkenntnisse vorwegzunehmen, bevor es
standardisierte Methoden und Möglichkeiten der Messung in der jeweiligen Spezialwissenschaft
gibt. Sobald die in der Philosophie behandelten Themen jedoch so breites Interesse finden, dass sie
8
dadurch zum Themengebiet einer neuen Einzelwissenschaft werden, und diese Wissenschaft
mittlerweile über geeignete Messinstrumente und praktische Anwendungen verfügt, sollten die
philosophischen Institute diese neuen Ergebnisse als Messlatte der eigenen allgemeineren Theorien
verwenden und sich damit zufrieden geben, wertvolle Vorarbeit geleistet und eine neue
wissenschaftliche Disziplin begründet zu haben. Eine Konkurrenz in Detailfragen ist nicht sinnvoll.
Immer wenn dies der Fall ist, liegt meines Erachtens das Missverständnis vor, dass philosophische
Texte einen festen Wert haben, der nicht zeitgebunden ist. Dieses Verständnis spiegelt sich auch in
der gleichwertigen Behandlung von philosophischen Texten aller Altersstufen in philosophischer
Forschung und Lehre wieder. Diesem Verständnis von Philosophie möchte ich nicht folgen. Ich
halte folgende Interpretation für sinnvoller: Die Personen, die wir „die großen Philosophen“
nennen, zeichnen sich nur durch eine einzige Gemeinsamkeit aus. Sie waren der Bevölkerung ihrer
jeweiligen Lebenszeit intellektuell weit voraus, und sie konnten daher Texte mit hohem
Erkenntnisgehalt verfassen, die extrem bedeutsame wissenschaftliche, politische, soziale und
technische Fortschritte eingeleitet haben. Sie zeichnen sich dadurch aus, dass sie, ohne technische
Hilfsmittel zu benutzen, durch freies Denken zu beeindruckenden neuen Thesen über völlig
unterschiedliche Aspekte der Welt gekommen sind. Ihre Texte sind insofern als historisches
Dokument und sie selbst als Personen um ihrer Genialität willen zu würdigen. Ansonsten haben
philosophische Texte aber keinen Wert an sich, sondern sind nur immer dann wertvoll, wenn sie
sich mit Fragestellungen auseinander setzen, die bisher ungelöst sind. Philosophische Texte können
demnach veralten, wenn ihre Fragestellungen mittlerweile anderweitig gelöst wurden, oder ihre
Thesen heutzutage allgemein anerkannt und in unsere Art zu leben integriert worden sind. Darüber
hinaus können sich philosophische Texte aufgrund von späteren wissenschaftlichen Erkenntnissen
auch als falsch erweisen. Meinem Verständnis entsprechend findet philosophische Diskussion und
Forschung also in den zum jeweiligen Zeitpunkt noch unerforschten Grenzbereichen des etablierten
Wissens statt. Es gilt dabei natürlich die wissenschaftlichen Erkenntnisse jeweils derjenigen
Fachbereiche einzubeziehen, an deren Grenzen philosophische Fragen bearbeitet werden. Da die
neurologischen Forschungen in den Bereichen Biologie, Psychologie und Medizin in den letzten
Jahren neue Erkenntnisse zur Sprachverarbeitung hervorgebracht haben, sollten diese auch in der
philosophischen Diskussion der Funktionsweise von Sprache berücksichtigt werden.
1.3 Analytische Sprachphilosophie
Angesichts der obigen Ausführungen sollte es nicht weiter verwunderlich sein, dass ich analytische
9
Sprachphilosophie für die interessanteste Art der Philosophie halte. Sie ist zum einen relativ neu, so
dass ihre Thesen nicht schon alle widerlegt oder gesellschaftlich etabliert sind. Zum anderen stellt
sie eher eine Methode als eine Menge von Thesen dar und sie ermöglicht methodisch genau das,
was ich als Aufgabe der Philosophie betrachte. Mit ihr ist man in der Lage, an den Begriffen und
Paradigmen der Einzelwissenschaften Kritik zu üben, und diese dadurch zu animieren, ihre
Forschungsrichtungen zu überdenken, oder geistige Hindernisse zu überwinden, die sich durch
problematische Grundbegriffe in ihnen etabliert haben. Weiterhin kann die Sprachphilosophie in
unerforschten Fragestellungen durch gezielte Begriffskritik die interessanten Fragen herausarbeiten,
und einen Begriffsapparat erstellen, der geeignet ist, diese Fragen zu klären. Sobald statt eines
undurchsichtigen Themas klare Fragestellungen, Begriffe und durch freies Denken erstellte
Hypothesen vorliegen, wird von ganz allein das allgemeine Interesse zunehmen, und sich eine neue
wissenschaftliche Disziplin entwickeln, die diese Hypothesen experimentell zu überprüfen beginnt,
genauso wie es zum Beispiel bei der Psychologie oder der Informatik der Fall war. Unsere Begriffe
sind, sprachhistorisch betrachtet, aus den unterschiedlichsten Lebenssituationen heraus entstanden
und durch verschiedenste Absichten geprägt worden. Sie sind also fern davon, für alle Zwecke ideal
zu sein. Sie sind nur nützlich für bestimmte Situationen, oder sind es irgendwann in der
Vergangenheit einmal zur Erreichung ganz spezieller kommunikativer Absichten gewesen.
Prinzipiell ist die Verknüpfung von Zeichen und Bezeichnetem zwar beliebig möglich, aber das gilt
nur in Hinblick auf die Erfindung einer neuen Sprache. Daher liest man in Ludwig Wittgensteins
Tractatus logico-philosophicus:
3.3411
Man könnte also sagen: Der eigentliche Name ist das, was alle Symbole, die den
Gegenstand bezeichnen, gemeinsam haben. Es würde sich so sukzessive ergeben,
dass keinerlei Zusammensetzung für den Namen wesentlich ist.1
Die Wörter einer natürlich gewachsenen Sprache tragen aber mittlerweile mehr oder weniger viele
Konnotationen ihrer früheren Verwendungsweisen mit sich herum. Zum Beispiel wäre es prinzipiell
vollkommen gleichgültig, welche Wortkombination oder welches Wort man im Deutschen zur
Begrüßung verwendete, aber die Konnotationen der Wörter, die aus ihrer anderweitigen
Verwendung herrühren, können den Grußformeln „Hallo!“, „Guten Tag!“ und „Grüß Gott!“
durchaus unterschiedliche Wirkungen verleihen. Multikulturelles Zusammenleben, abnehmende
Religiosität und ähnliche soziale Veränderungen machen zum Beispiel die dritte Grußformel
potentiell problematischer, als sie es in vergangenen Jahrhunderten gewesen sein mag.
1
Tractatus logico-philosophicus zitiert aus Wittgenstein, L.: Werkausgabe Band 1 - Frankfurt a.M.: Suhrkamp, 1984, S.
24, in folgenden Fußnoten nur noch abgekürzt als TLP.
10
Da wir aber häufig Wörter in andere thematische Bereiche übertragen und sie dann im übertragenen
Sinn weiter verwenden, statt immer neue Wörter zu erfinden, und wir außerdem durch
wissenschaftliche, technische und soziale Weiterentwicklungen manche Kontexte immer
komplizierter gestalten, „veralten“ manche unserer Wörter. Man ist dann nicht mehr in der Lage,
mit ihnen die Welt in ihrer neu entdeckten Komplexität, oder den neuen Theorien gemäß adäquat
abzubilden. Weil Sprache jedoch von Generation zu Generation weitergegeben wird, können solche
problematischen Begriffe nicht besonders schnell aus der Sprache verschwinden, da frühere
Generationen diese Begriffe erlernt haben und weiter verwenden. Dadurch entstehen jede Menge
Probleme für unsere Wissenschaften ebenso wie für unser tägliches Zusammenleben.
Dass jede Sprache prinzipiell an die Art gebunden ist, wie sich die zugehörige Sprachgemeinschaft
die Welt vorstellt und wie sie mit ihr umgeht, sollte intuitiv klar sein. Man sieht diesen Umstand
jedoch besonders deutlich, wenn man Stammessprachen anderer Völker betrachtet. Ohne Geld und
kapitalistisches System benötigt man zum Beispiel auch nicht dringend einen voll entwickelten
Zahlbegriff. Solche naturnahen Völker, wie zum Beispiel die Pirahã im Amazonasgebiet Brasiliens,
unterscheiden begrifflich nur ein paar Zahlen bis drei oder fünf und benennen alle größeren Mengen
nur noch mit einem einzigen Wort, welches wir dementsprechend mit „viele“ übersetzen würden.2
Analytische Sprachphilosophie ermöglicht uns, genau die Probleme, die wir uns durch veraltete und
ungenaue Begriffe selbst bereitet haben, aufzudecken und zu lösen. Festgefahrene und
widersprüchliche Theorien in den Einzelwissenschaften können so einen Anstoß in die richtige
Richtung erhalten. Darüber hinaus kann ein solches sprachanalytisches Verständnis unserer Begriffe
uns auch darüber aufklären, wie wir die Welt eigentlich sehen und wie wir mit ihr umgehen.
1.4 Ziel der Dissertation
Das
Ziel
dieser
Bedeutungstheorie
Dissertation
als
besteht
interdisziplinärem
in
der
Projekt,
Erstellung
das
einer
zwischen
neuropsychologischen
Sprachphilosophie
und
Neuropsychologie vermitteln soll. Es versucht, eine Brücke zwischen den Theoriegebäuden dieser
beiden Disziplinen zu schlagen, die bisher eher wie voneinander unabhängige Säulen auf
unterschiedlichen Fundamenten in die Höhe gewachsen sind. Dieses Projekt soll einerseits der
Philosophie dabei helfen, das Naturalisierungsprogramm innerhalb der Philosophie des Geistes
weiter voranzutreiben, das Sprachprozesse bisher noch kaum thematisiert. Andererseits profitieren
2
Vgl. Everett, D.L.: Das glücklichste Volk. Sieben Jahre bei den Pirahã-Indianern am Amazonas - München: DVA,
2010
11
die Neurowissenschaften von diesem Projekt, indem die Wichtigkeit neuropsychologischer
Forschungsergebnisse auch für abstrakte philosophische Themen, wie die Bedeutungstheorie es
prinzipiell ist, nachgewiesen wird. Außerdem verfügen die historisch betrachtet relativ neuen
Neurowissenschaften zwangsläufig nicht über ebenso ausgearbeitete Theorien zu Sprachprozessen,
wie sie innerhalb der Sprachphilosophie und Linguistik bereits vorliegen. Daher soll die
neuropsychologische Bedeutungstheorie auch dabei helfen, die in der Philosophie diskutierten
komplexen Theorieansätze in überprüfbare Hypothesen für die Neurowissenschaften zu überführen.
Die primäre systematische Fragestellung lautet dabei: Was ist die Bedeutung eines Wortes und was
die eines Satzes? Zu diesem Thema gibt es sehr unterschiedliche Theorien innerhalb der modernen
Sprachphilosophie. Durch die Diskussion der Vor- und Nachteile der philosophischen Theorien von
Frege, Wittgenstein und Quine soll an den aktuellen Stand der Diskussion bei Davidson, Dummett,
Kaplan, Kripke, Searle, Putnam, etc. herangeführt und die Synthese einer neuen Theorie ermöglicht
werden. Eine Neubewertung der klassischen philosophischen Theorien bietet sich genau zu diesem
Zeitpunkt aufgrund der aktuellen neuropsychologischen Forschungsergebnisse an. Das neue Wissen
darüber, welche neuronalen Prozesse menschlichen Sprachfähigkeiten zugrunde liegen, kann als
Entscheidungshilfe dienen, welche philosophischen Theorieansätze jeweils besser als andere
geeignet sind, um bestimmte sprachliche Fähigkeiten zu erklären. Das Hauptziel der Dissertation
besteht in der Formulierung einer reduktionistischen Bedeutungstheorie, die im Einklang mit den
aktuellen Erkenntnissen der Neuropsychologie steht, und die gleichzeitig die verschiedenen
philosophischen Ansätze neu bewertet und vereint, soweit dies möglich ist. Als interessantes
Teilergebnis entsteht dabei unter anderem eine bessere Vergleichbarkeit der unterschiedlichen
philosophischen Theorien innerhalb der modernen Sprachphilosophie, die bisher häufig als
komplexe
Erklärungsmodelle
Widersprüchlichkeit
unvereinbar
untereinander
ist
nebeneinander
jedoch
meines
stehen.
Erachtens
Ihre
oberflächliche
teilweise
nur
einer
unterschiedlichen Fokussierung innerhalb des komplexen Themenbereichs „Sprachfähigkeiten“
geschuldet. Als weiteres interessantes Teilergebnis liefert diese Dissertation Lösungsvorschläge zur
Erklärung der wichtigsten philosophisch diskutierten Phänomene, die Probleme oder zumindest
Herausforderungen für jede bisherige Bedeutungstheorie darstellten. Für die formale Logik könnte
sich darüber hinaus die im 4. Kapitel entwickelte Attributsskalenlogik als interessanter Fortschritt
erweisen, der die Lösung von Wittgensteins Elementarsatzproblem ermöglicht.
12
1.4 Strukturübersicht
Wie bereits erwähnt, werden in dieser Arbeit verschiedene Bedeutungstheorien analysiert, um ihre
jeweiligen Stärken und Schwächen aufzudecken. Das geschieht, damit unter Einbeziehung der
aktuellen Forschungsergebnisse der Neuropsychologie eine neue Bedeutungstheorie erstellt werden
kann, die versucht, der Bedeutung eine physiologische Grundlage zuzuordnen. In den Blick geraten
dabei hauptsächlich die Arbeiten von Frege, Wittgenstein und Quine. Selbstverständlich gibt es
viele weitere wirkungsreich gewordene Philosophen und sprachphilosophische Werke in den letzten
hundert Jahren, denen jedoch aus systematischen Gründen kein eigenes Kapitel gewidmet wird. Ich
beginne im 2. Kapitel mit Frege, da er die Grundlagen der Bedeutungstheorie gelegt, damit aber
zugleich auch einige bedeutsame Probleme für das Verständnis von Sprache und Bedeutung in der
philosophischen Diskussion verursacht hat. Freges Unterscheidung von Sinn und Bedeutung basiert
auf dem Problem der informativen Identitätsaussagen. Während der Analyse der Probleme von
Freges Standpunkt, werden auch schon Alternativen für eine naturalistische Bedeutungstheorie
entwickelt. Die Diskussion von Freges Bedeutungstheorie führt dann dem historischen Verlauf
folgend direkt weiter zu Wittgenstein. Bei der Besprechung von Wittgensteins Werken stelle ich im
3. Kapitel zuerst einige Gedanken der Philosophischen Untersuchungen vor, nutze sie aber
hauptsächlich, um aufzuzeigen, dass (im Einklang mit meinem oben dargelegten generellen
Philosophieverständnis) Wittgensteins Spätphilosophie in der Tat Thesen zur Funktionsweise
unseres Gehirns enthält, die sich heute durch die Forschungsergebnisse der Neuropsychologie
bestätigt finden. Das Hauptinteresse gilt jedoch eigentlich Wittgensteins Frühwerk, denn der
Tractatus entstand unter anderem in massiver Auseinandersetzung mit Freges und Russells Projekt
der Entwicklung der wissenschaftlichen Idealsprache. Die Bildtheorie des Tractatus thematisiert die
Strukturisomorphie zwischen Sprache und Welt, und liefert bereits einen sehr guten Ausgangspunkt
zur Entwicklung einer neuropsychologischen Bedeutungstheorie. Zudem ist der Tractatus aufgrund
seiner absichtlichen Ausklammerung jedweder Theorie der psychologischen Realisierung von
Sprachprozessen mit den aktuellen neuropsychologischen Forschungsergebnissen noch einfacher in
Einklang zu bringen, als die Thesen der Philosophischen Untersuchungen es sind. Während
Wittgenstein sich im Spätwerk damit beschäftigte, wie sprachliche Äußerungen in den Lebensalltag
eingebettet sind, war er im Frühwerk primär an der Beziehung zwischen Sprache und Welt
interessiert. Ein Problem seiner Theorie im Tractatus, das er nicht lösen konnte, bestand in der
scheinbaren Unmöglichkeit der Angabe von Elementarsätzen. Da die Existenz von Elementarsätzen
jedoch aus seiner Konzeption logisch folgte, war seine Unfähigkeit, Beispiele für Elementarsätze
anzugeben, bisher ein guter Grund, die Bildtheorie des Tractatus abzulehnen. Daher stellt die im 4.
13
Kapitel von mir entwickelte Attributsskalenlogik einen der wichtigsten Punkte dieser Arbeit dar.
Denn mit dieser Verfeinerung des Formalismus der Prädikatenlogik können Wittgensteins Probleme
mit den Elementarsätzen gelöst werden, da mit ihr sowohl die allgemeine Satzstruktur als auch
Beispiele von Elementarsätzen angegeben werden können, für die die Farbsatzproblematik nicht
auftritt. Im 5. Kapitel widme ich mich der Theorie von Quine, der im Anschluss an Wittgenstein
bereits einen ersten Versuch gemacht hatte, eine naturalistische Bedeutungstheorie zu entwickeln,
genau wie ich es im Verlauf dieser Arbeit tun werde. Quines Naturalisierungsstrategie war zwar in
mehrfacher Hinsicht noch nicht zufriedenstellend, sie kann jedoch weitere Anhaltspunkte liefern,
was eine Bedeutungstheorie leisten können sollte und mit welchen Problemen sie konfrontiert ist.
Da Quine wie Frege die Wichtigkeit der Betrachtung des primären Spracherwerbs und der
Sprachentstehung für die Bedeutungstheorie unterschätzt, werden diese Themen im 6. Kapitel
anhand linguistischer Forschungen von Noam Chomsky und diversen weiteren Autoren betrachtet.
Dabei werden unter anderem empirische Belege für intrapersonalen Bedeutungswandel und
Bedeutungsunterschiede zwischen Sprechern gesammelt, die sich mit herkömmlichen Theorien
nicht besonders gut vereinbaren lassen. Wenn man Bedeutung jedoch auf eine neuronale Struktur in
menschlichen Gehirnen zurückführt, dann lassen sich diese Phänomene gut erklären. Die
neurophysiologischen Prozesse, die den Sprachprozessen zugrunde liegen, werden im 7. und 8.
Kapitel dargestellt. Von den neurobiologischen Grundlagen ausgehend, werden zunächst
Repräsentationen von Gegenstandswörtern durch neuronale Netze behandelt, bevor komplexere
Fragestellungen im Bereich von Polysemie, Synonymie, Funktionswörtern und Grammatik auf
neuronaler Ebene betrachtet werden. Im 9. Kapitel werden die Ergebnisse zusammengeführt und
eine neuropsychologische Bedeutungstheorie formuliert. Auf Freges, Quines und insbesondere
Wittgensteins Erkenntnissen aufbauend wird eine aktuelle Bedeutungstheorie mit dem Ziel
entwickelt, der Bedeutung eine physiologische Grundlage zuzuordnen.
14
2. Gottlob Freges Bedeutungstheorie
2.1 Person und Werk
Von dem oben genannten Philosophieverständnis ausgehend, möchte ich mich nun den Anfängen
der Bedeutungstheorie zuwenden, denn zumeist sind die Anfänge jedweder philosophischen
Diskussion sehr aufschlussreich. Häufig werden schon früh die Weichen gestellt, wie ein Problem
angegangen werden sollte, und welche Betrachtungs- und Beschreibungsweisen dazu akzeptabel
sind. Dauert eine philosophische Diskussion zu lange an, ohne dass ein allgemeiner Konsens
gefunden wird, der dann zu einer Grundlage in einer der Einzelwissenschaften werden kann, dann
führt dies zu einer Verstrickung in vielen Detailfragen, während eigentlich noch viel
grundlegenderer Klärungsbedarf besteht. Eine Rückbesinnung auf das eigentliche Problem und eine
Beschäftigung mit den philosophischen Anfängen ist dann äußerst hilfreich. Vor allem in diesem
Fall, in dem sowohl die Anfänge noch nicht allzu lange zurückliegen als auch Wittgensteins
philosophische Sicht mitgeprägt haben, mit der ich mich im Anschluss beschäftigen werde. Die
Suche nach den Anfängen der Bedeutungstheorie führt uns zu Friedrich Ludwig Gottlob Frege.
Während die Sprachphilosophie den Begriff der Bedeutung bis ins 19. Jahrhundert nur implizit
behandelte, der Begriff selbst also nur im Rahmen von breiteren Betrachtungen der Sprache eine
Rolle spielte, wurde er um die Jahrhundertwende zum 20. Jahrhundert zu einem ausdrücklichen
Untersuchungsgegenstand der Philosophie. Als Ausgangspunkt dieser Überlegungen gelten
allgemein die philosophischen Arbeiten von Gottlob Frege zur Sprache, in denen alle
grundlegenden Themen der nachfolgenden (analytischen) Sprachphilosophie aufgeworfen sind.
Friedrich Ludwig Gottlob Frege (8.11.1848 – 26.7.1925) war Mathematiker und Philosoph. Seine
herausragenden Leistungen auf dem Gebiet der Logik bestanden darin, dass er eine formale Sprache
und formale Beweise entwickelte. Er lieferte dadurch eine wesentliche Grundlage für die heutige
Computertechnologie und Informatik. Seine philosophischen Interessen waren mit seinen
mathematischen Interessen eng verknüpft: Sein Hauptziel bestand in der Entwicklung einer
Wissenschaftssprache, mit der mathematische und logische Theorien klar und deutlich zu
formulieren sind. Frege gilt daher auch als Begründer der modernen Sprachphilosophie.
Sein Aufsatz Über Sinn und Bedeutung von 1892 ist dafür von zentraler Bedeutung. Er beschäftigt
sich hier mit der Problematik der Identität. Der Identitätsbegriff wird in der formalen Logik
verwendet, und Freges in axiomatischer Form entwickelte Logik entsprach einer heutigen
Prädikatenlogik zweiter Stufe mit Identitätsbegriff. Anhand seiner Betrachtungen zum durchaus
problematischen Identitätsbegriff schlussfolgert er, dass es zu jedem Wort und jedem Satz zwei
15
verschiedene Entitäten gibt, die von Interesse sind. Diese nennt er die „Bedeutung“ und den „Sinn“.
Diese Bezeichnungen sind verwirrend, da er unter beiden Begriffen nicht das versteht, was wir
normalerweise heute darunter fassen. Mit diesen beiden Begriffen werde ich mich später noch im
Detail beschäftigen. Als Grundlage zum Verständnis von Freges Bedeutungstheorie wird weiterhin
das
Kompositionalitätsprinzip
der
Bedeutung
und
des
Sinns
vorausgesetzt.
Das
Kompositionalitätsprinzip besagt, dass sich die gesamte Bedeutung/der gesamte Sinn eines Satzes
aus den Bedeutungen/den Sinnen seiner Einzelteile (Wörter) und deren Anordnung ergibt. Unter der
Bedeutung eines Wortes versteht Frege das, was wir heute den Bezug oder die Referenz nennen
würden. Dabei handelt es sich entweder um den Gegenstand, der mit einem Wort (Namen) benannt
wird, oder um eine an verschiedenen Dingen auftretende Eigenschaft (Prädikat). Dieser Teil ist
abgesehen von seiner ungewöhnlichen Verwendungsweise des Wortes „Bedeutung“ soweit recht
unproblematisch. Problematischer ist zum einen, dass er unter der Bedeutung eines Satzes seinen
Wahrheitswert versteht, und zum anderen die Einführung seiner zweiten Entität, des Sinns, den er
aufgrund der Problematik der informativen Identitätssätze zu benötigen glaubt. Unter dem Sinn
eines Satzes versteht er den Gedanken, der durch den Satz ausgedrückt wird. Der Sinn eines Wortes
besteht für Frege jedoch in der speziellen Gegebenheitsweise des bezeichneten Gegenstands.
Frege
Wort (Name / Prädikat)
Satz
Bedeutung
Gegenstand / Eigenschaft
Wahrheitswert
Sinn
Gegebenheitsweise
Gedanke
Abbildung 1: Freges Unterscheidung von Sinn und Bedeutung für Wörter und Sätze
Diese Unterscheidung und Einteilung ist in der Sprachphilosophie wirksam geworden und bis heute
geblieben. Ich möchte jedoch versuchen zu zeigen, dass nicht nur Freges „Gedanke“, den er weder
als physische noch psychologische Entität verstanden wissen will, eine unnötige Kategorie ist,
sondern auch die Unterscheidung zwischen Sinn und Bedeutung unnötig ist. Dazu zeichne ich im
Folgenden Freges Argumentationsgang nach und arbeite die problematischen Stellen heraus, an
denen er durch fragwürdige Annahmen zu falschen Schlüssen gelangt. Dabei werde ich mich zuerst
seiner für Nicht-Logiker abstrus anmutenden Behauptung widmen, dass die Bedeutung eines Satzes
sein Wahrheitswert sei.
16
2.2 Die Bedeutung eines Satzes ist sein Wahrheitswert
Für Frege als Logiker ist eine Affinität zur Betrachtung von Wahrheitswerten von Sätzen natürlich
nahe liegend. Wenn man nun noch die Tatsache betrachtet, dass sich Wörter, die auf den gleichen
Gegenstand verweisen, in gewöhnlichen Aussagesätzen austauschen lassen, ohne dass sich der
Wahrheitswert der Sätze ändert, wird es etwas klarer, wie Frege zu dieser Auffassung kommen
konnte. Die Argumentation läuft dabei etwa folgendermaßen: Wörter bedeuten Gegenstände. Es
gibt Wörter, die genau dieselben Gegenstände bedeuten wie andere Wörter. Solche Wörter sind
untereinander austauschbar, da sie eben auf genau dasselbe verweisen. Sätze bestehen aus mehreren
(wohl sortierten) Wörtern, also müssen sie auch etwas bedeuten (Gesamtbedeutung). Was genau die
Bedeutung eines Satzes darstellt, ist zu diesem Zeitpunkt der Argumentation jedoch noch offen
gelassen. Wenn man in einem Satz ein Wort durch ein gleichbedeutendes Wort austauscht, dann
muss die Gesamtbedeutung erhalten bleiben, weil die Bedeutung des neuen Wortes der des ersetzten
Wortes entspricht. Um einen Kandidaten für die Gesamtbedeutung zu finden, fragt man sich nun,
was bei einem solchen Austausch erhalten bleibt. Und in der Tat bleibt der Wahrheitswert eines
Satzes bei solch einem Austausch erhalten. Daher nennt Frege den Wahrheitswert die Bedeutung
eines Satzes. Bei der Untersuchung des Funktionsbegriffs in seinem Vortrag Function und Begriff
führt er die Unterscheidung zwischen Sinn und Bedeutung und seine Setzung des Wahrheitswerts
als die Bedeutung von Sätzen wie folgt ein:
„Zunächst nehme ich zu den Zeichen +, - usw., die zur Bildung eines Funktionsausdruckes
dienen, noch hinzu Zeichen wie =, >, <, sodass ich z.B. von der Funktion x 2 = 1 sprechen
kann, wo x wie früher das Argument vertritt. Die erste Frage, die hier auftaucht, ist die nach
den Werten dieser Funktion für verschiedene Argumente. Setzen wir einmal der Reihe nach
für x -1, 0, 1, 2 so erhalten wir
(-1)2 = 1,
02 = 1,
12 = 1,
22 = 1,
Von diesen Gleichungen sind die erste und dritte wahr, die anderen falsch. Ich sage nun:
»der Wert unserer Funktion ist ein Wahrheitswert« und unterscheide den Wahrheitswert des
Wahren von dem des Falschen. Den einen nenne ich kurz das Wahre, den andern das
17
Falsche. Hiernach bedeutet z.B. »22 = 4« das Wahre ebenso, wie etwa »22« 4 bedeutet. Und
es bedeutet »22 = 1« das Falsche. Demnach bedeuten
»22 = 4«, »2 > 1«, »24 = 42«
dasselbe, nämlich das Wahre, sodass wir in
(22 = 4) = (2 > 1)
eine richtige Gleichung haben.
Es liegt hier der Einwand nahe, dass »22 = 4« und »2 > 1« doch ganz Verschiedenes besagen,
ganz verschiedene Gedanken ausdrücken; aber auch »24 = 42« und »4 * 4 = 42« drücken
verschiedene Gedanken aus; und doch kann man »2 4« durch »4 * 4« ersetzen, weil beide
Zeichen dieselbe Bedeutung haben. Folglich haben auch »24 = 42« und »4 * 4 = 42« dieselbe
Bedeutung. Man sieht hieraus, dass die Gleichheit der Bedeutung nicht die Gleichheit des
Gedankens zur Folge hat. Wenn wir sagen »der Abendstern ist ein Planet, dessen
Umlaufszeit kleiner ist als die der Erde«, so haben wir einen anderen Gedanken ausgedrückt
als in dem Satze »der Morgenstern ist ein Planet, dessen Umlaufszeit kleiner ist als die der
Erde«; denn, wer nicht weiß, dass der Morgenstern der Abendstern ist, könnte den einen für
wahr, den andern für falsch halten; und doch muss die Bedeutung beider Sätze dieselbe sein,
weil nur die Wörter »Abendstern« und »Morgenstern« mit einander vertauscht sind, welche
dieselbe Bedeutung haben, d.h. Eigennamen desselben Himmelskörpers sind. Man muss
Sinn und Bedeutung unterscheiden. »24« und »4 * 4« haben zwar dieselbe Bedeutung; d.h.
sie sind Eigennamen derselben Zahl; aber sie haben nicht denselben Sinn; und daher haben
»24 = 42« und »4 * 4 = 42« zwar dieselbe Bedeutung, aber nicht denselben Sinn; d.h. in
diesem Falle: sie enthalten nicht denselben Gedanken.“3
2.2.1 Formaler Einwand
Eine problematische Stelle der Argumentation findet sich gleich am Anfang des Zitats in Form der
Einführung der Zeichen =, < und > als potentielle Zeichen zur Bildung eines Funktionsausdruckes.
Durch diese unproblematisch wirkende Einführung schleicht sich nämlich der Wahrheitswert auf
3
Frege, G.: Function und Begriff – Jena: Verlag von Hermann Pohle, 1891, S. 14
18
die gleiche Ebene wie eine standardmäßige Funktion. Eine Funktion hat bisher (vor Freges
Einführung von =, < und > als potentielle Zeichen zur Bildung eines Funktionsausdruckes) aber
nur für Zahlenwerte die zugehörigen Funktionswerte berechnet. Überlegungen zur Wahrheit eines
Satzes und zur Richtigkeit einer Rechnung sind aber prinzipiell andere Tätigkeiten als die
Durchführung von Rechenoperationen. Es sind Tätigkeiten, die man überhaupt erst nach der
Durchführung von Rechenoperationen oder nach dem erfolgreichen Verstehen eines Satzes
durchführen kann, um diese zu überprüfen oder zu bewerten. Diese auf einem zweischrittigen
Verfahren basierenden Funktionen sind also nicht genau gleichwertig mit den bisher definierten
einschrittigen Funktionen. Dieser Unterschied scheint gering, aber genau solche Mängel bei den
Feinheiten der Unterscheidungen sind es immer gewesen, die die Antinomien ermöglichten, die
Frege und Russell die schwersten Probleme bei ihrem Projekt der Idealsprache bereitet haben. Diese
feine Unterscheidung wird uns im Folgenden noch viel Aufschlussreiches über den Wahrheitswert
offenbaren.
Mit Hilfe einer formalen Analyse sieht man hier eigentlich genau, dass der Wahrheitswert eines
Satzes ebenso wie der einer mathematischen Gleichung eine Funktion über den kompletten Satz
(bzw. über die komplette Gleichung) ist. Die Wahrheit oder Falschheit eines Satzes liegt nicht in
ihm selbst, sondern man kann jeden Satz verstehen und betrachten, ohne sich Gedanken über den
Wahrheitswert zu machen. Man könnte sich zwar auch nur für den Wahrheitswert eines Satzes
interessieren, ohne den Inhalt besonders wichtig zu nehmen, aber trotzdem müsste man den Satz
überhaupt verstehen, um den Wahrheitswert ermitteln zu können. Dass Frege dies übersehen
konnte, liegt an seiner Schreibweise, die nicht unserer heutigen entspricht. Er redet zwar schon von
“f(x)“, aber er nennt die Funktionen dann immer, ohne das f(x) zu erwähnen. Daher fällt ihm nicht
auf, dass er hier eigentlich Sätze mit zu vielen Gleichheitszeichen bildet. So nennt er „ x 2 = 1“ eine
Funktion, die für -1 und 1 den Funktionswert „wahr“ und ansonsten „falsch“ liefert. Funktionen
haben aber eigentlich die Form f(x) = an*xn + an-1*xn-1 + ... + a1x1 + a0x0 , so dass man in seinem
Beispielfall „f(x) = x2 = 1“ als Funktion erhielte. Das aber ist unverständlich, ungrammatisch, ein
nicht wohl geformter Term, oder wie auch immer man es nennen möchte. Der Funktionswert dieser
Funktion kann schließlich nur entweder als x2 oder als 1 definiert sein und nicht beides gleichzeitig.
Die formal korrekte Formulierung für Freges Absichten wäre
f(x) = W(g(x),1),
wobei g(x) = x2 und
W(a,b) als zweistellige Funktion definiert ist, die für die Gleichung a = b
Wahrheitswerte zurück liefert.
19
In dieser Darstellung wird offensichtlich, dass wir es hier nicht mit einer einfachen Funktion im
bisherigen Sinne zu tun haben, sondern mit einer zweistelligen Funktion, die zudem auch noch von
einer anderen Funktion abhängt. Zweistellige Funktionen sind zwar kein großartiges Problem, aber
zumindest wurden von Frege bis zu dieser Stelle seines Vortrags keine Regeln für sie eingeführt.
Man sieht hier jedenfalls, dass die Funktion W(a,b) erst in einem zweiten Schritt einen
Wahrheitswert liefern kann. Zunächst muss die einfache Funktion g(x) einen Wert liefern, damit
W(a,b) überhaupt einen Wahrheitswert liefern kann. Dies ist insofern interessant, als es rein formal
zeigt, dass ein Wahrheitswert eines Satzes immer erst ermittelt werden kann, wenn die Bedeutung
des Satzes (in diesem Fall durch den Funktionswert von g(x) symbolisiert) schon feststeht. Ob diese
aus der formalen Beschreibung gewonnene Erkenntnis auch inhaltlich plausibel ist, werde ich in
Kapitel 2.2.2 betrachten. Vorher soll jedoch noch kurz der folgende wichtige Punkt festgehalten
werden:
Die zweistellige Funktion W(a,b) führt eine prinzipiell andere Operation aus als unsere
herkömmlichen Funktionen. Unsere herkömmlichen Funktionen haben einen Wert erhalten, mit
dem der Funktionsvorschrift entsprechend Operationen (Berechnungen) durchgeführt wurden, die
am Ende einen Funktionswert ergaben. Die Funktion W(a,b) benötigt jedoch zwei Werte und führt
mit diesen zwei Werten keine herkömmlichen mathematischen Operationen, sondern einen
Vergleich durch. Ein Vergleich ist aber genau das, was wir machen, wenn wir einen vollständigen
und bereits verstandenen Satz überprüfen wollen. Wir begeben uns zunächst zu dem physischen
Ort, der in dem Satz bezeichnet wird. Dort führen wir einen Vergleich durch zwischen der
Beschreibung der Sachlage durch den Satz und unserer Wahrnehmung der Sachlage. Auf neuronaler
Ebene lässt sich dies so deuten: Wir können am physischen Ort des Geschehens die neuronalen
Aktivierungen, die nun aufgrund unserer Wahrnehmungsorgane entstehen, mit den neuronalen
Aktivierungen vergleichen, die aufgrund der Wortzusammenstellung des Satzes entstanden waren
und jederzeit wieder entstehen können. Die Ermittlung von Wahrheitswerten geschieht somit, indem
zwei Wahrnehmungen miteinander verglichen werden, die natürlich neuronal realisiert sind.
Wir sehen also an der obigen formalen Darstellung, dass der Wahrheitswert eines Satzes erst
ermittelt werden kann, nachdem die Bedeutung des Satzes feststeht, und dass diese Ermittlung
zudem einen vollkommen andersartigen Prozess als die Bedeutungsermittlung darstellt. Dieser
Unterschied wird sich in meiner eigenen neuropsychologischen Bedeutungstheorie deutlich
theoretisch umgesetzt finden.
20
2.2.2 Inhaltlicher Einwand
Beschäftigen wir uns nun mit unserer ersten formalen Erkenntnis, dass ein Wahrheitswert eines
Satzes immer erst ermittelt werden kann, wenn die Bedeutung des Satzes schon feststeht. Wenn wir
nicht wissen, was die Bedeutung eines Satzes ist, weil er zum Beispiel in einer Sprache geschrieben
ist, die wir nicht gelernt haben, so können wir seinen Wahrheitswert keinesfalls angeben, weil wir
weder überhaupt neuronale Aktivierungen durch die Wörter erhalten, die über die bloßen
Aktivierungen aufgrund der visuellen Wahrnehmung hinaus gehen, noch wissen, welche
Wahrnehmung wir zum Vergleich heranziehen sollen. Natürlich würde es nicht reichen, wenn uns
nun jemand sagen würde, auf welche Sachlage sich der Satz bezieht. Wir hätten dann zum Beispiel
die Angabe, dass der Satz eine Aussage über das heutige Wetter macht. Damit haben wir aber nur
eins von den zwei benötigten Vergleichsobjekten gegeben. Wir wissen, was wir zum Vergleich
betrachten müssen. Solange wir den Satz nicht verstehen, nützt uns dieses Wissen aber gar nichts.
Auch wenn wir Bruchstücke des Satzes übersetzen könnten, so dass nur ein Wort fehlte, und wir
einen Teilsatz wie „Das Wetter wird heute ...“ hätten, kämen wir nicht weiter. Hieran sieht man, wie
wichtig es ist, jedes Wort eines Satzes genau zu verstehen. Das letzte unbekannte Wort könnte
„sonnig“ oder „regnerisch“ bedeuten, oder sogar etwas, was nach unserer eigenen Sprachgrammatik
gar nicht passen würde, wie zum Beispiel „Schneesturm“.
Wir sehen hier, dass die Bestimmung von Wahrheitswerten immer ausschließlich auf eine
spezifische Sprache und gemäß einer neuropsychologischen Betrachtungsweise damit automatisch
immer auf neurobiologische Prozesse bezogen ist. Man muss zunächst Wort für Wort neuronale
Verknüpfungen erstellt haben, um einen probeweise zusammengestellten Satz verstehen zu können,
um danach diesen Satz in Relation zur eigenen Wahrnehmung der Außenwelt setzen zu können, um
so zu einer Zustimmung oder Ablehnung zu gelangen. Daraus folgt, dass der Begriff einer
„absoluten Wahrheit“, wie Frege ihn in seinem Aufsatz Der Gedanke. Eine logische Untersuchung
zu bestimmen versucht, völlig unnötig ist, da es uns immer nur um die Bestimmung von
Wahrheitswerten in Bezug auf spezifische Sprachen gehen kann. Wenn eine Sprache „ausgestorben“
ist, weil die gesamte Gemeinschaft von Sprechern, die diese Sprache sprach, ausgestorben ist, dann
sind die verbliebenen Schriftstücke mit sprachlichen Symbolen bedeutungslos. Die Verknüpfungen
zwischen den beliebigen Zeichen und der Welt sind bei niemandem mehr neuronal realisiert, damit
bezeichnen die Zeichen nichts mehr. Es sind nur noch schwarze Punkte auf weißem Papier, die
momentan (bis zu ihrer potentiellen Entschlüsselung oder Deutung) niemand mehr von zufälligen
Anordnungen unterscheiden kann. Aber um hier nicht zwischen die Fronten von Realisten und
Antirealisten zu geraten, bedarf es noch folgender Erklärung: Es ist natürlich so, dass die Welt
21
unabhängig von uns Menschen und besonders unabhängig von unserer Wahrnehmung von ihr
besteht. Die obige Relativierung der Wahrheitswerte bedeutet nicht, dass die Welt nicht zu jedem
Zeitpunkt und an jedem Ort irgendwie gegeben ist. Wie die Welt beschaffen und was zu bestimmten
Zeitpunkten der Fall ist, steht immer fest, aber unsere Beschreibung und unsere Zustimmung und
Ablehnung von Beschreibungen basiert auf unseren Sprachen und damit auf unserer neuronalen
Realisierung von Spracherwerb und Verwendung. Dasjenige, was uns da festzustehen scheint, wenn
wir in ganz unterschiedlichen Sprachen die Welt „gleich“ beschreiben können, ist jedoch nicht eine
platonische Idee oder ein absoluter Wahrheitswert, wie Frege meint, sondern die Konstellation der
Gegenstände in der Welt (die Sachlage). Sachlagen sind aber weder wahr noch falsch, sondern sie
bestehen einfach. „Wahr“ oder „falsch“ nennen wir nur die Beschreibung einer Sachlage in einer
Sprache.
Hiermit lässt sich also inhaltlich begründen, was ich oben schon formal begründet hatte: Der
Wahrheitswert eines Satzes ist etwas, das von einer Funktion festgelegt wird, deren Argumente die
Bedeutung des Satzes und die Sachlagen in der Welt sind. Offenbar ist damit gezeigt, dass man den
Wahrheitswert eines Satzes auf keinen Fall, wie Frege es macht, als die Bedeutung eines Satzes
setzen kann, da die Bedeutung eines Satzes schon bekannt sein muss, damit ihr ein Wahrheitswert
durch die Wahrheitsfunktion (unter Zuhilfenahme der Welt) zugeordnet werden kann.
Trotz dieser stichhaltigen Begründung, aus welchen formalen sowie inhaltlichen Gründen der
Wahrheitswert nicht als Bedeutung des Satzes gewählt werden sollte, könnte man mir vorwerfen,
Freges Gesamtkonzept dadurch insofern Unrecht zu tun, als er einen „absoluten“ Wahrheitsbegriff
vertritt, während ich Wahrheit nur relativ im Hinblick auf eine Sprache verstehe. Wieso sollte man
Wahrheit lieber nur als einen epistemischen und damit relativen Begriff verwenden, statt als
absoluten Begriff, der Wahrheit in einem anderen Reich verordnet, das nicht von uns Menschen und
unseren Konventionen abhängig ist? Ich selbst tendiere eben im Gegensatz zu Frege dazu,
philosophische Theorien zu bevorzugen, die alle oder zumindest möglichst viele unüberprüfbare
theoretische Entitäten (wie Freges Begriff des „Gedanken“ oder sein Begriff der „absoluten
Wahrheit“ es sind) weglassen, insofern diese Theorien gleich erklärungsmächtig sind. Sollten darum
meine obigen Ausführungen für Vertreter des „realistischen Wahrheitsbegriffs“ nicht zwingend sein,
so gibt es auch noch ein weiteres Argument, wieso man den Wahrheitswert nicht als die Bedeutung
von Sätzen festlegen sollte. Man nimmt sich nämlich damit die Genauigkeit der Abbildung.
Während man mit Namen auf wiedererkennbare, räumlich abgeschlossene Gegenstände und mit
Eigenschaftswörtern auf spezifische immer wiederkehrende Messwerte unserer Sinne verweist, und
einem dadurch auf der Wortebene alle Möglichkeiten der Abbildung offen stehen, könnten Sätze
22
dem Detailreichtum der Welt plötzlich nicht gerecht werden, sondern sie hätten nur zwei Werte
(„wahr“ und „falsch“), auf die sie abbilden würden. Das ist schon aus rein pragmatischen Gründen
ein nicht wünschenswerter Verlust der Informationsmenge, die ein Satz übertragen könnte.
Betrachten wir daher eine alternative Konzeption.
2.2.3 Der Sachverhalt als Alternative zum Wahrheitswert als Satzbedeutung
Freges Argumentation für seine fragwürdige Setzung der Satzbedeutung als Wahrheitswert läuft wie
oben erwähnt über die Substitution salva veritate von bedeutungsgleichen Wörtern. Diese
Argumentation ist nicht falsch, die Frage ist jedoch, ob nicht vielleicht noch etwas anderes als der
Wahrheitswert bei einer solchen Substitution salva veritate unverändert bleibt. Nur weil der
Wahrheitswert ein Kandidat ist, der die für die Gesamtbedeutung geforderten Voraussetzungen
erfüllt, muss er ja nicht die richtige Lösung sein. Eventuell gibt es noch andere Kandidaten, die
unsere Forderungen auch erfüllen und auch ansonsten treffender anmuten, weil sie gewisse
Nachteile des Wahrheitswerts nicht aufweisen. Immerhin scheint es doch etwas seltsam zu sein,
dass Wörter auf Gegenstände verweisen, aber strukturierte Wörtermengen nicht auf strukturierte
Gegenstandsmengen,
sondern
auf
einmal
auf
eine
(metasprachliche)
Bewertung
der
Zusammenstellung der Wörter hinsichtlich der real existierenden Verhältnisse (denn nichts anderes
ist der Wahrheitswert). Ich würde eine Theorie vorziehen, in der man mit Wörtermengen auf
Gegenstandsmengen verweist. Wittgenstein liefert im Tractatus eine solche Bedeutungstheorie, die
die konzeptionellen Schwachstellen der Theorien seiner Lehrer Frege und Russell in knappen
Sätzen wie im Vorbeigehen korrigiert.
Seine Definition der Bedeutung von Wörtern im Tractatus entspricht Freges Verständnis:
3.202
Die im Satze angewandten einfachen Zeichen heißen Namen.
3.203
Der Name bedeutet den Gegenstand. Der Gegenstand ist seine Bedeutung.4
Die Bedeutung eines Satzes ist bei Wittgenstein jedoch nicht der Wahrheitswert des Satzes, sondern
die Summe der Wortbedeutungen und ihrer Relationen. Wittgensteins Satzbedeutung ist somit ein
strukturierter Ausschnitt der Welt, den er „Sachverhalt“ nennt:
2.01
4
Der Sachverhalt ist eine Verbindung von Gegenständen (Sachen, Dingen).
TLP, S. 19
23
2.0271
Die Konfiguration der Gegenstände bildet den Sachverhalt.
3.21
Der Konfiguration der einfachen Zeichen im Satzzeichen entspricht die
Konfiguration der Gegenstände in der Sachlage.
4.01
Der Satz ist ein Bild der Wirklichkeit. Der Satz ist ein Modell der Wirklichkeit, so
wie wir sie uns denken.5
Bei Wittgenstein verweisen also Sätze (wohl strukturierte Wörtermengen) auf Konfigurationen von
Gegenständen. Auch in dieser Theorie kann man gleichbedeutende Wörter austauschen, ohne die
Bedeutung des Satzes zu ändern. Und darüber hinaus gibt es beliebig viele Bedeutungen von
Sätzen, nicht nur zwei wie bei Frege. Auch wenn man Wittgensteins Abbildtheorie aus heutiger
Sicht mit neurobiologischen Erkenntnissen auffrischen sollte, so scheint sie mir doch viel sinnvoller
zu sein als Freges Theorie, was die Bedeutung des Satzes sei. Der Schritt vom Wort zum Satz lässt
sich mit einer neurobiologischen Beschreibung noch viel leichter lösen, aber die Grundvorstellung
des Tractatus stimmt mit ihr überein. Jedes Wort aktiviert das ihm entsprechende Neuronennetz für
einen gewissen Zeitraum. Eine Wortform aktiviert dabei auch die entsprechenden Wahrnehmungsund Gedächtnisdaten und setzt alle relevanten damit im Zusammenhang stehenden Verknüpfungen
in erhöhte Aktivierungs- und Abrufbereitschaft. Das gilt natürlich für jedes einzelne Wort. Wird ein
Satz geäußert, dann sind alle diese Aktivierungen gleichzeitig gegeben, wobei hier mit
Gleichzeitigkeit auf keinen Fall behauptet werden soll, dass die Information über die Reihenfolge
der Wortäußerungen verloren ginge. Diese ist ja ganz im Gegenteil essentiell für die richtige
grammatische Analyse und somit für die Satzbedeutung. Gemeint ist damit nur, dass die
Aktivierungen der anderen Wörter des Satzes noch nicht wieder abgeklungen sind. Die Bedeutung
eines Satzes wird also durch die Summe der neuronalen Aktivierungen unter Beachtung der
Reihenfolge der einzelnen Wörter (geleistet durch ein spezielles Analysemodul für grammatische
Strukturen) wie ein Puzzlebild zusammengesetzt. Doch nun zurück zu Frege und seiner zweiten
problematischen Entität, dem Sinn eines Satzes.
2.3 Freges Sinn eines Satzes
Was Frege unter „Sinn“ versteht und zur Erklärung welcher Phänomene er den Sinn zu benötigen
glaubt, wird vor allem deutlich in seinem Aufsatz „Über Sinn und Bedeutung“. Aufgrund der
Komplexität der Argumentations- und Textstruktur und der Menge der kursierenden
5
TLP, S. 11, S. 14, S. 19 und S. 26
24
Fehlinterpretationen im Anschluss an Dummett zitiere ich im Folgenden abschnittsweise ohne
Auslassungen und erläutere die jeweiligen Textpassagen direkt im Anschluss. Die Hauptgedanken
meiner
Interpretation verdanke
ich dabei der Diskussion
in Pardeys
Seminaren zu
Identitätsaussagen und seinen Büchern Identität, Existenz und Reflexivität und Begriffskonflikte in
Sprache, Logik, Metaphysik.
„Die Gleichheit6 fordert das Nachdenken heraus durch Fragen, die sich daran knüpfen und
nicht ganz leicht zu beantworten sind. Ist sie eine Beziehung? eine Beziehung zwischen
Gegenständen? oder zwischen Namen oder Zeichen für Gegenstände?“7
Dies ist Freges Einleitung in das Thema. Dabei ist es wichtig zu wissen, dass er eben nicht primär
vor hat, den Begriff der Identität ausgiebig zu untersuchen. Der Begriff der Identität scheint Frege
vergleichsweise unproblematisch, obwohl gerade er mit seinem veränderten Gebrauch des Begriffs
zu einer Erschwerung des Verständnisses des Identitätsbegriffs und verwandter Begriffe beigetragen
hat. Durch seine Aufgabe der Unterscheidung zwischen mathematischer Gleichheit und Identität,
für die er zunächst noch zwei verschiedene Zeichen eingeführt hatte, hat Frege den ohnehin schon
problematischen Identitätsbegriff noch weiter beladen. Besonders da wir mathematische
Gleichungen im täglichen Leben häufig verwenden, während wir so gut wie nie über
Gegenstandsidentität reden, scheint hier bei Frege und seitdem in der gesamten Identitätsdiskussion
der verwandte Begriff der Gleichheit fälschlicherweise unter den Identitätsbegriff subsumiert, und
so eine Analyse oder klare Definition des Identitätsbegriffs beinahe unmöglich gemacht worden zu
sein. Dies führte dazu, dass Wittgenstein im Tractatus später einen völlig anderen Ansatz
entwickelte, insofern als er den Identitätsbegriff für vollkommen unnütz befand, da sich in einer
formal korrekten Sprache die Gleichheit des bezeichneten Gegenstandes einfach in der Gleichheit
der verwendeten Zeichen widerspiegelt, und Selbstidentität eine gehaltlose Aussage darstellt.
5.53
Gleichheit des Gegenstandes drücke ich durch Gleichheit des Zeichens aus, und
nicht mit Hilfe eines Gleichheitszeichens. Verschiedenheit der Gegenstände durch
Verschiedenheit der Zeichen.
6
Frege erklärt an dieser Stelle in einer Fußnote, was er mit Gleichheit alles bezeichnet:
»Ich brauche dies Wort im Sinne von Identität und verstehe „a = b“ in dem Sinne von „a ist
dasselbe wie b“ oder „a und b fallen zusammen“.«.
7
Frege, G.: Über Sinn und Bedeutung – in Zeitschrift für Philosophie und philosophische Kritik, NF 100, 1892
S. 25 in folgenden Fußnoten nur noch abgekürzt als SB.
25
5.5303
Beiläufig gesprochen: Von zwei Dingen zu sagen, sie seien identisch, ist ein
Unsinn, und von Einem zu sagen, es sei identisch mit sich selbst, sagt gar nichts.8
Doch dies soll an dieser Stelle eine Randbemerkung bleiben. Wichtig ist in diesem Zusammenhang
nur, dass Frege hier nicht die verschiedenen Interpretationsmöglichkeiten des Identitätsbegriffs
vergleichen und sein eigenes Verständnis rechtfertigen will, sondern dass er Identitätssätze als
Beispiele zur Erläuterung seiner These heranzieht, dass mit Wörtern und Sätzen immer zwei
Entitäten verknüpft sind, nämlich der „Sinn“ und die „Bedeutung“. Am Ende meiner Ausführungen
werden wir sehen, dass, sobald der Identitätsbegriffs analysiert und besser verstanden wurde,
Identitätssätze nicht mehr als weiterer Anlass zur Rechtfertigung von Freges Sinnbegriff dienen
können,
welchen
er
überhaupt
erst
aufgrund
seiner
merkwürdigen
Definition
des
Bedeutungsbegriffs in Bezug auf Sätze benötigt.
Frege fährt folgendermaßen fort:
„Das letzte hatte ich in meiner Begriffsschrift angenommen. Die Gründe, die dafür zu
sprechen scheinen, sind folgende: a = a und a = b sind offenbar Sätze von verschiedenem
Erkenntniswert: a = a gilt a priori und ist nach Kant analytisch zu nennen, während Sätze
von der Form a = b oft sehr wertvolle Erweiterungen unserer Erkenntnis enthalten und a
priori nicht immer zu begründen sind. Die Entdeckung, dass nicht jeden Morgen eine neue
Sonne aufgeht, sondern immer dieselbe, ist wohl eine der folgenreichsten in der Astronomie
gewesen. Noch jetzt ist die Wiedererkennung eines kleinen Planeten oder eines Kometen
nicht immer etwas Selbstverständliches. Wenn wir nun in der Gleichheit eine Beziehung
zwischen dem sehen wollten, was die Namen "a" und "b" bedeuten, so schiene a = b von a =
a nicht verschieden sein zu können, falls nämlich a = b wahr ist. Es wäre hiermit eine
Beziehung eines Dinges zu sich selbst ausgedrückt, und zwar eine solche, in der jedes Ding
mit sich selbst, aber kein Ding mit einem anderen steht. Was man mit a = b sagen will,
scheint zu sein, dass die Zeichen oder Namen "a" und "b" dasselbe bedeuten, und dann wäre
eben von jenen Zeichen die Rede; es würde eine Beziehung zwischen ihnen behauptet.“9
Frege gibt hier zwei Möglichkeiten an, was mit einem Identitätssatz potentiell gemeint sein könnte.
Er unterscheidet zwischen einer gegenstandsbezogenen Interpretation und einer zeichenbezogenen
Interpretation. Die gegenstandsbezogene Interpretation geht davon aus, dass in einem Identitätssatz
über Gegenstände gesprochen wird. Mathematische Sätze wie „a = b“ würden dann interpretiert als
8
9
TLP, S. 62
SB, S. 26
26
„die Gegenstände a und b sind ein und derselbe Gegenstand“. Es wäre also immer nur von der
Selbstidentität eines Gegenstands die Rede, der manchmal unter einem, manchmal unter zwei
verschiedenen Namen bekannt ist. Da wir die Selbstidentität von Gegenständen alltäglich niemals
ansprechen würden, sondern immer selbstverständlich voraussetzen, mutet diese Interpretation recht
seltsam an. Die einzige realistische Anwendung, bei der wir einen Identitätssatz äußern könnten,
wäre im Falle eines überraschenden Wiedersehens eines Gegenstands oder auch einer Person. In
einem solchem Fall wird ein zumeist sprachbasierter Identifizierungsprozess gestartet, an dessen
Ende dann potentiell von etwas ausgesagt wird, dass es mit etwas zuvor gesehenem identisch ist.
Aber ein solches Beispiel der Wiedererkennung würde man in formaler Schreibweise
treffenderweise mit Zeitindizes versehen. Man hätte dann einen Satz von der Form „at1 = at2“ und
eben nicht einen Satz der Form „a = b“. Diese These, dass Identitätsaussagen immer zeitindiziert
sein müssen, um sinnvoll zu sein, findet sich auch bei David Hume im Rahmen seiner
Erkenntnistheorie:
„Wir können, wenn wir es irgend genau nehmen, nicht sagen, ein Gegenstand sei mit sich
selbst identisch, es sei denn, dass wir damit sagen wollen, der Gegenstand, als in einem
Zeitpunkt existierender, sei identisch mit sich selbst, als in einem anderen Zeitpunkt
existierendem.“10
Zu Recht distanziert Frege sich daher hier weiterhin, genau wie schon in der Begriffsschrift, von
dieser gegenstandsbezogenen Interpretationsmöglichkeit von Identitätssätzen. Er stellt in
Abgrenzung zum gegenstandsbezogenen Identitätsbegriff fest:
„Was man mit a = b sagen will, scheint zu sein, dass die Zeichen oder Namen "a" und "b"
dasselbe bedeuten, und dann wäre eben von jenen Zeichen die Rede; es würde eine
Beziehung zwischen ihnen behauptet.“11
Seine vorsichtige Formulierungsweise und seine Verwendung des Konjunktivs signalisieren keine
Ablehnung der zeichenbezogenen Interpretation, sondern leiten über zu gewissen Detailproblemen,
die sich in Hinsicht auf ebendiesen Identitätsbegriff ergeben, anhand derer er zeigen will, dass man
sowohl „Sinn“ als auch „Bedeutung“ gemäß seinen Definitionen benötigt, um alle sprachlichen
Phänomene erklären und verstehen zu können. Schon in seinem Vortrag Function und Begriff hatte
er die Unterscheidung zwischen Sinn und Bedeutung eingeführt, aber eine genauere Darlegung,
10
11
Hume, D.: Ein Traktat über die menschliche Natur, Bd. 1. Über den Verstand – Hamburg, 1989, S. 268
SB, S. 26
27
warum diese Unterscheidung dringend erforderlich sei, mit dem Verweis auf seinen kommenden
Aufsatz Über Sinn und Bedeutung noch nicht durchgeführt:
„Ich verkenne nicht, dass diese Wendung zunächst willkürlich und künstlich erscheinen
mag, und dass eine eingehendere Begründung gefordert werden könnte. Man vergl. meinen
nächstens erscheinenden Aufsatz Über Sinn und Bedeutung in der Zeitschrift für Philosophie
und phil. Kritik.“12
Frege führt nun zunächst weiter aus, was es genau bedeutet und was daraus folgt, wenn man die
zeichenbezogene Interpretation des Identitätsbegriffs annimmt:
„Aber diese Beziehung bestände zwischen den Namen oder Zeichen nur, insofern sie etwas
benennen oder bezeichnen. Sie wäre eine vermittelte durch die Verknüpfung jedes der
beiden Zeichen mit demselben Bezeichneten. Diese aber ist willkürlich. Man kann keinem
verbieten, irgendeinen willkürlich hervorzubringenden Vorgang oder Gegenstand zum
Zeichen für irgend etwas anzunehmen.“13
Dann konfrontiert er diese Ausführungen mit einer problematischen Aussage, die intuitiv richtig zu
sein scheint, und die nicht zugleich mit der zeichenbezogenen Interpretation wahr sein kann. Die
Verknüpfung eines Zeichens mit einem Gegenstand ist seinem Einwand gemäß willkürlich. Danach
erklärt er, was aus der Verknüpfung dieser Annahme mit der Annahme der zeichenbezogenen
Interpretation der Identität folgt, und wieso es deswegen noch die Entität des Sinns geben muss.
Doch bevor ich mir anschauen werde, wie die Argumentation weiter verläuft, möchte ich hier schon
kurz widersprechen: Die Verknüpfungen sind zwar in dem Sinne willkürlich, dass es keinen Grund
gibt, einen bestimmten Gegenstand mit einem bestimmten Laut- oder Schriftbild zu verknüpfen, sie
sind jedoch nicht willkürlich in dem Sinne, in dem Frege es hier aufgrund seines nachgelegten
Arguments zu meinen scheint. Eine willkürliche Verknüpfung von einem Lautbild mit einem
Gegenstand, die von den anderen Sprechern einer Sprachgemeinschaft nicht geteilt wird, hat keinen
praktischen sprachlichen Nutzen und ist in dem Sinne also auch kein Wort. Falls diese Äußerung
überhaupt verstanden wird, wird der Sprecher im Normalfall aufgefordert werden, doch bitte die
generell üblichen Wörter zu verwenden, um sich auszudrücken. Doch nehmen wir an, dass Frege
nur die Willkürlichkeit der Verknüpfung von Zeichen und Gegenstand von anerkannten Wörtern
12
13
Frege, G.: Function und Begriff – Jena: Verlag von Hermann Pohle, 1891, S. 14
SB, S. 26
28
einer Sprache gemeint und nur die Wahl seiner Begründung ungeschickt getroffen habe, und folgen
dem Argumentationsgang weiter:
„Damit würde dann ein Satz a = b nicht mehr die Sache selbst, sondern nur noch unsere
Bezeichnungsweise betreffen; wir würden keine eigentliche Erkenntnis darin ausdrücken.
Das wollen wir aber doch gerade in vielen Fällen. Wenn sich das Zeichen "a" von dem
Zeichen "b" nur als Gegenstand (hier durch die Gestalt) unterscheidet, nicht als Zeichen; das
soll heißen: nicht in der Weise, wie es etwas bezeichnet: so würde der Erkenntniswert von a
= a wesentlich gleich dem von a = b sein, falls a = b wahr ist. Eine Verschiedenheit kann nur
dadurch zustande kommen, dass der Unterschied des Zeichens einem Unterschiede in der
Art des Gegebenseins des Bezeichneten entspricht.“14
Frege argumentiert nun weiter, dass wir unter Annahme der Willkürlichkeit der Verknüpfung keine
„eigentliche Erkenntnis“ in Identitätssätzen ausdrücken können, sondern in diesen Sätzen „nur“
Aussagen über unsere Bezeichnungsweise machen. Das ist bis dahin vollkommen korrekt. Freges
Fehler besteht nun darin, dass er glaubt, dass über die Erkenntnis hinaus, dass man bisher zwei
verschiedene Namen für etwas verwendet hat, was nur ein Gegenstand ist, etwas in einem
Identitätssatz ausgedrückt wird, oder auch nur werden sollte. Nun kann man schon über den Begriff
„eigentliche Erkenntnis“ streiten, denn wieso sollte eine Erkenntnis über unsere sprachlichen
Gepflogenheiten eine weniger wertvolle Erkenntnis als eine Erkenntnis über einen Himmelskörper
(wie die Venus) sein? Das liegt natürlich daran, dass zu Freges Lebzeiten psychologische Entitäten
noch kaum auf physische Prozesse zurückgeführt wurden, so dass er überhaupt einen Unterschied
zwischen Erkenntnissen über Gegenstände und Erkenntnissen über neuropsychologische Prozesse
sehen konnte. Doch auch dieses Detail in der Ausdrucksweise soll uns nicht weiter kümmern.
Worum es ihm offensichtlich geht, ist schließlich, dass seiner Meinung nach in Identitätssätzen wie
„der Abendstern ist der Morgenstern“ ein Gehalt vorzuliegen scheint, der sich auf die Gegenstände
in der Welt bezieht, nicht nur auf unsere Zeichen und diesbezügliche Konventionen. Dabei sind
gerade diese Fälle, in denen wir angeblich „aber doch gerade“ eine „eigentliche Erkenntnis“
ausdrücken wollen, fälschlicherweise unter die Identitätssätze gemischt worden. Die Sätze, die man
äußern sollte, um die zwei neuen Erkenntnisse über die Venus adäquat auszudrücken, sollten zum
Zeitpunkt der Erkenntnis etwa lauten:
„Wir haben die Venus bisher mit den zwei verschiedenen Wörtern „Morgenstern“ und „Abendstern“
bezeichnet, weil wir sie nicht wiedererkannt hatten. Sie ist zudem ein Planet und kein Stern.“
14
SB, S. 26
29
In diesen Sätzen ist offensichtlich überhaupt nicht mehr von Identität die Rede, und es ist nicht
abzusehen, warum es vorteilhaft sein sollte zu versuchen, ihre Inhalte mit einem Identitätssatz
auszudrücken. Weiterhin gibt es aus heutiger Sicht eigentlich gar keinen Grund mehr, von der Venus
mit ihren alten Namen zu reden, das heißt, dass man außerhalb von sprachhistorischen
Zusammenhängen keine Sätze mit den Wörtern „Abendstern“ und „Morgenstern“ bilden sollte,
geschweige denn zu versuchen, aus solchen Sätzen philosophische Erkenntnisse zu gewinnen. Im
Gegenteil ist Freges Versuch, die mathematische Gleichheit, die Gleichheit von Attributen, die
Definition, die Konstanz der Gegenstände über die Zeit, und die Wiedererkennung alle unter einen
einzigen Begriff zu subsumieren und alle diese verschiedenen Sätze in formaler Schreibweise mit
einem Gleichheitszeichen zu schreiben, die Ursache für alle späteren Verwirrungen bezüglich der
Bedeutung des Identitätsbegriffs.
„Es seien a, b, c die Geraden, welche die Ecken eines Dreiecks mit den Mitten der
Gegenseiten verbinden. Der Schnittpunkt von a und b ist dann derselbe wie der Schnittpunkt
von b und c. Wir haben also verschiedene Bezeichnungen für denselben Punkt, und diese
Namen ("Schnittpunkt von a und b", "Schnittpunkt von b und c") deuten zugleich auf die Art
des Gegebenseins, und daher ist in dem Satze eine wirkliche Erkenntnis enthalten.“15
Frege denkt also, dass der Identitätssatz des mathematischen Beispiels eine Erkenntnis enthält, die
darüber hinausgeht, dass wir mit „der Schnittpunkt von a und b“ auf dasselbe referieren wie mit
„der Schnittpunkt von b und c“. Die scheinbar enthaltene Erkenntnis stammt aber nicht aus dem
Satz „Schnittpunkt von a und b = Schnittpunkt von b und c“, sondern aus der Analyse der
Informationen in den zusätzlich gegebenen Sätzen, die teilweise sogar nur unter Hinzuziehung
mathematischen Grundwissens geleistet werden kann. Wenn man einem Leser nur den Satz
„Schnittpunkt von a und b = Schnittpunkt von b und c“ geben würde, dann könnte er daraus nicht
schlussfolgern, dass es uns mit a, b und c gerade um die Seitenhalbierenden im Dreieck geht, und
dass diese sich alle immer in genau einem Punkt, dem Schwerpunkt des Dreiecks, treffen. Diese
Information ist also nicht ein Teil des eigentlichen Identitätssatzes. Daher könnte ein Leser aus dem
Satz „Schnittpunkt von a und b = Schnittpunkt von b und c“ schlussfolgern, dass a und c potentiell
Geraden mit gleichen Stütz- und Richtungsvektoren sind, was im Beispiel aufgrund der
Zusatzinformationen, wie a, b und c konstruiert wurden, unmöglich ist. Gleichzeitig könnte ein
mathematisch ungebildeterer Leser zum Beispiel nicht einmal realisieren, dass sich auch a und c
nach dieser Beschreibung im gleichen Punkt schneiden müssen. Wenn man also Freges „eigentliche
15
SB, S. 26
30
Erkenntnis“ ausdrücken möchte, sollte man dies dementsprechend nicht mit dem Identitätssatz
versuchen, da dieser, wie gerade gezeigt, die benötigten Informationen einfach nicht enthält,
sondern zum Beispiel mit einem der folgenden Sätze, in denen, genau wie bei den alternativen
Sätzen bezüglich der Venus, gar nicht von Identität die Rede ist:
1)
Der Schwerpunkt eines Dreiecks kann gefunden werden, indem man zwei beliebige
Seitenhalbierenden des Dreiecks zeichnet.
2)
Die drei Seitenhalbierenden eines Dreiecks schneiden sich immer in genau einem Punkt,
dem Schwerpunkt S.
„Es liegt nun nahe, mit einem Zeichen (Namen, Wortverbindung, Schriftzeichen) außer dem
Bezeichneten, was die Bedeutung des Zeichens heißen möge, noch das verbunden zu
denken, was ich den Sinn des Zeichens nennen möchte, worin die Art des Gegebenseins
enthalten ist. Es würde danach in unserem Beispiele zwar die Bedeutung der Ausdrücke "der
Schnittpunkt von a und b" und "der Schnittpunkt von b und c" dieselbe sein, aber nicht ihr
Sinn. Es würde die Bedeutung von "Abendstern" und "Morgenstern" dieselbe sein, aber
nicht der Sinn.“16
Mit dem Beispiel glaubt Frege gezeigt zu haben, dass es nur eine Erklärung gibt für die gesamte
Problematik der Unterschiedlichkeit der Bedeutung von Sätzen, in denen nur eine Ersetzung eines
Wortes mit einem gleichbedeutenden Wort ohne Veränderung des Wahrheitswerts des Satzes
vorgenommen wurde. Laut ihm muss es etwas geben, dass für unseren Erkenntnisgewinn aus
Identitätssätzen der Form „a = b“, im Unterschied zu solchen der Form „a = a“ verantwortlich ist,
und diese Entität nennt er den Sinn der Zeichen. Ich habe jedoch im Gegensatz dazu oben gezeigt,
dass diese Erkenntnisse, die scheinbar über den Informationsgehalt, dass zwei Wörter auf denselben
Gegenstand verweisen, hinausgehen, überhaupt nicht in den Identitätssätzen enthalten sind. Sie sind
Erkenntnisse, die anderweitig erworben werden, und jemandem, der sie noch nicht erworben hat,
nur durch die reine Nennung der Identitätssätze nicht übermittelt werden können. Das Problem der
Erklärung von „informativen Identitätsaussagen“, wie es nach Frege genannt wurde, besteht also
überhaupt nicht, da es in diesem Sinne keine informativen Identitätsaussagen gibt. Daher ist auch
Freges Einführung des Sinns als zusätzliche Entität zur Erklärung des Problems der informativen
Identitätsaussagen nicht erforderlich.
16
SB, S. 26/27
31
2.4 Freges Entitätsverdoppelung: Sinn und Bedeutung
Fassen wir nochmal zusammen: Frege setzt zunächst einen Gegenstand als die Bedeutung eines
Wortes, aber zugleich den Wahrheitswert als die Bedeutung eines Satzes. Das ist der grundlegende
Fehler seiner Bedeutungskonzeption. Unter Annahme der Korrektheit dieser These untersucht er,
wie die problematischen Schlussfolgerungen aus dieser These zu seiner Zufriedenheit behandelt
werden können. Die neue Vokabel des „Sinns“ eines Satzes muss nun her, weil Sätze sonst nur wahr
oder falsch sein können, aber keinen Inhalt haben. Die Argumentationsstruktur, um den Sinn
einzuführen, sieht dabei folgendermaßen aus:
Voraussetzung (1)
„a = a“ und „a = b“ haben verschiedenen Erkenntniswert nach Kants
Unterscheidung zwischen analytischen und synthetischen Urteilen.
Annahme (1)
Identitätssätze sind gegenstandsbezogen zu interpretieren.
=> Widerspruch (1) Voraussetzung (1) ergibt mit Annahme (1) einen Widerspruch.
Annahme (1) wird daher verworfen zugunsten von Annahme (2).
Annahme (2)
Identitätssätze sind zeichenbezogen zu interpretieren.
Annahme (3)
Die Verknüpfung zwischen Zeichen und Bezeichnetem ist willkürlich.
=> Widerspruch (2) Voraussetzung (1) ergibt mit Annahme (2) und (3) einen Widerspruch.
Verworfen wird die Annahme (3), aber nicht völlig, sondern nur insofern,
als ihr Geltungsbereich als eingeschränkt erachtet wird (Verknüpfungen
zwischen Zeichen und Bezeichnetem sind nur potentiell willkürlich) und
die „Fälle mit eigentlichem Erkenntniswert“ eben genau nicht als die Fälle
mit willkürlicher Verknüpfung eingestuft werden, sondern als die Fälle mit
Verknüpfung über den Sinn.
Zu Recht kann man sich hier die Frage stellen, wieso Frege nicht die zweite Annahme verwirft, statt
der dritten, oder wieso die erste Annahme keinen Rettungsversuch verdient hat, wie die zweite ihn
jetzt erhält. Möglich wäre außerdem auch, die Grundvoraussetzung zu verwerfen, wenn Annahme
(1) und Annahme (2) die einzigen Möglichkeiten darstellen und beide mit der Voraussetzung
zusammen
unerwünschte
Schlussfolgerungen
produzieren.
Das
hieße
natürlich,
Kants
Unterscheidung zwischen analytischen und synthetischen Urteilen anzuzweifeln, was aus heutiger
Sicht jedoch weit weniger ein Sakrileg wäre als noch zu Freges Zeiten. Eine Kritik dieser
32
Unterscheidung findet sich später sowohl bei Wittgenstein als auch bei Quine. Aber alle diese
Möglichkeiten kommen für Frege natürlich nicht in Betracht, denn er untersucht hier ja nicht
unvoreingenommen die Sachverhalte im Themenbereich der Identitätssätze, sondern zieht diese
heran, da er sie für nützlich befindet, um seine problematische Bedeutungstheorie zu stützen. Er
glaubt, den Sinn aufgrund dieser Argumentation zu Recht eingeführt zu haben. In Wahrheit hat er
aber nur die Bedeutung für Sätze nicht analog zur Bedeutung von Wörtern gesetzt, daher muss er
das, was eigentlich die Bedeutung von Sätzen ist, ihren „Sinn“ nennen. Das führt wiederum dazu,
dass er nun eigentlich den Begriff des „Sinns“ für die Anwendung auf Wörter erklären müsste, was
nicht gelingen kann. Mit der ungenauen Angabe, dass der Sinn eines Wortes eben die „Art der
Gegebenheitsweise“ sei, was insbesondere für Gegenstands- und Personennamen vollkommen
unklar bleibt, wird nur darüber hinweggetäuscht, dass seine Unterscheidung von Sinn und
Bedeutung so nicht funktioniert. Schon Russell hatte ihm diesbezüglich geschrieben:
„Im Falle eines einfachen Eigennamen wie >Socrates< kann ich zwischen Sinn und
Bedeutung nicht unterscheiden; ich sehe nur die Idee, die psychologisch ist, und das Objekt.
Besser gesagt: Ich gestehe den Sinn gar nicht zu, und sehe nur die Idee und die
Bedeutung.“17
Es gibt eben nicht den Sinn eines Wortes, den Sinn eines Satzes, die Bedeutung eines Wortes und
die Bedeutung eines Satzes als vier unterscheidbare Entitäten, bzw. als zwei unterscheidbare
Kategorien mit jeweils zwei verschiedenen analogen Anwendungsfeldern, wie die folgende Tabelle
(Abb. 2.1) es im Sinne Freges darzustellen versucht. Die kursiv ausgefüllten Felder stellen dabei die
Problemfälle dar.
Frege
Wort (Name / Prädikat)
Satz
Bedeutung
Gegenstand / Eigenschaft
Wahrheitswert
Sinn
Gegebenheitsweise
Gedanke
Abbildung 2: Freges Unterscheidung von Sinn und Bedeutung für Wörter und Sätze
Gemäß meiner Analyse gibt es nur die Bedeutung, und zwar jeweils anwendbar auf die zwei
Kategorien Wörter und Sätze (vgl. Abb. 2.2). Davon vollkommen unabhängig gibt es die
Wahrheitswerte als Ergebnisse eines Vergleichs der Welt mit der zugehörigen sprachlichen
17
Gabriel, Gottfried u.a. (Hg.): Gottlob Frege: Wissenschaftlicher Briefwechsel, Hamburg 1976, S.251
33
Weltbeschreibung, anwendbar nicht auf Wörter, sondern nur auf Sätze, deren Bedeutung zudem
schon geklärt sein muss. Und wiederum unabhängig davon gibt es noch den Zweck einer Äußerung
eines Satzes, der später bei Austin und Searle in den Blick gerät (vgl. Abb. 2.3). Vielleicht liegt es
gerade auch an unserer ungenauen Trennung und ähnlichen Verwendung der Begriffe „Sinn“ und
„Zweck“, dass man sich von Frege hier so aufs Glatteis hat führen lassen. Die folgenden Tabellen
veranschaulichen meine gerade ausgeführte logische Verortung der Begriffe „Bedeutung“,
„Gegenstand“, „Gedanke“ und „Wahrheitswert“ im Gegensatz zu Freges Definitionsversuch:
Wort
Bedeutung
Satz
Gegenstand / Eigenschaft
Gegenstandskomposition
= Wittgensteins Sachlage
18
Abbildung 3: Bedeutung von Wörtern und Sätzen
Wort
Satz
Sprache als potentiell korrekte Weltbeschreibung
---
Wahrheitswert
Sprache als Handlung
---
Zweck und Wirkung einer Äußerung
Abbildung 4: unterschiedliche potentielle Analysehinsichten bedeutungsvoller Sätze
18
Auf der Satzebene verzichten wir, Okkhams Devise folgend, auf Freges platonische Konzeption von „Gedanken“ als
außerweltlichen Entitäten, die wir auf ungewisse Weise „erfassen“ zugunsten von Wittgensteins innerweltlicher
„Sachlage“, die ich um der Klarheit willen lieber „Gegenstandskomposition“ nenne. Eine Gegenstandskomposition,
also die Eigenschaften von und Verhältnisse zwischen Gegenständen in einem begrenzten Raumbereich, ist das, was wir
zumindest in wissenschaftlichen Zusammenhängen mit einem Satz gemeinhin abbilden wollen, somit ist die
Gegenstandskomposition die Bedeutung eines Satzes.
34
3. Wittgensteins Bedeutungstheorien
3.1 Wittgensteins zwei philosophische Ansätze
3.1.1 Person und Werk
Von diesen Erkenntnissen ausgehend, möchte ich mich im Folgenden mit Ludwig Wittgensteins
Überlegungen zur Funktionsweise der Sprache beschäftigen. Wittgenstein (1889-1951) hat mit
seinen zwei Hauptwerken, dem Tractatus logico-philosophicus und den Philosophischen
Untersuchungen19, ohne es zu wollen, unterschiedliche philosophische Schulen hinterlassen. Es
berufen sich gleich zwei einflussreiche philosophische Strömungen auf ihn: die Philosophie der
idealen Sprache, die sich auf den Tractatus bezieht, und die Philosophie der normalen Sprache
(Ordinary Language Philosophy), die sich aufgrund der PU und der anderen späteren Werke
entwickelt hat. Der Tractatus, dessen Inhalt Wittgenstein während des 1. Weltkrieges in Notizhefte
eintrug, und mit dessen Manuskript er bei Kriegsende in italienische Gefangenschaft geriet,
erschien erstmals 1921 in Ostwalds „Annalen der Naturphilosophie“, bevor 1922 eine
zweisprachige, deutsch-englische Ausgabe veröffentlicht wurde. Damit endete Wittgensteins erste
Phase der Beschäftigung mit der Philosophie, da er zu diesem Zeitpunkt überzeugt war, alle
philosophischen Probleme im Tractatus gelöst zu haben. Die Philosophischen Untersuchungen
wurden dagegen 1953 postum veröffentlicht, und stellen die Essenz seiner zweiten philosophischen
Schaffensperiode von 1929 bis 1951 dar.
„1929, möglicherweise unter dem Eindruck eines Vortrages von Brouwer, kehrte er zu
seinen philosophischen Interessen zurück, ging nach Cambridge, wo er auf Russells
Anregung seinen Tractatus als Doktor-Dissertation einreichte. Hier hielt er Vorlesungen,
1937 erhielt er einen Lehrstuhl. Abgesehen von freiwilliger Krankenpflege im Zweiten
Weltkrieg, hat er seine Lehrverpflichtungen bis 1947 wahrgenommen.
Wittgensteins Begabung umspannte u.a. die Musik (ausübend wie aufnehmend), die Technik
(in Cambridge entwarf er einen Düsenantrieb), die Architektur (er schuf die Entwürfe für
einen bemerkenswerten Villenbau in Wien), die Bildhauerei, dazu Mathematik, Logik,
Philosophie.“20
19
20
Im weiteren Verlauf meist als TLP und PU abgekürzt
Störig, H.J.: Kleine Weltgeschichte der Philosophie, Frankfurt a.M.:Fischer 1998, S. 655
35
Er war nur für kurze Zeit Teil der Diskussionsrunden des Wiener Kreises, aber viele der anderen
Teilnehmer, die im weiteren Verlauf die analytische Philosophie begründeten, wurden durch seine
Beiträge und sein Erstwerk stark beeinflusst. Ähnlich verhielt es sich auch mit Bertrand Russell,
einem der beiden Autoren des Werks „Principia Mathematica“, welches als eines der bedeutendsten
Bücher über die Grundlagen der Mathematik gilt. Er war Wittgensteins Professor am Trinity
College in Cambridge, wo dieser aufgrund von Gottlob Freges Empfehlung nach seinem
Ingenieursdiplom Philosophie studierte. Nach anfänglicher Ablehnung erkannte Russell schnell
Wittgensteins Talent und war dann sogar davon überzeugt, dass dieser besser geeignet sei als er
selbst, sein philosophisches Werk fortzuführen.
Die Philosophischen Untersuchungen und der Tractatus unterscheiden sich sowohl hinsichtlich der
sprachlichen Form als auch in ihrer Art der Betrachtungsweise von Sprache deutlich. Dieser
Unterschied und die Tatsache, dass Wittgenstein überhaupt eine zweite philosophische
Schaffensphase begann, nachdem er im Tractatus geschrieben hatte, dass er der Meinung sei, „die
Probleme im Wesentlichen endgültig gelöst zu haben“ 21, wird allgemein als Grund angesehen, den
Tractatus nicht besonders ernst zu nehmen. Schließlich scheint Wittgenstein den Tractatus selbst
abgelehnt zu haben, wenn er sich wieder den schon gelösten Aufgaben der Philosophie zuwendet.
Aber verhielt es sich in der Tat so, oder was hat es mit seiner vermeintlichen Revision seines
Erstwerks wirklich auf sich?
„Es ist relativ einfach, Punkte zu erkennen, bei denen Wittgenstein von den Thesen des
Tractatus abrückt. So verwirft er das dort gelegte ontologische Gerüst, nach dem die Welt
eine Gesamtheit von »Tatsachen« und »Sachverhalten« ist, und zwar von einzelnen,
voneinander unabhängigen, gleichsam »atomistischen«. Er verwirft die eindeutige
Beziehung zwischen der Welt und ihrer Abbildung in Gedanken und Sätzen, die der
Tractatus statuiert. Er verwirft das dort errichtete Ideal unbedingter Exaktheit. ... Wer klar
sprechen will, muss seinen Wörtern und Sätzen einen klaren Sinn geben – so etwa der
Tractatus, mit dem Hintergedanken: Was das Wort x genau bedeutet, muss nötigenfalls durch
eine eingehende Analyse geklärt werden. Dagegen der zweite Wittgenstein: Wer wissen will,
was dieses Wort bedeutet, muss zusehen, wie es gebraucht wird – und dies ist der einzige
Weg, Aufschluss über seine Bedeutung zu erlangen.“22
Dieses Zitat spiegelt die üblicherweise vertretene Auffassung zur Revision der Thesen des TLP
wider. Ich möchte im Folgenden zu zeigen versuchen, dass Wittgensteins Thesen zur
21
22
TLP, S. 10 Vorwort
Störig, Hans Joachim: Kleine Weltgeschichte der Philosophie – Frankfurt a.M.: Fischer, 1992, S. 657/658
36
Funktionsweise von Sprache, die allesamt rein analytisch ohne Gehirnforschung und
psychologische Experimente entstanden sind, mit den aktuellen Forschungsergebnissen der
Neuropsychologie gut zusammengefügt werden können. Weiterhin sollen die unterschiedlichen
Ansätze in den Philosophischen Untersuchungen und im Tractatus logico-philosophicus beleuchtet
werden und insbesondere soll versucht werden zu zeigen, inwiefern die Philosophischen
Untersuchungen als Fortführung verstanden werden sollten, statt als Abwendung vom Tractatus.
Der Tractatus enthält meines Erachtens in mancherlei Hinsicht aktuell verwertbare Theorien, die zu
Unrecht nicht weiter verfolgt wurden, aber im Lichte der aktuellen neuropsychologischen
Forschungsergebnisse neue Relevanz erhalten könnten. Daher wähle ich eine ungewöhnliche
Reihenfolge und beschäftige mich zunächst mit den Unterschieden zwischen den beiden
Hauptwerken. Dann stelle ich einige Gedanken der Philosophischen Untersuchungen vor, nutze sie
aber hauptsächlich um aufzuzeigen, dass (im Einklang mit meinem oben dargelegten generellen
Philosophieverständnis) Wittgensteins Spätphilosophie in der Tat Thesen zur Funktionsweise
unseres Gehirns enthält, die sich nun größtenteils durch die Neuropsychologie bestätigt finden. Der
Tractatus ist im Unterschied dazu ein rein theoretisches Konstrukt, das alle psychologischen Thesen
bewusst auszuschließen versucht, und dadurch offen bleibt für eine neuropsychologische
Interpretation. Da der Tractatus und die daran anschließenden Überlegungen besonders wichtig für
meine Arbeit sind, werden sie entgegen der historischen Entwicklung zuletzt behandelt.
3.1.2 Die PU als Fortführung des TLP statt als philosophische Wende
Obwohl der Tractatus, Wittgensteins Frühwerk, sich von seinen späteren Schriften wie den
Philosophischen Untersuchungen in formaler wie inhaltlicher Hinsicht stark unterscheidet, ist es
nicht sinnvoll, den Inhalt des TLP gänzlich zu verwerfen. Eine solche philosophische Position wird
zumeist mit Wittgensteins eigener Abkehr von seinem Frühwerk gerechtfertigt. Dabei wird jedoch
übersehen, dass viele Konzepte des Tractatus unverändert im Denken der späteren Jahre
Wittgensteins enthalten sind, auch wenn sie weniger explizit formuliert werden, weil der Fokus
seines Interesses sich verändert hat. Es hat also niemals eine völlige Umkehr und Revision in
Wittgensteins Denken gegeben, sondern nur eine Veränderung des Schreibstils und eine Entfernung
vom Ideal einer perfekten Sprache. Gleich geblieben sind jedoch die philosophischen Grundideen,
vor allem seine Philosophie der Mathematik, seine Einstellung zur Ethik und sein methodischer
Zugang: Die Sprachanalyse ist das einzige Mittel zur Klärung philosophischer Probleme. Im
Tractatus heißt es diesbezüglich:
37
4.112
Der Zweck der Philosophie ist die logische Klärung der Gedanken. Die
Philosophie ist keine Lehre, sondern eine Tätigkeit. Ein philosophisches Werk
besteht wesentlich aus Erläuterungen. Das Resultat der Philosophie sind nicht
„philosophische Sätze“, sondern das Klarwerden von Sätzen. Die Philosophie soll
die Gedanken, die sonst, gleichsam, trübe und verschwommen sind, klar machen
und scharf abgrenzen.23
Im Spätwerk formuliert Wittgenstein seinen sprachanalytischen Ansatz dann folgendermaßen:
„Eine unpassende Ausdrucksweise ist ein sicheres Mittel, in einer Verwirrung stecken zu
bleiben. Sie verriegelt gleichsam den Ausweg aus ihr.“24
Auch wenn hier weniger nach der Idealsprache verlangt wird, erinnert diese Feststellung doch stark
an die eher als Aufforderung formulierte Aussage aus dem Tractatus, dass man Klarheit durch
passendere Ausdrucksweise erreichen kann und sollte:
4.116
Alles was überhaupt gedacht werden kann, kann klar gedacht werden. Alles, was
sich aussprechen lässt, lässt sich klar aussprechen.25
Trotz dieser Gemeinsamkeiten und Fortführungen alter Ansichten in neuen Formulierungen, gibt es
natürlich auch Brüche zwischen Früh- und Spätwerk. Wie sonst hätte man zu dem Urteil kommen
können, dass Wittgenstein sein Frühwerk zugunsten einer neuen Theorie vollständig verworfen hat?
Der größte vorhandene Unterschied zwischen dem Tractatus und den Philosophischen
Untersuchungen betrifft die jeweils zugrunde liegende Bedeutungstheorie. Im Tractatus erfolgt die
Verknüpfung von Sprache und Welt gemäß der Bildtheorie. Wörter und Sätze sind wie Bilder von
Gegenständen und Sachverhalten. Sie verweisen auf die Verhältnisse in der Welt. Stimmt das Bild,
das ein Satz von einer Situation malt, mit der Realität überein, dann ist der Satz wahr, ansonsten
falsch. Den Philosophischen Untersuchungen liegt stattdessen die Gebrauchstheorie zugrunde. Die
festen, nahezu unerschütterlichen Zuordnungen von Wörtern zu bestimmten Gegenständen werden
aufgegeben zugunsten einer ausgiebigen Betrachtung der Verwendungsweisen von Wörtern und der
23
TLP, S. 32
Philosophische Untersuchungen Abschnitt 339 zitiert aus Wittgenstein, L.: Werkausgabe Band 1 - Frankfurt a.M.:
Suhrkamp, 1984, S. 387, in folgenden Fußnoten nur noch abgekürzt als PU
25
TLP S. 33
24
38
Verhaltensweisen von Menschen im Kontext ihrer Äußerungen. Im Laufe dieser Arbeit wird
untersucht werden, welche Aspekte dieser Theorien
mit welchen neuropsychologischen
Erkenntnissen zusammen passen. Dabei wird sich zeigen, dass die Bildtheorie des Tractatus, mit
ihrem Verständnis der Bedeutung als Verknüpfung von Wort und Gegenstand den neuronalen
Prozessen in gewisser Hinsicht relativ nahe kommt. Die Gebrauchstheorie entspricht dagegen eher
meiner Beschreibung der Funktionalität des Spracherwerbs. Sie richtet zudem teilweise den Blick
auf die Absichten, die Sprecher verfolgen, und mit ihren Aussagen zu erreichen versuchen. Dieser
thematische Aspekt gehört zwar nicht in den Kern einer Bedeutungstheorie hinein, wird aber
ebenfalls behandelt werden.
3.1.3 Ideale Sprache oder Normale Sprache
„Wenn wir glauben, jene Ordnung, das Ideal, in der wirklichen Sprache finden zu müssen,
werden wir nun mit dem unzufrieden, was man im gewöhnlichen Leben „Satz“, „Wort“,
„Zeichen“, nennt. Der Satz, das Wort von dem die Logik handelt, soll etwas Reines und
Scharf geschnittenes sein.“26
Wittgenstein problematisiert in den Philosophischen Untersuchungen den Unterschied zwischen der
im Tractatus angestrebten Idealsprache und der faktischen Ungenauigkeit unserer normalen
Sprache. Er verwirft hier die klaren Definitionen des TLP mit der Aussage, dass die normale
Sprache nicht nur nicht so klare Begriffe habe, sondern darüber hinaus solche Klarheit gar nicht zu
erreichen sei. Der Versuch diese Ungenauigkeit zu beseitigen, führe einen auf philosophische
Abwege. Es komme eben darauf an, auf die alltägliche Verwendung zu schauen, um die Sprache im
Verwendungskontext zu verstehen. Möglicherweise ist diese neue Fokussierung auf die normale
Sprache jedoch vollständig kompatibel mit seinen Überlegungen zur Idealsprache. Die faktische
Ungenauigkeit von Wörtern und Verwendungsweisen scheint mir nur der Funktionsweise des
menschlichen Gehirns in Kombination mit der Unstrukturiertheit der Umwelt zum Zeitpunkt des
Erstspracherwerbs geschuldet. Die Wahrnehmung besteht im Abbilden von Eindrücken aus der
Außenwelt in neuronalen Schaltkreisen. Für das Leben des jeweiligen Organismus besonders
positiv oder negativ bewertete wiederkehrende Eindrücke werden abgespeichert, um bessere
Handlungsmöglichkeiten in der Zukunft zu erlangen. Lernen besteht nun eben darin, die
zusammengehörigen Eindrücke zu verknüpfen. So verknüpft das Kleinkind die Wahrnehmung eines
hechelnden Vierbeiners mit dem Lautbild des Wortes „Hund“, das die Erwachsenen (im deutschen
26
PU, Abschnitt 105, S. 297
39
Sprachraum) in unterschiedlichen Zusammenhängen mit einer solchen Kreatur äußern. So entstehen
viele Verknüpfungen von den neuronalen Korrelaten von Bildern und Geräuschen im Gedächtnis.
Und zwar in jedem Kopf unterschiedlich, da jedes Kind individuellen Eindrücken ausgesetzt wird
und unterschiedliche Reaktionen von Seiten der Erwachsenen auf diese Eindrücke erlebt. Aber
wenn genau dies der Fall ist, dann ließe sich Wittgensteins Idealsprache innerhalb einer beliebig
großen Menschengruppe dadurch realisieren, dass alle Kleinkinder das Sprechen in einer
Lehrinstitution auf exakt gleiche Weise beigebracht bekämen. Eine größere Exaktheit der Sprache,
die dem Ideal des Tractatus entspricht, kennen wir ja sehr wohl aus dem Bereich der Mathematik
und anderer Wissenschaften. Klare Begriffe lassen sich also durch eindeutige Definitionen
erzeugen. Dabei scheint zunächst eigentlich gar keine größere Exaktheit möglich zu sein, da eine
Definition auf einfachere Begriffe zurückgreift, die wiederum mit den Problemen des
unterschiedlichen Erwerbs belastet sind. Diese Probleme werden aber durch weitere
Spezifikationen, was genau unter die Begriffe der Definition fallen soll, behoben. Es werden
dadurch
neue
wissenschaftsspezifische
Begriffe
geschaffen,
die
möglichst
nicht
mit
alltagssprachlicher Konnotation und Mehrdeutigkeit belastet sind. Statt nun aber dieses Streben
nach Exaktheit als Teil des Sprachspiels der Wissenschaften aufzufassen, möchte ich folgende
Interpretation vorschlagen: Die Begriffe unserer alltäglichen Kommunikationen sind nur deshalb
weniger exakt, weil sie jeder Mensch innerhalb seiner Familie unterschiedlich erlernt. Das bedeutet
also, dass sehr verschiedene Erlebnisse mit den gleichen Lautfolgen neuronal verknüpft werden. Es
liegt beim unstrukturierten primären Spracherwerb daher eine völlig andere Form des Erlernens von
Begriffen vor. Dieser Unterschied ist für den Unterschied zwischen Idealsprache und normaler
Sprache verantwortlich. Manche Wörter werden über sprachliche Definitionen erlernt, manche über
die wiederholte Verknüpfung mit bestimmten Wahrnehmungen. Ersteres entspricht eher den
Lernprozessen von Erwachsenen, letzteres eher dem kindlichen Spracherwerb. Diese Unterschiede
zwischen den verschiedenen Lernprozessen, und damit die Unterscheidung zwischen der
Möglichkeit des Spracherwerbs und der Möglichkeit der Sprachentwicklung, werden bei meiner
eigenen Bedeutungstheorie berücksichtigt.
40
3.2 Die Philosophischen Untersuchungen
3.2.1 Eike von Savignys Wittgenstein Interpretation
Die wohl wirkungsreichste Interpretation der Philosophischen Untersuchungen ist die Interpretation
von Eike von Savigny27. Sie stellt das extrem ehrgeizige und aufwändige Projekt dar, alle
Abschnitte der Philosophischen Untersuchungen mit Kommentaren zu versehen, die potentielle
Mehrdeutigkeiten aufklären und Verknüpfungen zu thematisch verwandten Textstellen herstellen
sollen. Dieses prinzipiell hilfreiche Projekt setzt einen gewissen Interpretationsstandard, es hat
jedoch natürlich auch Schwachstellen. Diese werde ich nun kurz darstellen, da dadurch deutlich
wird, inwiefern meine Interpretation der Philosophischen Untersuchungen gerechtfertigterweise
teilweise von von Savignys Interpretation abweicht.
Von Savigny glaubt, in Wittgensteins Text zwei zentrale Thesen ausmachen zu können:
„Die Philosophischen Untersuchungen haben das Ziel, die beiden folgenden Thesen zu
begründen:
These über das Meinen: Dass jemand mit einer Äußerung, mit einer Handlung, mit einem
Bild usw. etwas meint (etwas darunter versteht), betrifft ihn nicht isoliert. Vielmehr besteht
diese Tatsache darin, dass die Muster seines individuellen Verhaltens in bestimmter Weise in
Muster des sozialen Verhaltens in der Gemeinschaft, zu der er gerechnet wird, eingebettet
sind.
These über seelische Sachverhalte: Die Tatsache, dass jemand sich etwas vorstellt, etwas
erwartet, etwas wünscht, etwas fühlt, an etwas denkt oder etwas beabsichtigt usw., betrifft
ihn nicht isoliert. Diese Tatsache besteht vielmehr darin, dass die Muster seines
individuellen Verhaltens in bestimmter Weise in Muster des sozialen Verhaltens in der
Gemeinschaft, zu der er gerechnet wird, eingebettet sind.
Alle Argumentationen der Philosophischen Untersuchungen dienen direkt oder indirekt der
Begründung dieser beiden Thesen.“28
Ich halte diese zwei Hauptthesen von Savignys Interpretation nicht für angemessen, da sie die
Sprache nicht ausreichend in den Vordergrund stellen. Wittgensteins Interesse galt im Frühwerk wie
27
Von Savigny, E.: Wittgensteins „Philosophische Untersuchungen“ - Ein Kommentar für Leser, Band 1&2 – Frankfurt
a.M.: Klostermann, 1988
28
Von Savigny, E.: Wittgensteins „Philosophische Untersuchungen“ - Ein Kommentar für Leser, Band 1 – Frankfurt
a.M.: Klostermann, 1988, S. 7 Einleitung
41
im Spätwerk immer hauptsächlich der Sprache. Es werden in den Philosophischen Untersuchungen
nicht psychologische Sachverhalte diskutiert, sondern es wird diskutiert, wie wir Begriffe für
psychologische Sachverhalte verwenden. Die durchgängigen Thesen sollten also als Thesen über
Sprache in Bezug auf seelische Sachverhalte formuliert werden. Die zweite Wittgenstein
zugeschriebene These wäre dementsprechend eher folgendermaßen zu formulieren:
These über unseren Sprachgebrauch in Bezug auf seelische Sachverhalte: Alle Wörter unserer
Sprache, mit denen wir scheinbar Bezug auf seelische Sachverhalte nehmen, beziehen sich nur auf
die äußerlich wahrnehmbaren Verhaltensmuster von Personen, welche in sozialen Kontexten erlernt
werden und teilweise gemeinschaftsspezifisch sind.
Von Savignys Formulierung ergibt meines Erachtens überhaupt keinen Sinn. Nicht die Tatsache,
dass jemand etwas fühlt, ist abhängig von den Mustern des sozialen Verhaltens seiner
Gemeinschaft, sondern nur die sprachlichen Beschreibungen der eigenen Gefühle und die
sprachlichen Zuschreibungen von Gefühlen bei anderen Personen sind abhängig von den Mustern
des sozialen Verhaltens der Gemeinschaft.
Von Savigny macht Wittgensteins Aussagen über unsere alltägliche Sprachverwendung damit
ungerechtfertigterweise zu Aussagen über die Konstitution der Welt. Man mag dies für ein geringes
Problem in der Feinheit der Formulierung halten, und es von Savigny daher nachsehen, aber es gibt
leider
noch
schwerwiegendere
Kritikpunkte.
Es
ist
nämlich
in den
Philosophischen
Untersuchungen gar nicht Wittgensteins Absicht, bestimmte Thesen zu vertreten, ganz unabhängig
davon, wie man solche Thesen formulieren möchte! Er hält es stattdessen nur für die Aufgabe der
Philosophie, wichtige Begriffe klarzustellen und überhaupt keine Thesen zu vertreten, wie die
folgenden Zitate belegen:
„Dass es dieser Arbeit in ihrer Dürftigkeit und der Finsternis dieser Zeit beschieden sein
sollte, Licht in ein oder das andere Gehirn zu werfen, ist nicht unmöglich; aber freilich nicht
wahrscheinlich. Ich möchte nicht mit meiner Schrift Andern das Denken ersparen. Sondern,
wenn es möglich wäre, jemand zu eigenen Gedanken anregen.“29
„Die Philosophie stellt eben alles bloß hin, und erklärt und folgert nichts. - Da alles offen
daliegt, ist auch nichts zu erklären.“30
„Wollte man Thesen in der Philosophie aufstellen, es könnte nie über sie zur Diskussion
29
30
PU, Vorwort, S. 232/233
PU, Abschnitt 126, S. 303
42
kommen, weil Alle mit ihnen einverstanden wären.“31
Weiterhin denkt Eike von Savigny, dass man die dialektische Textstruktur der Argumentation
besser, oder gar überhaupt nur verstehen kann, wenn man eindeutig zwei Sprecher identifizieren
kann, nämlich Wittgenstein und seinen virtuellen Gegner. Dieses Vorgehen halte ich ebenfalls für
fragwürdig. Es gibt keinerlei Hinweis von Wittgenstein, dass er die Dialogstruktur gewählt hat, um
seine Thesen von alternativen philosophischen Positionen abzugrenzen. Von Savigny gesteht auch
offen ein, dass es keine durchgängige Zeichenverwendung gibt, die dabei helfen könnte, eindeutig
zwischen den Aussagen Wittgensteins und denen seines angeblichen philosophischen Gegners zu
unterscheiden:
„Ist die Lage nicht eindeutig, kann deshalb jeder zugunsten einer ihm lieben Interpretation
zu begründen versuchen, dass Wittgenstein selbst in Anführungszeichen rede oder dass eine
Äußerung des Dialogpartners ohne dieses Kennzeichen geblieben sei. Außerdem kann man
Wittgenstein von seinem Gesprächspartner schwer unterscheiden, wo er ihn auf
Konsequenzen festlegt oder seine Position ironisch übernimmt; und er redet so oft deutlich
ironisch, dass Interpretationen einem für sie unbequemen Textbefund jedenfalls gelegentlich
durch die Unterstellung von Ironie ausweichen können.“32
Nun könnte man argumentieren, dass es bei Anwendung dieses Interpretationsschemas zwar viele
schwierig einzuordnende Textstellen gibt, die Unterscheidung zwischen Wittgenstein und seinem
„Gegner“ im Dialog aber prinzipiell richtig und sinnvoll ist. Mir erscheint es jedoch äußerst
befremdlich, dem Text dieses Interpretationsschema aufzudrängen, und damit einem Denker wie
Wittgenstein Dilettantismus bei der Konzeption eines Textes zu unterstellen, an dem er 16 Jahre
intensiv gearbeitet hat. Die gegnerischen Thesen als solche kenntlich zu machen und deutlich von
den eigenen Thesen zu separieren, wäre für Wittgenstein selbst schließlich kein besonders
aufwändiger Prozess gewesen. Viel wahrscheinlicher scheint es doch zu sein, dass die dialogartige
Textstruktur einfach nur Wittgensteins eigene Denkprozesse wiedergibt, die immer wieder von
verschiedenen Ansätzen aus um verwandte Themen kreisen. Wittgenstein sagt genau dies
schließlich selbst im Vorwort der Philosophischen Untersuchungen, welches von Savigny in seiner
Interpretation einfach vollständig ignoriert:
31
PU, Abschnitt 128, S. 303
Von Savigny, E.: Wittgensteins „Philosophische Untersuchungen“ - Ein Kommentar für Leser, Band 1 - Frankfurt
a.M.: Klostermann, 1988, S.1/2 Einleitung
32
43
"In dem Folgenden veröffentliche ich Gedanken, den Niederschlag philosophischer
Untersuchungen, die mich in den letzten 16 Jahren beschäftigt haben.... - Meine Absicht war
es von Anfang an, alles dies einmal in einem Buche zusammenzufassen, von dessen Form
ich mir zu verschiedenen Zeiten verschiedene Vorstellungen machte. Wesentlich aber schien
es mir, dass darin die Gedanken von einem Gegenstand zum andern in einer natürlichen und
lückenlosen Folge fortschreiten sollten. Nach manchen missglückten Versuchen, meine
Ergebnisse zu einem solchen Ganzen zusammenzuschweißen, sah ich ein, dass mir dies nie
gelingen würde. Dass das Beste, was ich schreiben konnte, immer nur philosophische
Bemerkungen bleiben würden; dass meine Gedanken bald erlahmten, wenn ich versuchte,
sie, gegen ihre natürliche Neigung, in einer Richtung weiterzuzwingen. - Und dies hing
freilich mit der Natur der Untersuchung selbst zusammen. Sie nämlich zwingt uns, ein
weites Gedankengebiet, kreuz und quer, nach allen Richtungen hin zu durchreisen. Die philosophischen Bemerkungen dieses Buches sind gleichsam eine Menge von
Landschaftsskizzen, die auf diesen langen und verwickelten Fahrten entstanden sind. Die
gleichen Punkte, oder beinahe die gleichen, wurden stets von neuem von verschiedenen
Richtungen her berührt und immer neue Bilder entworfen. Eine Unzahl dieser waren
verzeichnet, oder uncharakteristisch, mit allen Mängeln eines schwachen Zeichners behaftet.
Und wenn man diese ausschied, blieb eine Anzahl halbwegser übrig, die nun so angeordnet,
oftmals beschnitten, werden mussten, dass sie dem Betrachter ein Bild der Landschaft geben
konnten. - So ist also dieses Buch eigentlich nur ein Album."33
Mit keinem Wort erwähnt Wittgenstein hier wirkliche oder virtuelle philosophische Gegner, sondern
nur seine eigenen kreisenden Gedanken. Daher denke ich, dass die Struktur der PU einfach seinem
Philosophieverständnis zu diesem Zeitpunkt entspricht. Es ist ein Zwiegespräch mit sich selbst, ein
gedankliches Herumspringen zwischen verwandten Themen, und ein Abwägen verschiedener
eigener Argumente gegeneinander, keine Auseinandersetzung mit spezifischen Gegenpositionen
anderer Autoren. Die relativ unstrukturierte dialogische Textform der Philosophischen
Untersuchungen ist genauso eine angemessene Abbildung ihres Inhalts, also der Vorstellungen des
späten Wittgensteins, was Philosophie leisten kann und wie unsere normale Sprache funktioniert,
wie die vollkommen hierarchisch strukturierte und auf einander aufbauend konzipierte Struktur des
Tractatus eine angemessene Form für die Vorstellungen des frühen Wittgenstein von der
Funktionsweise, vollkommenen Konstruierbarkeit und Exaktheit der idealen Sprache darstellt.
Aufgrund dieser Ausführungen sollte deutlich sein, warum ich in meinen nun folgenden
33
PU, Vorwort, S. 231/232 Hervorhebung von mir
44
Ausführungen zu den Philosophischen Untersuchungen nicht zwischen zwei Positionen
unterscheiden möchte, wie es von Savigny getan hat, sondern alle Aussagen in den PU einfach
Wittgenstein selbst zuschreiben möchte, wobei jeweils aus dem Kontext zu entnehmen ist, welchen
Aussagen er näher steht, und welche Aussagen er im Verlauf der Untersuchung modifiziert oder
wieder verwirft.
3.2.2 Spracherwerb – Schwerpunkt Lesefähigkeiten
Wittgenstein hat in den Philosophischen Untersuchungen die Wichtigkeit von Lernprozessen für
das Verständnis der Sprachfähigkeiten erkannt. In seinen Überlegungen zu menschlichen und nichtmenschlichen Lesemaschinen34 befasst er sich zwar nicht mit dem primären Spracherwerb, aber mit
dem verwandten Thema des Erlernens des Lesens. Durch häufige Wiederholung wird in der
Kindheit (in der Regel in der Schule) erlernt, welche visuellen Zeichen zu welchen akustischen
Lauten gehören. Dabei wird eine weitere neuronale Verknüpfung erstellt, in diesem Fall zwischen
der visuellen Wahrnehmung der Zeichenformen und den entsprechenden Lauten der verwendeten
Sprache. Diese Verknüpfung wird auf Dauer so stark, dass es einem unmöglich wird, Buchstaben zu
fokussieren, ohne sie direkt zu lesen, also die entsprechenden Laute und die dadurch entstehenden
Wörter innerlich zu hören. Diesen Effekt erkennt Wittgenstein äußerst genau:
„...die gesprochenen Wörter schlüpfen beim Lesen gleichsam herein. Ja, ich kann ein
deutsches gedrucktes Wort gar nicht ansehen, ohne einen eigentümlichen Vorgang des
inneren Hörens des Wortklangs.“35
Die Prozesse der visuellen Analyse aktivieren also direkt die neuronalen Prozesse der
Sprachverarbeitung, ohne dass es einen bewussten Entscheidungsprozess gibt, bestimmte Farben
und Formen in der Umwelt als Schriftzeichen aufzufassen, und zu versuchen ihre Bedeutung zu
erfassen. Diese neuronale Verknüpfung ist also extrem ausgeprägt und äußerst stabil. Aber warum
ist sie das? Offensichtlich ist sie nicht angeboren, da noch vor wenigen Jahrhunderten in Europa die
Analphabeten keineswegs wie heute eine verschwindend kleine Minderheit darstellten. Das Lesen
wird normalerweise während der Kindheit in einem zeit- und arbeitsaufwendigen Prozess erlernt.
Als Erwachsener kann man sich zumeist nicht an diese Mühen erinnern und das Gedächtnis täuscht
einen auch noch in Bezug auf die Dauer dieser Prozedur. Das Gehirn ist zu diesem Zeitpunkt noch
34
35
Siehe PU, Abschnitt 157/158, S. 320/321
PU, Abschnitt 165, S. 325
45
wenig ausdifferenziert und bereit, neue neuronale Verknüpfungen auszubilden. Durch ständige
Wiederholung wird die Verknüpfung zwischen den Hirnarealen hergestellt, die für die Erkennung
der jeweiligen visuell wahrgenommenen Zeichen, die Erkennung der dazugehörigen bereits
bekannten Laute, und die Ausführung der benötigten Motorik, um diese Laute selbst zu bilden,
zuständig sind. Ein neu zu erlernendes Schriftzeichen, wie Wittgenstein es in Abschnitt 166 der PU
diskutiert, wird zunächst noch nicht als Buchstabe wahrgenommen, da eine solche Verknüpfung
zwischen Zeichen und Lautbild noch nicht besteht. Durch wiederholte Anwendung würde sich dies
jedoch langsam ändern, bis irgendwann kein Unterschied mehr zu den gewöhnlichen Buchstaben
bestünde:
„Auch war mir jenes Zeichen nicht vertraut, wie die Buchstaben. Ich sah es gleichsam
gespannt, mit einem gewissen Interesse für seine Form an; ich dachte dabei an ein
umgekehrtes Sigma. - Stell dir vor, du müsstest nun dieses Zeichen regelmäßig als
Buchstaben benützen; du gewöhnst dich also daran, bei seinem Anblick einen bestimmten
Laut auszusprechen, etwa den Laut >sch<. Können wir mehr sagen, als dass nach einiger
Zeit dieser Laut automatisch kommt, wenn wir das Zeichen ansehen?“36
Dieses Phänomen tritt auch viel häufiger auf, als man bei der Lektüre dieses Abschnitts meinen
sollte, zum Beispiel fast immer, wenn eine zweite Sprache erlernt wird. Als Deutscher muss man
beim Erlernen der englischen Sprache mit der bereits bekannten Buchstabenkombination „th“ ein
neues Phonem verbinden, während ein Engländer in Bezug auf unsere Umlaute sogar neue Zeichen
und neue Phoneme erlernen muss.
Wittgenstein erkannte hier eine Besonderheit der Funktionsweise unseres Gehirns. Er verfügte nur
noch nicht über die neuropsychologischen Begriffe, um diese These so detailliert darzustellen, wie
wir es heute können. Er beschrieb das Lernen generell eher als ein Abrichten, weil es in der
Psychologie seiner Zeit schon die Beobachtungen und die entsprechenden Theorien zum
Konditionieren gab, die er offensichtlich kannte.
3.2.3 Lesen und Gesichtserkennung als identisch funktionierende Vorgänge
„Was ist nun an dem Satz, das Lesen sei doch »ein ganz bestimmter Vorgang«? Das heißt
doch wohl beim Lesen finde immer ein bestimmter Vorgang statt, den wir
36
PU, Abschnitt 166, S. 326
46
wiedererkennen. ... Und es ist ja leicht verständlich, dass sich dieser Vorgang unterscheidet,
von dem etwa, sich Wörter beim Anblick beliebiger Striche einfallen zu lassen. - Denn
schon der bloße Anblick einer gedruckten Zeile ist ja ungemein charakteristisch, d.h., ein
ganz spezielles Bild: Die Buchstaben alle von ungefähr der gleichen Größe, auch der Gestalt
nach verwandt, immer wiederkehrend; die Wörter, die zum großen Teil sich ständig
wiederholen und uns unendlich wohl vertraut sind, ganz wie wohl vertraute Gesichter.“37
Wittgenstein vergleicht hier die Besonderheiten des Leseprozesses mit den Besonderheiten der
Wiedererkennung von Gesichtern. Auf den ersten Blick ein sehr ungewöhnlicher Vergleich, denn
Gesichter und geschriebene Wörter scheinen wenig gemeinsam zu haben. Die aktuelle
Hirnforschung zeigt jedoch, dass diese Prozesse im Gehirn auf sehr ähnliche Weise und sogar in
analogen Bereichen unserer zwei Gehirnhälften realisiert werden. Während Sprachprozesse im
Normalfall in der linken Hemisphäre ablaufen, wird im analogen Bereich der rechten Hemisphäre
die Gesichtserkennung durchgeführt. Wenn diese spezialisierten Bereiche zerstört oder beschädigt
werden, ergeben sich Einbußen bei der Lesekompetenz (Alexie oder verschiedene Formen von
Dyslexie) beziehungsweise der Gesichtserkennung (Prosopagnosie), während alle sonstigen
intellektuellen Kompetenzen unverändert erhalten bleiben. Kolb und Wishaw vollziehen in ihrem
Lehrbuch zur Neuropsychologie einen ähnlichen Vergleich:
„Gesichter vermitteln für uns Menschen eine Fülle sozialer und affektiver Informationen.
Die Bedeutung von Gesichtern als visuellen Reizen hat verschiedene Autoren zur Annahme
veranlasst, dass ein spezifischer Analyseprozess für Gesichter existieren muss, der analog zu
der angeborenen Wortanalysefähigkeit der linken Hemisphäre funktioniert. Wird das visuelle
System mit Wörtern konfrontiert, setzt sich ein besonderer Verarbeitungsmechanismus im
tertiären visuellen Gebiet der linken Hemisphäre in Bewegung, der das Wortverstehen
gewährleistet. Teuber nahm an, dass bei der Wahrnehmung von Gesichtern ein spezieller
Verarbeitungsmechanismus in der rechten Hemisphäre einsetzt und dass Gesichter dort –
ähnlich wie Wörter in der linken Hemisphäre – erkannt werden.“38
Aktuelle Forschungsergebnisse haben mittlerweile Teubers Hypothese bezüglich der Lokalisation
des spezialisierten Gesichtserkennungsbereichs bestätigt.
37
PU Abschnitt 167, S. 326/327
Kolb, B./Whishaw, I.Q.: Neuropsychologie – Heidelberg – Berlin - Oxford: Spektrum Akademischer Verlag, 1996, S.
218/219
38
47
„Die Wahrnehmung von Gesichtern ist deshalb gegenüber Störungen des rechten posterioren
Cortex empfindlich, weil Gesichter besonders komplex sind und weil es so viele
verschiedene Gesichter gibt, die sich auf den ersten Blick ähnlich sehen. So lässt sich die
Einzigartigkeit menschlicher Gesichter auf kleinste Unterschiede zurückführen, wobei die
Fähigkeit,
diese
Besonderheiten
zu
erkennen,
beträchtliche
Übung
erfordert.
Möglicherweise schließt sie sogar eine genetische Prädisposition mit ein. So gesehen,
könnte ein Defizit bei der Gesichtserkennung teilweise mit Störungen der Identifizierung
charakteristischer Merkmale erklärt werden und nicht nur einem Mangel an korrekter
Gestaltbildung zuzuschreiben sein. Wird der normale Anblick eines Gesichtes gestört, kann
es zu einer Beeinträchtigung der Gesichtserkennung kommen, obwohl die Wahrnehmung
des betrachteten Gesichts intakt geblieben ist. Dies trifft womöglich auch auf die
anfänglichen Erkennungsschwierigkeiten gesunder Erwachsener beim Unterscheiden von
Individuen einer anderen Rasse zu. Man muss lernen, die Gesichter von Personen
verschiedener Rassen auf eine jeweils besondere Weise zu unterscheiden.“39
Wittgensteins Analysen von psychologischen Prozessen finden sich durch moderne Erkenntnisse
bezüglich der Funktionsweise des menschlichen Gehirns bestätigt. Obwohl er nicht über die Daten
verfügte, die der aktuellen Hirnforschung zur Verfügung stehen, vergleicht er die Mechanismen der
Gesichtserkennung mit denen der Worterkennung. Und in der Tat funktioniert die Worterkennung in
der linken Gehirnhälfte beim so genannten Ganzwortlesen nicht nur analog zur Gesichtserkennung
in der rechten Gehirnhälfte, sondern ihre Realisierung erfolgt auch genau in dem entsprechenden
Areal auf der gegenüberliegenden Seite. In beiden Fällen werden komplexe Strukturen als Einheit
wiedererkannt: im einen Fall eine Anordnung von zumeist schwarzen Strichen auf weißem Grund
und im anderen Fall die Verhältnisse der Anordnung der verschiedenen Gesichtsmerkmale.
3.2.4 Neuropsychologische Forschung zur Verbesserung des psychologischen Vokabulars
Wittgenstein verweist darauf, dass psychologisches Vokabular zumeist völlig anders verwendet wird
als naturwissenschaftliches Vokabular. Dies gilt zum Zeitpunkt seiner Ausführungen sowohl in der
normalen Sprache als auch noch in der Sprache der Psychologie, die damals noch eine relativ neue
Wissenschaft war. Dieser Umstand war ihm wohl bewusst, aber er war mit ihm höchst unzufrieden:
39
Kolb, B./Whishaw, I.Q.: Neuropsychologie – Heidelberg – Berlin - Oxford: Spektrum Akademischer Verlag, 1996, S.
219/220
48
„Im Falle aber der lebenden Lesemaschine hieß »lesen«: so und so auf Schriftzeichen
reagieren. Dieser Begriff war also ganz unabhängig von dem eines seelischen, oder anderen
Mechanismus. - Der Lehrer kann hier auch vom Abgerichteten nicht sagen: »Vielleicht hat
er dieses Wort schon gelesen«. Denn es ist ja kein Zweifel über das, was er getan hat. - Die
Veränderung als der Schüler zu lesen anfing, war eine Veränderung seines Verhaltens; und
von einem ›ersten Wort im neuen Zustand‹ zu reden, hat hier keinen Sinn.“40
Bei Personen tendieren wir dazu nachzufragen, wie sie eine Situation empfunden haben, wenn wir
sicher gehen wollen, dass wir ihr Verhalten korrekt beschreiben, während wir bei Maschinen ihre
Bestandteile und Funktionsweise beschreiben und analysieren. Unsere psychologischen Begriffe
scheinen unangemessen zu sein, um Maschinen zu beschreiben, die menschliche Tätigkeiten
durchführen, während unsere Beschreibungen für Maschinen unangemessen für menschliche
mentale Prozesse zu sein scheinen. Interessanterweise fordert Wittgenstein in dieser Textpassage
selbst den Fortschritt in der neurobiologischen Forschung, deren Resultate ich nun über sechzig
Jahre später heranziehen möchte, um seine zwei Hauptwerke auf ihrer Grundlage zu vergleichen
und hinsichtlich der Nützlichkeit ihrer Bedeutungstheorien zu bewerten. Wittgenstein vermutete,
dass
neurobiologische
Erkenntnisse
eine Annäherung
der
Beschreibungen
der
beiden
unterschiedlichen Leseprozesse von Mensch und Maschine ermöglichen könnten:
„Aber liegt dies nicht nur an unserer zu geringen Kenntnis der Vorgänge im Gehirn und im
Nervensystem? Wenn wir diese genauer kennten, würden wir sehen, welche Verbindungen
durch das Abrichten hergestellt worden waren, und wir könnten dann, wenn wir ihm ins
Gehirn sähen, sagen: »Dieses Wort hat er jetzt gelesen, jetzt war die Leseverbindung
hergestellt.« “41
Die neuropsychologische Forschung ermöglicht uns also, das ungenaue alltagspsychologische
Vokabular zur Beschreibung menschlicher Fähigkeiten auszutauschen gegen eine genauere
Beschreibung der Aktivitäten in spezifischen Gehirnarealen, die einer naturwissenschaftlichen
Beschreibung der Lesemaschine
nahe kommt. Da ihm dieses Vokabular und diese
wissenschaftlichen Erkenntnisse jedoch noch nicht zur Verfügung standen, ringt Wittgenstein weiter
darum, die Besonderheiten und Probleme des Lesens, also der Verknüpfung von Schriftzeichen mit
Lautbildern, zu verstehen:
40
41
PU, Abschnitt 157, S. 320
PU, Abschnitt 158, S. 321
49
3.2.5 Phonetisches Lesen, Ganz-Wort-Lesen und Dyslexien
„Wir bilden uns ein, wir nähmen durch ein Gefühl quasi einen verbindenden Mechanismus
wahr zwischen dem Wortbild und dem Laut, den wir sprechen. Denn wenn ich vom Erlebnis
des Einflusses, der Verursachung, des Geführtwerdens rede, so soll das ja heißen, dass ich
sozusagen die Bewegung der Hebel fühle, die den Anblick der Buchstaben mit dem
Sprechen verbinden.“42
Auch seine Behauptung, dass es dieses besondere Gefühl zu geben scheint, das wir beim Lesen
haben, hat seine Berechtigung. Wittgenstein sieht das hier zwar als kritische Bemerkung, da er für
dieses Gefühl des „Geführtwerdens“ ohne unser heutiges Wissen über neuronale Verknüpfungen
keine gute Begründung finden kann. Er hat jedoch die richtige Analyse der Situation bereits
geleistet. Es gibt nämlich in der Tat einen deutlichen Unterschied zwischen dem Betrachten von
wirren Zeichenreihen, dem Betrachten eines bisher unbekannt gewesenen Wortes und dem flüssigen
Lesen von bekannten Wörtern. Wittgenstein identifiziert in diesem Abschnitt die Eigenschaften des
heute in der Psychologie als Ganz-Wort-Lesen bekannten Phänomens. In Carlsons Buch
Physiologische Psychologie finden sich diesbezüglich die folgenden Abschnitte:
„Wenn wir ein bekanntes Wort sehen, erkennen wir es normalerweise an seiner Form und
sprechen es aus -
ein Prozess, der als Ganz-Wort-Lesen bezeichnet wird. Die zweite
Methode, die wir für unbekannte Worte verwenden, erfordert das Erkennen einzelner
Buchstaben und das Wissen des von ihnen erzeugten Lautes. Diesen Vorgang nennt man
lautierendes (phonetisches) Lesen.“43
Die letztgenannte Möglichkeit, dass sich Lesen durch das Aneinanderreihen der passenden
Lautbilder zu den Buchstaben vollzieht, ist offenbar unstrittig. Wie sonst sollten wir das Lesen
jemals erlernen können? Aber die andere Art zu lesen scheint zunächst relativ unintuitiv. Wie
kommt es zur Ausprägung des Ganz-Wort-Lesens, wenn wir doch beim Erlernen des Lesens
phonetisch Lesen? Und wieso sollte es überhaupt zwei unterschiedliche neuronale Prozeduren zur
Erfüllung der gleichen Aufgabe geben?
„Der beste Beleg dafür, dass man Worte lesen kann, ohne sie zu lautieren, stammt aus der
42
43
PU, Abschnitt 170, S. 329
Carlson, Neil R.: Physiologische Psychologie -München: Pearson Studium, 2004, S. 612
50
Untersuchung von Patienten mit erworbenen Dyslexien. Dyslexie heißt „falsches Lesen“.
Erworbene Dyslexien sind durch Hirnschädigungen verursachte Störungen des Lesens bei
Personen,
die
bereits
Lesen
konnten.
Im
Gegensatz
dazu
beziehen
sich
entwicklungsbedingte Dyslexien auf Leseschwierigkeiten bei Kindern, die das Lesen lernen.
[...] Die Oberflächendyslexie ist ein Defizit beim Ganz-Wort-Lesen, das üblicherweise durch
eine Läsion des linken Temporallappens verursacht wird. [...] Weil Patienten mit
Oberflächendyslexie Worte nur mit Schwierigkeiten als Ganzheit erkennen können, müssen
sie sie lautieren. Deshalb können sie Worte mit regulärer Aussprache lesen. Sie haben
allerdings Schwierigkeiten, Worte mit unregelmäßiger Aussprache zu lesen. [...] Patienten
mit einer phonologischen Dyslexie haben die entgegengesetzte Schwierigkeit. Sie können
mit der Ganz-Wort-Methode lesen, können aber das Klangbild des Wortes nicht
wiedergeben. Deshalb können sie ihnen wohl bekannte Worte lesen, haben aber große
Schwierigkeiten bei der Aussprache unbekannter Worte oder von aussprechbaren
Nichtworten. Personen mit einer phonologischen Dyslexie können hervorragende Leser sein,
wenn sie vor ihrer Hirnschädigung bereits ein gutes Lesevokabular erworben hatten. Die
phonologische Dyslexie ist ein weiterer Beleg dafür, dass Ganz-Wort-Lesen und lautierendes
Lesen verschiedene Hirnmechanismen beanspruchen.“44
Offensichtlich gibt es ein spezialisiertes Gehirnareal, das Wörter als Ganzes anhand ihrer
komplexen Struktur wiedererkennt, das von den Prozeduren des lautierenden Lesens keinen
Gebrauch macht. Dieser Wiedererkennungswert, dieses „sich aufdrängen“ der Wörter, immer wenn
ein Text in unser Blickfeld gerät, ohne dass man beschlossen hätte zu lesen, ist heutzutage leider
nicht nur der Werbeindustrie bestens bekannt, sondern für genau diesen Effekt sucht Wittgenstein
bei seinen oben zitierten Überlegungen zum Lesen eine adäquate Erklärung.
3.2.6 Denken und Sprechen als Einheit
Aber Lesen ist ja nur ein kleiner Bestandteil unseres Sprachvermögens, und dieses eventuell nur ein
kleiner Anteil unseres gesamten geistigen Vermögens. Wittgensteins Hauptinteresse liegt natürlich
auch in den Philosophischen Untersuchungen immer noch auf der Sprache. Daher gerät die Frage
danach, inwieweit Denken und Sprechen sich überhaupt unterscheiden, oder ob sie gar ein und
dasselbe sind, auch bei ihm bisweilen in den Fokus seiner Untersuchungen:
44
Carlson, Neil R.: Physiologische Psychologie -München: Pearson Studium, 2004, S. 612/613
51
„Um über die Bedeutung des Wortes »denken« klar zu werden, schauen wir uns selbst beim
Denken zu: Was wir da beobachten, werde das sein, was das Wort bedeutet! - Aber so wird
dieser Begriff eben nicht gebraucht. (Es wäre ähnlich, wenn ich ohne Kenntnis des
Schachspiels, durch genaues Beobachten des letzten Zuges einer Schachpartie herausbringen
wollte, was das Wort »mattsetzen« bedeutet.)“45
Dieser Abschnitt ist ein typisches Beispiel für Wittgensteins Vorgehensweise in seiner zweiten
philosophischen Schaffensphase, die die Philosophie der normalen Sprache begründete. Die
Bedeutung eines Wortes liegt für ihn nun immer in der allgemein gebräuchlichen
Verwendungsweise begründet. Ihm ist aber bewusst, dass dies nicht die Antwort auf die eigentlich
interessanten Fragen, die er zu stellen versucht, liefert. Seine Unzufriedenheit mit der
Verwendungsweise der psychologischen Begriffe seiner Zeit hatten wir ja bereits gesehen. Auch der
Begriff des Denkens wird zu seiner Lebenszeit noch anders gebraucht als heute. Er bezeichnet in
diesem Zeitraum noch keine Gehirntätigkeit. Wittgenstein entfernt sich daher von der Betrachtung
der Verwendungsweise des Begriffs zu seiner Zeit und formuliert seine Fragestellung
folgendermaßen um:
„ »Kann man denken ohne zu reden?« - Und was ist Denken? - Nun, denkst du nie? Kannst
du dich nicht beobachten und sehen, was da vorgeht? Das sollte doch einfach sein. Du musst
ja darauf nicht, wie auf ein astronomisches Ereignis warten und dann etwa in Eile deine
Beobachtung machen.“46
Natürlich bleibt er bei der Selbstbeobachtung stehen, da ihm keine technischen Geräte zur
Erforschung der Arbeitsweise des Gehirns zur Verfügung stehen. Selbstbeobachtung ist zwar
potentiell problematisch, trotzdem erkennt er, dass wir zumeist sprachbasiert denken, dass also
Sprechen und Denken identisch zu sein scheinen:
„Wenn ich in der Sprache denke, so schweben mir nicht neben dem sprachlichen Ausdruck
noch »Bedeutungen« vor; sondern die Sprache selbst ist das Vehikel des Denkens.
Ist Denken eine Art Sprechen? Man möchte sagen, es ist das, was denkendes Sprechen vom
gedankenlosen Sprechen unterscheidet.“47
45
PU, Abschnitt 316, S. 380
PU, Abschnitt 327, S. 383
47
PU, Abschnitt 329/330, S. 384
46
52
Er sieht hier sehr deutlich, wie nah Sprechen und Denken zusammen gehören, erkennt aber auch,
dass sie doch nicht vollkommen identisch sind, dass also Denken nicht nur innerliches Sprechen
ohne Bewegung der Stimmbänder ist. Wenn man sprachlich denkt, dann ist da nicht noch mehr
außerhalb der Sprache, zugleich kann man aber, wie er es nennt, „gedankenlos“ sprechen und
handeln. Wir wissen heute, dass nur ganz spezielle Gehirnareale (hauptsächlich das Wernicke´sche
Areal und das Broca´sche Areal) für die Sprachfähigkeiten zuständig sind, und es darüber hinaus
noch höhere Verwaltungsebenen zur langfristigen Handlungsplanung und Problemlösung gibt.
Trotzdem scheint es uns als Wissenschaftlern beinahe unmöglich, bewusste Problemlösung oder
Handlungsplanung zu betreiben, oder nachzudenken, ohne dies sprachbasiert zu tun, also die
entsprechenden Gehirnareale für die Sprache zumindest ebenfalls zu aktivieren. Wahrscheinlich
sind die Abstraktionsgrade, die durch Begriffe erreicht werden können, den Möglichkeiten der
anderen Repräsentationsformen, wie zum Beispiel dem Bildgedächtnis, so sehr überlegen, dass es
aus Effizienzgründen sinnvoller ist, mit Begriffen zu operieren.
Wittgenstein versucht diese komplizierte Verknüpfung von Sprache und Denken genauer zu
analysieren, indem er psychologisch interessante Spezialfälle heranzieht:
„Stell dir Menschen vor, die nur laut denken könnten! (Wie es Menschen gibt, die nur laut
lesen können.)“48
Erstaunlich, dass er überhaupt von solchen Fällen weiß, in denen Menschen nur noch laut und nicht
mehr leise lesen können, da es sich hierbei um eine seltene Schädigung mehrerer separater
Gehirnbereiche handelt. Hier ist er jedoch auf gedankliche Abwege geraten, denn diese Analogie
zwischen Menschen, die nur laut denken können, und Menschen, die nur laut lesen können, lässt
sich nur theoretisch ziehen, während es von den neuronalen Grundlagen her unmöglich ist, dass
jemand nur noch laut denken könnte. Den andererseits wirklich auftretenden Effekt, dass jemand
nach einer Gehirnschädigung nur noch laut lesen kann, nennt man in der Neuropsychologie heute
Wortform-Dyslexie oder Buchstabier-Dyslexie:
„Obwohl Patienten mit einer Wortform-Dyslexie Worte als Ganzheiten nicht erkennen oder
sie lautieren können, können sie immer noch einzelne Buchstaben erkennen und können die
Worte lesen, wenn man ihnen erlaubt, die Buchstaben einen nach dem anderen zu benennen.
Deshalb lesen sie sehr langsam und brauchen bei längeren Worten mehr Zeit. Wie sie es
48
PU, Abschnitt 331, S. 384
53
erwarten, können Patienten mit einer Wortform-Dyslexie Worte identifizieren, die jemand
laut ausgesprochen hat, genauso wie sie ihre eigene Aussprache erkennen können.“49
Die Erklärung für dieses Phänomen lautet folgendermaßen: Der Prozess der Ganz-Wort-Erkennung
funktioniert aufgrund der Hirnschädigung nicht mehr. Die visuelle Erkennung einzelner Buchstaben
funktioniert jedoch noch. Aber die Wörter können nicht als Summe der Buchstabenlaute
ausgesprochen werden, da die Verbindung zum Gedächtnis, das die phonetische Kodierung, also
den Klang der Buchstaben, enthält, unterbrochen ist. Da die Verbindung zu den motorischen
Bereichen der Sprachsteuerung jedoch noch besteht, können die Buchstaben einzeln ausgesprochen
und dann auditiv erkannt werden. Mit Hilfe der Erinnerung an das Buchstabieren der Wörter,
gelingt dann zuletzt über die Sprachsteuerung das Aussprechen des gesamten Wortes.
Es liegt also hauptsächlich eine Störung der neuronalen Verbindung zwischen der visuellen
Erkennung und dem Wissen um die phonetische Kodierung vor. Die Patienten wissen sozusagen
nicht mehr bewusst, wie die Buchstaben sich anhören, können diese Laute aber weiterhin erzeugen
und auch wahrnehmen. Deswegen können sie die fehlende innerliche Verbindung äußerlich
umgehen, indem sie den Buchstaben aussprechen und sich selbst dabei zuhören. Sie können in der
Tat nur noch laut lesen, weil sie die Sprache benutzen müssen, um über die relevanten
Informationen der isolierten Gehirnareale zu verfügen, die auf neuronalem Wege nicht mehr
übermittelt werden können. Dies ist offensichtlich eine Besonderheit, die sich aufgrund der
spezifischen Komplexität der neuronalen Realisierung des Lesevorgangs ergibt. Eine analoge
Störung des Denkens, die dann dazu führen würde, dass die Patienten zu sich selber sprechen
müssten, damit sie überhaupt denken können, ist nicht vorstellbar. Vielleicht hat Wittgenstein
geahnt, dass diese scheinbare Analogie nicht richtig greift, denn er verfolgt dieses
Gedankenexperiment nicht weiter, sondern lässt es für sich im Raume stehen.
Bevor ich mich jetzt dem Tractatus zuwende, gilt es festzuhalten, dass Wittgenstein in seinem
Spätwerk interessante Thesen bezüglich der psychologischen Prozesse der Sprachverarbeitung
entwickelt, von denen sich viele heute neurobiologisch bestätigen lassen. Seine Gebrauchstheorie
der Bedeutung ermöglicht ihm, zu erkennen, dass die psychologischen Begriffe seiner Zeit nicht auf
die innerlich ablaufenden Prozesse Bezug nehmen, sondern nur auf die wahrnehmbaren
Handlungen von Personen, die potentiell damit verknüpft sind. Er richtet seine Aufmerksamkeit mit
der Gebrauchstheorie auf den Spracherwerb, statt Sprache als fertiges System einfach
vorauszusetzen, wie er es im Tractatus macht. Zu vielen seiner diesbezüglichen Überlegungen gibt
es weitere Studien in der Linguistik, die im 6. Kapitel thematisiert werden.
49
Carlson, Neil R.: Physiologische Psychologie -München: Pearson Studium, 2004, S. 614
54
3.3 Der Tractatus logico-philosophicus
3.3.1 Die Besonderheiten des TLP
Wittgenstein entwickelte seine frühe Position, wie wir sie im Tractatus logico-philosophicus finden,
in Auseinandersetzung mit den mannigfaltigen Problemen von Freges und Russells philosophischen
Ansätzen. Trotz seiner relativ geringen Textmenge, die Wittgenstein nicht zur Veröffentlichung,
sondern nur für sich selbst in seinem Tagebuch während des 1. Weltkriegs verfasste, behandelt der
Tractatus eine große Zahl philosophischer Probleme:
„Neben den Hauptargumenten, die die Sprache, die Welt und die Beziehungen zwischen
beiden betreffen, befasst sich der Tractatus auch mit folgenden Punkten: die Natur der Logik
und der logischen Form; Wahrscheinlichkeit; der Begriff der Zahl; Induktion und Kausalität;
der Zweck der Philosophie; Solipsismus; Fragen zu Ethik, Religion und Leben. Die meisten
dieser Themen werden sehr kurz behandelt, so dass die Kommentare dazu aphoristisch und
dunkel erscheinen.“50
Die Kürze der Darstellung erfordert zwar hohe Konzentration beim Lesen und Nachvollziehen, und
mag an einigen Stellen das Verständnis erschweren, aber dunkel kann man den Text eigentlich nicht
nennen. Offensichtlich handelt es sich um eine Vielzahl interessanter philosophischer Themen, die
in klarer Sprache und zudem in einer innovativen übersichtlichen Textstruktur behandelt werden.
Daher hätte der TLP eigentlich eine überaus bedeutsame langfristige Wirkung in der
philosophischen Diskussion erzielen können. Dies war allerdings nur bedingt der Fall:
„Dem Tractatus war ein eigenartiges Schicksal beschieden. Er wird eher als ein Werk von
historischem Interesse behandelt denn als eine denkerische Arbeit, mit der man sich ebenso
kritisch auseinandersetzt wie mit anderen philosophischen Werken. Er wird oft erläutert,
erklärt und interpretiert, aber nur selten wird er einer ernsthaften Kritik unterzogen. Dafür
gibt es gute Gründe. Hauptsächlich hat das mit der Stellung des Tractatus in Wittgensteins
philosophischer Entwicklung zu tun. Es handelt sich um ein Frühwerk, das von seinem
Autor selbst später zurückgewiesen wurde. Wittgenstein baute sogar auf der Verwerfung der
zentralen Thesen des Tractatus seine spätere Philosophie auf. Daher setzt man sich nur mit
wenigen Thesen dieses Werkes noch zustimmend oder ablehnend auseinander. Die
50
Grayling, A.C.: Wittgenstein - Freiburg im Breisgau: Herder Verlag, 1999, S. 45
55
Kommentatoren sehen zwar die Notwendigkeit, diese Schrift zu erklären, aber die
Notwendigkeit einer kritischen Bewertung sehen sie in der Regel nicht.“51
Grayling beschreibt hier leider korrekt, wie mit dem Tractatus innerhalb der Philosophie52 heute
meistens umgegangen wird. Die Gründe, die er dafür angibt, dass es sich so verhält, sind jedoch
eigentlich zu schwach, um die Tatsache wirklich zu erklären, dass trotz der starken Wirkung auf den
Wiener Kreis das Werk heute wieder weniger beachtet wird. Wieso sollte man in der Philosophie
ein Werk, von dem der Autor später einiges für falsch hielt, nicht mehr ernst nehmen, während man
es ansonsten gewohnt ist und für ganz normale philosophische Praxis hält, 2500 Jahre alte Texte,
die definitiv aus heutiger Sicht viele fehlerhafte Ansichten enthalten, ernsthaft zu untersuchen?
Wenn die prinzipielle Möglichkeit besteht, dass der Autor sich geirrt hat, wieso soll er sich dann
genau bei der Niederschrift seines ersten Werkes und nicht stattdessen bei der Revision seiner ersten
Thesen geirrt haben? Wittgensteins zweite Schaffensphase kann nicht ernsthaft der Grund sein,
warum sein erstes Werk nicht mehr so viel Aufmerksamkeit erhält. Ich denke, dass es sich eher so
verhält, dass die Feinheiten der Argumentation des Tractatus nur schwer zu verstehen und selbst in
philosophischen Kreisen nur für wenige Leser interessant sind. Das liegt daran, dass man eigentlich
zuerst Russells Principia Mathematica lesen muss, da Wittgenstein zu seiner frühen Position vor
allem in Abgrenzung von Russells und Freges Vorstellungen gelangt. Die Principia Mathematica zu
lesen, ist jedoch aufgrund der verwendeten eigenwilligen Symbolik, die nicht mit derjenigen
übereinstimmt, die man heute in Zusammenhängen der formalen Logik verwendet, ein extrem
mühsames Unterfangen. Natürlich kann man aufgrund seiner klaren Struktur und Sprache die
Grundkonzeption des TLP auch verstehen, ohne mit Russells und Freges philosophischem Ansatz
oder Philosophie im Allgemeinen besonders vertraut zu sein, aber dann entgehen einem die vielen
kleinen Anspielungen auf diverse philosophische Autoren und Positionen, die neben der Klarheit
der Sprache und der Struktur die sprachliche Eleganz des Tractatus ausmachen. Selbst wenn die
Abbildtheorie des Tractatus nicht ganz richtig ist, wird sich zeigen, dass sie den Gesetzmäßigkeiten
der neuronalen Realisierung von Sprache näher kommt als viele andere Theorien. Sie und den
gesamten Tractatus aufgrund von Wittgensteins Veränderung des Blickwinkels auf die Sprache in
den Philosophischen Untersuchungen zu ignorieren, wäre überaus verfehlt. Es scheint mir aber
zudem noch weitere Gründe zu geben, warum der TLP bisher nicht die Beachtung bekommen hat,
die er verdient hätte. Die meisten philosophisch interessierten Leser erwarten von der Philosophie
Problemlösungen für die „wichtigen Fragen des Lebens“ und halten es daher für enttäuschend oder
sogar vollkommen inakzeptabel, wenn ihre Lebensprobleme nicht nur nicht gelöst werden, sondern
51
52
Grayling, A.C.: Wittgenstein - Freiburg im Breisgau: Herder Verlag, 1999, S. 67/68
Außerhalb der philosophischen Fachdiskussion ist der TLP relativ unbekannt geblieben.
56
als prinzipiell sprachlich unlösbare Scheinprobleme zurückgewiesen werden. Zudem darf man die
revolutionäre Wirkung, die die Akzeptanz einiger Inhalte des Traktats auf die universitären
Strukturen im Fachbereich Philosophie gehabt hätte, nicht unterschätzen. Wenn man Wittgensteins
Vorstellungen von der Leistungsfähigkeit der Philosophie umgesetzt hätte, hätten sich Professoren,
deren Fachgebiete in den Bereichen Ethik, Ästhetik und Metaphysik lagen, auf einmal zur
Umschulung gezwungen gesehen:
6.42
Darum kann es auch keine Sätze der Ethik geben. Sätze können nichts Höheres
ausdrücken.
6.421
Es ist klar, dass sich die Ethik nicht aussprechen lässt. Die Ethik ist
transzendental. (Ethik und Ästhetik sind Eins.)
6.53
Die richtige Methode der Philosophie wäre eigentlich die: Nichts zu sagen, als
was sich sagen lässt, also Sätze der Naturwissenschaft – also etwas, was mit
Philosophie nichts zu tun hat -, und dann immer, wenn ein anderer etwas
Metaphysisches sagen wollte, ihm nachzuweisen, dass er gewissen Zeichen in
seinen Sätzen keine Bedeutung gegeben hat. Diese Methode wäre für den
anderen unbefriedigend – er hätte nicht das Gefühl, dass wir ihn Philosophie
lehrten – aber sie wäre die einzig streng richtige.53
Es lag also auch an den unerwünschten sozialen Folgen, dass der Tractatus nicht ernst genommen
werden durfte. Dazu kommt jedoch noch, dass die geringe Anzahl noch verbliebener potentieller
Leser, wie zum Beispiel die Mitglieder des Wiener Kreises, Probleme mit Wittgensteins Erwähnung
des „Mystischen“ hatten. Wittgenstein setzt sich also mit seinem ersten Werk inhaltlich konsequent
zwischen alle Stühle. Wie verhält es sich aber mit der formalen Seite des Buches?
Der gesamte Text des Traktats ist durch seine Nummerierung strukturiert. Es gibt sieben
Hauptsätze, von denen die ersten Sechs erklärt werden. Die Erklärungen der Hauptsätze (Die Sätze
1.1 und 1.2 erklären Satz 1. Die Sätze 2.1 und 2.2 erklären Satz 2, usw.) werden dann wiederum
erklärt (von den Sätzen 1.11, 1.12, 1.13, 1.21, usw.). Die Menge der Erklärungen zu jedem
Unterpunkt ist dabei angepasst an die inhaltliche Komplexität des jeweiligen Punktes und somit
sehr unterschiedlich. Dadurch kann man den Text nicht nur wie einen gewöhnlichen Text als
Ganzes lesen, sondern auch jederzeit die Erklärungen auf allen niedrigeren Stufen weglassen, die
man gerade nicht benötigt (z.B. könnte man nur 3.1, 3.2, 3.3, 3.4 und 3.5 als Erklärung von 3 lesen,
aber alle weiteren Erklärungen dieser Unterpunkte unbeachtet lassen). Die dadurch ermöglichten
53
TLP, S. 83 und S. 85
57
Nutzungsmöglichkeiten des Textes erinnern stark an die Möglichkeiten, die uns heutzutage in
computerbasierten Hypertexten zur Verfügung stehen. Man kann aufgrund Wittgensteins
zahlenbasierter Strukturierung viel leichter im Text „herumspringen“ als in einem herkömmlichen
Text, und beliebig entscheiden, an welchen Stellen man ins Detail gehen möchte und an welchen
Stellen nicht.
3.3.2 Die Bildtheorie
Wittgensteins Bildtheorie der Bedeutung, die er im Tractatus darstellt und vertritt, überzeugt nicht
nur durch ihre sprachliche Klarheit und Struktur, sondern auch in vielen inhaltlichen Punkten noch
heute. Im Gegensatz zu anderen philosophischen Werken lassen sich die Thesen des Tractatus sehr
leicht mit aktuellen neuropsychologischen Erkenntnissen vereinbaren, statt durch sie überholt zu
wirken, weil Wittgenstein versuchte, die Psychologie vollkommen aus seiner Argumentation
herauszuhalten. Stattdessen argumentiert er nur über die Strukturisomorphie von Sprache und Welt.
Die Bildtheorie wird von ihm in vier Schritten entwickelt. Nach seinen Ausführungen über die
Beschaffenheit der Welt (TLP 1 – 2.063) analysiert Wittgenstein zunächst unsere Praktiken der
Abbildung der Welt (TLP 2.1 ff.). Er scheint hauptsächlich an Abbildungen durch Malen oder
Zeichnen zu denken, aber die Ausführungen sind so allgemein, dass sie für viele weitere Formen
der Abbildung genauso zutreffen. In einem dritten Schritt kommt er dann zu der These, dass wir mit
Sprache eben genau dasselbe machen wie beim Malen, nämlich die Welt abzubilden versuchen.
Dabei widmet er sich zunächst dem Gedanken als Bild der Tatsachen (TLP 3 ff.), bevor er aufgrund
der Gleichheit von Gedanken und sinnvollen Sätzen dazu übergeht, Sätze und ihre abbildende
Funktion näher zu untersuchen (TLP 4 ff.).
Ich betrachte nun zunächst seine allgemeinen Überlegungen zur Funktionsweise von Bildern:
3.3.2.1 Die Funktionsweise von Bildern
2.1
Wir machen uns Bilder der Tatsachen.
2.11
Das Bild stellt die Sachlage im logischen Raume, das Bestehen und
Nichtbestehen von Sachverhalten vor.
2.12
Das Bild ist ein Modell der Wirklichkeit.
2.13
Den Gegenständen entsprechen im Bilde die Elemente des Bildes.
58
2.131
Die Elemente des Bildes vertreten im Bild die Gegenstände.
2.14
Das Bild besteht darin, dass sich seine Elemente in bestimmter Art und Weise zu
einander verhalten.54
Zunächst identifiziert Wittgenstein hier das Erschaffen von Bildern als generell menschliche
Tätigkeit, ohne genau auszuführen, warum wir Bilder eigentlich für nützlich halten. Offensichtlich
sind Bilder für uns nützlich zur Kommunikation von Wissensbeständen und zur Handlungsplanung
in den verschiedensten Bereichen, sei es als Landkarte zur Routenplanung, als Bauplan, der dem
Baupersonal ermöglicht, die Ideen des Architekten umzusetzen, oder als Skizze zur Visualisierung
beliebiger Problemstellungen. Daher führt er dies nicht aus, sondern beschreibt direkt die
Funktionsweise von Bildern. Ein Bild besteht aus mehreren Elementen, die die zugehörigen
Elemente der Welt (die Gegenstände) vertreten. Es gibt also eine Zuordnung zwischen den
Bildelementen und den Elementen des abgebildeten Ausschnitts der Welt. Darüber hinaus stehen die
Elemente des Bildes untereinander in den gleichen Relationen wie die Gegenstände der Welt
untereinander. Wenn man weiß, dass er vorhat, die Funktionsweise von Wörtern und Sätzen analog
zu seiner Theorie der Bilder zu erklären, sieht man schon hier, dass manche Wörter den
Bildelementen und damit den Gegenständen entsprechen werden, während die kompletten Sätze die
Relationen zwischen ihren Elementen darstellen, und somit kompletten Bildern und Sachverhalten
in der Welt entsprechen werden.
Da er weiter hinten in seiner Abhandlung den Wahrheitsbegriff bezüglich seiner Bildtheorie der
Sprache diskutieren wird, nimmt er ihn auch hier schon in Bezug auf Bilder in den Blick, um die
Analogie zu vervollkommnen:
2.223
Um zu erkennen, ob das Bild wahr oder falsch ist, müssen wir es mit der
Wirklichkeit vergleichen.
2.224
Aus dem Bild allein ist nicht zu erkennen, ob es wahr oder falsch ist.
2.225
Ein a priori wahres Bild gibt es nicht.55
Man kann ihm hier vorwerfen, die Analogie etwas zu übertreiben, weil er beim Schreiben dieser
Textstelle natürlich schon weiß, dass er im weiteren Verlauf des Textes darauf hinaus will, dass
Sätze genauso die Welt abbilden, wie Bilder es tun. Denn wir sind normalerweise nicht geneigt, in
Bezug auf Bilder überhaupt von „Wahrheit“ zu reden. Entweder wir erkennen den auf dem Bild
dargestellten Sachverhalt wieder, ohne dass uns gesagt werden muss, was da abgebildet wurde, oder
54
55
TLP, S. 14/15
TLP, S. 17
59
wir erkennen es zumindest, nachdem es uns gesagt wurde. In diesen beiden Fällen würden wir ein
Bild wohl „gelungen“ nennen, aber eigentlich nicht „wahr“. Darüber hinaus gibt es noch den Fall,
dass wir von einem Bild wissen, was es abbilden sollte, es aber „misslungen“ nennen und einige
Korrekturen vorschlagen würden, damit es seinen Zweck der Abbildung doch noch erfüllen kann.
Wenn man jedoch an eine fehlerhafte Skizze denkt, mit deren Hilfe jemand einen bestimmten Ort
hätte finden sollen, kommen sich die Begriffe „misslungen“ und „falsch“ in ihrer Anwendbarkeit
schon relativ nah.
Wenn wir Wittgenstein hier also erst einmal folgen und „Wahrheit“ auch als akzeptablen Begriff zur
Bewertung von Bildern ansehen, finden wir einen Einwand gegen Freges Wahrheitsbegriff
vorgezeichnet, der bei der Behandlung von Wittgensteins Wahrheitsbegriff in Bezug auf Sätze noch
genauer formuliert werden wird. Es handelt sich dabei um den gleichen Punkt, den ich im 2. Kapitel
bei der Behandlung von Freges Bedeutungstheorie sowohl mit formalen als auch mit inhaltlichen
Argumenten kritisiert habe. Denn es ist klar, dass die Wahrheit eines Bildes nur durch den Vergleich
des Bildes mit dem abgebildeten Weltausschnitt festgestellt werden kann.
Bevor ich nun zu Wittgensteins analoger Analyse der Funktionalität von Gedanken und Sätzen
komme, möchte ich noch einen kleinen Exkurs anlässlich des oben zitierten Textabschnitts 2.225
machen. Es handelt sich dabei um eine von den vielen Randbemerkungen im Tractatus, die
philosophisch noch relativ unbeachtet geblieben sind, obwohl sie den gemeinhin akzeptierten
Lehrsätzen der philosophischen Tradition widersprechen:
3.3.2.2 Wittgenstein gegen Kant
2.225
Ein a priori wahres Bild gibt es nicht.
3.04
Ein a priori richtiger Gedanke wäre ein solcher, dessen Möglichkeit seine
Wahrheit bedingte.
3.05
Nur so könnten wir a priori wissen, dass ein Gedanke wahr ist, wenn aus dem
Gedanken selbst (ohne Vergleichsobjekt) seine Wahrheit zu erkennen wäre.56
Wittgenstein formuliert in Abschnitt 3 ziemlich knapp, ohne die komplette Aussage für Bilder aus
2.225 für Gedanken exakt genauso zu wiederholen. Die Analogie ist jedoch offensichtlich und der
analoge Satz „Einen a priori wahren Gedanken gibt es nicht.“ wird durch die Formulierung im
56
TLP, S. 17
60
Irrealis impliziert. Wenn man weiter bedenkt, dass Wittgensteins Analyse ergibt, dass Bilder,
Gedanken und Sätze genau gleich funktionieren, finden wir hier zwischen den Zeilen die
provokante These „Einen a priori wahren Satz gibt es nicht.“
Wie sind dann aber die Sätze, die normalerweise als Beispiele für a priori gültige Sätze angeführt
werden, zu deuten? Betrachten wir das klassische Beispiel „Junggesellen sind unverheiratete
Männer“. Nun gibt es zwei Anwendungsfälle für einen solchen Satz, die man streng unterscheiden
sollte: Im uninteressanteren Fall handelt es sich um eine Begriffsdefinition für einen Sprecher, der
den Begriff „Junggeselle“ bisher nicht kannte. Dann versucht man mit diesem Satz eher folgendes
auszudrücken: „Das Wort „Junggeselle“ bezeichnet im Deutschen dasselbe wie „unverheirateter
Mann“. Dieser Satz ist kein a priori gültiger Satz, sondern eine Definition. Unter einer Definition
versteht man die Festsetzung einer Wortbedeutung. Ein bisher unbekanntes Wort wird über
bekannte Wörter erklärt. Ein solcher Satz ist also nicht a priori gültig, sondern informiert über eine
neue oder zumindest einem Sprecher bisher unbekannte willkürliche Festlegung.
Widmen wir uns also dem interessanteren Fall und nehmen an, es handele sich um einen Satz,
dessen Bedeutungsbestandteile allen Beteiligten bekannt sind. Dann scheint es sich um einen a
priori wahren Satz zu handeln. Wir müssen keine Untersuchungen in der Welt durchführen, um
seinen Wahrheitswert zu wissen. In Wahrheit handelt es sich allerdings überhaupt nicht um einen
Satz. Ein Sprecher, der den Begriff „Junggeselle“ versteht, übersetzt ihn automatisch gemäß seiner
Definition als „ein Mann, für den das Attribut „unverheiratet“ gilt“. Also ergibt sich als formale
Satzstruktur:
F(a), wobei F für ein Attribut und a für einen Gegenstand des Gegenstandsbereichs steht, dem das
Attribut zugesprochen wird.
Die Struktur des Beispielsatzes lautet also:
unverheiratet(Junggeselle)
Aufgrund der Definition von Junggeselle [Junggeselle:= unverheiratet(Mann)] erhalten wir durch
Einsetzung die folgende Satzstruktur:
unverheiratet(unverheiratet(Mann))
Dazu sind zwei Interpretationen möglich:
Der Gegenstandsbereich (der Junggesellen), dessen Objekten nun allen das Attribut „unverheiratet“
zugesprochen wird, wird bereits über genau dieses Attribut als Gegenstandsbereich definiert. Oder
allen Objekten des Gegenstandsbereichs (der Männer) wird zunächst das Attribut „unverheiratet“
und dann das Attribut „unverheiratet“ zugesprochen, was zweimal dasselbe ist.
Es wird also überhaupt nichts neues, oder anders betrachtet zweimal genau dasselbe ausgesagt.
61
Insofern könnte man eher von philosophischem Stottern reden als von a priori wahren Sätzen. Wenn
einem jemand zweimal genau dasselbe mitteilt, dann kann man beim zweiten Mal natürlich sagen,
dass man dies bereits vorher wusste. Aber diese Trivialität kann nicht als Rechtfertigung dienen, die
Unterscheidung zwischen a priori und a posteriori wahren Sätzen aufrecht zu erhalten. Mittlerweile
ist Kants Einteilung der Sätze in a priori und a posteriori wahr oder falsch aus verschiedenen
anderen Gründen, unter anderem auch von Quine, kritisiert worden. Diese Unterscheidung war
jedoch
eine
wichtige
Grundannahme
von
Freges
problematischen
Überlegungen
zu
Identitätssätzen57 und wird bedenklicherweise auch heute noch oft in der philosophischen
Diskussion argumentativ verwendet.
3.3.2.3 Sätze als Bilder der Wirklichkeit
Wittgenstein schlägt nun den Bogen zu unseren sprachlichen Sätzen, die er für Bilder der
Wirklichkeit hält, über den „Gedanken“, den er als eine Art inneres Bild, oder besser gesagt als
Grundlage unseres abbildenden Umgangs mit der Welt überhaupt versteht.
3
Das logische Bild der Tatsachen ist der Gedanke
3.001
„Ein Sachverhalt ist denkbar“ heißt: Wir können uns ein Bild von ihm machen.
3.01
Die Gesamtheit der wahren Gedanken sind ein Bild der Welt.58
„Gedanke“ wird dabei keinesfalls als ein metaphysischer Begriff benutzt, wie ihn zum Beispiel
Frege in Anlehnung an Platons Reich der Ideen verwendet. Es ist keine Entität damit gemeint, die in
einem anderen Reich jederzeit existiert und die verschiedene Personen in irgendeinem Sinne zu
verschiedenen Zeitpunkten oder auch gleichzeitig „erfassen“ können. Es ist ein Begriff, der
aufgrund des geringen Kenntnisstandes innerhalb der Psychologie seiner Zeit zwangsläufig relativ
unbestimmt hätte bleiben müssen. Wittgenstein blendet jedoch ganz bewusst jedwede
psychologische Erklärung aus. Die Gesetzmäßigkeiten unseres Geistes werden im Tractatus nur
indirekt über die prinzipiellen Erfordernisse für die Realisierung von Sprache thematisiert. Seine
Theorie ist somit offen für eine psychologische Interpretation, die die neuronale Realisierung der
Sprachprozesse genauer spezifiziert. Der „Gedanke“ ist also zunächst als unser (wie auch immer
realisiertes) inneres Bild von den Sachverhalten zu verstehen, welches er später gleichsetzt mit
unserem sprachlichen Bild von den Sachverhalten:
57
58
Vgl. Kap. 2.3 und 2.4
TLP, S. 17
62
4
Der Gedanke ist der sinnvolle Satz.
4.01
Der Satz ist ein Bild der Wirklichkeit.
Der Satz ist ein Modell der Wirklichkeit, so wie wir sie uns denken.59
Durch die Gleichsetzung von Gedanke und Satz wird die Strukturanalogie zwischen Welt und Satz
komplett gemacht. Gedanken sind demnach Sätze, die nur nicht aufgeschrieben oder ausgesprochen
wurden, sozusagen die innerliche Version, die jederzeit in optisch oder akustisch wahrnehmbare
Sätze transformiert werden kann. Sätze sind für Wittgenstein von ihrer logischen Struktur her
genauso Bilder der Wirklichkeit, wie die Gedanken es sind. Sie sind nur die frei zugängliche
Version derselben Bilder. Wenn man die Sätze mit entwickelten Fotografien vergleicht, könnte man
die Gedanken mit den Daten auf einer Digitalkamera vergleichen, deren Anzeige defekt ist.
Während die entwickelten Fotos betrachtet werden können, kann man die digitalen Daten nicht
sehen. Sie sind aber genauso vorhanden und können zu normalen Fotografien entwickelt werden.
4.03
Ein Satz muss mit alten Ausdrücken einen neuen Sinn mitteilen.
Der Satz teilt uns eine Sachlage mit, also muss er wesentlich mit der Sachlage
zusammenhängen.
Und der Zusammenhang ist eben, dass er ihr logisches Bild ist.
Der Satz sagt nur insoweit etwas aus, als er ein Bild ist.
4.05
Die Wirklichkeit wird mit dem Satz verglichen.
4.06
Nur dadurch kann der Satz wahr oder falsch sein, indem er ein Bild der
Wirklichkeit ist.60
Nun nimmt Wittgenstein wieder Bezug auf das, was er bei der Besprechung der Funktionsweise der
Abbildung entwickelt hat. Die Bestandteile der Sprache funktionieren genau wie die Bestandteile
des Bildes. Die Namen vertreten die Gegenstände und die anderen Wörter beschreiben die
Relationen, die zwischen den Gegenständen bestehen. Der Satz teilt den Gedanken einer Person
einer anderen Person mit. Das innere Bild wird übertragen, so dass nun die andere Person ebenfalls
eine Vorstellung davon hat, wie es sich in der Welt verhält. Die Wahrheit eines Satzes kann genau
wie bei einem Bild wieder nur über den Vergleich mit dem entsprechenden Weltausschnitt ermittelt
werden. Dass der Satz überhaupt „wahr“ oder „falsch“ genannt werden kann, liegt nach
Wittgenstein daran, dass er genauso wie ein Bild die Welt abbildet. Doch schauen wir uns den
Wahrheitsbegriff in Abgrenzung zu Frege noch genauer an:
59
60
TLP, S. 30
TLP, S. 36-38
63
3.3.3 Der Wahrheitsbegriff
4.024
Einen Satz verstehen, heißt, wissen was der Fall ist, wenn er wahr ist.
(Man kann ihn also verstehen, ohne zu wissen, ob er wahr ist.)
Man versteht ihn, wenn man seine Bestandteile versteht.
4.025
Die Übersetzung einer Sprache in eine andere geht nicht so vor sich, dass man
jeden Satz der einen in einen Satz der anderen übersetzt, sondern nur die
Satzbestandteile werden übersetzt.
(Und das Wörterbuch übersetzt nicht nur Substantiva, sondern auch Zeit-,
Eigenschafts- und Bindewörter etc.; und es behandelt sie alle gleich.)
4.026
Die Bedeutungen der einfachen Zeichen (der Wörter) müssen uns erklärt
werden, dass wir sie verstehen.
Mit den Sätzen aber verständigen wir uns.
4.064
Jeder Satz muss schon einen Sinn haben; die Bejahung kann ihn ihm nicht
geben, denn sie bejaht ja gerade den Sinn. Und dasselbe gilt von der
Verneinung, etc.61
Wittgenstein zeigt hier auf, dass die Wahrheit eines Satzes und das Verständnis des Satzes
unabhängig voneinander sind. Man kann einen Satz verstehen, ohne den Wahrheitswert zu kennen.
Warum ist das so? Man versteht einen Satz, wenn man alle Wörter des Satzes versteht. Das heißt
also, dass man versteht, welche Gegenstände erwähnt werden, welche Eigenschaften diese haben,
und in welchen Relationen sie stehen. Die Übersetzungsargumentation zeigt treffend, dass für die
Bedeutung das Prinzip der Kompositionalität gilt. Man muss nur die Bedeutung aller Wörter
verstehen, um eine Übersetzung durchzuführen. Ebenso muss man als Kind nur die Wörter der
Muttersprache lernen. Die Sätze werden nicht gelernt, sondern die erlernten Wörter werden dem
Kommunikationsziel entsprechend immer unterschiedlich zu Sätzen zusammengestellt. Wenn man
einen Satz versteht, könnte man also ein anderes Bild „malen“, das exakt denselben Sachverhalt,
also dieselbe Gegenstandskonstellation abbildet, sei es mit anderen Wörtern, in einer anderen
Sprache, wirklich mit einem Pinsel malend, oder skizzierend mit einem Stift. Die Bejahung und die
Verneinung aber sind Handlungen, die auf Sätze angewendet werden können, deren Bedeutung man
bereits erfasst hat. Diese Handlungen besagen dann, dass das Bild, das ein Satz malt, die Welt
61
TLP, S. 28 und S. 31
64
richtig oder falsch abbildet.
Für meine Bedeutungstheorie möchte ich daher von der Betrachtung des Tractatus insbesondere
folgende Punkte festhalten: Die Bildtheorie ist in sich schlüssig und die behauptete
Strukturisomorphie zwischen Sprache und Welt lässt sich gut durch die Adaption neuronaler Netze
an die Struktur der Messwerte aus der Umwelt erklären. Die Kompositionalität der Bedeutung muss
in jeder Theorie gewährleistet sein, da sie ein offensichtliches Phänomen der Sprache darstellt. Und
die Beschäftigung mit der Wahrheit eines Satzes stellt ein dem Verständnis der Satzbedeutung
nachgeordnetes Phänomen dar.
65
3.4 Bildtheorie oder Gebrauchstheorie?
3.4.1 Welchen Ansatz benötigen wir für eine neuropsychologische Bedeutungstheorie?
Die Ergebnisse bezüglich paralleler Aktivierung von Neuronen bzw. Neuronenverbänden in
verschiedenen Gehirnarealen und unterschiedlichen Funktionsbereichen lassen sich viel besser mit
der Bildtheorie des Tractatus als der Gebrauchstheorie der Philosophischen Untersuchungen
vereinbaren. Innerhalb der Gehirnareale der sensorischen Verarbeitung kodiert ein bestimmtes
neuronales Aktivitätsmuster einen bestimmten Messwert aus der Umwelt (das nennt man in der
Neuropsychologie eine „neuronale Repräsentation“). Zum Beispiel führt die visuelle Wahrnehmung
eines Baumes zu einer ganz spezifischen neuronalen Aktivität. Die Signaleingänge von der
Netzhaut werden in Bereichen mit ansteigender Spezialisierung immer weiter hinsichtlich Form,
Farbe, Konturen und Bewegung analysiert. Das Endergebnis dieser Teilaspektanalysen wird dann
zusammengesetzt zu dem Bild, das wir bewusst wahrnehmen. Ebenso ruft die akustische
Wahrnehmung der Schwingungen der Stimmbänder eines Mitmenschen zur Äußerung des Wortes
„Baum“ eine ganz spezifische neuronale Aktivität hervor. Menschliche Gehirne haben (ebenso wie
die Gehirne einfacherer Organismen) die Eigenschaft, mehrfach gleichzeitig auftretende neuronale
Muster zu verknüpfen, das heißt, dass sie in späteren Fällen die jeweils anderen Neuronenverbände
aktivieren, wenn nur eins der beiden verknüpften neuronalen Muster auftritt. Diese basale
Eigenschaft von Gehirnen hat sich vor extrem langer Zeit entwickelt, da es für alle Organismen
einen evolutionären Vorteil darstellt, wenn sowohl positive als auch negative Umweltbedingungen
leichter wiedererkannt und dann entsprechend aufgesucht, bzw. gemieden werden können. Wenn
man zum Beispiel in der Lage ist, die Geräusche, die ein gefährliches Raubtier verursacht,
wiederzuerkennen und mit der visuellen Repräsentation der Gefahrenquelle zu verknüpfen, so kann
man, wenn man das nächste Mal solche Geräusche hört, schon Fluchtverhalten an den Tag legen,
bevor das Raubtier überhaupt in Sichtweite kommt. Das Lesen des Wortes „Baum“, das Hören
desselben gesprochenen Wortes und das Sehen eines Baumes, oder eines hinreichend detaillierten
Bildes eines Baumes führen also zu einer Aktivierung der jeweils anderen neuronalen
Verarbeitungsgebiete. Das erklärt nicht nur wohlbekannte Effekte, wie das Erlebnis des „inneren
Hörens“ der Worte beim Lesen, oder beim Betrachten eines Bildes, sondern auch Wittgensteins
selbstverständliche Annahme der Bildtheorie als Grundlage seiner Sprachphilosophie im Tractatus.
Die Wahrnehmungen von Objekten und Bildern werden nämlich in der Tat beim Erlernen der
Sprache mit den ihnen entsprechenden Wörtern auf neuronaler Basis verknüpft.
Die Besonderheit der Bildtheorie besteht darin, dass sie eine Strukturgleichheit von Sprache und
66
Welt postuliert. Diese in der Tat bestehende Strukturgleichheit basiert zum einen auf der gleichen
Realisierung unserer Wahrnehmung der Welt und unserer Sprache durch neuronale Verknüpfungen
(gleiche Bausteine ermöglichen gleiche Baustrukturen), und zum andern auf der direkten
Verknüpfung von neuronalen Repräsentationen von Wörtern mit den Repräsentationen von
Wahrnehmungen von Gegenständen. Eine solche physische Verknüpfung ermöglicht nicht nur
genau die Referenz oder Abbildung, wie Wittgenstein sie mit seiner Bildtheorie beschreibt, sondern
sie ermöglicht Aktivierungen in beide Richtungen, wie wir später noch sehen werden.
Während die Bildtheorie gut mit der Beschreibung der neuronalen Vorgänge zusammenpasst,
fokussiert Wittgenstein im Unterschied dazu mit der Gebrauchstheorie die äußerlichen Umstände
unserer Kommunikationssituation. Die Bedeutung von Wörtern wird demnach festgelegt durch den
üblichen gesellschaftlichen Gebrauch. Diese Beschreibung weicht zwar relativ stark von der
Bildtheorie des Tractatus ab, ist aber insofern nützlich, als sie unsere Aufmerksamkeit auf den
Prozess des Spracherwerbs zu lenken vermag. In vielen philosophischen Beschreibungen von
Sprachprozessen liegt die Problematik genau darin, dass die Sprache von erwachsenen Sprechern
als ein einheitliches Gesamtsystem betrachtet wird, und dadurch die ursprüngliche Situation des
kindlichen Spracherwerbs in diesen Theorien nicht als wichtiger Faktor der Modellbildung erfasst
wird. Die Gebrauchstheorie wird also für die neuropsychologische Bedeutungstheorie insofern
relevant werden, als sie den Spracherwerb, also die Phase der Entstehung der neuronalen
Strukturen, die die Sprachfähigkeiten realisieren, beschreibt.
3.4.2 Kein Verständnis der Sprachmechanismen ohne Psychologie
Es gibt also viele Stellen in Wittgensteins Werk, an denen durch theoretische Überlegungen Thesen
über die Funktionsweise der menschlichen Sprache aufgestellt werden, die sich heute durch
neuropsychologische Erkenntnisse bestätigt finden. Aus diesem Blickwinkel gesehen könnte man
sagen, dass die größte Veränderung zwischen Wittgensteins zwei philosophischen Ansätzen darin
bestand, dass er im Spätwerk die Psychologie nicht mehr bewusst ausklammern und die
Gesetzmäßigkeiten der Sprache rein analytisch finden wollte, sondern die Psychologie stattdessen
in den Mittelpunkt seiner Untersuchungen über die menschliche Sprache stellte. Obwohl auch
einige seiner Thesen in den PU im Widerspruch zum aktuellen Stand der Neuropsychologie stehen,
findet sich eine weitaus größere Anzahl durch sie bestätigt. So zeigt sich zumindest, dass die
Neuropsychologie auch in ihrem momentanen Entwicklungsstadium schon eine relevante
Wissensquelle und Vergleichsgröße darstellt, deren Aussagen man nicht ignorieren, sondern sich für
67
die philosophische Begriffsbildung zu Nutze machen sollte. Daher liegt es nahe, eine neue
Bedeutungstheorie auf neuropsychologischer Basis zu entwerfen, wie ich es im Verlauf dieser
Arbeit tun werde.
Eine ähnliche Grundidee, die ich in Kapitel 5 noch darstellen und analysieren möchte, findet sich
bereits bei Willard Van Orman Quine. Zuvor möchte ich jedoch noch eine von mir in
Auseinandersetzung mit Wittgensteins Thesen aus der Übergangszeit zwischen TLP und PU
entwickelte Fortführung der formalen Logik darstellen, mit der man Wittgensteins Probleme mit
Elementarsätzen auflösen kann.
68
4. Attributsskalenlogik
4.1 Ein Lösungsvorschlag für Wittgensteins Elementarsatzproblematik
In diesem Kapitel werde ich die Attributsskalenlogik, eine von mir entwickelte Verfeinerung der
Prädikatenlogik, vorstellen. Diese erlaubt es, bei der Formalisierung von Sätzen mehr von deren
inneren Struktur zu erfassen, als dies bisher möglich war. Die Idee zu dieser Weiterentwicklung
entstand anlässlich meiner parallelen Beschäftigung mit Optimierungsprozessen im Bereich der
Didaktik der Logik und Ludwig Wittgensteins Bildtheorie im Tractatus logico-philosophicus.
Obwohl die Attributsskalenlogik auch einen generell nützlichen Entwicklungsschritt für die
Sprachphilosophie und Logik darstellt, ist sie primär darauf ausgelegt, Wittgensteins
schwerwiegendes Problem mit den Elementarsätzen zu lösen. Daher soll Wittgensteins Problem,
welches darin bestand, dass er keine Beispiele für Elementarsätze angeben konnte, obwohl deren
Existenz aus seinem Ansatz logisch folgte, zunächst genau dargestellt werden.
Während viele der Thesen zur Funktionalität von Sprache im Tractatus auch heute noch gültig sind,
gibt es mindestens einen problematischen Teilbereich der in diesem Werk entwickelten Theorie.
Dieser wurde jedoch in der Rezeption von Wittgensteins Werk nicht als ein Problem aufgefasst,
welches man durch eine Erweiterung oder geringe Abwandlung der Theorie lösen könnte.
Stattdessen stellte man diesen Bereich als ein zentrales Problem der Bildtheorie dar und nahm ihn
zum Anlass, die gesamte Theorie zu verwerfen. Gemeint ist hier Wittgensteins Rede von den
„Elementarsätzen“, die per Definition die einfachsten Sätze darstellen, und aus denen alle
komplizierteren Sätze durch wahrheitsfunktionale Verknüpfungen gebildet werden.
Üblicherweise wird Wittgensteins alternativer Fokus in seiner Spätphilosophie als Rechtfertigung
angesehen, die Konzeption des Tractatus nicht weiter verfolgen zu müssen. Sein Aufsatz Some
Remarks on Logical Form von 1929 wird demgemäß in der Sekundärliteratur als erster Schritt
Wittgensteins auf dem Weg interpretiert, das System seines eigenen Frühwerks vollständig
abzulehnen. So schreibt zum Beispiel David Pears in seiner Darstellung des Frühwerks unter
anderem:
„One of the most revealing pieces of evidence will be his 1929 retractation of his earlier
extreme logical atomism. It is worth remarking incidentally that his own self-criticisms often
provide the necessary key to his earlier views.“62
62
Pears, David: The False Prison – A Study of the Development of Wittgenstein´s Philosophy, Oxford, 1987 S.73
69
„Another reason why this much discussed example 63 is so important is that it is one of the
points at which Wittgenstein began to change his mind in 1929. When he started to work out
the implications of the logical atomism of the Tractatus, he soon realized that they were
unacceptable.“64
Ich halte diese Art der Darstellung von Wittgensteins philosophischem Voranschreiten für verfälscht
durch die starke philosophiegeschichtliche Wirkung der Philosophischen Untersuchungen. Das
folgende Zitat belegt ebenso wie einige weiter unten angeführte, dass es Wittgenstein zu diesem
Zeitpunkt nur um Verfeinerungen und Korrekturen seiner im Tractatus dargelegten Theorie ging:
„It is, of course, a deficiency of our notation that it does not prevent the formation of such
nonsensical constructions, and a perfect notation will have to exclude such structures by
definite rules of syntax. These will have to tell us that in the case of certain kinds of atomic
propositions described in terms of definite symbolic features certain combinations of the T's
and F's must be left out. Such rules, however, cannot be laid down until we have actually
reached the ultimate analysis of the phenomena in question. This, as we all know has not yet
been achieved.“65
Versuchen wir daher die Zusammenhänge der Elementarsatzproblematik näher zu beleuchten, mit
denen Wittgenstein sich zu dieser Zeit beschäftigte. Friedrich Waismann, der zwischenzeitlich
Wittgensteins Ideen mitschrieb und sie für die Diskussion im Wiener Kreis sammelte, schreibt über
Elementarsätze in seinen eigenen Thesen, die um 1930 herum entstanden sind, folgendes:
„Dass es Elementarsätze gibt, ist keine Hypothese. Die Forderung der Existenz von
Elementarsätzen ist die Forderung, dass unsere Aussagen Sinn haben. Dass wir die Sätze
unserer gewöhnlichen Sprache verstehen, bürgt also schon dafür, dass es Elementarsätze
gibt. Die Elementarsätze sind das, was allen anderen Sätzen Sinn gibt. Wir können die Sätze
unserer Umgangssprache verstehen, ohne zu wissen, wie die Elementarsätze aussehen. So
wie wir die meisten Ausdrücke verstehen, ohne eine Kenntnis ihrer Definition zu haben,
oder wie wir uns bewegen, ohne zu wissen, wie jede einzelne Bewegung zustande kommt.
Man könnte fragen: Wie ist es möglich, dass wir die Sätze unserer Umgangssprache
63
Das „viel diskutierte Beispiel“, auf das in diesem Zitat Bezug genommen wird, stellt das Problem der logischen
Abhängigkeit der Farbsätze dar, welches weiter unten noch detailliert dargestellt wird.
64
Pears, David: The False Prison – A Study of the Development of Wittgenstein´s Philosophy, Oxford, 1987 S.83
65
Wittgenstein, Ludwig: "Some Remarks on Logical Form" in Proceedings of the Aristotelian Society, Suppl. vol. 9
(1929), S. 162-171, letzter Absatz
70
verstehen, wenn wir die Elementarsätze nicht kennen? Die Antwort lautet: Eine Regel
anwenden heißt nicht: um die Regel wissen. Wir können z. B. neue Zeichen einführen durch
Definition und wir können die schon bekannten Zeichen durch Definition zergliedern. In
diesem letzten Fall verdeutlicht uns nur die Definition den Sinn der Sätze. Diese selbst aber
können wir verstehen, ohne den Wortlaut der Definition zu kennen.“66
Wittgensteins Elementarsatzkonzeption stellt keinen empirischen Befund bezüglich des Vorgangs
des primären Spracherwerbs von Kindern dar. Genauso wenig handelt es sich um eine Hypothese,
auf deren Grundlage er seine Theorie entwickelt, sondern die Konzeption der Elementarsätze ist
eine rein logische Folgerung aus seinem Theorieansatz. Denn er fragt im Tractatus nicht danach,
wie unsere Sprache historisch entstanden sein könnte, oder wie jeder einzelne Sprecher sie in seiner
Kindheit erlernt, sondern setzt ihre Existenz einfach als gegeben voraus. Stattdessen nimmt er von
diesem bestehenden komplexen System ausgehend eine Systemanalyse vor. Da Sätze
unterschiedlich komplex aufgebaut sein können, muss er zu dem Schluss kommen, dass es
einfachere Bestandteile gibt, und dass man durch voranschreitende Vereinfachung irgendwann die
einfachsten Strukturen finden können muss, die er dann Elementarsätze nennt.
4.221
Es ist offenbar, dass wir bei der Analyse der Sätze auf Elementarsätze kommen
müssen, die aus Namen in unmittelbarer Verbindung bestehen. Es frägt sich hier, wie
kommt der Satzverband zustande.67
Es ist uns aus dem alltäglichen Umgang mit der Welt einsichtig, dass die Aussage korrekt ist, dass
man auf einfachere an ihrer Wirkung unterscheidbare Satzbestandteile stoßen muss, wenn man
komplexe Sätze analysiert. Denn es gilt für jede Strukturanalyse in Bezug auf jedes komplexe
System, dass man in der Komplexität kleinere Komponenten und deren wirksame Relationen
auffinden kann. Man könnte geradezu sagen, dass jede wissenschaftliche Erklärung eines
komplexen Systems über eine Beschreibung der Bestandteile und deren strukturbasierten
Wirkungen abläuft. Betrachten wir zum Beispiel ein Tier, so können wir seine Überlebensfähigkeit
darauf zurückführen, dass es über Mechanismen zur Bewegung und zum Stoffwechsel verfügt. Um
den Stoffwechsel zu erklären, verweisen wir auf die Zusammenhänge zwischen Atmung und
Verdauung. Die Atmung erklären wir anhand der Lungenbläschen und der Struktur der Lunge. Die
Funktionalität der Lungenbläschen wird wiederum erklärt durch die Struktur ihrer Zellbestandteile,
und immer so weiter bis hinunter zu Molekülen, Atomen und atomaren Bestandteilen. Lebewesen
66
67
Wittgenstein Werkausgabe Band 3, S. 233ff, Zitat S. 248
TLP, S. 38
71
und Sprachen sind jeweils komplexe Systeme, daher müssen sie in dieser Hinsicht gleichartig
funktionieren und somit auf diese Art analysierbar sein. Im schlimmsten Fall hätte man nur immens
viele solcher Bestandteile:
4.2211
Auch wenn die Welt unendlich komplex ist, so dass jede Tatsache aus unendlich
vielen Sachverhalten besteht und jeder Sachverhalt aus unendlich vielen
Gegenständen zusammengesetzt ist, auch dann müsste es Gegenstände und
Sachverhalte geben.68
Man könnte meinen, dass die Unauffindbarkeit von Elementarsätzen das Problem sei, an dem die
gesamte sprachphilosophische Konzeption des Tractatus scheitert, und dass diese Unauffindbarkeit
der Grund für Wittgensteins zweiten Ansatz in den Philosophischen Untersuchungen wäre.
Allerdings scheint mir dies am eigentlichen Problem vorbei zu gehen. Denn daran, „dass wir bei der
Analyse der Sätze schließlich auf Sätze kommen müssen, die eine unmittelbare Verbindung von
Gegenständen sind“69, hält er auch weiter fest, nachdem er die Probleme festgestellt hat, die seine
Theorie mit den weiter unten erläuterten „Farbsätzen“ bekommt.
Ein Grund, warum er die Form des Elementarsatzes nicht angeben zu können glaubt, besteht darin,
dass er unterschiedlich komplexe Relationen als Inhalt eines Elementarsatzes zulassen will. Es geht
zwar um die Abbildung einer unmittelbaren Verbindung von Gegenständen, aber die Menge der
beteiligten Gegenstände ist beliebig, und es gibt keinen Grund, eine Zahl für die beteiligten
Gegenstände einer Relation auszuzeichnen.
5.55
Wir müssen nun die Frage nach allen möglichen Formen der Elementarsätze a
priori beantworten. Der Elementarsatz besteht aus Namen. Da wir aber die Anzahl
der Namen von verschiedener Bedeutung nicht angeben können, so können wir auch
nicht die Zusammensetzung des Elementarsatzes angeben.
5.553
Russell sagte, es gäbe einfache Relationen zwischen verschiedenen Anzahlen von
Dingen (Individuals). Aber zwischen welchen Anzahlen? Und wie soll sich das
entscheiden? - Durch die Erfahrung? (Eine ausgezeichnete Zahl gibt es nicht.)70
68
TLP S. 38
TLP 4.221
70
TLP S. 65
69
72
Da sich Relationen formal durch ihre Stelligkeit, also die Menge der benötigten Objekte zwischen
denen eine Relation bestehen kann, unterscheiden, kann er keine allgemeine Form für
Elementarsätze angeben.
5.554
Die Angabe jeder speziellen Form wäre vollkommen willkürlich.71
Nun wäre die Unmöglichkeit der Angabe einer allgemeinen Form zwar unschön, aber kein Grund,
eine funktionierende Theorie zu verwerfen. Der eigentliche Kritikpunkt bestand ja darin, dass
Wittgenstein auch keine Beispiele für Elementarsätze angeben konnte, die allen seinen strukturellen
Anforderungen entsprachen. Die Frage ist jedoch, wieso er überhaupt von Relationen spricht, wo
doch die einfachsten Sätze der Prädikatenlogik nur Gegenständen Eigenschaften zuweisen und gar
keine Relationen zwischen Gegenständen thematisieren. Je nach formaler Schreibweise wird der
Unterschied zwischen Attributen und Relationen natürlich mehr oder weniger verwischt. Wenn man
Attribute als F(x) und Relationen als F(x,y) schreibt, dann scheint es da nur genau den numerischen
Unterschied zu geben, den es auch zwischen einer zweistelligen und einer dreistelligen Relation
[F(x,y) und F(x,y,z)] gibt. Doch falls man dies glaubt, lässt man sich von der Art der formalen
Notation täuschen. Um den Unterschied zwischen Eigenschaften und Relationen zu verdeutlichen,
überlegen wir, was wir in einem wissenschaftlichen Zusammenhang jeweils tun würden, um sie zu
bestimmen. Um eine Eigenschaft (wie zum Beispiel „Länge“ oder „Temperatur“ eines Gegenstands
a) zu bestimmen, würden wir eine Messung durchführen. Um eine Relation (wie zum Beispiel „a ist
wärmer als b“) zu bestimmen, würden wir zunächst Messungen an a und an b durchführen und dann
die Ergebnisse vergleichen.
Wir sehen also: Eine Eigenschaft ist das Ergebnis einer Messung72, während eine Relation das
Ergebnis eines Vergleichs von zwei oder mehr Messungen ist. Das sind fundamental
unterschiedliche Tätigkeiten und man kann ihre jeweiligen Ergebnisse unmöglich durch die jeweils
anderen Tätigkeiten erhalten. Nicht umsonst verfügen wir im Deutschen über die zwei Wörter
„Attribut“ und „Relation“. Diesen Wörtern entsprechen zwei unterschiedliche Verfahrensweisen zur
Bestimmung des jeweils von ihnen bezeichneten. Die gleichartige Schreibweise in der formalen
Darstellung und die gleichartige Behandlung von Attributen und Relationen in der Prädikatenlogik
erweisen sich daher als unangemessen und sollten aufgegeben werden. Genau diese Ungenauigkeit
71
TLP, S. 65
Eine wissenschaftliche Messung erfolgt stets mit speziellen Messinstrumenten, um Objektivität zu gewährleisten. Wir
verwenden jedoch auch ganz alltäglich ungenaue Eigenschaftsbegriffe, wie „groß“ oder „grün“ bei denen wir nur unsere
Wahrnehmungsorgane benutzen und wobei wir davon ausgehen, dass die Wahrnehmungsorgane unserer Mitmenschen
ausreichend ähnlich funktionieren, und in den jeweiligen Handlungszusammenhängen keine größere Genauigkeit
erforderlich ist.
72
73
in der formalen Bezeichnungsweise erschwert die Unterscheidung von Entitäten, die es zu
unterscheiden gilt, und war wahrscheinlich einer der Gründe für Wittgensteins Probleme.
Wenn man an Wittgensteins Bildtheorie denkt, dann liegt es in dieser Hinsicht ebenfalls näher, dass
auch ein sehr einfaches Bild eine Konstellation von Dingen, oder zumindest mehrere Eigenschaften
eines Gegenstands einfängt und nicht nur eine einzige Eigenschaft. Sobald man auch nur einen
einzigen Gegenstand mit absolut gleichmäßiger Oberfläche malt, hat man bereits seine Farbe und
seine Form dargestellt.
Diese beiden Punkte könnten eine Erklärung sein, warum Wittgenstein nicht auf die Eigenschaft als
elementarsten Bestandteil der Weltbeschreibung herunter geht, sondern Eigenschaften und
Relationen in dieser Hinsicht nur als verschiedene mögliche Ausprägungen eines „Prädikats“
ansieht.
Es spricht jedoch nichts dagegen, auf Relationen auf der untersten Ebene zu verzichten, denn die
Welt ist auch komplett beschrieben, wenn alle einzelnen Eigenschaften genannt wurden. Alle
Informationen über die Verhältnisse sind darin implizit enthalten. Wenn der Ort aller Gegenstände
mit Koordinaten angegeben ist, dann ist dadurch auch die Entfernung zwischen zwei Gegenständen
implizit gegeben. Wenn die räumliche Ausdehnung aller Gegenstände gegeben ist, dann sind auch
alle Größenverhältnisse implizit gegeben. Wir benutzen Relationsangaben nur, weil ihre Struktur
für manche unserer praktischen Handlungen nützlicher ist, aber sie enthalten keine zusätzlichen
Informationen
über
die
Welt.
Diese
Erkenntnis
wird
später
bei
der
Lösung
des
Elementarsatzproblems noch nützlich sein, wenn ich zeigen werde, dass sich Elementarsätze finden
und formalisieren lassen und sie immer die skalierte Messung von Eigenschaften bezeichnen.
Es geht mir keinesfalls darum zu zeigen, dass sich Relationen als Eigenschaften darstellen lassen,
oder dass Eigenschaften „primär“ gegenüber Relationen sind. In der Tat könnte man im Gegenteil
argumentieren, dass uns Relationen alltäglich wichtiger sind, oder schneller auffallen als
Eigenschaften. Man könnte manche Messungen von Eigenschaften stattdessen als Bildung von
Relationen zwischen Maßstab und gemessenem Objekt betrachten. 73 Darüber hinaus könnte man
darauf verweisen, dass uns die Erkennung von Eigenschaften mit unseren Wahrnehmungsorganen
immer nur möglich ist, wenn es mehrere unterscheidbare Ausprägungen gibt. 74 Dies könnte man
wiederum so auffassen, dass wir Eigenschaften nur aufgrund der Unterschiede zwischen den
Ausprägungen, also aufgrund von Relationen wahrnehmen können. Aber diese Diskussionen
73
Was für Längenmessungen noch eine plausible Interpretation darstellt, funktioniert jedoch bei anderen Messungen,
wie zum Beispiel beim Bestimmen von Gewicht, nicht so gut.
74
Denn ein Wahrnehmungsorgan, welches bei jedem Gegenstand genau die gleiche Eigenschaftsausprägung feststellen
würde, hätte evolutionsbiologisch betrachtet keinen Nutzen. Es würde keine unterscheidbaren Daten liefern, die
verschiedene Reaktionen ermöglichen würden, die wiederum die Überlebensfähigkeit des Organismus steigern könnten.
74
müssen wir an dieser Stelle nicht führen, denn für unsere Zwecke reicht es zu zeigen, dass die ganze
Welt vollständig beschrieben wäre, wenn alle Eigenschaftsausprägungen genannt würden. Wenn wir
nämlich keine Relationen zusätzlich zu den Eigenschaften zwingend benötigen, dann können wir
doch eine allgemeine Form der Elementarsätze angeben, was Wittgenstein aufgrund seiner
Gleichbehandlung von Eigenschaften und Relationen als „Prädikate“ unmöglich war. Wir
betrachten daher die drei Sätze:
1) „a ist 5kg schwer.“
2) „b ist 17kg schwer.“
3) „a ist leichter als b.“
Während die ersten beiden Sätze immer mein Wissen von der Beschaffenheit der Welt vermehren,
auch wenn mir der dritte Satz schon bekannt ist, kann dies der dritte Satz nur, falls mir mindestens
einer der ersten beiden Sätze unbekannt ist.75 Wenn uns jemand zunächst die ersten zwei Sätze
mitteilte und direkt im Anschluss daran den dritten Satz, dann wären wir irritiert, weil dieser Satz
uns überflüssig erscheint. Auf die Relationsangaben kann also in der Tat verzichtet werden, wenn
bereits alle Eigenschaften genannt sind.
Wittgenstein erstellte im Tractatus Wahrheitswerttabellen und erhellte damit die Zusammenhänge,
die wir heute in der Aussagenlogik behandeln. Gemäß seiner Bildtheorie beschreibt jeder
Aussagesatz einen Ausschnitt der Welt, er malt sozusagen ein Bild, das die Zustände in der Welt
widerspiegelt. Das Bild, das der Satz von der Welt malt, kann gelingen, aber auch zufällig oder gar
vorsätzlich misslingen. Ob ein Satz wahr ist, hängt eben davon ab, was in der Welt der Fall ist.
Daher gibt es zu jedem Satz zwei Fälle, eben den Fall, dass der Satz wahr ist, und den, dass er
falsch ist. Da wir normalerweise aber komplexe Satzgefüge bilden, die mehrere einfache Sätze
enthalten, entstehen dadurch 2n mögliche Wahrheitswertverteilungen für Satzgefüge aus n einfachen
Sätzen. Darüber hinaus kann man diese Sätze nicht nur aneinanderreihen, sondern auch noch
unterschiedlich zusammensetzen. Dazu verwenden wir in unserer Sprache verschiedene
Konjunktionen, denen in der formalen Analyse später einige der Junktoren entsprechen. Bereits für
die Verknüpfung von zwei Sätzen ergeben sich 16 unterschiedliche Junktoren, da zu allen vier
Wahrheitswertkonstellationen jeweils zwei Definitionsmöglichkeiten bestehen. Für mehrstellige
Junktoren ergeben sich daraus
(
2
2
n)
Möglichkeiten, für die wir bereits für n=3 keine eigenen
Bezeichnungen mehr in unserer Alltagssprache haben.
75
Selbst dann liefert der dritte Satz nur indirekt die ungenaue Information, dass a leichter als 17kg sein muss, oder im
anderen Fall, dass b schwerer als 5kg sein muss.
75
Wittgenstein zeigt die Wahrheitswertverteilungen für ein bis drei Sätze in TLP 4.31. Die mit den
Variablen p, q und r abgekürzten Sätze, die er dort verwendet, nennt er Elementarsätze:
p
q
r
p
q
p
W
F
W
W
F
F
W
F
W
W
F
W
F
W
F
F
W
W
W
F
W
F
F
F
W
F
W
F
W
W
F
F
W
F
Abbildung 5: Wahrheitstafeln für 1-3 Elementarsätze gemäß TLP 4.31
Erst später führt er aus, dass diese Zusammenhänge auch für nicht elementare Sätze gelten:
5.31
Die Schemata No. 4.31 haben auch dann eine Bedeutung, wenn »p«, »q«, »r«, etc.
nicht Elementarsätze sind. Und es ist leicht zu sehen, dass das Satzzeichen in No.
4.442, auch wenn »p« und »q« Wahrheitsfunktionen von Elementarsätzen sind, eine
Wahrheitsfunktion von Elementarsätzen ausdrückt.76
Dabei besteht eben sein späteres Problem darin, dass immer dann, wenn die verwendeten Sätze
nicht unabhängig voneinander sind, manche der Wahrheitswertverteilungen unmöglich sind. Und
das ist leider häufiger der Fall, als man meinen sollte, insbesondere bei potentiellen Kandidaten für
Elementarsätze, wie zum Beispiel den bereits erwähnten „Farbsätzen“:
„Der Gegenstand a (gegeben mit spezifischen Raumzeitkoordinaten) ist rot.“
Wenn wir zu diesem Satz p den folgendermaßen lautenden Satz q nehmen:
„Der Gegenstand a (gegeben mit denselben Raumzeitkoordinaten wie oben) ist blau.“,
76
TLP, S. 53
76
dann wissen wir, dass der Fall, in dem beide Sätze wahr sind, nicht eintreten kann. Die
Wahrheitswerttabelle ist an dieser Stelle also nicht belegt, was uns daran zweifeln lässt, dass es sich
um Elementarsätze handelt, denn Elementarsätze sollten logisch unabhängig voneinander sein:
4.211
Ein Zeichen des Elementarsatzes ist es, dass kein Elementarsatz mit ihm in
Widerspruch stehen kann.77
Logisch unabhängig voneinander zu sein bedeutet jedoch, dass die Belegungen des einen keinen
Einfluss auf die Möglichkeiten der Belegung des anderen haben können. Genau das ist aber bei den
beiden obigen Sätzen der Fall. Wenn der eine wahr ist, kann der andere nicht gleichzeitig wahr sein.
Im Gespräch mit Schlick und Waismann führt Wittgenstein am 2. Januar 1930 zum Thema
Elementarsätze aus:
„Ich hatte früher zwei Vorstellungen vom Elementarsatz, von welchen mir die eine richtig zu
sein scheint, wogegen ich mich in der zweiten vollkommen geirrt habe. Meine erste
Annahme war die, dass wir bei der Analyse der Sätze schließlich auf Sätze kommen müssen,
die eine unmittelbare Verbindung von Gegenständen sind, ohne Zuhilfenahme logischer
Konstanten, denn »nicht«, »und«, »oder« und »wenn« verbinden die Gegenstände nicht.
Daran halte ich auch jetzt fest.
Zweitens hatte ich die Vorstellung, dass die Elementarsätze unabhängig voneinander sein
müssten.
Die
vollständige
Weltbeschreibung
wäre
gleichsam
ein
Produkt
von
Elementarsätzen, die teils positiv, teils negativ sind. Hierin habe ich mich geirrt, und zwar ist
folgendes daran falsch:
Ich hatte Regeln für den syntaktischen Gebrauch der logischen Konstanten aufgestellt, zum
Beispiel »p.q«, und hatte nicht daran gedacht, dass diese Regeln etwas zu tun haben könnten
mit der inneren Struktur der Sätze. Falsch war an meiner Auffassung, dass ich glaubte, dass
sich die Syntax der logischen Konstanten aufstellen lasse, ohne auf den inneren
Zusammenhang der Sätze zu achten. So verhält es sich nicht. Ich kann z.B. nicht sagen: An
einem und demselben Punkt ist rot und blau zugleich. Hier ist das logische Produkt
unvollziehbar. Die Regeln für die logischen Konstanten bilden vielmehr nur einen Teil einer
umfassenden Syntax, von der ich damals noch nichts wusste.“78
77
78
TLP, S. 38
Wittgenstein Werkausgabe Band 3, S. 73/74
77
Wittgenstein gibt also seine Konzeption der Elementarsätze keinesfalls auf, weil er sie nun für
unhaltbar hält, sondern er problematisiert nur die Unabhängigkeitsforderung, die er für die
Elementarsätze aufgestellt hatte. Die allgemeinen Regeln zur Funktionsweise der Junktoren
erweisen sich als problematisch, wenn es einen inneren Zusammenhang zwischen den Sätzen gibt,
der jedoch nicht darin besteht, dass der eine Satz einfach genau die Negation des anderen Satzes
darstellt.
Das Problem liegt allerdings nicht in den bisher formulierten Regeln innerhalb des formalen
Systems begründet, sondern in den Regeln der Formalisierung. Wir müssten genauer unterscheiden
können, welche logischen Strukturen wir bei der Abbildung der Sätze unserer normalen Sprache in
unserem formalen System erhalten werden. Nur falls wir erlauben, dass beliebige Sätze der
Normalsprache mit beliebigen Variablen formalisiert werden, dann können diese Probleme
auftreten. Es gibt allerdings eigentlich keinen Grund, warum man die Symbolisierung mit
beliebigen Variablen erlauben sollte. Wir benötigen nur eine geeignete Regel, die uns dabei hilft, die
Problemfälle richtig zu handhaben. Ist es gerechtfertigt eine solche Regel einzuführen, oder spricht
etwas gegen solche speziellen Regeln der Formalisierung? Abgesehen von dem Wunsch, zugunsten
von mathematischer Eleganz möglichst wenige Regeln zu verwenden, spricht prinzipiell nichts
dagegen. Wenn wir den simplen Fall der Negation betrachten, dann sehen wir direkt, dass wir für
die Formalisierung in diesem Fall bereits eine spezielle Regel haben, die wir implizit immer
anwenden. Wenn wir aufgefordert würden, die Sätze
1) „Sprachphilosophie ist schwer verständlich.“
und
2) „Sprachphilosophie ist nicht schwer verständlich.“
im Sinne der Aussagenlogik formal darzustellen, dann würden wir sie nicht mit p und q bezeichnen,
sondern mit p und ~p.
Auch wenn wir die detailliertere Analyseform der Prädikatenlogik verwenden würden, dann würden
wir keinesfalls F(a) und G(a) [oder gar G(b)] als formale Analyse der obigen Sätze angeben,
sondern F(a) und ~F(a).
Das zeigt eindeutig, dass wir bei unserer logischen Analyse und der anschließenden formalen
Darstellung immer schon auf die Inhalte der vorkommenden Sätze achten. Dabei gibt es auch keine
scharfe Grenze, denn auch zwei oberflächlich unterschiedlich wirkende Sätze wie
1) „Karl spielt in diesem Spiel mit den schwarzen Schachfiguren.“
78
und
2) „Karl hat dieses Schachspiel eröffnet.“
würden wir eher nicht als F(a) und G(a) darstellen, sondern als F(a) und ~F(a).
Dies liegt daran, dass die Eröffnung einer Schachpartie immer vom Spieler mit den weißen Figuren
vorgenommen wird. Daher behaupten die obigen Sätze, insofern sie sich auf dieselbe Schachpartie
beziehen, auf etwas versteckte Art und Weise genau Gegenteiliges, was wir dann mit der
Formalisierung F(a) und ~F(a) einfangen würden.
Wir handeln also für den Fall der formalen Analyse von zwei Sätzen, von denen einer die Negation
des anderen ist, bereits nach einer speziellen Regel. Wir könnten also unsere Verfahrensweise
potentiell weiteren Regeln unterwerfen, falls uns dies nützlich wäre, um Wittgensteins Probleme mit
den Elementarsätzen zu lösen.
Der Fall der zwei Sätze über die zwei Farben am gleichen physikalischen Ort ist allerdings
offensichtlich komplizierter, denn es handelt sich bei diesen Sätzen nicht um wechselseitige
Negationen des jeweils anderen Satzes. Wenn wir wissen, dass etwas nicht rot ist, bedeutet das
nicht, dass wir wissen, dass es blau ist. Obwohl sie nicht unabhängig voneinander sind, insofern es
ausgeschlossen ist, dass die Sätze beide gleichzeitig wahr werden, können sie nicht als F(a) und
~F(a) geschrieben werden, da sonst Teile des Informationsgehalts verloren gingen. Die Aussage,
dass etwas blau ist, hat schließlich mehr Informationsgehalt als die Aussage, dass etwas nicht rot
ist.79 Trotzdem wäre es günstig, wenn sich der Zusammenhang der beiden Sätze in der formalen
Darstellung widerspiegeln würde. Dazu muss jedoch die Darstellung und die Analyseform
weiterentwickelt werden. Ebenso wie die Prädikatenlogik mehr von der Struktur eines Satzes
einfängt, als die Aussagenlogik es vermag, benötigen wir nun eine noch weiter entwickelte Logik,
die diese Strukturen unserer Sprache einfangen kann.
Ich betrachte nun zunächst, welche Strukturen in der Aussagenlogik und der Prädikatenlogik bisher
erfasst werden, um im Anschluss einen Vorschlag zur Erweiterung der formalen Logik zu machen,
der Wittgensteins Farbsatzproblem angemessen lösen kann und auch darüber hinaus nützlich zu sein
scheint.
79
Man könnte auch sagen, dass es sich nicht um kontradiktorische Gegensätze handelt, sondern um konträre. Die beiden
Sätze können nicht gleichzeitig wahr, aber sie können beide gleichzeitig falsch sein.
79
4.2 Moderne Logik
In dem philosophischen Teilgebiet, welches wir heute formale Logik nennen, versucht man, in dem
komplexen und scheinbar relativ beliebigen System Sprache immer wiederkehrende allgemeine
Strukturen zu finden und aufzuzeigen. Dazu verwendet man Symbole und gibt Regeln für die
legitimen Kombinationen von Symbolen und Regeln zum Erreichen gültiger Schlüsse an. Man
versucht so, eine konsistente Theorie formaler Schlüsse und Interpretationen zu erreichen. Die
Ergebnisse der formalen Logik finden außerhalb der philosophischen Textanalyse auch Anwendung
in der Mathematik und Elektrotechnik, insbesondere in der Computertechnologie. Der erste Schritt
bestand dabei in der Entwicklung der Aussagenlogik, die sich mit Aussagen, also zunächst
einfachen vollständigen Sätzen, und deren Kombinationsmöglichkeiten befasst.
4.2.1 Aussagenlogik
In der Aussagenlogik beschäftigen wir uns mit den Junktoren, mit denen wir einfache Sätze
miteinander verknüpfen, um komplexere Sätze zu erzeugen. Die Inhalte der einzelnen Sätze sind
beliebig und werden daher bei der Betrachtung der Wahrheitswerte der Satzkombinationen komplett
ignoriert und die gesamten Sätze nur mit jeweils einer einzigen Variable symbolisiert. Stattdessen
werden die Wahrheitswerte der Satzverknüpfungen nur aufgrund der Konstellation der beteiligten
Junktoren bestimmt. Diese Strukturanalyse ermöglicht uns zum Beispiel anzugeben, welche
Argumentstrukturen immer zu wahren Sätzen führen, so lange die verknüpften Sätze wahr sind,
oder welche Satzstrukturen immer falsch sind, unabhängig vom Wahrheitswert ihrer Teilsätze.
Dadurch sind wir in der Lage, bessere Argumente in philosophischen Texten vorzutragen und die
Argumente in Texten von anderen Autoren geschickter anzugreifen. Das ist möglich, indem wir
aufzeigen, dass das gesamte Argument an einer bestimmten anfechtbaren Prämisse hängt, die
vielleicht nicht einmal explizit angegeben wurde, oder indem wir zeigen können, dass die
Argumentstruktur selbst nicht ausreicht, um die gewünschten Schlüsse zu beweisen.
Die dadurch ermöglichten Analysen sind jedoch noch sehr grob. Denn bisher verfügen wir nur über
die folgenden Analyseeinheiten: Sätze, Wahrheitswerte und Junktoren.
80
4.2.2 Prädikatenlogik
In der Prädikatenlogik gehen wir daher einen Schritt weiter. Sie ermöglicht uns eine Analyse der
Strukturen innerhalb der Sätze, die wir in der Aussagenlogik immer nur als Ganzheit behandelt
haben. Die Prädikatenlogik geht von der potentiell fragwürdigen Prämisse aus, dass Sätze immer
nur dazu verwendet werden, um Gegenständen bestimmte Eigenschaften zuschreiben. Die Kritik an
dieser Voraussetzung hat zu den pragmatischen Ansätzen in der Bedeutungstheorie geführt, die an
dieser Stelle jedoch nicht weiter diskutiert werden müssen. Betrachtet man die Bestandteile eines
Satzes, so fällt schnell auf, dass jeder vollständige Satz zumindest aus einem Subjekt und einem
Prädikat besteht. Die allgemeine Form eines Aussagesatzes lautet also: S ist (ein) P.
„S ist das Subjekt. Es ist ein singulärer Term (Eigenname) und bezeichnet ein individuelles
Objekt. (Subjekt als Zugrundeliegendes, als Träger einer Eigenschaft) Das Subjekt ist der
Teil eines Satzes, über den etwas ausgesagt wird. P ist das Prädikat. Es ist ein allgemeiner
Term (Begriff) und bezeichnet eine Eigenschaft.“80
Wir können nun Eigennamen, Individuenvariablen und Eigenschaftskonstanten verwenden, um die
internen Satzstrukturen zu erfassen. Zusätzlich können wir noch die Analyseeinheit der Quantoren
hinzufügen, um Mengenangaben, wie „alle“, „einige“ und „kein“ machen zu können, und die der
Relationen (aRb), um Verhältnisse zwischen Objekten leichter anzeigen zu können.
Unter Verwendung dieser Möglichkeiten ergeben sich für die folgenden Beispielsätze dann diese
formalen Darstellungen ihrer internen Strukturen:
Sokrates war klug, oder Platon war klug.
K(a) ∨ K(b)
Nicht alles, was glänzt, ist Gold.
~∀x( F(x) → G(x) )
Es gibt einen Ort, zu dem alle Straßen führen.
∃x( O(x) ∧ ∀y ( S(y) → F(y,x) ) )
80
Zoglauer, Thomas: Einführung in die formale Logik für Philosophen, Göttingen, 2002 S. 71
81
4.3 Attributsskalenlogik als nächster Schritt
Kehren wir nun zurück zu Wittgensteins Problemen mit den Elementarsätzen und der
Farbwahrnehmung. Er kritisiert seine eigene Analyse der Wahrheitsfunktion „ ∧“, weil die
Unvollziehbarkeit des logischen Produkts der Farbsätze nicht in seinen bis dahin formulierten
Regeln der Syntax der logischen Konstanten enthalten ist.
„Falsch war an meiner Auffassung, dass ich glaubte, dass sich die Syntax der logischen
Konstanten aufstellen lasse, ohne auf den inneren Zusammenhang der Sätze zu achten. So
verhält es sich nicht. Ich kann z. B. nicht sagen: An einem und demselben Punkt ist rot und
blau zugleich. Hier ist das logische Produkt unvollziehbar. Die Regeln für die logischen
Konstanten bilden vielmehr nur einen Teil einer umfassenden Syntax, von der ich damals
noch nichts wusste.“81
Wenn man diese Zeilen und seine weiter unten noch zitierten Gedanken zu Maßstäben und der
Tätigkeit des Messens liest, muss man sich wundern, dass Wittgenstein nicht selber schon versucht
hat, diese „umfassende Syntax“ im Formalismus abzubilden, da er das Problem doch schon
vollständig gedanklich erfasst und eingekreist zu haben schien. Da er dies aber leider unterlassen
hat, bleibt uns somit dieser Schritt selbst überlassen, und ich werde versuchen, ihn im Folgenden zu
gehen:
Die Satzverknüpfung „a ist rot, und a ist blau“ darf nicht dargestellt werden als p ∧ q, oder als
F(a)
∧
G(a), da die besondere Situation, die bei diesem Satz vorliegt, die das logische Produkt
unvollziehbar macht, in dieser Darstellung nicht eingefangen werden würde. Das neue formale
Analysesystem muss also in der Lage sein, diese besonderen Verhältnisse zwischen den Sätzen
darzustellen. Wenn diese Besonderheit der logischen Strukturen erst einmal in der formalen
Darstellung offen zu Tage tritt, dann kann das Problem auf mehrere unterschiedliche Arten gelöst
werden.
Es handelt sich bei Wittgensteins Farbsatzproblem nicht um ein spezielles Problem, welches nur bei
der Farbwahrnehmung, oder allgemeiner nur beim Sehen auftritt, sondern bei allen sinnlichen
Attributsbestimmungen. Sein problematischer Fall ließe sich dementsprechend folgendermaßen
ganz allgemein beschreiben: Ein solcher Fall liegt in jeder Situation vor, in der einem einzigen
81
Wittgenstein Werkausgabe Band 3, S. 74
82
Attribut, das mehr als zwei Werte annehmen können muss 82, in zwei Sätzen jeweils ein
unterschiedlicher Wert zugeschrieben wird. Daher muss die formale Darstellung sowohl das
Attribut als auch den Wert des Attributs herausheben. Ich schlage deshalb eine Darstellung der
Form F(x)=a vor, wobei x den Gegenstand, F das Attribut und a die Ausprägung des Attributs F
bezeichnet. Wahrscheinlich ist es darüber hinaus sinnvoll, jedes Attribut immer noch mit einem
Index i zu versehen, der die Skala oder die Zugangsweise zum Attribut genauer spezifiziert, da wir
aus historischen Gründen teilweise bereits mehrere Skalen für ein Attribut haben. Sowohl für
Temperaturmessungen als auch für Längenmessungen unterscheiden sich die verwendeten Skalen in
Mitteleuropa von denen in den englischsprachigen Ländern. Obwohl man diese historisch
gewachsenen Skalen auch vereinheitlichen könnte, werden wir möglicherweise auch aus nicht
historischen Gründen ein Interesse daran haben, mehrere Skalen für ein Attribut verwenden zu
können. Solange wir verstehen, wie unsere Skalen funktionieren, wir also wissen, wie wir messen
und was als Messergebnis möglich ist, ist die Art der Skala prinzipiell beliebig. Die Einführung des
Index i bringt uns somit zu der folgenden logischen Form:
Fi(x)=a
Die Struktur, die ich hiermit anzeigen möchte, könnte man auch anders symbolisieren. Daher einige
Anmerkungen, was genau essentiell an dieser Formel ist und was nicht. Das „=“ steht hier natürlich
nicht für eine Gleichheit oder gar Identität, sondern für die mathematische Operation der Zuordnung
oder Funktion. Es ließe sich also ebenso gut, wie unten gezeigt wird, mit einem Pfeil „→“
darstellen. In beiden Fällen ist die Formalisierung zu lesen als: „Eine Messung des Attributs F
liefert für den Gegenstand x den Wert a (auf der Skala i)“.
Fi
x
→
a
Die Attribute F, von denen hier die Rede ist, sind basale Attribute aus unserer direkten oder durch
technische Hilfsmittel verbesserten Wahrnehmung, wie Gewichte, Längen, Farben, Härtegrade,
Lautstärken, usw. In der Philosophie ist es ansonsten üblich, beliebig komplexe Attribute bei der
Formalisierung genauso zu behandeln wie einfache. Dass komplexere Attribute hier jedoch als
82
Falls das Attribut nur genau zwei unterschiedliche Werte annehmen kann, dann haben wir es mit einem einfachen
Spezialfall zu tun, den wir ebenso problemlos mit der Negation darstellen könnten. Es wäre theoretisch auch noch der
Spezialfall denkbar, dass es ein Attribut gäbe, das nur einen einzigen Wert annehmen kann. Für ein solches könnten wir
jedoch niemals evolutionär Wahrnehmungsorgane entwickeln, da unsere Wahrnehmung immer auf für unser Leben
relevante Unterscheidungen ausgerichtet ist. Daher wären solche Attribute für uns unsichtbar.
83
Beispiele gar nicht in Erscheinung treten können, ist nicht weiter verwunderlich, da wir uns ja auf
der Suche nach den Elementarsätzen befinden, die der Natur der Sache nach die einfachsten
Eigenschaften benennen sollen, und nicht die zusammengesetzten komplexeren Attribute, wie „ist
ein Student“.
Wittgensteins Farbsätze müssen also formal dargestellt werden als F(x)=a und F(x)=b, oder genauer
als FarbemF (x) = rot und FarbemF (x) = blau, wobei mF für menschliche Farbwahrnehmung steht, oder
in physikalischer Schreibweise als FarbeWellenlänge in nm (x) = 470 und FarbeWellenlänge in nm (x) = 700. Diese
detaillierte Formalisierung ist erforderlich, denn es unterscheiden sich nicht die kompletten Sätze in
ihrer Gesamtheit83, und auch nicht das Attribut84 oder der Zugang zum Attribut (die Skala) 85,
sondern nur die zwei Messwerte auf derselben Attributsskala86. Dabei macht es für alle verwandten
Fälle keinen Unterschied, ob es sich bei der Skala, auf der die möglichen Attributswerte liegen, um
eine Nominalskala, eine Ordinalskala, oder eine Kardinalskala handelt 87. Auch mehrdimensionale
Skalierungen sind unproblematisch.
Bisher habe ich nur von Attributen gesprochen und nicht von Relationen, die klassischerweise
ebenfalls unter die Prädikate der Prädikatenlogik fallen. Warum ich diese Gleichbehandlung von
Attributen und Relationen für nicht wünschenswert halte, habe ich oben bereits ausgeführt. Doch
wie würden Relationen in der Attributsskalenlogik aussehen, wenn man sie verwenden möchte? Da
eine Relation das Ergebnis eines Vergleichs von zwei oder mehr Messungen eines bestimmten
Attributs an mehreren unterschiedlichen Gegenständen ist, ergibt sich folgende formale Struktur für
Relationsausdrücke:
Fi(x)=a ∧ Fi(y)=b ∧ a-b=c
Es werden für die Gegenstände x und y jeweils die Attributswerte des Attributs F auf der Skala i
bestimmt. Diese Werte sind die Zahlen a und b. Das Ergebnis c der Subtraktion a-b kodiert den
Unterschied zwischen den gemessenen Attributswerten. a-b=c lässt sich also z. B. lesen als a ist
83
In diesem Fall würde die Formalisierung F(x) und G(y) der Prädikatenlogik reichen.
In diesem Fall würde die Formalisierung F(x) und G(x) der Prädikatenlogik reichen.
85
In diesem Fall bräuchte man bereits mindestens die Formalisierung Fi(x) und Fk(x), die PL nicht hergibt.
86
In diesem Fall braucht man die komplette Formalisierung F i(x) = a und Fi(x) = b der Attributsskalenlogik, ansonsten
ist das spezielle Verhältnis der beiden Sätze in der Formalisierung nicht wieder zu erkennen.
87
Diese in der Statistik üblichen Unterscheidungen zwischen Skalen geben an, welche mathematischen Operationen mit
einer entsprechend skalierten Variablen zulässig sind. Während man auf einer Nominalskala nur zwischen gleich und
ungleich unterscheiden darf, erlaubt eine Ordinalskala auch eine Sortierung nach der Größe (< / >). Bei den
Kardinalskalen kann man noch unterscheiden zwischen einer Intervallskala, die zusätzlich die Abstände zwischen den
Messwerten korrekt wiedergibt und somit (+ / -) erlaubt, und einer Verhältnisskala, die darüber hinaus auch noch einen
Nullpunkt aufweist, was Multiplikation und Division ermöglicht.
84
84
größer als b (und zwar um c), und könnte je nach den jeweiligen Ausprägungen von a und b auch
als a>b oder a<b geschrieben werden. Man sieht an dieser formalen Darstellung deutlich, dass
Relationen immer nur etwas explizit machen, was schon implizit in den Angaben der Attribute
enthalten ist. Dies wird besonders klar, sobald in einer solchen Formel keine Variablen mehr stehen,
sondern wirkliche Werte:
Gewicht in g (Basketball) = 600 ∧ Gewicht in g (Fußball) = 430 ∧ 600 - 430 = 170
Dass 600 größer ist als 430, ist eine triviale Aussage, die aus der Funktionsweise unseres
Zahlensystems folgt, und daher folgt die Relation, dass der Basketball schwerer ist als der Fußball,
direkt aus der Angabe ihrer Gewichte. Relationen lassen sich also zumindest in Bereich
wissenschaftlicher Messungen auf Attribute und basale Mathematik zurückführen und stellen somit
kein eigenes Problem für die Elementarsätze mehr dar.
Ich werde meine so entstandene Erweiterung der Prädikatenlogik im folgenden Attributsskalenlogik
nennen. Zusätzlich zu den Analyseeinheiten der Aussagenlogik und der Prädikatenlogik beinhaltet
sie die Unterscheidung zwischen Eigenschaft und Eigenschaftsausprägung und die Analyseeinheit
der Skala. Sie verfügt über die gleichen Möglichkeiten und Gesetzmäßigkeiten wie die
Prädikatenlogik, aber darüber hinaus löst sie Wittgensteins Farbsatzproblem und alle verwandten
Probleme der Formalisierung von skalierten Attributen. Sie leistet dies, indem sie die Bildung von
komplexen Satzverbindungen, bei denen sowohl der referenzierte Gegenstand als auch das Attribut
und die Skala jeweils übereinstimmen, sich aber die behaupteten Messwerte unterscheiden, von den
unproblematischen Satzverbindungen in der Formalisierung unterscheidbar macht. Dadurch, dass
die problematischen Fälle sich nun von den unproblematischen visuell abheben, kann das Problem
überhaupt erst angegangen werden. Es sind jedoch drei verschiedene Verfahrensweisen für die
problematischen Fälle denkbar, die nun bereits an der Formalisierung zu erkennen sind. Diese drei
Verfahrensweisen und ihre Implikationen werde ich im Folgenden vorstellen:
1. Man könnte die Wahrheitstafeln ganz genauso wie bisher verwenden, in dem Bewusstsein,
dass der Fall, in dem die Sätze Fi(x)=a und Fi(x)=b gleichzeitig wahr sind, niemals auftreten
kann, so dass der Wahrheitswert in dieser Zeile der Tabelle keine Rolle spielt.
85
2. Man könnte alle Junktoren für Fi(x)=a und Fi(x)=b [abweichend von der Standarddefinition
für die unproblematischen Verknüpfungen von Fi(x)=a und Gk(x)=c] nur für die drei anderen
Fälle definieren, und damit wahlweise eine mehrwertige oder unvollständige Logik erhalten.
3. Man könnte die Junktoren überhaupt nur für Fälle definieren, in denen die einzelnen Sätze
entweder von verschiedenen Gegenständen x und y, oder von verschiedenen Eigenschaften
F und G sprechen, so dass ein zusammengesetzter Satz aus zwei Teilsätzen, die von
denselben Eigenschaften desselben Gegenstands sprechen, automatisch auch dieselbe
Attributsausprägung behaupten würden.
Bevor ich die Implikationen der drei verschiedenen Verfahrensweisen genauer untersuchen werde,
gilt es jedoch noch festzuhalten, dass meine Formeln immer im Sinne einer exklusiven Logik zu
interpretieren sind. Benutzt man eine exklusive Logik, dann bedeutet dies, dass die Bezeichnungen
sowohl für die Gegenstände als auch für die Eigenschaften, die in einem gemeinsamen Kontext
verwendet werden, eindeutig zu wählen sind. Wenn also in einer Formel die Eigenschaften F und G
vorkommen, so kann es niemals der Fall sein, dass F und G dieselbe Eigenschaft bezeichnen.
Ebenso gilt es, in einem Kontext nicht zwei verschiedenen Namen für denselben Gegenstand zu
verwenden. Dadurch dass traditionell eher die inklusive Interpretation gelehrt wird, bei der es
möglich ist, dass zwei verschiedene Namen für dasselbe verwendet werden, erscheint die exklusive
Interpretation zunächst gewöhnungsbedürftig, sie ist jedoch eine gleichwertige Alternative und
eigentlich die natürlichere Schreibweise:
5.53
Gleichheit des Gegenstandes drücke ich durch Gleichheit des Zeichens aus, und
nicht mit Hilfe eines Gleichheitszeichens. Verschiedenheit der Gegenstände durch
Verschiedenheit der Zeichen.88
Diese alternative Notation führt jedoch nicht zu einer weniger leistungsfähigen Logik, wie
Wittgenstein im Tractatus durch die Übersetzung einiger Beispiele aus der inklusiven Logik in die
exklusive Logik andeutet:
5.531
Ich schreibe also nicht »f(a,b).a=b«, sondern »f(a,a)« (oder »f(b,b)«). Und nicht
»f(a,b).~a=b«, sondern »f(a,b)«.
5.532
88
Und analog: Nicht »(∃x,y).f(x,y).x=y«, sondern »(∃x).f(x,x)«; und nicht
TLP, S. 62
86
»(∃x,y).f(x,y).~x=y«, sondern »(∃x,y).f(x,y)«. (Also statt des Russell‘schen
»(∃x,y).f(x,y)«: »(∃x,y).f(x,y).v.(∃x).f(x,x)«.)
5.5321
Statt »(x):fx→x=a« schreiben wir also z.B. »(∃x).fx.→.fa:~(∃x,y).fx.fy«. Und der
Satz »nur Ein x befriedigt f()« lautet: »(∃x).fx:~(∃x,y).fx.fy«.89
Ein vollständiger Beweis der gleichwertigen Leistungsfähigkeit im Anschluss an Hintikka findet
sich mittlerweile bei Wehmeier.90 Aufgrund der Äquivalenz ist die Wahl der Darstellungsart zwar
beliebig, aber ich halte die exklusive Interpretation für natürlicher und die entsprechenden Formeln
sind für die nun folgenden Anwendungen kürzer. Darum ist zu beachten, dass im Folgenden in
Formeln, wie Fi(x)=a ∧ Gk(x)=c unmöglich Gk und Fi dieselbe Eigenschaft bezeichnen können, so
dass eine solche Formel keinesfalls mit der Formel Fi(x)=a ∧ Fi(x)=b zusammenfallen kann. So
gewappnet können wir uns nun den drei möglichen Verfahrensweisen mit Farbsätzen widmen.
89
90
TLP, S. 62
Wehmeier, Kai F.: Wittgensteinian Predicate Logic, Notre Dame Journal of Formal Logic Volume 45, Number 1, 2004
87
4.3.1 Die drei alternativen Verfahrensweisen
Der erste Vorschlag zum Umgang mit der neu gewonnenen formalen Unterscheidbarkeit lautete:
Man könnte die Wahrheitstafeln ganz genauso wie bisher verwenden, in dem Bewusstsein, dass der
Fall, in dem die Sätze Fi(x)=a und Fi(x)=b gleichzeitig wahr sind, niemals auftreten kann, so dass
der Wahrheitswert in dieser Zeile der Tabelle keine Rolle spielt.
Wir ändern also nichts an den Definitionen der Wahrheitstafeln, wie wir sie aus der Prädikatenlogik
kennen. Sowohl für Fi(x)=a ∧ Gk(x)=c als auch für Fi(x)=a ∧ Fi(x)=b lautet die
Wahrheitswertverteilung dann wie gehabt:
Fi (x) = a
Gk (x) = c
Fi (x) = a ∧ Gk (x) = c
W
W
W
W
F
F
F
W
F
F
F
F
Fi (x) = a
Fi (x) = b
Fi (x) = a ∧ Fi (x) = b
W
W
W
W
F
F
F
W
F
F
F
F
Der große Vorteil dieser Vorgehensweise besteht darin, dass wir keine mehrwertige, oder nur
teilweise definierte Logik erhalten. Wir können dadurch weiterhin beliebig komplexe
Satzverknüpfungen mit Junktoren wie gewohnt ausführen und durchrechnen. Der Nachteil besteht
darin, dass wir nun leider am Ende immer daran denken müssen, das scheinbare Ergebnis zu
modifizieren, da wir sonst zu falschen Schlüssen gelangen, wie in folgendem Beispiel:
88
Fi (x) = a Fi (x) = b Fi (x) = a ∧ Fi (x) = b
Fi (x) = a ∧ ~(Fi (x) = a)
(Fi (x) = a ∧ Fi (x) = b) →
(Fi (x) = a ∧ ~(Fi (x) = a))
W
W
W
F
F
W
F
F
F
W
F
W
F
F
W
F
F
F
F
W
Die Tabelle liefert uns als Ergebnis für den Satz (Fi (x) = a ∧ Fi (x) = b) → (Fi (x) = a ∧ ~(Fi (x) = a))
eine Kontingenz. Eine Kontingenz ist ein Satz, dessen Wahrheit in Abhängigkeit von den
Wahrheitswertverteilungen seiner Teilsätze variiert. Die Akzeptanz des Satzes als Kontingenz wäre
jedoch sowohl wegen unserer Intuitionen als auch wegen der noch nicht erfolgten Modifikation des
Ergebnisses ein Fehler. Wenn wir jedoch nun die erste Zeile ignorieren, da in dieser Zeile der
problematische Fall vorliegt, der niemals eintreten kann, dann erhalten wir eine Tautologie 91. In
allen Fällen, die wirklich auftreten können, wird der Satz wahr, und der theoretische Fall der
gleichzeitigen Wahrheit von Fi (x) = a und Fi (x) = b, in dem der Gesamtsatz falsch werden würde,
kann, wie wir wissen, in der Praxis niemals auftreten. Das Ergebnis, dass der Satz eine Tautologie
sein muss, stimmt mit unserer Intuition überein, die wir bezüglich eines entsprechend strukturierten
Satzes unserer normalen Sprache haben:
„Wenn ein Gegenstand 2 kg wiegt und derselbe Gegenstand 9 kg wiegt, dann wiegt ebendieser
Gegenstand 2 kg und er wiegt nicht 2 kg.“
Insofern man nicht die Übersetzung von „Wenn ... dann“-Sätzen mit der logischen Implikation
problematisieren möchte, sollte man diesen Satz sicherlich für eine Tautologie halten.
Dieses Verfahren ist also durchaus möglich, allerdings nicht sehr elegant, insbesondere sobald man
bei komplexen Satzverknüpfungen mehrere Zeilen am Ende als unmöglich heraus sortieren muss.
Daher wenden wir uns nun, in der Hoffnung noch ein besseres Verfahren zu finden, der nächsten
Möglichkeit zu.
Der zweite Vorschlag zum Umgang mit der neu gewonnenen formalen Unterscheidbarkeit war:
Man könnte alle Junktoren für Fi(x)=a und Fi(x)=b [abweichend von der Standarddefinition für die
unproblematischen Verknüpfungen von Fi(x)=a und Gk(x)=c] nur für die drei anderen Fälle
definieren, wie dies in der folgenden Tabelle für den Junktor „∧“ beispielhaft getan wurde.
91
Eine Tautologie ist ein Satz, dessen Wahrheit nicht in Abhängigkeit von den Wahrheitswertverteilungen seiner
Teilsätze variiert, sondern bei allen möglichen Verteilungen immer wahr ist.
89
Fi (x) = a
Fi (x) = b
Fi (x) = a ∧ Fi (x) = b
W
W
---
W
F
F
F
W
F
F
F
F
Währenddessen bleibt für den unproblematischen Fall Fi(x)=a und Gk(x)=c weiterhin die gewohnte
Definition in Kraft:
Fi (x) = a
Gk (x) = c
Fi (x) = a ∧ Gk (x) = c
W
W
W
W
F
F
F
W
F
F
F
F
Dieses Verfahren hätte einen ähnlichen Effekt, bringt aber ein schwerwiegendes Problem mit sich:
Da man nun einen Fall hat, in dem ein Satz nicht eindeutig einen der zwei Wahrheitswerte erhält,
müsste man neue Regeln aufstellen, wie in Fällen zu verfahren wäre, in denen mit der Zeile, die
keinen Wahrheitswert enthält, weitere Satzverknüpfungen ausgeführt werden sollen. Man kann dazu
jedoch nicht einfach eine bereits bekannte mehrwertige Logik verwenden, da diese normalerweise
dazu konzipiert sind, Vagheit von Begriffen92, Wahrscheinlichkeiten oder die Ungewissheit
zukünftiger Ereignisse abzubilden. Unser problematischer Fall ist jedoch weder eine Frage der
Vagheit der Farbbegriffe, noch geht es um Wahrscheinlichkeiten, noch wird der Wahrheitswert
durch Ereignisse in der Zukunft bestimmt werden. Daher müsste man für alle Junktoren neue
sinnvolle Regeln festlegen, welchen Wahrheitswert sie annehmen, wenn einer oder sogar beide
Wahrheitswerte der zu verknüpfenden Teilsätze undefiniert sind. Obwohl die so entstehenden
Regeln wahrscheinlich rege Diskussionen unter Logikern auslösen würden, sollte eine solche
Festlegung generell möglich sein. Ich werde dies jedoch aufgrund des mit einem solchen Projekt
verbundenen Aufwands an dieser Stelle nicht weiter ausführen, da ich ohnehin den weiter unten
folgenden dritten Ansatz für den besten halte.
92
Vgl. Blau, Ulrich: Die dreiwertige Logik der Sprache, Berlin, New York: de Gruyter, 1977 S. 21ff
90
Der Vorteil der zweiten gegenüber der ersten Methode besteht eigentlich nur darin, dass der
folgende Satz immer eine offensichtliche Kontradiktion darstellt, insofern man sich mit x auf
Raumzeitpunkte oder einen kleinen homogenen Gegenstandsbereich bezieht93:
Fi (x) = a ∧ Fi (x) = b
Genauso wie der Satz p ∧ ~ p eine Kontradiktion darstellt, gilt dies auch für den obigen Satz, daher
kann man ihn genauso verwenden, zum Beispiel für den Beweis durch Widerspruch. In einem nichtwidersprüchlichen Satzsystem kommen also nicht Fi (x) = a und Fi (x) = b gleichzeitig als
Prämissen vor, und sie können nicht beide abgeleitet werden.
Diese Erkenntnis führt ins direkt zur dritten Möglichkeit, mit der neuen Unterscheidbarkeit von
abhängigen und unabhängigen Sätzen umzugehen:
Man könnte die Junktoren überhaupt nur für Fälle definieren, in denen die einzelnen Sätze entweder
von verschiedenen Gegenständen x und y, oder von verschiedenen Eigenschaften F und G sprechen,
so dass ein zusammengesetzter Satz aus zwei Teilsätzen, die von denselben Eigenschaften desselben
Gegenstands sprechen, automatisch auch dieselbe Attributsausprägung behaupten würden.
Dazu müsste man nur die Definition, wie aus zwei bestehenden Sätzen durch ihre Verknüpfung mit
einem Junktor ein neuer Satz des formalen Systems gebildet werden darf, so verändern, dass es
verboten ist, dass mehrmals Fi (x) mit unterschiedlicher Attributsausprägung vorkommt.
Klassischerweise definiert man nämlich die syntaktischen Möglichkeiten einer Logik rekursiv, etwa
folgendermaßen:
Es seien „Φ“ ein Schemabuchstabe für Attributbuchstaben, „α“ ein Schemabuchstabe für
Individuenkonstanten, und „ξ“ ein Schemabuchstabe für Variablen.
Dann ist jede Formel der Form Φi (α1) = α2 eine wohlgeformte Formel. Weitere wohlgeformte
Formeln erhält man anhand der folgenden Regeln:
93
Eine Kontradiktion liefert für alle möglichen Wahrheitswertverteilungen den Wahrheitswert F. Da der erste Fall
unmöglich auftreten kann und alle anderen Fälle den Wahrheitswert F liefern, kann man hier von einer Kontradiktion
sprechen. Man beachte, wie im Vergleich dazu die Wahrheitstafel der ersten Verfahrensweise das Erkennen dieser
Kontradiktion erschwert.
91
1. Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ ∧ ψ) eine wohlgeformte Formel.94
2. Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ ∨ ψ) eine wohlgeformte Formel.
3. Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ → ψ) eine wohlgeformte Formel.
4. Wenn ϕ eine wohlgeformte Formel ist, dann ist (¬ϕ) eine wohlgeformte Formel.
5. Ist ϕ eine wohlgeformte Formel mit den Individuenkonstanten α1, α2, …, αn, die kein
Vorkommnis der Variable ξ enthält, dann ist eine jede Formel ψ, in der von ϕ ausgehend eine
der Individuenkonstanten α1, α2, …, αn an allen Stellen ihres Auftretens durch ξ ersetzt
wurde, eine wohlgeformte Formel.
6. Ist ϕ eine wohlgeformte Formel und ξ eine Variable, die in ϕ vorkommt, dann ist ∀ξ (ϕ) eine
wohlgeformte Formel.
7. Ist ϕ eine wohlgeformte Formel und ξ eine Variable, die in ϕ vorkommt, dann ist ∃ξ (ϕ) eine
wohlgeformte Formel.
8. Nichts anderes ist eine wohlgeformte Formel.
Die obigen Regeln 1. bis 3. müsste man so verändern, dass die doppelte Festlegung des Wertes
eines Attributs für einen Gegenstand innerhalb einer wohlgeformten Formel unmöglich wird. Um
dies zu erreichen, würden wir aus der Definition (D1) die Definition (D1*) machen müssen:
(D1)
Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ ∧ ψ) eine wohlgeformte Formel.
(D1*) Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ ∧ ψ) eine wohlgeformte Formel, falls
φ und ψ nicht sowohl Φi (α1) = α2 als auch Φi (α1) = α3 enthalten.
Die Definitionen zur Erstellung wohlgeformter Formeln mit den anderen Junktoren müsste man
entsprechend genauso verändern:
(D2)
Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ ∨ ψ) eine wohlgeformte Formel.
(D2*) Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ ∨ ψ) eine wohlgeformte Formel, falls
φ und ψ nicht sowohl Φi (α1) = α2 als auch Φi (α1) = α3 enthalten.
(D3)
Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ → ψ) eine wohlgeformte Formel.
(D3*) Wenn ϕ und ψ wohlgeformte Formeln sind, dann ist (ϕ → ψ) eine wohlgeformte Formel,
falls φ und ψ nicht sowohl Φi (α1) = α2 als auch Φi (α1) = α3 enthalten.
94
Hierbei und im Folgenden dürfen φ und ψ sowohl für komplexe, als auch für einfache Formeln stehen.
92
Nun lassen sich die problematischen Sätze in der formalen Sprache nicht mehr als wohlgeformte
Formeln erzeugen. Dadurch stellen sich auch keine Probleme bei den Wahrheitswertverteilungen
dieser Sätze mehr. Dieser Ansatz würde vollkommen für alle Belange der wissenschaftlichen
Sprachverwendung ausreichen, da man in der Wissenschaft um korrekte Messungen und
Wahrheitsfindung bemüht ist. Wenn wir jemanden bitten, eine Messung für uns durchzuführen,
dann erwarten wir, dass er uns einen und nur einen Messwert für einen Raumzeitpunkt liefert. Und
wenn er dies tut, dann fragen wir nicht erstaunt nach, ob es neben 22°C eventuell am selben Ort
nicht auch 45°C gewesen sei. In einem Zusammenhang liefert eine Messung immer genau ein
Ergebnis. Andernfalls würden wir nicht mehr von einer Messung reden.
Möglicherweise könnten uns aber alltägliche Satzkonstruktionen, wie die folgende vor Probleme
bei der Formalisierung stellen:
„Was für ein Kleid trug sie denn gestern?“ „Es war blau oder grün. Ich weiß es nicht genau.“
Sätze dieser Art würden in einem wissenschaftlichen Kontext niemals vorkommen, sie sind aber
ebenfalls unproblematisch. Sie beschreiben nur eine ungenaue Messung einer Eigenschaft, oder
eine Unwissenheit bezüglich einer Eigenschaft. Bei einer Formalisierung würde dies nur zu einer
ungenauen Angabe bei der Eigenschaftsausprägung führen („Wellenlänge zwischen 420nm und
575nm“, „ca. 1m“, etc.), die jedoch unproblematisch ist, solange nicht behauptet wird, dass mehrere
unterschiedliche Ausprägungen gleichzeitig vorliegen.
Es wäre jedoch sehr verdächtig, wenn uns bei der Lösung unseres philosophischen Problems die
Anwendbarkeit auf und der Bezug zu unserer normalen Sprachverwendung verloren ginge. Denn
dann hätten wir eine alternative künstliche Sprache geschaffen, die den real existierenden
Sprachprozessen nicht mehr entspricht, geschweige denn sie erklären kann. Wenden wir uns daher
der Überprüfung unserer bisherigen Überlegungen an unserer Alltagssprache zu.
4.3.2 Überprüfung an der Alltagssprache
Bei der Beschäftigung mit komplexen Überlegungen zur Formalisierung besteht immer die Gefahr,
dass die Ergebnisse zwar sinnvoll und elegant im formalen System wirken, man sich aber zu weit
von unserem alltäglichen Sprachempfinden und -verständnis entfernt hat. Betrachten wir also den
Fall der doppelten Angabe einer Eigenschaftsausprägung im Hinblick auf unseren alltäglichen
Sprachgebrauch. Auf eine Äußerung wie
93
„Der Tisch ist einen Meter lang und zwei Meter lang“ würden wir im Allgemeinen antworten: „Du
meinst wohl, dass der Tisch zwei Meter lang und einen Meter breit ist.“
Bei dem Satz „Der Pullover ist schwarz und weiß“ würde man wahrscheinlich nachfragen, ob er
gestreift oder gepunktet ist. So oder so, würde man immer davon ausgehen, dass mit den Sätzen
nicht einem Raumzeitpunkt zwei unterschiedliche Attributswerte zugewiesen werden sollten.
Würde unser Gesprächspartner genau dies jedoch wollen und darauf beharren, so würde man mit
ihm genauso freundlich weiter verfahren wie mit jemandem, der darauf beharrt, Sätze von der Form
der klassischen Kontradiktion p
∧
~ p zu behaupten. Wir sehen an diesen Überlegungen also, dass
wir sowohl die Intuition haben, dass solche Sätze einen Widerspruch darstellen, als auch, dass wir
im Alltag gar nicht auf die Idee kämen, Sätze mit einer solchen Struktur zu formulieren. Das
bedeutet, dass unser philosophisch problematischer Fall im normalen Sprachgebrauch eigentlich
nicht vorkommt, da er von impliziten Sprachregeln verboten wird. Diese impliziten Regeln können
und sollten wir also mit Hilfe der oben genannten Möglichkeiten in unserem formalen System
sichtbar machen. Dadurch werden dann die potentiell problematischen Sätze angemessen behandelt,
und insbesondere erhält man eine Lösung für das Elementarsatzproblem. Es bleibt also festzuhalten,
dass die formale Analyse in Form der Attributsskalenlogik zu unserem normalen Sprachgebrauch
passt. Ihr Detailreichtum ist zwar eher auf die Lösung philosophischer Probleme ausgerichtet, aber
sie bildet insbesondere auch unser alltägliches Sprachverhalten angemessen ab.
4.4 Maßstäbe und das Messen
Mein Vorschlag für die Formalisierung eines Elementarsatzes in der Attributsskalenlogik lautete:
Fi (x) = a
„Eine Messung des Attributs F liefert für den Gegenstand x den Wert a (auf der Skala i)“
Wir sollten uns daher noch genauer mit den Begriffen der Messung und der Skala
auseinandersetzen. Der Begriff der Skala ist relativ einfach, aber zugleich sehr wichtig. Wie man an
einem Zollstock, auf dem Skalen sowohl für Zentimeter als auch für Inch aufgetragen sind, leicht
sehen kann, können wir Skalen relativ beliebig festlegen.
Wir wählen ein Referenzobjekt, das wir später unseren Maßstab nennen werden, auf dem wir eine
regelmäßige Einteilung vornehmen, die sich auch regelmäßig fortsetzen lässt, so dass wir für jedes
94
Objekt einen eindeutigen Messwert bekommen. Welche Skala wir verwenden, ist prinzipiell
gleichgültig, da sich die auf einer Skala ermittelten Messwerte problemlos in Werte einer anderen
Skala umrechnen lassen, solange die Skalen sich auf das gleiche Attribut beziehen. Man kann beide
Skalen natürlich auch auf einem Maßstab anbringen und gleichzeitig beide Messungen durchführen.
Zum Verständnis des Begriffs „Messung“ ist es wichtig einzusehen, dass der Prozess der Messung
immer schon die Gesamtheit der möglichen Ergebnisse voraussetzt. Die Art der Skala bestimmt die
möglichen und unmöglichen Ergebnisse und die Reichweite der möglichen Schlussfolgerungen.
Wittgenstein hat dies im Dezember 1929 schon selbst gesehen, ohne jedoch die von mir
vorgeschlagene Verbesserung der Formalisierung zu entwickeln und damit seine im Tractatus
dargelegte Theorie zu kräftigen:
„Wenn ich einen Maßstab an einen räumlichen Gegenstand anlege, so lege ich alle
Teilstriche zu gleicher Zeit an.
Nicht die einzelnen Teilstriche werden angelegt, sondern die ganze Skala. Weiß ich, dass der
Gegenstand bis zum Teilstrich 10 reicht, so weiß ich auch unmittelbar, dass er nicht bis zum
Teilstrich 11, 12, und so weiter reicht. Die Aussagen, welche mir die Länge eines
Gegenstands beschreiben, bilden ein System, ein Satzsystem. Ein solches ganzes Satzsystem
wird nun mit der Wirklichkeit verglichen, nicht ein einzelner Satz. Wenn ich z. B. sage: Der
und der Punkt im Gesichtsfeld ist blau, so weiß ich nicht nur das, sondern auch, dass der
Punkt nicht grün, nicht rot, nicht gelb usw. ist. Ich habe die ganze Farbenskala auf einmal
angelegt. […] Wenn aber meine jetzige Auffassung mit dem Satzsystem richtig ist, ist es
sogar die Regel, dass man aus dem Bestehen eines Sachverhaltes auf das Nicht-Bestehen
aller übrigen schließen kann, die durch das Satzsystem beschrieben werden.“95
Um die Begriffsklärung zu vervollständigen, möchte ich noch kurz darlegen, was ich unter einem
Gegenstand verstehen möchte. Dazu gehören zunächst einmal alle Dinge, die wir im alltäglichen
Sprachgebrauch so benennen würden, also feste materielle Einheiten, die sich als Gesamtheit
potentiell bewegen lassen. Ebenso fallen aber auch kleinere materielle Einheiten wie Atome oder
Moleküle darunter, die zum Zeitpunkt der Messung und Beschreibung als Gesamtheit betrachtet
werden. Prinzipiell können wir unsere Betrachtungsebene beliebig groß oder klein wählen. Was wir
dann jeweils Gegenstände nennen, variiert mit dem Fokus der Betrachtung; wichtig ist dabei nur,
dass wir in einem Kontext immer nur gleichberechtigte Elemente problemlos gleich behandeln
95
Wittgenstein Werkausgabe Band 3, S.64
95
können. Wenn wir innerhalb eines Kontextes verschiedene Fokussierungen verwenden wollen, dann
sollten wir uns bemühen, nicht die gleichen Prädikate zu verwenden, da ein Molekül nicht im
selben Sinne blau oder hart genannt werden kann wie ein Stuhl.
4.5 Die Auswirkungen der Attributsskalenlogik
Fassen wir die Ergebnisse dieses Kapitels kurz zusammen: Unter Verwendung der Prädikatenlogik
war es Wittgenstein unmöglich Elementarsätze anzugeben, die seinen eigenen Forderungen nach
Unabhängigkeit entsprachen. Ich habe versucht zu zeigen, dass dies durch Unzulänglichkeiten der
Prädikatenlogik begründet war, und habe mit der Attributsskalenlogik eine Weiterentwicklung
angeboten. Diese macht es möglich, sowohl eine allgemeine Form [Fi (x) = a] als auch Beispiele für
Elementarsätze („Dieser Gegenstand wiegt 2 kg.“) anzugeben, die Wittgensteins Vorstellungen
entsprechen.
Was folgt nun aus den obigen Überlegungen zur Rettung der Elementarsätze in Wittgensteins
Bildtheorie? Wenn die Elementarsätze keinen problematischen Punkt in seiner Theorie mehr
darstellen, dann wird dadurch die Bildtheorie noch plausibler. Das Abbilden der Welt, um sie besser
zu verstehen und sie beherrschbarer zu machen, kann als eine der wichtigsten Verwendungen von
Sprache aufgefasst werden. Als Wissenschaftler strebt man danach, die Welt möglichst exakt und
korrekt zu beschreiben, um Gesetzmäßigkeiten aufdecken zu können, die man dann verwendet, um
Vorhersagen machen zu können und die korrekten Handlungen zu wählen, damit die gewünschten
Effekte oder Veränderungen in der Welt eintreten. Das prinzipielle Ziel der Wissenschaften ist es
also, alle Eigenschaftsausprägungen aller Gegenstände auf allen Betrachtungsebenen 96 und die
Folgen, die sich aus diesen Strukturanalysen ergeben, als Gesetze anzugeben. Ein Elementarsatz
Fi (x) = a behauptet genau eine solche Attributsausprägung für einen Gegenstand unter Angabe der
verwendeten Skala und somit der Betrachtungsebene. Handelt es sich um einen wahren
Elementarsatz, dann ergibt eine Messung an dieser Skala i, dass der Gegenstand x wirklich genau
die Ausprägung a der Eigenschaft F aufweist. Wenn man die Konjunktion aller wahren
Elementarsätze bilden könnte, hätte man damit die Welt vollständig beschrieben. Da die
vollständige Konjunktion genauso komplex wäre, wie es die Welt selbst ist, kann dies natürlich
nicht von uns erreicht werden. Aber die komplette Beschreibung ist auch unnötig, weil uns
eigentlich immer nur die Folgerungen interessieren, die wir jeweils aus den genauen
96
Unterschiedliche Betrachtungsebenen sind zum Beispiel makroskopisch, mikroskopisch, molekular und atomar.
96
Beschreibungen von Teilbereichen unserer Welt entnehmen. Das Wissen um diese Naturgesetze
ermöglicht uns dann, die Welt im Rahmen der bestehenden Möglichkeiten nach unserem Willen zu
gestalten. Unsere gesamte Wissenschaft ist jedoch nur möglich aufgrund unserer Sprachfähigkeit.
Die Sprache ist somit unser effizientestes Werkzeug, um die Welt intern zu repräsentieren, um sie
dann analysieren und sinnvoll in ihr handeln zu können.
97
5. Willard Van Orman Quines Bedeutungstheorie
5.1 Person und Werk
Willard Van Orman Quine (1908-2000) promovierte 1932 bei Whitehead in Harvard und war
danach ein Jahr in Europa unterwegs, um mit den führenden Vertretern des Wiener Kreises zu
diskutieren. Er traf dabei insbesondere auch mit Moritz Schlick und Kurt Gödel zusammen. Danach
reiste er weiter nach Prag, wo er Rudolf Carnaps Vorträge besuchte, über dessen Philosophie er
später selbst Vorlesungen hielt. In Warschau kam er ebenfalls noch in Kontakt mit Alfred Tarski.
Obwohl er den Rest seiner Karriere in Harvard verbrachte, blieb dieser Aufenthalt in Europa
folgenreich für seine Philosophie. Obgleich er zwei Dogmen des von Carnap geprägten logischen
Empirismus kritisierte, vertrat er selbst grundsätzlich auch eine empiristische Position.
Quine hielt es für die Aufgabe der Wissenschaften, die besten Theorien über die Funktionsweise der
Welt aufzustellen. Die so entwickelten Satzmengen sollten sich auf die Kausalität der Außenwelt
beziehen:
„Das empirische Fundament der Theorien ist der Input unseres Gehirns, genauer die
Aktivierung
der
Wahrnehmungsrezeptoren
eines
Subjekts
in
einer
bestimmten
Wahrnehmungssituation. Quine nennt dies den Reizeinfluss, dem ein Subjekt bei einer
bestimmten Gelegenheit ausgesetzt ist. Wie kann sich nun die Wissenschaft auf
Reizeinflüsse von Subjekten gründen? Das Bindeglied sind Beobachtungssätze wie »Dieser
Kiesel ist blau«. Beobachtungssätze sind solche Sätze, die in einer bestimmten
Wahrnehmungssituation bei allen sprachkompetenten Zeugen mit normal funktionierenden
Sinnesorganen ein und dieselbe Reaktion hervorrufen, nämlich entweder Zustimmung oder
Ablehnung.“97
Die Beobachtungssätze bilden also die Grundlage jeder wissenschaftlichen Theoriebildung.
Zugleich stellt Quine aber auch fest, dass Beobachtungssätze die ersten Sätze beim kindlichen
Spracherwerb sind:
„Es kann schwerlich verwundern, dass Beobachtungssätze diese Doppelfunktion – als
Vehikel wissenschaftlicher Belege und als Einlass in die Sprache – übernehmen, denn
97
Newen, A.: Willard Van Orman Quine in Otfried Höffe (Hrsg.) Klassiker der Philosophie 2 – Von Immanuel Kant bis
John Rawls, München: Verlag C.H. Beck, 2008, S.324
98
Beobachtungssätze sind ja schlechterdings das Verbindungsmittel jedwelcher Sprache, sei es
der wissenschaftlichen, sei es der Übrigen, mit der realen Welt, um die es unserer Sprache
zu tun ist.“98
Dass Beobachtungssätze gleichzeitig die Grundlage unserer komplexesten Sprachverwendung in
den Wissenschaften und der einfachsten Sprechversuche eines Kindes sind, ist für Quine
anscheinend nicht einmal auf den ersten Blick verwunderlich. Umso verwunderlicher ist es jedoch,
dass außer ihm bisher niemand versucht hat, eine Bedeutungstheorie zu erstellen, die die neuronalen
Vorgänge beim Erlernen sprachlicher Fähigkeiten in den Vordergrund stellt.
Quines Versuch eine naturalistische Bedeutungstheorie zu entwickeln, sah folgendermaßen aus:
5.2 Quines Ansätze zu einer naturalistischen Bedeutungstheorie
Quine erkennt zunächst, dass wir anscheinend alltäglich vom Begriff der „Bedeutung“ problemlos
Gebrauch machen können, ohne uns weiter fragen zu müssen, was wir damit eigentlich meinen:
„Eine Bedeutung dagegen ist anscheinend ein Ding besonderer Art. Aber was genau?
Man würde meinen, dass wir´s wüssten. Das Wort »Bedeutung« ist ein gewöhnliches Wort,
ein überaus gewöhnliches Wort, das jedermann im Munde führt. Es kommt in einigen häufig
gebrauchten Wendungen vor. Wir erkundigen uns nach der Bedeutung eines Worts; wir
geben die Bedeutung eines Worts an; wir sagen, dass wir die Bedeutung eines Worts kennen;
dass ein Ausdruck eine Bedeutung bzw. keine Bedeutung hat; und dass Ausdrücke die
gleiche Bedeutung haben. Doch ein Kontext, in dem wir normalerweise nicht auf das Wort
»Bedeutung« stoßen, ist der Kontext »eine Bedeutung ist« - »eine Bedeutung ist das und
das«. Die Frage »Was ist eine Bedeutung?« erweist sich somit als spezifisch philosophische
Frage.“99
Wenn wir allerdings anfangen, uns ebendiese philosophische Frage zu stellen, scheint uns der
Begriff der Bedeutung nicht fassbar zu sein. Daher sprach Quine sich dafür aus, Bedeutungen nicht
als eigenständige metaphysische Entitäten anzusehen. Der Grund, der ihn dazu bewogen haben
mag, könnte darin bestehen, dass wir für Bedeutungen keine Identitätskriterien besitzen, aber
98
99
Quine, W.V.O.: Pursuit of Truth, Cambridge, Mass. 1990; dt. Unterwegs zur Wahrheit, Paderborn 1995, S. 7
Quine, W.V.O: Theories and things, Harvard. 1981; dt. Theorien und Dinge, Frankfurt a.M. 1985, § 5, S. 61
99
Identitätskriterien für ihn die Grundlage der Anerkennung der Existenz von Entitäten sind. Quines
Forderung, Bedeutungen nicht als eigenständige Entitäten anzusehen, folgt also logisch aus seinen
zwei ontologischen Grundprinzipien: seinem Identitätsprinzip der Ontologie und seinem Prinzip der
ontologischen Sparsamkeit.
„Das erste besagt, dass jede Annahme, es gebe ein Objekt O1 des Typs T, damit verknüpft
ist, dass es zu diesem Objekt auch Identitätsbedingungen gibt, die zumindest die folgenden
Fragen zu beantworten erlauben: Wodurch kann ich das Objekt O 1 von anderen Objekten
O2 ... On unterscheiden, die ebenfalls vom Typ T sind? Wie kann ich andere Objekte
abgrenzen, die nicht vom Typ T sind? Wenn es dagegen nicht einmal ein vages
Identitätskriterium für ein vermeintliches Objekt gibt, so ist die Annahme, dass dieses
Objekt (in irgendeiner Form) existiert, unbegründet.“100
Wenn wir behaupten, dass es Objekte eines bestimmten Typs gibt, dann müssen wir auch
Identitätskriterien angeben können, die diese Objekte unterscheidbar machen. Können wir das nicht,
dann fehlt uns jegliche Begründung für die Annahme der Existenz solcher Objekte.
Quines zweites ontologisches Prinzip besagt jedoch, dass keine unnötigen Existenzannahmen
gemacht werden sollen. Die in diesem Sinne einfachste wissenschaftliche Theorie, welche die
wenigsten Existenzannahmen zur Erklärung eines Phänomens benötigt, stellt demgemäß immer die
beste Theorie dar.
Quine schlägt daher vor, Bedeutung über die Aktivierung der Wahrnehmungsrezeptoren eines
Subjekts in einer bestimmten Wahrnehmungssituation zu definieren. Diese Aktivierungen nennt er
auch Reizeinflüsse, und über diese gelangt er folgendermaßen zu der Reizbedeutung eines Satzes:
„Die Reizbedeutung eines Satzes setzt sich zusammen aus der Menge der Reizeinflüsse, die
zu einem Zustimmungsverhalten zu einer Äußerung führen und der Menge der
Reizeinflüsse, die zu einem Ablehnungsverhalten zu einer Äußerung führen. [...] Zwei Sätze
sind in Bezug auf einen Sprecher (bzw. in Bezug auf eine gesamte Sprache)
bedeutungsgleich genau dann, wenn sie für einen Sprecher (bzw. für alle Sprecher einer
Sprache) bei gleichen Reizeinflüssen das gleiche Zustimmungs- bzw. Ablehnungsverhalten
nach sich ziehen.“101
100
Newen, A.: Willard Van Ornam Quine in Otfried Höffe (Hrsg.) Klassiker der Philosophie 2 – Von Immanuel Kant
bis John Rawls, München: Verlag C.H. Beck, 2008, S. 334
101
Newen, A.: Willard Van Ornam Quine in Otfried Höffe (Hrsg.) Klassiker der Philosophie 2 – Von Immanuel Kant
bis John Rawls, München: Verlag C.H. Beck, 2008, S. 329
100
Quine hält die Reizbedeutung für die einzig denkbare Grundlage für eine Bedeutungstheorie. Sein
Ansatz hat jedoch komplizierte Nebenwirkungen. Er führt zu einem Bedeutungsholismus. Aufgrund
seiner Definition der Reizbedeutung haben einzelne Wörter keine unabhängige festgesetzte
Bedeutung, sondern ihre Bedeutung wird nur im Satzkontext festgelegt. Weiterhin ist die Bedeutung
eines Satzes für ihn noch variabel im Hinblick auf das gesamte Satzsystem, in dessen Kontext er
verwendet wird. Sein Gedanke ist dabei folgender: Wenn es zum Beispiel in einer Wissenschaft
einen Paradigmenwechsel gibt, dann können wissenschaftliche Sätze im alten und neuen Paradigma
jeweils unterschiedliche Zustimmungsverhalten nach sich ziehen. Oder um ein einfacheres Beispiel
zu wählen: Wenn jemand nach einem Ortswechsel eine Temperaturangabe basierend auf der
Celsiusskala macht, obwohl er sich in einem Kreis von Zuhörern befindet, in dem man
normalerweise die Fahrenheitskala verwendet, wird er plötzlich unerwartet auf Ablehnung seiner
Aussage stoßen. Der gesamtgesellschaftliche Kontext, in dem ein Satz geäußert wird, scheint also
für die Bedeutung von Sätzen eine Rolle zu spielen. Damit richtet Quine mit seiner reizbasierten
Bedeutungstheorie seine Aufmerksamkeit ebenfalls auf den sozialen Interaktionsaspekt von
Sprachen, ähnlich wie Wittgenstein in den Philosophischen Untersuchungen mit seiner
Gebrauchstheorie der Bedeutung. Quines Lösung der Frage, worin eine Bedeutung eigentlich
besteht, kann jedoch nicht überzeugen. Daher werden wir in den folgenden Kapiteln seinen
naturalistischen
Ansatz
fortführen
und
Bedeutung
auf
neurophysiologische
Strukturen
zurückführen. Obwohl er einige interessante und wichtige Details in die philosophische Diskussion
eingebracht hat, ist Quines gesamter Ansatz aufgrund folgender zwei Probleme nicht weitgehend
genug:
5.3 Die Probleme von Quines naturalistischer Bedeutungstheorie
Erstens geht er mit seiner Definition der Reizbedeutung nicht weit genug in seinem naturalistischen
Ansatz, sondern distanziert sich von den neuronalen Prozessen, die der Schlüssel zum Verständnis
jedweder Sprachprozesse sind. Stattdessen bleibt er ganz bewusst auf der Ebene der äußerlichen
Betrachtung von Reizen und Wahrnehmungen stehen:
„Ein visueller Reiz wird für unsere jetzigen Zwecke vielleicht am besten mit dem Muster
der chromatischen Bestrahlung des Auges identifiziert. Der Versuchsperson tief in den Kopf
zu schauen, wäre selbst dann nicht angebracht, wenn es durchführbar wäre, denn mit dem
101
idiosynkratischen Verlauf ihrer Nervenbahnen oder der privaten Geschichte ihrer
Gewohnheitsbildung wollen wir uns nicht befassen. Worum es uns geht, ist der ihr von der
Gesellschaft eingeprägte Sprachgebrauch, folglich ihre Reaktionen auf Bedingungen, die
normalerweise gesellschaftlicher Bewertung unterliegen.“102
Dabei entgeht ihm, dass das, womit er sich gerade nicht befassen will (die Struktur von
Nervenbahnen und die Gewohnheitsbildung), aus biopsychologischer Sicht genau dasselbe ist wie
das, womit er sich stattdessen befassen will (gesellschaftlich gesteuerter Spracherwerb), denn
Spracherwerb wird realisiert durch die Ausbildung entsprechender neuronaler Strukturen.
Er will die Bedeutung also ganz eng an die Aktivierung der Wahrnehmungsrezeptoren binden, was
aus meiner Sicht schon nicht weitgehend genug wäre, weil man zur Erklärung der Bedeutung bis
auf die Ebene der neuronalen Verarbeitungsprozesse hinunter muss, da die Verwendung von
Sprache eben nicht nur aus der Wahrnehmung von Wörtern und ihrer Wiederholung besteht,
sondern auch aus der Erstellung komplizierter neuer Wortverbindungen zu Sätzen. Aber mit seiner
Definition schafft er noch nicht einmal die angestrebte enge Bindung an die Aktivierung der
Wahrnehmungsrezeptoren. Stattdessen treten das Zustimmungs- und Ablehnungsverhalten von
Sprechern in Bezug auf geäußerte Sätze in den Vordergrund seiner Theorie.
Zweitens fokussiert er nicht die richtige Situation, um die Entstehung von Bedeutung zu erfassen.
Wie im 6. Kapitel noch gezeigt werden wird, muss man sich auf die Situation des Spracherwerbs
konzentrieren, um eine angemessene Bedeutungstheorie zu erstellen. Die Situation, die Quine
betrachtet, ist jedoch zum einen sehr speziell auf das Wissenschaftssystem bezogen, insofern als es
in seinem Szenario einer Sprechergemeinschaft darum geht, einen bestimmten Teil der Realität
passend zu beschreiben. Zum anderen erweist sich diese Situation als vollkommen theoretisches
Konstrukt, und seine Bedeutungstheorie somit als praktisch nicht anwendbar. Wie würde man bei
Verwendung dieser Theorie zum Beispiel bestimmen, ob zwei Sätze bedeutungsgleich sind? Würde
man eine Menge kompetenter Sprecher versammeln, die gewünschten Reizeinflüsse erzeugen, und
dann ihr Verhalten betrachten? Das hört sich so schon relativ abstrus an, aber gemäß dieser Theorie
müsste man nicht nur eine, sondern alle möglichen relevanten Reizkonstellationen erzeugen, um
sicher zu gehen, dass die zwei geprüften Sätze bedeutungsgleich sind. Dieser hoch komplizierte
Prüfungsmechanismus entspricht nicht unserer alltäglichen Intuition, dass jeder einzelne Sprecher
sowohl bei Übersetzungen als auch bei beliebigen anderen Satzvergleichen innerhalb einer Sprache
problemlos dazu in der Lage ist, korrekt über die Bedeutungsgleichheit von Sätzen zu entscheiden.
Zusammenfassend bleibt daher festzuhalten, dass im Unterschied zu Quines Ansatz die kindliche
102
Quine, W.V.O.: Word and Object, Cambridge, Mass. 1960; dt. Wort und Gegenstand, Stuttgart 1980, § 8, S. 67
102
Spracherwerbssituation bei der Erstellung einer Bedeutungstheorie besonders berücksichtigt werden
sollte. Die von Quine thematisierte Situation der radikalen Übersetzung entspricht eben nicht exakt
dem kindlichen Spracherwerb, sondern dem Erwerb einer zweiten Sprache. Der Sprachforscher, der
in seinem berühmten „Gavagai“-Beispiel die Dschungelsprache eines Eingeborenen erlernen will,
hat ja bereits eine eigene Sprache erlernt. Betrachtet man es rein theoretisch, dann sind
offensichtlich der Prozess, etwas ganz neu zu erlernen, und der Prozess, etwas mit bereits bekannten
analogen Strukturen in Relation zu setzen, relativ unterschiedlich. Zu diesem theoretischen
Unterschied findet sich aber auch ein physiologisches Korrelat. Die Gehirnstrukturen eines
Kleinkindes unterscheiden sich offenbar stark von denen eines Erwachsenen. Der kindliche
Erstspracherwerb basiert auf einem neuronalen Reifungsprozess, der nur in einem ganz bestimmten
Lebensalter abläuft. Wird in diesem Zeitfenster keine Sprache erlernt, kann dies nur schwerlich
nachgeholt werden.
Weiterhin sollte die neue Theorie Bedeutung idealerweise wirklich nur über die Beschreibung von
physischen Prozessen in menschlichen Wahrnehmungsorganen und Gehirnen erklären, statt
zusätzlich auch noch auf Zustimmungs- und Ablehnungshandlungen angewiesen zu sein, da man
sonst wie Quine mit den oben geschilderten unplausiblen Konsequenzen für die Aufwändigkeit der
Klärung von Bedeutungsgleichheit und Übersetzungen konfrontiert ist. Wie sich zeigen wird,
erledigt sich durch einen neurobiologischen Ansatz darüber hinaus auch das durch Quines
Konzeption bedingte Problem des Bedeutungsholismus, da Wortbedeutungen dann nicht mehr nur
im Satzkontext und in Abhängigkeit von Zustimmungsverhalten festgelegt werden.
103
6. Sprachentstehung und Spracherwerb
In diesem Kapitel über die Sprachentstehung und den Spracherwerb werden sozusagen die
Phylogenese und die Ontogenese der Sprache in den Blick genommen. Es geht sowohl um Fragen
der Sprachentstehung als einem evolutionsbiologischen Prozess als auch um die exakten
Verhältnisse beim Prozess des Spracherwerbs, den jedes menschliche Individuum am Anfang seines
Lebens durchlaufen muss. Es werden dabei Experimente und Datensammlungen aus
unterschiedlichen wissenschaftlichen Ansätzen mit dem Ziel betrachtet, ihre wichtigen Ergebnisse
festzuhalten, um sie später mit den Erkenntnissen der Neuropsychologie zu einer einheitlichen
Theorie zusammenzufügen.
6.1 Sprache und Denken
Im ersten Teil dieses Kapitels werde ich mich mit den Zusammenhängen zwischen Sprache und
Denken beschäftigen. Untersuchungen mit Fragestellungen dieser Art finden sich insbesondere in
der Linguistik, die als zwischen Philosophie, Psychologie und Soziologie angesiedelte
interdisziplinäre
Wissenschaft
mit
diversen
Methoden
das
System
Sprache
aus
den
unterschiedlichen Blickwinkeln betrachtet. Unter anderem untersucht sie auch die Entstehung und
geschichtliche Entwicklung der Sprache, was in den weiteren Abschnitten dieses Kapitels von
Interesse sein wird.
Im Bereich der Linguistik ist die Sapir-Whorf-Hypothese sehr wirkungsvoll gewesen, nachdem sie
in den 1950er Jahren durch die postume Veröffentlichung von Benjamin Lee Whorfs (1897-1941)
Schriften bekannt wurde. Diese Hypothese hat zu einer sehr detaillierten Diskussion über die
Verhältnisse zwischen unseren Denkprozessen und unserer Sprache geführt. Bevor man darüber
nachzudenken beginnt, ob die Sprache unser Denken, oder unser Denken die Sprache formt, sollte
man zuerst einmal zeigen, dass es sich dabei überhaupt um zwei unterschiedliche Dinge handelt.
Einem wissenschaftlich ausgebildeten Erwachsenen könnte es aufgrund seiner Spezialisierung so
vorkommen, als gäbe es überhaupt kein Denken ohne die Sprache. Denken entspräche für ihn
seinem inneren Sprechen und keinen anderweitigen Prozessen. Diese These vertrat zum Beispiel
auch der Psychologe James B. Watson (1878-1958), der Begründer des Behaviorismus. Seiner
Ansicht nach bestand das, was die Psychologen vor der Etablierung des Behaviorismus die
Gedanken einer Person nannten, in nichts anderem als einem Zu-sich-selbst-Sprechen dieser
Person. Gibt es also zu den beiden unterschiedlichen Wörtern „Denken“ und „Sprechen“ wirklich
104
entsprechende unterschiedliche Prozesse in unseren Gehirnen?
Auch wenn viele unserer effizientesten Gehirnvorgänge sprachbasiert ablaufen, muss man doch
anerkennen, dass es darüber hinaus viele Prozesse gibt, die keine sprachliche Lösung erfordern,
oder für die eine sprachliche Kodierung auch nur nützlich wäre. Dazu gehören die Optimierung der
Geschwindigkeit von Bewegungsabläufen, der Erwerb von handwerklichem Geschick und
Problemlösungsverfahren durch Herumprobieren, wie sie Tiere ohne Sprachfähigkeit auch
verwenden. Dass Tiere auch ohne Sprache ihre Umwelt auf gewisse Art und Weise strukturieren
und Gegenstände funktional klassifizieren, zeigt zum Beispiel der Bericht von einem Experiment,
das der Gestaltpsychologe Wolfgang Köhlers 1914 durchführte. Dabei befand sich der Schimpanse
Sultan in einem Käfig, vor dem Bananen ausgelegt wurden, die er mit den Armen nicht erreichen
konnte. Im Käfig befanden sich auch mehrere Gegenstände, unter anderem eine Holzkiste und zwei
hohle Bambusstangen, von denen jedoch keine lang genug war, um die Bananen mit ihrer Hilfe
erreichen zu können. Zunächst zerrte Sultan die Kiste ans Gitter, bemerkte allerdings, dass diese ihn
eigentlich nur behinderte und schob sie wieder weg. Danach schob er eine Stange so weit in
Richtung der Bananen wie er konnte und verwendete die zweite Stange sehr geschickt, um die erste
langsam noch weiter in die richtige Richtung zu schieben. Damit konnte er die Früchte dann zwar
berühren, was ihn sichtlich erfreute, aber nicht erfolgreich zu sich manövrieren. Nachdem er auf
diese Art mehrfach erfolglos war, gab er seine Bemühungen zunächst ganz auf.
„Sultan hockt zunächst gleichgültig auf der Kiste, die etwas rückwärts vom Gitter stehen
geblieben ist; dann erhebt er sich, nimmt die beiden Rohre auf, setzt sich wieder auf die
Kiste und spielt mit den Rohren achtlos herum. Dabei kommt es zufällig dazu, dass er vor
sich in jeder Hand ein Rohr hält, und zwar so, dass sie in einer Linie liegen; er steckt das
dünnere ein wenig in die Öffnung des dickeren, springt auch schon auf ans Gitter, dem er
bisher halb den Rücken zukehrte, und beginnt eine Banane mit dem Doppelrohr
heranzuziehen. […] Sultan hockt am Gitter, ein Rohr hält er hinaus, und auf der Spitze hängt
lose das zweite weitere Rohr, gerade im Abfallen; es fällt wirklich, Sultan zieht es heran,
schiebt sofort mit der größten Sicherheit das dünnere wieder hinein, so dass jenes
einigermaßen fest darauf sitzt, und holt mit dem verlängerten Werkzeug eine Frucht heran.
[…] Als dabei das lange Werkzeug hinderlich wird, indem es mit dem hinteren Ende
zwischen die Gitterstangen gerät und bei Schrägbewegungen hängen bleibt, zerlegt das Tier
es schnell in seine Teile und verrichtet den Rest der Arbeit mit nur einem Rohr; das
geschieht von nun an stets, wenn das Ziel so nah gekommen ist, dass ein Rohr ausreicht, und
105
der Doppelstock nur mehr unbequem wirkt. - Das neue Ziel wird noch weiter gelegt. Die
Folge ist, dass Sultan ausprobiert, welches der beiden weiten Rohre mit dem dünnen
zusammen dienlicher ist; denn die beiden sind an Länge nicht sehr verschieden (64 und 70
cm), und das Tier legt sie natürlich nicht zum Vergleich aneinander. Niemals versucht Sultan
die beiden breiten Rohre zusammenzubringen: Einmal hält er sie einen Augenblick einander
ohne Berührung gegenüber und betrachtet die beiden Öffnungen, legt aber sogleich (ohne
Ausprobieren) das eine fort und greift wieder zu dem dünneren dritten; die beiden weiten
Rohre haben gleiches Lumen). - Die Lösung folgt ganz plötzlich: Sultan angelt mit einem
Doppelrohr, bestehend aus dem dünneren und dem einen breiten Rohr, wobei er wie sonst
das Ende von jenem in der Hand hält. Mit einem Male zieht er das Doppelrohr zu sich
herein, dreht es um, so dass er das dünne Ende vor seinen Augen hat und das andere Ende
hinter ihm in die Luft ragt, ergreift das dritte Rohr mit der Linken und führt die Spitze des
Doppelstocks in die Öffnung ein. Mit dem Dreistock wird das Ziel mühelos erreicht; beim
Heranziehen, als das lange Werkzeug sich hinderlich erweist, wird es alsbald wieder
auseinandergenommen.“103
Auch wenn die Lösungsschritte gewisse Zufallselemente enthalten, so muss man doch sagen, dass
der Schimpanse die Bedeutung der Stockstrukturen für sein Problem erkannt hat, und sich damit ein
neues Problemlösungsverhalten erschlossen hat. Er hat dieses Problem geistig gelöst und da er nicht
über menschliche Sprache verfügt, müssen die abgelaufenen Denkprozesse sprachfrei gewesen sein.
Es gibt also offenbar Problemlösungsverfahren, die nicht sprachbasiert sind, und solche Prozesse
klassifizieren wir normalerweise auch unter dem Begriff des Denkens. Damit sollte geklärt sein,
dass Denken und Sprechen korrekterweise zwei unterschiedliche Prozesse genannt werden.
Heutzutage
sind
solche
Klassifizierungsprobleme
aufgrund
von
neuropsychologischen
Erkenntnissen leichter zu lösen als noch vor einigen Jahrzehnten. Wir können jetzt lokalisieren, in
welchen Gehirnbereichen die verschiedenen Leistungen des menschlichen Gehirns erbracht werden.
Somit fällt es leichter die verschiedenen Positionen auseinander zu halten, falls mehrere Autoren
oder Sprecher unterschiedliches unter dem Begriff „Denken“ verstehen wollen. Es lassen sich
zumindest die Bereiche der Wahrnehmung und Verarbeitung der Daten von den Sinnesorganen und
der Steuerung der motorischen Fähigkeiten auch räumlich im Gehirn gut abgrenzen von anderen
Prozessen, die man eher unter dem Oberbegriff „Denken“ zusammenfassen würde, wie zum
Beispiel Sprachprozesse, Aufmerksamkeitssteuerung und gezielte Gedächtnisabrufe.
103
Köhler, W.: Intelligenzprüfungen an Menschenaffen – Berlin°Heidelberg°New York, Springer-Verlag, 1973, S.91-93
106
Sprechen und Denken basieren zwar beide auf Gehirnaktivität, aber sie sind zwei unterscheidbare
Prozesse. Die interessante Frage bleibt jedoch: Formt unsere Sprache unser Denken, oder formt
unser Denken unsere Sprache? Verschiedene Überlegungen dazu gab es schon seit dem späten
Mittelalter, aber berühmt wurden sie erst durch Benjamin Lee Whorfs Hypothese:
„Man fand, dass das linguistische System (mit anderen Worten, die Grammatik) jeder
Sprache nicht nur ein reproduktives Instrument zum Ausdruck von Gedanken ist, sondern
vielmehr selbst die Gedanken formt, Schema und Anleitung für die geistige Aktivität des
Individuums ist, für die Analyse seiner Eindrücke und für die Synthese dessen, was ihm an
Vorstellungen zur Verfügung steht. Die Formulierung von Gedanken ist kein unabhängiger
Vorgang, der im alten Sinne dieses Worts rational ist, sondern er ist beeinflusst von der
jeweiligen Grammatik. Er ist daher für verschiedene Grammatiken mehr oder weniger
verschieden. Wir gliedern die Natur an Linien auf, die uns durch unsere Muttersprachen
vorgegeben sind. Die Kategorien und Typen, die wir aus der phänomenalen Welt
herausheben, finden wir nicht einfach in ihr – etwa weil sie jedem Beobachter in die Augen
springen; ganz im Gegenteil präsentiert sich die Welt in einem kaleidoskopartigen Strom von
Eindrücken, der durch unsern Geist organisiert werden muss – das aber heißt weitgehend:
von dem linguistischen System in unserm Geist. Wie wir die Natur aufgliedern, sie in
Begriffen organisieren und ihnen Bedeutungen zuschreiben, das ist weitgehend davon
bestimmt, dass wir an einem Abkommen beteiligt sind, sie in dieser Weise zu organisieren –
einem Abkommen, das für unsere ganze Sprachgemeinschaft gilt und in den Strukturen
unserer Sprache kodifiziert ist. Dieses Abkommen ist natürlich nur ein implizites und
unausgesprochenes, aber sein Inhalt ist absolut obligatorisch; wir können überhaupt nicht
sprechen, ohne uns der Ordnung und Klassifikation des Gegebenen zu unterwerfen, die
dieses Übereinkommen vorschreibt.“104
Whorfs Formulierungen ließen genügend Interpretationsspielraum, so dass sich im Anschluss zwei
verschieden starke Versionen seiner These entwickeln konnten. Die schwächere Behauptung ist
bekannt als „sprachliches Relativitätsprinzip“, welches besagt, dass die jeweilige Sprache das
Denken beeinflusst und erleichtert, und somit zur Verschiedenheit der Denkstile in mehreren
Sprachen beiträgt. Die als „Sprachdeterminismus“ bekannte Position geht weit darüber hinaus und
behauptet, dass jeder Sprecher denkerisch an die Konventionen seiner jeweiligen Sprache gebunden
ist, die die Interpretation der Welt bereits vorgibt. Diese sprachlichen Grenzen führen zu Grenzen in
104
Whorf, B.L.: Sprache, Denken, Wirklichkeit – Beiträge zur Metalinguistik und Sprachphilosophie – Hamburg:
Rowohlt, 1963 S. 12
107
den Möglichkeiten, die Welt anders zu sehen, und letztlich zu einer Unübersetzbarkeit von Sprachen
ineinander, insofern diese nicht nahe miteinander verwandt sind oder gemeinsame Sprachwurzeln
haben. Während sich die europäischen Sprachen demnach noch ineinander übersetzen lassen, sollte
eine Übersetzung einer europäischen Sprache in eine indianische Sprache gemäß der
sprachdeterministischen Position unmöglich sein.
Während man die schwache Version relativ problemlos akzeptieren kann, scheint die starke Version
zu viel zu behaupten. Der Käfig, in den uns die jeweils eigene Sprache einsperrt, besteht nämlich
nur in den schon bestehenden Kommunikationsmöglichkeiten und Begriffen. In der Tat kann es uns
schwer fallen, gewisse neue Denkkonzepte in unserer Sprache zu kommunizieren, aber das Problem
besteht nur in ihrer Kommunizierbarkeit und nicht in der Unmöglichkeit überhaupt neue
Denkkonzepte zu entwickeln. Dass wir in der Tat immer neue Denkkonzepte entwickeln, und zu
ihrer Kommunikation neue Umschreibungen und zuletzt sogar ganz neue Worte erschaffen, zeigt
ein Blick auf die Geschichte der Wissenschaft und Technik sehr deutlich.
Natürlich ist die wissenschaftliche Erfindung neuer Konzepte und die Erschaffung neuer Worte die
Ausnahme, während der Normalfall der Sprachverwendung darin besteht, die altbekannten Worte
zu verwenden und somit im Käfig der eigenen Sprache zu verbleiben, aber auch viele künstlerische
Texte können als Versuch verstanden werden, mit alten Sprachmitteln etwas Neues auszusagen. Der
flexible Umgang mit Sprache und die Umstrukturierung von Sprache sind also möglich, und somit
ist der „Sprachdeterminismus“ nicht uneingeschränkt gültig, und dadurch muss auch die
Unübersetzbarkeitsthese letztlich falsch sein.
Um die Verhältnisse zwischen Sprache und Denken genauer zu erkennen, begann man diverse
psychologische Experimente durchzuführen. Roger Brown und Eric Lenneberg führten 1954 das
erste Experiment bezüglich Farbwahrnehmung und Farbnamen durch, dem in den folgenden 30
Jahren noch einige ähnliche Experimente folgen sollten. Diese Experimente sollten die
verschiedenen Versionen der Sapir-Whorf-Hypothese bestätigen oder widerlegen. Unterschiedliche
Sprachen verfügen über unterschiedliche und vor allem verschieden viele Farbnamen. Die
Experimente sollten zeigen, wie sich die unterschiedlichen Arten der sprachlichen Gliederung des
Farbraums auf den jeweiligen nichtsprachlichen Umgang mit Farben auswirken. Zunächst schien es
Befunde zu geben, die für die Richtigkeit des „sprachlichen Relativitätsprinzips“ sprachen. Dies
waren bessere Gedächtnisleistungen beim längerfristigen Behalten und Wiedererkennen von
Farbtönen, für die es in der jeweiligen Sprache eigene Farbnamen gab, als für solche Farbtöne ohne
eigenen Farbnamen in der Sprache des Probanden.
Spätere Experimente von Brent Berlin und Paul Kay zeigten jedoch, dass bestimmte Farben (die
Fokalfarben, die in den Experimenten von Brown und Lenneberg besser wieder erkannt wurden) für
108
alle Völker auffälliger sind und alle Sprachen ihr Farblexikon nach und nach in einer bestimmten
Struktur um diese Fokalfarben herum zusammen bauen. Tatsächlich wurde 1973 die physiologische
Grundlage für diese Strukturierung um die Fokalfarben herum entdeckt. Im Kniekörper des
Zwischenhirns (Corpus geniculatum laterale) werden die Sinnesdaten aus den Augen von vier
unterschiedlichen Zelltypen analysiert, die jeweils auf bestimmte Wellenlängen am stärksten und
auf die Wellenlänge einer anderen Farbe am wenigsten reagieren. Diese Wellenlängen entsprechen
den vier Fokalfarben (in den Gegensatzpaaren rot-grün und blau-gelb), die für alle Menschen
besonders gut wieder erkennbar sind, und die bei der Sprachentstehung in jeder Sprache direkt nach
der Unterscheidung hell-dunkel als erste Farben eigene Farbwörter bekommen.
Bei der genaueren Untersuchung hatte sich nun also gezeigt, dass im Fall der Farbwörter die
Wahrnehmung die Sprache beeinflusst und nicht umgekehrt, wie man zunächst angenommen hatte.
Eleanor Roschs Experimente bei den Dani, einem Volk in Neu-Guinea, bestätigten diese Ergebnisse
weiter. Obwohl die Dani nur über die sprachliche Unterscheidung hell-dunkel und keine Farbnamen
verfügen, waren sie ebenfalls besser im Wiedererkennen von den Fokalfarben und verwechselten
helle Grüntöne mit dunklen Grüntönen, statt mit hellen Rottönen, wie es ihre Sprache ihnen nahe
gelegt hätte.
Die Wahrnehmung steht also zumindest für so basale Analyseeinheiten, wie Farbtöne es sind, fest
und die Sprache richtet sich in einem langfristigen evolutionären Prozess an diesen Strukturen aus.
Unsere jeweilige Sprache verändert also nicht, wie die Welt für uns aussieht. 105 Obwohl dies eine
wichtige Erkenntnis ist, die sich definitiv festzuhalten lohnt, gehen diese Untersuchungen eigentlich
an der Fragestellung nach dem Verhältnis von Sprache und Denken vorbei. Denn unter dem Begriff
„Denken“ verstehen wir normalerweise nicht das reine Wahrnehmen der Welt, sondern einen
aktiven Umgang mit den Daten aus der Wahrnehmung.
Es bedurfte also weiterer Experimente zur Klärung der Whorf-Hypothese. John Lucy fand 1992 bei
der Erforschung der Sprache der Maya einen extremen Mangel an Pluralformen, der im Verhalten
der Maya eine Präferenz zur Fokussierung von Substanzen und Materialien nach sich zu ziehen
scheint. Abgesehen von Bezeichnungen für Lebewesen gibt es nur Singularformen in ihrer Sprache,
wie es im Deutschen bei Wachs oder Schnee der Fall ist. Bei Sortierungsaufgaben ordnen die Maya
unterschiedlich geformte Dinge mit unterschiedlichen Anwendungsformen zueinander, solange sie
aus gleichem Material bestehen, statt unterschiedliche Materialien, die die gleiche Form und somit
die gleichen Anwendungsmöglichkeiten aufweisen, zueinander zu sortieren. Diese Besonderheit der
Klassifizierung entwickelt sich bei den Maya erst mit ungefähr acht Jahren heraus. In den ersten
105
Diese Schlussfolgerung mag an dieser Stelle übereilt erscheinen, wenn man allein die psychologischen
Untersuchungen aus den 1950er Jahren betrachtet, die ich hier angeführt habe, aber diese Befunde wurden durch die
neuropsychologischen Erkenntnisse über die zerebrale Verarbeitung des gesamten Sehprozesses bekräftigt.
109
Lebensjahren klassifizieren sie genauso, wie wir es tun. Ist das ein Beleg für die Überformung des
Denkens durch die Besonderheiten der Grammatik der erlernten Sprache?
Falls es so ist, dann sollten sich weitere Einflüsse der Sprache auf höhere kognitive Prozesse
experimentell nachweisen lassen. Stephen Levinson untersuchte verschiedene Kulturen auf ihre
sprachliche und faktische Raumorientierung. Dabei fand er drei verschiedene Arten der
Raumorientierung, die mit ebenso unterschiedlichem Vokabular für die räumliche Orientierung
einhergehen. Neben unserer europäischen egozentrisch-relationalen Orientierung gibt es auch die
intrinsische (an den Besonderheiten der Umgebung ausgerichtete) und die an absoluten Koordinaten
oder Himmelsrichtungen ausgerichtete Orientierung, die Sprecher von Sprachen verwenden, in
denen äquivalente Wörter für die (für uns extrem wichtigen) Begriffe „davor“, „dahinter“, „links“
und „rechts“ fehlen, ohne dass dies ihre Orientierungsfähigkeiten beeinträchtigen würde.
„Man lege vor der Versuchsperson einen Pfeil auf den Tisch, der mutmaßlich für den einen
nach links, für den anderen nach Osten zeigt, drehe den Probanden um hundertachtzig Grad
vor einen anderen Tisch und bitte ihn, den Pfeil genauso wieder hinzulegen, wie er ihn eben
liegen gesehen hatte. Der egozentrische Relativist wird ihn so legen, dass er, von ihm selber
aus gesehen, aufs Neue nach links zeigt, der Absolutist aber so, dass er nach rechts zeigt,
dorthin, wo jetzt Osten ist. Und tatsächlich verstanden sich die Sprecher „absoluter“
Sprachen auch bei sprachfreien Orientierungsaufgaben jederzeit so zu positionieren, als
hätten sie einen eingebauten Kompass – Aufgaben, bei denen „relativistische“ Westler
versagten.“106
Es lässt sich also ein eindeutiger Zusammenhang zwischen der Art und Weise, wie sich
verschiedene kulturelle Gemeinschaften im Raum orientieren, und ihrer jeweiligen Sprache
herstellen. Auch bei nicht sprachbasierten Aufgaben erfolgt die Orientierung analog zu der jeweils
typischen sprachlichen Beschreibung. Es ist jedoch nicht ganz einfach zu entnehmen, ob die
Sprache die Raumorientierung beeinflusst, oder die Raumorientierung die Sprache. Da die
Raumorientierung erlernt wird und dieser Lernprozess sprachlich gestützt in der jeweiligen
Sprachgemeinschaft stattfindet, liegt es näher zu sagen, dass die Sprache die Entwicklung der
anderen höheren kognitiven Fähigkeiten beeinflusst. Gleichzeitig beeinflussen aber unsere
kognitiven Fähigkeiten und Lebenswelten unsere Ansprüche an die Leistungsfähigkeit unserer
jeweiligen Sprache. Um in der Prärie den Büffelherden zu folgen, sind Orientierungen an der Sonne
und an auffälligen Felsformationen oder Flüssen ideal. Begriffe wie links oder rechts sind dem
106
Zimmer, D.E.: So kommt der Mensch zur Sprache – München: Heyne, 2008 S. 204
110
gegenüber zur Orientierung in Wäldern oder anderen natürlichen Umgebungen nicht nur nicht
nötig, sondern aufgrund der Unmöglichkeit geradlinigen Vorankommens oder rechtwinkligen
Abbiegens geradezu unnütz. Um jedoch einen winzigen Gegenstand im richtigen Büro im richtigen
Hochhaus in einer modernen Großstadt abzuholen, benötigt man andere Fähigkeiten und dadurch
wird auch anderes Vokabular nötig und nützlich.
Es gilt also folgende Punkte festzuhalten, bevor wir uns der historischen Entstehung der
Sprachfähigkeit widmen: Die jeweilige Sprache beeinflusst keinesfalls unsere Wahrnehmung der
Welt durch unsere Sinnesorgane, sondern nur unsere höheren kognitiven Prozesse. So kann uns zum
Beispiel die sprachliche Formulierung eines Problems sehr dabei behindern, die Zusammenhänge
klar zu erkennen und die beste Lösung zu finden. Andererseits beeinflussen unsere höheren
kognitiven Prozesse auch unsere Sprachen. Denn wir verändern ständig den Wortschatz unserer
Sprachen in Abhängigkeit von den Anforderungen, die von unserer Umwelt jeweils aktuell an uns
gestellt werden.
6.2 Die historische Entstehung der Sprachfähigkeit
Die Frage nach der historischen Entstehung der menschlichen Sprachfähigkeit eröffnet einen sehr
interessanten Theoriebereich, in dem jedoch sichere Erkenntnisse nur schwer zu erreichen sind.
Darum möchte ich mich diesem Thema auch nur kurz widmen, ganz unerwähnt bleiben soll es
jedoch nicht, da es einige interessante Zusammenhänge zum kindlichen Spracherwerb gibt.
Unsere heutigen Sprachfähigkeiten sind so komplex, dass es schwer fällt, sich vorzustellen, wie sie
schrittweise aus primitiven Zeigegesten und wenigen undifferenzierten Kehlkopflauten entstanden
sein sollen. Während niemand den Nutzen unseres ausgereiften Sprachsystems anzweifeln kann,
scheint es schwieriger zu sein, für jeden kleinen Entwicklungsschritt evolutionsbiologische
Begründungen anzugeben. Warum entwickelt sich ein System von Zeigegesten? Warum sind
Geräusche nützlichere Signale als Gesten? Warum benötigt man extrem viele unterschiedliche
Signale? Warum sind die Wörter aus Phonemen zusammengesetzt? Warum entwickeln sich Namen
für Gegenstände und Tätigkeiten? Warum entwickeln sich Grammatiken für komplexe
Satzstrukturen? Jeder weitere Entwicklungsschritt erfordert komplizierte Fortschritte im Bauplan
der Kehlkopfstruktur, in der motorischen Leistungsfähigkeit bei der Produktion und in der
Diskriminierungsfähigkeit beim Hören von schnellen Lautfolgen. Diese Fragen müssen beantwortet
werden, so dass sich ein vollständiges widerspruchsfreies Erklärungssystem ergibt. Dabei gilt es,
111
die Ergebnisse von Untersuchungen zu Schädelverformungen bei archäologischen Funden ebenso
zu beachten und mit dem Erklärungsansatz in Einklang zu bringen, wie heutige Erkenntnisse zur
Hemisphärendominanz, oder zur tierischen Kommunikation. Auch aus den Vorgängen während des
individuellen Spracherwerbs (in der Ontogenese) lassen sich potentiell Rückschlüsse auf die
historische Entwicklung von Sprache in der Phylogenese ziehen. Auch wenn so niemals historische
Gewissheit erlangt werden kann, gilt es doch zumindest, dass eine gute Theorie alle diese Hinweise
sinnvoll in eine stimmige Geschichte integrieren können sollte. Betrachten wir daher die
interessante Theorie, die Doris und David Jonas in ihrem Buch Das erste Wort107 dargestellt haben.
Sie argumentieren dafür, dass Sprache sich in sozialen Beziehungen entwickelt haben muss, in
denen es etwas zu kommunizieren gab. Heute benutzen wir Sprache zwar nicht mehr allein als
Kommunikationswerkzeug,
sondern
zum
Beispiel
um
im
inneren
Monolog
effiziente
Problemlösungen zu erarbeiten oder generell nachzudenken, aber dieser sekundäre Nutzen kann
nicht der evolutionsbiologische Grund der Sprachentstehung sein. Da Doris und David Jonas die
Beziehung zwischen Mutter und Kind als die engste soziale Beziehung identifizieren, sehen sie in
ihr die Konstellation, in der Sprache phylogenetisch entstanden sein muss. Ihrer Einschätzung
zufolge war es auch zu prähistorischen Zeiten die Mutter, die das Kind versorgte, auf es aufpasste
und ihm spielerisch die natürliche Umwelt und die jeweils schon vorhandenen Kulturtechniken
nahebrachte. In dieser sozialen Konstellation erlernte das Kind, was gefährlich war und was
nützlich und wie man in dieser Welt in jeder Hinsicht bestmöglich zurechtkam. Diese Einschätzung
basiert auf Beobachtungen des Sozialverhaltens von in Freiheit lebenden Schimpansen. Bei ihnen
lässt sich beobachten, wie dieser Lernprozess noch heute abläuft. Und in Form dieses Prozesses in
dieser
sozialen
Konstellation
hat
man
ein
evolutionsbiologisches Argument
für
die
Sprachentstehung und Weiterentwicklung gefunden. Denn dieser Lernprozess verläuft mit
sprachlicher Unterstützung natürlich sehr viel effizienter. Da effizienteres Lernen der für das
Überleben relevanten Fähigkeiten sich direkt auf den evolutionsbiologischen Erfolg der betroffenen
Individuen auswirken dürfte, ist abzusehen, wie der Evolutionsdruck die stetige Verbesserung der
Kommunikation zwischen Mutter und Kind befördert. Dabei könnten sich die komplexeren
Sprachstrukturen in langsamen Prozessen aus einer einfachen Kombination von hinweisenden
Gesten mit den Lautzeichen zur Aufmerksamkeitssteigerung, wie sie bei Warnrufen im Tierreich
üblich sind, entwickelt haben.
Doris und David Jonas zeigen deutlich auf, dass man nicht den Fehler machen darf, unsere heutige
Sprachverwendung zum Ausgangspunkt zu machen, wenn man eine evolutionsbiologische
107
Jonas, D.F./Jonas D.J.: Das erste Wort – Wie die Menschen sprechen lernten – Hamburg: Hoffmann und Campe,
1979
112
Erklärung für die Entstehung der Sprache entwickeln möchte. Der evolutionsbiologische Vorteil
von sprachlichem Denken und Sprechen ist zwar unbestreitbar, aber diese komplexe Fähigkeit ist
erst das Ergebnis von immens vielen kleinen evolutionären Schritten. Es muss nach genau der
Konstellation gesucht werden, in der bereits das Gehen dieser ersten kleinen Schritte zur
Entwicklung unserer heutigen Sprache den beteiligten Individuen einen deutlichen evolutionären
Vorteil verschaffte. Obwohl die Beziehung zwischen Mutter und Kind wahrscheinlich nicht allein
für die Entstehung und Weiterentwicklung der Sprache verantwortlich gewesen ist, da Kooperation
auch in vielen anderen Bereichen nützliche Effekte hat (zum Beispiel bei Jagd, Kriegsführung und
Werkzeugherstellung), liefert diese spezielle Konstellation jedoch eine überzeugende Erklärung für
die Wichtigkeit des Gelingens von Kommunikation. Wenn die Überlebensrate der Kinder durch
bessere Kommunikationsfähigkeiten gesteigert wird, dann werden die Individuen mit besseren
Kommunikationsfähigkeiten evolutionsbiologisch gesehen erfolgreicher sein. Darüber hinaus gibt
es weitere Indizien, die für die Entwicklung der Sprache im Kontext der Mutter-Kind-Beziehung
sprechen:
„In Japan wurden Makakentrupps lange und genau beobachtet. Dabei zeigte sich, dass
einfache kulturelle - »protokulturelle« - Errungenschaften immer ein Werk der Jungtiere sind
und ausschließlich in der Mutter-Kind-Beziehung weitergegeben werden. Eines Tages erfand
ein Jungtier das »Körnerausschwemmen«: Der junge Makak warf eine Handvoll mit
Schmutz vermischter Körner ins Wasser, sah die Körner oben schwimmen, fischte sie sauber
heraus und wusch die Körner von nun an immer auf diese Weise. Nach einiger Zeit hatte
sich seine Entdeckung ausgebreitet, aber nie zu den erwachsenen Männchen hin. Sie sind zu
unbelehrbar, um sich auf derlei Neuerungen einzulassen. Einzig in den Mutter-KindBeziehungen kommen solche Neuerungen zum Zuge. Darf man diese Feststellung
verallgemeinern auf die Hominiden, so kann sich die Sprache, deren ständige
Verbesserungen mit ständigen Neuerungen verbunden waren, gar nicht anders als im
Verhältnis von Mutter und Kind entwickelt haben.“108
Die Menge an benötigter Flexibilität, Lernfähigkeit und Lernwilligkeit spricht also ebenfalls für die
historische Entstehung der Sprache in der Konstellation der kindlichen Erziehung durch die Mutter.
Diese These passt auch mit vielen Fakten zusammen, die uns aus anderen Bereichen der
Sprachforschung bekannt sind, zum Beispiel damit, dass der Spracherwerb heutzutage immer noch
während der frühen Kindheit erfolgen muss, damit er überhaupt gelingen kann. Auch lässt sich bei
108
Zimmer, D.E.: So kommt der Mensch zur Sprache – München: Heyne, 2008 S. 258/259
113
Einwandererfamilien, deren Mitglieder alle die neue Landessprache erlernen müssen, beobachten,
dass es den älteren Familienmitgliedern sehr viel schwerer fällt, die neue Sprache flüssig sprechen
zu lernen. Wenn man jedoch die Wichtigkeit der Beziehung zwischen Mutter und Kind betont, dann
folgt daraus nicht nur etwas über die Vorteile der Kinder beim Spracherwerbs, sondern auch, dass
Frauen auch heute noch bessere sprachliche Fähigkeiten als Männer haben sollten, falls dieser
Effekt nicht mittlerweile durch andere historische Gegebenheiten der Evolution ausgeglichen
wurde. Und in der Tat schneiden Frauen im Durchschnitt bei Tests zu Sprachvermögen und
Sprachverständnis besser ab als Männer:
„Für diese Theorie spricht ebenfalls, dass Frauen bis auf den heutigen Tag den Männern im
Durchschnitt sprachlich überlegen sind. Die Theorie macht auch die Annahme überflüssig,
dass sich eine ausgebildete Gebärdensprache irgendwann, irgendwie in eine Lautsprache
verwandelt haben muss. Lautkommunikation zwischen Mutter und Kind hat es schon in
vorsprachlicher Zeit gegeben; es gibt sie sogar bei den schweigsamen Schimpansen. Also
müsste nur ein bereits genutzter »Kanal« immer weiter ausgebaut worden sein. Vor allem
aber hat die Theorie den Vorzug, sich logisch in die Ergebnisse der Hemisphärenforschung
einzufügen. Der Stimmapparat kann nur von einer Hirnseite aus effektiv gesteuert werden.
Erhielte etwa die Zunge ihre Bewegungsbefehle aus zwei Quellen, die linke Seite aus der
rechten und die rechte Seite aus der linken Hemisphäre, so wie der rechte Arm vom linken
Gehirn bewegt wird und der linke Arm vom rechten, so käme es möglicherweise zu
Widersprüchen zwischen den beiden Kommandos, die jede flüssige Artikulation schwer
machten. Wie sehr, sieht man an jener Variante des Stotterns, die auf eine mangelhafte
Verseitigung der Sprachfunktionen im Gehirn zurückgeht. Gesprochene Sprache setzt also
anscheinend voraus, dass sie nur von einer Gehirnseite aus gelenkt wird. Normalerweise ist
es die linke Seite, das für die Sprachmotorik zuständige Broca-Areal der linken Hemisphäre.
Warum aber wird die Sprache von derselben Hirnseite beherrscht, die auch die überlegene
Hand kontrolliert, der linken? Es könnte gut darum sein, weil sich die entstehende Sprache
auf jener Hirnseite ansiedelte, die bereits geschickter war bei der Steuerung feiner
Bewegungen. Tatsächlich scheint die Rechtshändigkeit der Sprache voraus gegangen zu
sein. Warum aber Rechtshändigkeit und mit ihr die Dominanz des linken Hirns? Welcher
Umstand könnte die Hominiden bewogen haben, ihrer rechten Hand den Vorzug zu geben?
Eine willkürliche Wahl? Nur bei einer einzigen Tätigkeit scheint es eine natürliche Vorliebe
für eine bestimmte Körperseite zu geben: Mütter nehmen ihr Kind, noch heute,
vorzugsweise links in den Arm. Sie tun es automatisch, weil die Herztöne es beruhigen.
114
Damit bleibt ihnen eine Hand zum Hantieren frei – die Rechte.“109
Es ist schwer zu beweisen, ob sich die Entwicklung wirklich so herum abgespielt hat. Ob zuerst die
beruhigende Wirkung der Herztöne das linksseitige Tragen der Jungen bewirkt hat, und dann die
linke Gehirnhemisphäre sich auf die Steuerung feiner sequentieller Bewegungsabläufe spezialisiert
hat, was dann wiederum ideal war für die Übernahme der Steuerung der sequentiellen
Bewegungsabläufe im Kehlkopf zur Spracherzeugung, ist jedoch auch nicht so wichtig. Auf jeden
Fall passen alle diese Fakten zu einem stimmigen Gesamtbild zusammen, unabhängig davon in
welcher Richtung sie sich gegenseitig bedingen. Selbst im unwahrscheinlichen Fall, dass die
Kausalketten genau anders herum wären, also die heute feststellbare Präferenz der Mütter, ihre
Kinder auf dem linken Arm zu tragen, nur durch die bereits bestehende Präferenz mit rechts zu
hantieren bedingt wäre, dann hätte man keinen Beleg gefunden, der gegen diesen Theorieansatz
spricht, sondern nur einen Beleg weniger, der den Ansatz untermauert. Die stets problematische
These, dass sich die Lautsprache aus einer bereits ausdifferenzierten Gebärdensprache entwickelt
haben soll, wird hier ebenfalls umgangen, indem die Sprachentstehung in die Kindererziehung
verlegt wird, bei der sich schon für Schimpansen zeigen lässt, dass diese dabei Lautkommunikation
mit Zeigegesten gemischt verwenden.
Wir sind also in der Lage, eine nicht besonders detaillierte, aber immerhin widerspruchsfreie
Theorie aufzustellen, wie die Sprachfähigkeit gemäß evolutionsbiologischer Prinzipien historisch
entstanden sein kann. Da die vorgestellte Theorie besonderen Wert auf die Kindheit legt, betrachten
wir nach diesem Ausflug in die Prozesse der Phylogenese nun die Prozesse der Ontogenese, also die
einzelnen Entwicklungsschritte des Spracherwerbs bei Kindern.
6.3 Die Spracherwerbssituation
Im dritten Teil dieses Kapitels werde ich mich mit den Prozessen des Spracherwerbs beschäftigen,
da mir dies aus mehreren Gründen wichtig zu sein scheint. Im Bereich der philosophischen
Bedeutungstheorien kommt der Spracherwerb manchmal zu kurz, oder er wird verfälscht dargestellt
oder sogar überhaupt nicht thematisiert. Dies ist insofern nicht verwunderlich, als diese
Darstellungen von erwachsenen Personen mit zumeist beeindruckenden sprachlichen Kompetenzen
entwickelt wurden. Die Verhältnisse im kindlichen Gehirn zum Zeitpunkt des Spracherwerbs
unterscheiden sich jedoch extrem von denen im Gehirn eines Erwachsenen. Insbesondere sorgt
109
Zimmer, D.E.: So kommt der Mensch zur Sprache – München: Heyne, 2008 S. 259/260
115
dieser strukturelle Unterschied dafür, dass aus den ersten Lebensjahren so gut wie keine abrufbaren
Erinnerungen verbleiben, so dass eine Schilderung des eigenen Spracherwerbs völlig unmöglich ist.
Wann immer solche Schilderungen trotzdem versucht werden, bestehen diese nicht aus
Erinnerungen, sondern sind stattdessen nur vermeintliche Rekonstruktionen, die jedoch von der
erwachsenen Gehirnstruktur verfälscht sind.
Die Darstellung des Spracherwerbs von Augustinus in den Confessiones I/8, die Wittgenstein direkt
am Anfang der Philosophischen Untersuchungen inhaltlich kritisch unter die Lupe nimmt, lässt sich
daher rein strukturell noch viel weitgehender kritisieren:
„Nannten die Erwachsenen irgend einen Gegenstand und wandten sie sich dabei ihm zu, so
nahm ich das wahr und ich begriff, dass der Gegenstand durch die Laute, die sie
aussprachen, bezeichnet wurde, da sie auf ihn hinweisen wollten. Dies aber entnahm ich aus
ihren Gebärden, der natürlichen Sprache aller Völker, der Sprache, die durch Mienen- und
Augenspiel, durch die Bewegungen der Glieder und den Klang der Stimme die
Empfindungen der Seele anzeigt, wenn diese irgend etwas begehrt, oder festhält, oder
zurückweist, oder flieht. So lernte ich nach und nach verstehen, welche Dinge die Wörter
bezeichneten, die ich wieder und wieder, an ihren bestimmten Stellen in verschiedenen
Sätzen, aussprechen hörte. Und ich brachte, als nun mein Mund sich an diese Zeichen
gewöhnt hatte, durch sie meine Wünsche zum Ausdruck.“110
Augustinus Beschreibung trifft zwar in Hinsicht auf manche Aspekte des kindlichen Spracherwerbs
zu, aber eine Darstellung des eigenen Spracherwerbs im Nachhinein ist unmöglich, da diese
Fähigkeit genau die neuronalen Strukturen voraussetzen würde, deren Herausbildung eben erst
durch den Spracherwerb geschieht. Auch im Hinblick auf seine Weltbeschreibung ist Augustinus
Blickwinkel eindeutig der eines Erwachsenen. Die Fähigkeiten zur Diskrimination und
erfolgreichen Wiedererkennung von Gegenständen und Lauten befinden sich ebenfalls noch in der
Entwicklung, so dass die ablaufenden Lernprozesse in Wahrheit eher einem Zusammenfügen von
visueller und akustischer Wahrnehmung entsprechen als einem Zuordnen von klar abgegrenzten
Begriffen zu eindeutig erkannten Gegenständen, wonach es sich jedoch in seiner Beschreibung
anhört. Doch statt weiter Augustinus problematische Darstellung zu kritisieren, möchte ich lieber
zunächst die heute bekannten Daten bezüglich der beim Spracherwerb ablaufenden physiologischen
Prozesse sammeln, um ein passenderes Bild vom Spracherwerb zeichnen zu können.
110
Übersetzung zitiert aus PU, Abschnitt I
116
6.3.1 Der kindliche Erstspracherwerb
Der Ablauf des Erstspracherwerbs, also das Erlernen der gesprochenen Muttersprache durch ein
Kind, unterscheidet sich deutlich vom zumeist schulisch gesteuerten Zweitspracherwerb. Es
bestehen ebenfalls große Unterschiede zu Quines „radikalem Übersetzungsproblem“ und zum
Erwerb der Kulturtechniken des Lesens und Schreibens. Während diese drei anderen Lernprozesse
meistens gesteuert ablaufen und auf den bereits bestehenden Fähigkeiten in der gesprochenen
Muttersprache aufbauen können, muss der Erstspracherwerb spontan und durch Nachahmung, statt
mit der Hilfe einer strukturierenden sprachlichen Belehrung gelingen.
Dabei müssen sehr komplexe Abläufe auf unterschiedlichen Ebenen gelernt werden. Angefangen
von den kleinsten bedeutungsunterscheidenden Lauteinheiten, den in der Muttersprache üblichen
Phonemen, über die Bildung von Wörtern aus Phonemen bis hin zur üblichen Syntax, die die
legitimen Satzstrukturen bestimmt, in denen diese Wörter vorkommen können. Dieses gesamte
Wissen muss jedoch aus den Erfahrungen mit Lautäußerungen der Erwachsenen entnommen und
als implizites Wissen neuronal kodiert werden, wobei es auf allen Ebenen noch diverse Probleme zu
meistern gilt. Zum Beispiel sind die Phoneme als vermeintlich einfachste Bestandteile nicht
wirklich eindeutig, sondern eigentlich nur sprachspezifische Lautklassen von potentiell noch
unterscheidbaren Lauten. Die wirklich geäußerten Phone innerhalb einer solchen Klasse können
sich sowohl regional (man denke an die unterschiedliche Aussprache von /r/ in Bayern und im
Rheinland) als auch im Wortzusammenhang noch deutlich voneinander unterscheiden. Die
benötigte Geschwindigkeit bei der Aussprache von Wörtern und ganzen Sätzen führt zu diesem
(„Koartikulation“ genannten) Effekt der Anpassung der Aussprache von manchen Phonemen
aufgrund der artikulatorischen Anforderungen der sie im Wort umgebenden Phoneme.
Ich werde mich im Folgenden nacheinander den physiologischen Prozessen beim Erwerb der
Sprachlaute, dann beim Erwerb der Wörter und zuletzt der Grammatik widmen:
6.3.2 Der Erwerb der Sprachlaute
Die Grundvoraussetzung selbst für eine sprachliche Äußerung von nur einem einzigen Wort besteht
in der Fähigkeit, die einzelnen Laute einer Sprache erzeugen zu können. Dazu müssen diese Laute
sowohl durch die Wahrnehmung unterschieden, als auch aktiv mit Hilfe des Artikulationstrakts
reproduziert werden können.
117
Die anatomischen Voraussetzungen für die Wahrnehmung von Sprachschall sind bei
heranwachsenden Kindern bereits ab der 27. Schwangerschaftswoche gegeben. Aufgrund der
Dämpfung des Schalls im Uterus können jedoch zu diesem Zeitpunkt noch keine Phoneme
unterschieden werden, so dass pränatal nur eine gewisse Vorprägung auf die Prosodie der
Muttersprache und natürlich auf die individuelle Stimme der Mutter erfolgt. Die Wahrnehmung des
kompletten Sprachschalls beginnt dann erst mit der Geburt. Wie sieht es aber mit den
Möglichkeiten der Lautproduktion aus? Diese entwickeln sich noch später in einem langwierigen
Prozess:
„Beim Neugeborenen sitzt der Kehlkopf hoch im Rachen, so dass bei der
Nahrungsaufnahme Flüssigkeit und Speisebrei seitlich an ihm vorbei in die Speiseröhre
gelangen können: Der Säugling kann, im Gegensatz zum älteren Kind und Erwachsenen,
gleichzeitig Atmen und Schlucken. Die Möglichkeiten der Schallerzeugung sind dadurch
aber stark eingeschränkt. Die Umgestaltung des Artikulationstraktes, die schließlich die
Erzeugung des differenzierten Sprachschalls ermöglicht, vollzieht sich ab 0;2 und ist mit
etwa 0;6111 weitgehend, bis zum Ende des ersten Lebensjahres vollständig abgeschlossen.
Durch den nun tief sitzenden Kehlkopf und die rechtwinklige Biegung des Mund-RachenRaumes entsteht ein »Ansatzrohr« mit zwei Hohlräumen (Schlund und Mundhohlraum), und
durch das klappbare Gaumensegel kann noch der Nasenhohlraum einbezogen werden;
zugleich gewinnt die Zunge an Beweglichkeit. All dies sind Voraussetzungen für die
Fähigkeit des Menschen zur Artikulation, insbesondere zur Äußerung unterschiedlicher
Vokale.“112
Diese Umgestaltung des Artikulationstrakts erhöht zugleich die Gefahr des Erstickens, so dass man
davon ausgehen kann, dass die besseren sprachlichen Fähigkeiten diesen potentiellen Nachteil mehr
als aufgewogen haben müssen, damit sich dieser genetische Bauplan evolutionär durchsetzen
konnte.
Da die anatomischen Gegebenheiten im ersten Lebensjahr noch nicht die Produktion von Vokalen
und Konsonanten ermöglichen, nennt man deren Vorläufer stattdessen „Vokanten“ und „Klosanten“.
Säuglinge müssen die Erzeugung des Luftstroms erlernen, der für die Lautäußerung nötig ist, und
dann spielerisch erforschen, wie die verschiedenen Verwendungen des Artikulationstrakts mit den
unterschiedlichen Lauten korrelieren.
111
112
0;2 bedeutet im Alter von 0 Jahren und 2 Monaten, 0;6 entsprechend mit 6 Monaten
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 19/20
118
„Ab 0;4 treten die ersten ‹silbischen› Äußerungen auf, d.h., die Kinder beginnen
systematisch Klosant-Vokant-Kombinationen zu produzieren. Man spricht vom ‹Babbel-›
oder ‹Lallstadium›. Etwa ab 0;7 werden diese Silben auch wiederholt; das nennt man dann
‹repetitives› oder ‹kanonisches Babbeln›. Es ergeben sich Lautfolgen wie bababababa oder
gagagagaga. Interessanterweise beobachtet man solche wiederholten, rhythmischen
Bewegungen auch in der übrigen Motorik, z. B. des Rumpfes und der Gliedmaßen, was auf
eine nicht-sprachspezifische Tendenz zu diesem Verhalten hindeutet.“113
Im Gegensatz zu Dittmann finde ich diese Beobachtung eigentlich gar nicht verwunderlich, denn
die reine Lautproduktion ist schließlich auch nur eine koordinative motorische Leistung, wie
Fahrrad fahren oder jede beliebige andere. Das Besondere der Sprache liegt in der Bedeutung, also
darin, dass prinzipiell beliebige Geräuschfolgen in der Lage sind, bestimmte Inhalte zu
symbolisieren und an andere Menschen zu übertragen. Dagegen ist die Lauterzeugung nur die
Grundlage, auf der sich sprachspezifische Besonderheiten erst auf höheren neuronalen
Entwicklungsstufen ausprägen können.
Im weiteren Verlauf werden die verschiedenen Klosanten nach und nach erlernt und durch
Wiederholung trainiert. Die Reihenfolge der erlernten Klosanten ist dabei weder zufällig, noch von
der jeweiligen Muttersprache abhängig, sondern nur von der motorischen Schwierigkeit der Bildung
der Klosanten:
„In Bezug auf die Häufigkeit unterschiedlicher Klosanten setzt sich in der Phase
kanonischen Babbelns die zwischen 0;4 und 0;8 beobachtete Entwickelung bei Kindern
unterschiedlicher Muttersprachen fort: Zwischen 0;8 und 1;0 erhöht sich der Anteil von
Klosanten wie [d], [m], [b] und [t] deutlich, [h] und [ʔ] gehen stark zurück: In der gesamten
Babbelphase gibt es einen Trend von ‹hinten› nach ‹vorn›, von der Dominanz im Kehlkopf
gebildeter zur Dominanz oberhalb des Kehlkopfes, im Rachen-Mund-Raum gebildeter
Klosanten. Diese für alle Kinder der Welt geltende Verschiebung von ‹hinten› nach ‹vorne›
während der Babbelphase kann man physiologisch erklären: Zur Bildung der ‹hinteren›
Klosanten bedarf es nur der passiven, durch die Grobmotorik des Unterkiefers verursachten
Bewegung des Zungenrückens relativ zum Gaumen. Zur Bildung der ‹vorderen› Klosanten
hingegen bedarf es der feinmotorischen Steuerung der Zungenspitze, die sich erst im Laufe
des
ersten
Lebensjahres
vervollkommnet.
Deshalb
physiologischen Gründen universal.“114
113
114
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 21/22
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 22/23
119
ist
diese
Entwicklung
aus
Der Erwerb der Sprachlaute verläuft also für alle Menschen gleichartig und im selben Zeitraum,
zumindest insofern keine physiologischen Missbildungen vorliegen. Obwohl die Lautwahrnehmung
und -erzeugung natürlich die Grundlagen aller weiteren Entwicklungen darstellen, lässt sich die
Besonderheit der menschlichen Sprache noch nicht auf dieser niedrigen Stufe auffinden. Viele
andere Lebewesen verfügen über einfache Kommunikationsmöglichkeiten auf der Basis von
Schallwellen. Betrachten wir also die Besonderheiten des Verlaufs des Erwerbs der Wörter auf der
nächsten Stufe:
6.3.3 Der Erwerb der Wörter
Sobald Kinder ungefähr ein Jahr alt sind, beginnen sich die verschiedenen Entwicklungsprozesse
zu überlappen. Es werden weiterhin noch die Feinheiten verschiedener Konsonanten und Vokale
erlernt, aber gleichzeitig werden schon die ersten Lautfolgen in bedeutungstragender Funktion
benutzt. Die ersten Protowörter werden aus den zuerst gelernten und eindeutig unterscheidbaren
Konsonanten und Vokalen gebildet. Bei diesen Protowörtern handelt es sich nicht mehr um
Übungen einzelner Lautfolgen, sondern um eindeutige Bezeichnungsversuche von Gegenständen
mit stark vereinfachten Versionen der Wörter der Sprache der Erwachsenen. Typische Beispiele sind
[mama], [baba], [ba] für Buch oder [dɛdɛ] für Teddy. Einige solcher Protowörter gehen in die
Ammensprache ein, die sich durch überzeichnete Artikulation und die Verwendung eines
verringerten Wortschatzes und sehr einfacher syntaktischer Strukturen auszeichnet. Einige sehr
wichtige Protowörter, wie zum Beispiel „Mama“ und „Papa“, sind sogar zum Bestandteil des
Standardvokabulars der Erwachsenensprache geworden.
„Ein attraktives Wort kann für das Kind Anlass sein, sich mit einem Phonem abzumühen,
dass eigentlich noch nicht ins Repertoire passt. So kommt bei Annalena im 12. Lebensmonat
und damit vorzeitig der Velar /k/ in kikeriki vor, ein zweifellos hochfrequentes und
attraktives lautmalerisches Wort. Eine sprachvergleichende Studie ergab, dass sich mehrere
Kinder in jeder der untersuchten Sprachen z. B. mit dem jeweiligen Wort für Schuh
abmühten, obwohl es im Englischen und Französischen mit einem Frikativ (shoe, chaussure)
und im Schwedischen gar mit einer Konsonantenverbindung (sko) beginnt – letztere ist
besonders schwierig für Kinder im frühen Stadium des Phonemerwerbs. Die Reihenfolge
des Phonemerwerbs wird also auch durch das Vorkommen der Phoneme in den Wörtern der
120
jeweiligen Sprache beeinflusst.“115
In den Fällen, in denen die artikulatorischen Hindernisse bei Wörtern für interessante Gegenstände
doch zu groß sind, werden diese Wörter entweder vermieden, oder durch Gesten und einfache
Protowörter (wie z. B. „Wauwau“) ersetzt.
Ein weiteres Problem beim Erlernen der Wörter besteht darin, dass nicht alle Wörter einzeln unter
idealen Bedingungen präsentiert werden. Wenn das Kind mit einem Erwachsenen zusammen ein
Bilderbuch anschaut, dann kann das Kind auf einen Bildteil zeigen und sich das entsprechende Wort
dazu vorsagen lassen, um es übend zu wiederholen. In solchen idealen Situationen können sowohl
das Kind als auch die Erwachsenen den Lernprozess steuern, um Probleme zu meistern und Fehler
bei der Artikulation und der Bedeutungszuweisung zu beheben. Viele Wörter müssen aber aus dem
Zusammenhang entnommen werden, wenn sich die Erwachsenen miteinander unterhalten. Da die
Erwachsenen sich aber dann nicht um klare Aussprache und deutlich hörbare Abgrenzungen der
einzelnen Wörter bemühen, gelingt dies nicht immer. In diesen Fällen werden ganze Sätze als ein
„Wort“ erlernt, dessen Gesamtbedeutung den Kindern ungefähr klar ist, ohne dass sie die einzelnen
Bestandteile mit ihrer Bedeutung erkennen und den „Ein-Wort-Satz“ analysieren könnten:
„Annalena äußerte u.a. data für das da (ab 0;10), getich, gehnis und weitere Formen (ab
1;3,19) für geht nicht! (in der gesprochenen Sprache: geht nich!), und es kann unterstellt
werden, dass sie nicht als Wortfolge, sondern als ganzheitlicher Ausdruck produziert
wurden. Daraus wiederum folgt, dass sie erst in einem späteren Stadium des Erwerbs
analysiert und als zusammengesetzt erkannt werden. […] Annalena produzierte z. B.
Äußerungen wie: bapaisisa (1;3,12) und bapaisisda (1;3,18), hier grob orthografisch
wiedergegeben, mit der Bedeutung Papa ist nicht da.“
Die Protowörter und Ein-Wort-Sätze werden bereits in kommunikativer Absicht gebraucht. Es geht
nicht mehr darum, einfach nur bestimmte Lautkombinationen zu üben, sondern es soll mit den
Erwachsenen kommuniziert werden, Informationen sollen übermittelt und Handlungen angefordert
werden. Nach der Phase des Erwerbs der einzelnen Sprachlaute, erreicht das Kind also schnell die
Phase des Erwerbs der Bedeutung. Es gibt dazwischen keinen Zeitraum, in dem das Kind erst
einmal alle möglichen Wörter (also nur deren Lautfolgen) erlernen würde, um dann erst später und
unabhängig davon deren Bedeutungen zu erlernen. Stattdessen erfolgt die weitere Übung
komplizierterer Lautfolgen anhand der Wörter, die von den Erwachsenen wiederholt gebraucht
115
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 27
121
werden, und die aufgrund ihrer Bedeutung für das Kind nützlich oder interessant sind. Betrachten
wir daher nun den Erwerb der Bedeutung im Detail:
6.3.4 Der Erwerb der Bedeutung
Um den dritten Schritt nach der Erzeugung einzelner Laute und nach der Kombination von Lauten
zu den Lautfolgen von Wörtern schaffen zu können, benötigt das Kind kategoriales Wissen über die
Welt. Die als Einheiten erkannten Wörter müssen mit den Informationen verknüpft werden, die das
Kind bereits über die Welt gesammelt hat. Das setzt voraus, dass Kinder bereits sehr früh damit
beginnen, die wiederkehrenden Dinge, Handlungen und Eigenschaften in der Welt zu erkennen und
in Kategorien zu unterteilen, damit schon solches Wissen zur Anknüpfung der Wörter bereitsteht,
sobald diese artikulatorisch gebildet werden können. Dieses früh erworbene Wissen lässt sich
experimentell in der Tat nachweisen:
„Elementare Einsichten in kausale Zusammenhänge, nämlich mechanische Verursachung,
zeigen schon sechs Monate alte Säuglinge, andere konzeptuelle Differenzierungen sind ab
0;8 nachweisbar (Pauen 2007): Kinder beginnen nun, Männer von Frauen sowie Babys von
größeren Kindern und Erwachsenen zu unterscheiden. Sie können auch Objekte nach
Ähnlichkeiten kategorisieren, zwischen sich bewegenden Tieren (belebt) und Fahrzeugen
(unbelebt) unterscheiden, und sie zeigen eine deutliche Tendenz zum Erkennen von
Kausalbeziehungen, wobei sie eher Handelnden und Handlung aufeinander beziehen als
Handlung und Handlungsempfänger.“116
Die
Fähigkeit,
Dinge
zu
unterscheiden
und
gleichartige
Dinge
in
eine
Kategorie
zusammenzufassen, entwickelt sich also schon deutlich früher als die Fähigkeit, Wörter artikulieren
zu können. Daher sind bereits viele einfache Konzepte und Kategorien entstanden, die mit den
Wörtern verknüpft werden können, sobald ihre Artikulation möglich wird.
„Im Hinblick auf den Spracherwerb ist nach Piaget die Erkenntnis der <Objektpermanenz>
von herausragender Bedeutung: Etwa mit 0;8 beginnen Kinder nach einem Gegenstand, der
z. B. durch ein Tuch abgedeckt wurde, zu suchen. Für Piaget ist die Vorstellung von der
fortdauernden Existenz eines Objekts, unabhängig von der eigenen Wahrnehmung, der erste
116
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 36
122
komplexe <Begriff>, den das Kind entwickelt. Damit ist ein erster Meilenstein auf dem Weg
zur Entwickelung der <Symbolfunktion> erreicht (Montada 2002): Das Kind kann nun eine
<innere Repräsentation> von Handlungen und Gegenständen aufbauen.“117
Obwohl diese Prozesse zur Entwicklung der Symbolfunktion keinesfalls bewusst ablaufen, sind sie
die Grundlage unserer wichtigsten Fähigkeiten und unseres Weltbildes. Jederzeit, also auch in den
frühesten Kindertagen, beruht die Struktur aller unserer Erlebnisse auf den Naturgesetzen und
darum werden diese als Erwartungen an alle zukünftigen Erlebnisse herangetragen. Effekte wie die
Schwerkraft, die kausale Wirksamkeit, oder die von der eigenen Wahrnehmung unabhängige
Objektpermanenz werden als immer gültige Prinzipien entdeckt und nach ihnen wird gehandelt,
sehr lange bevor sie sprachlich benannt, geschweige denn verstanden werden können. Die innere
Repräsentation von Handlungen und Gegenständen wird durch die sprachliche Symbolisierung
fortgesetzt und flexibilisiert. Die einzelnen Wortformen können allerdings nur an die bisher
gebildeten Konzepte angehängt werden, so dass die Bedeutungen der vom Kind zunächst benutzten
Wörter sehr einfach sind und nicht mit den Bedeutungen der Erwachsenen übereinstimmen.
„Unter den ersten Wörtern, die das Kind äußert, finden sich kontextspezifische
Bezeichnungen, z. B. duck (Ente), gebraucht nur für drei gelbe Spielzeugenten
(Weinert/Grimm 2008). Man spricht in diesem Fall von <Überdiskriminierung> der
Bedeutung, denn der Bedeutungsumfang ist enger als in der Erwachsenensprache. Auch das
gegenteilige Phänomen, die <Überdehnung> oder <Übergeneralisierung>, wird bei ein- bis
zweijährigen Kindern regelmäßig beobachtet. Szagun (2008) schätzt, dass etwa 30% der
Wörter überdehnt werden. Moë verwendet mit 1;1 das Wort sasa [zaza] (Wasser) für alles
Flüssige, das Wort wawa [wawa] zunächst für die beiden Hunde der Familie, dann auch für
alle anderen kleineren Tiere, Tauben eingeschlossen. Zu Übergeneralisierungen kommt es
offensichtlich, weil Kinder noch unvollständige Bedeutungsrepräsentationen aufgebaut
haben.“118
Die Kinder lernen neue Wortbedeutungen nicht durch Definitionen, sondern müssen die
Bedeutungen anhand des Gebrauchs der Erwachsenen erraten. Kombiniert mit den noch ungenauen
nicht-sprachlichen Repräsentationen und Kategorisierungen führt dies zu Abweichungen im
Gebrauch gewisser Wörter, deren vollständiger Bedeutungsumfang erst schrittweise vom Kind
erarbeitet wird:
117
118
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 36/37
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 38/39
123
„Eve Clark hat diese Hypothese in den 1970er Jahren zu einer «Theorie der semantischen
Merkmale» ausgebaut: Sie geht davon aus, dass Kinder zunächst nur recht allgemeine
Bedeutungselemente (<Merkmale>), wie [flüssig] oder [klein, läuft auf dem Boden], mit den
entsprechenden Wörtern verbinden und erst nach und nach spezifischere Merkmale dazu
erwerben, wie [klare, geruch- und geschmacklose Flüssigkeit] für Wasser. Elsen (1995)
beschreibt, wie Annalena mit 0;9 das Wort Ei zunächst zur Bezeichnung des von ihr
geschätzten Lebensmittels erwirbt, es aber mit Ende 1;0 auf alle eiförmigen bis runden
Gegenstände anwendet, also überdehnt. Offensichtlich hat A. also das Wort Ei mit einem
Bezugsobjekt, dem Referenten «Ei», erworben und zwei seiner Merkmale, nämlich die
ungefähre Größe und die Form, zum Anwendungskriterium gemacht. Das Ei wird damit zu
einem <prototypischen> Referenten für das Wort Ei, seine Merkmale bilden die Grundlage
der Überdehnung. Mit 0;11,11 erwirbt A. das Wort Ball und verwendet es von 1;0 bis ca. 1;2
auch in der Bedeutung von Kugel. Interessant ist, dass sie ab ca. 1;2,5 Ei zunächst auch zur
Bezeichnung von Tomaten, dann auch von Mohrenköpfen und Kartoffeln gebraucht, nicht
mehr zur Bezeichnung von Nicht-Essbarem. Elsen schließt daraus: A. hat nun, neben den
Merkmalen der ungefähren Größe und der Form, für Ei ein weiteres Merkmal
[essbar/schmeckt gut] erkannt, das den Anwendungsbereich einschränkt. Für runde
Gegenstände stehen zwei Wörter, Ei und Ball zur Verfügung, wobei das erstere (kleinere)
essbare, das letztere nicht-essbare bezeichnet.“119
Die ersten korrekt artikulierten Wörter sind also eigentlich noch gar nicht die Wörter der
Erwachsenensprache, da ihre Bedeutungen für die Kinder (aufgrund von Überdiskriminierung und
Übergeneralisierung) stark von den allgemein üblichen Bedeutungen abweichen können. Das liegt
neuropsychologisch betrachtet daran, dass zu diesem Zeitpunkt auf allen Ebenen noch massive
neuronale Entwicklungen stattfinden. Es können sich noch die Aussprache der Wörter, das Wissen
über die Welt im Hinblick auf die bezeichneten Dinge und die Vermutung, welcher
Gegenstandsbereich mit spezifischen Wörtern bezeichnet werden kann, verändern. Wenn aber alle
diese Bereiche noch variabel sind, und andauernd alles umgelernt werden muss, wieso gehen einem
Kind dann nicht manchmal Wörter ganz verloren? Wieso können während der gleichen
Entwicklungsphase drei verschiedene Dinge gelernt werden, nämlich, dass das richtige Wort
„Hund“ lautet und nicht „Wauwau“, und dass es kategoriale Unterschiede gibt zwischen
vierbeinigen Tieren, die bisher nicht realisiert wurden, und dass manche Vierbeiner mit dem Wort
119
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 39
124
„Katze“ und manche mit „Hund“ bezeichnet werden. Dass alle diese Veränderungen vorgenommen
werden können, ohne dass die jeweils anderen Bereiche wieder ganz neu erarbeitet werden müssten,
deutet auf eine bestimmte Struktur der neuronalen Realisierung hin. Die einzelnen Komponenten
müssen demnach jeweils als intern stark verknüpftes neuronales Netz realisiert sein, das mit den
anderen Komponenten nur über wenige neuronale Leiterbahnen verbunden ist. Nur dann kann
sowohl leicht ein neues Wort („Hund“ statt „Wauwau“) mit den bereits bestehenden
Wissensbeständen über Hunde verknüpft werden, als auch die Details der Aussprache und der
Kategorisierungen verändert werden, ohne dass alles andere immer ganz neu gelernt werden muss
(weitere Details dazu finden sich im Kapitel über Neuropsychologie).
Während das Erlernen der ersten 50 Wörter ein schwieriger und langwieriger Prozess ist, nimmt die
Geschwindigkeit dieses Prozesses danach rasch zu. Möglicherweise tritt ungefähr zu diesem
Zeitpunkt die Einsicht auf, dass alle Gegenstände einen Namen haben, so dass das Kind anfängt
diese Namen einzufordern und zu erlernen. Diesen Effekt der rasanten Beschleunigung der
Wortschatzerweiterung bezeichnet man auch als den „Vokabelspurt“:
„In einer Längsschnittstudie an 40 Kindern im Alter von 0;9 bis 1;9 fand man die ersten
Wörter mit durchschnittlich etwa 1;0, das Verstehen von 50 Wörtern war mit
durchschnittlich 1;1 erreicht, die Produktion von 50 Wörtern erst mit knapp 1;6 (Kauschke
2000). […] Höchstwahrscheinlich weisen alle Kinder eine diskontinuierliche Entwickelung
des Wortschatzes auf, allerdings kann der Vokabelspurt auch deutlich später als mit 1;6
einsetzen. […] Bei Zweijährigen zählt man durchschnittlich aktiv zwischen 200 und 300
Wörtern – wiederum mit großer individueller Bandbreite. Mit zweieinhalb Jahren
beherrschen Kinder im Durchschnitt dann mehr als 500 Wörter; zwischen 1;0 und 2;6
verzehnfacht sich also der Wortschatz. Die weitere Entwicklung ist nicht gut dokumentiert.
Butzkamm/Butzkamm (2008) geben für Sechsjährige einen aktiven Wortschatz von über
5000 Wörtern an. Einsprachigen Wörterbüchern kann man entnehmen, dass die deutsche
Standardsprache (also ohne Dialekte) rund 100000 Wörter hat. Wie viele davon ein
durchschnittlich gebildeter Erwachsener beherrscht, ist aber nicht verlässlich zu berechnen
(Dittmann 2002). Deshalb lässt sich auch die weitere quantitative Wortschatzentwicklung
nicht sinnvoll beschreiben.“120
Doch bevor wir uns mit der lebenslangen Entwicklung des Wortschatzes beschäftigen, kehren wir
noch mal zurück zu den ersten 50 Wörtern. Welche Wörter zuerst gelernt werden, hängt abgesehen
120
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 46/47
125
von der Landessprache sowohl von der dargebotenen Umwelt als auch von den artikulatorischen
Möglichkeiten des Kindes ab. Doch gewisse Strukturen lassen sich immer wiedererkennen:
„Unter den frühen Wörtern der Kinder findet man Bezeichnungen von Menschen in ihrem
Umfeld, von Tieren (Spielzeugtiere oder Abbildungen, ggf. Haustiere), von (anderem)
Spielzeug, Kleidungsstücken, Nahrungsmitteln, Körperteilen, Gegenständen im Haushalt
und Fahrzeugen. […] Die Verben des frühen Wortschatzes bezeichnen Handlungen aus dem
unmittelbaren Erfahrungsbereich des Kindes, die mit Bewegung verbunden sind, wie anzieh
´n, nehmen, spielen und fahren oder geht, wobei zunächst die Bezeichnung eigener
Bewegungen überwiegt.“121
Eine Sortierung der ersten 50 Wörter nach grammatischen Kategorien kann potentiell irreführend
sein, weil Kinder Wörter noch nicht wie Erwachsene im Satzzusammenhang benutzen, sondern
einzeln, während sie versuchen, Zusammenhänge auszudrücken, für die eigentlich ein ganzer Satz
erforderlich wäre. Das Substantiv „Arm“ könnte zum Beispiel benutzt werden, um den Wunsch
auszudrücken, von einem Erwachsenen hochgehoben zu werden, also eigentlich um eine Tätigkeit
zu bezeichnen und nicht einen Gegenstand. Da die gefundenen Werte in Bezug auf die
grammatischen Kategorien der ersten 50 Wörter jedoch relativ gut mit den Erwartungen
übereinstimmen, kann man davon ausgehen, dass dieser Effekt die Werte nur geringfügig
beeinflusst:
„Unter den ersten 50 Wörtern überwiegen bei den meisten Kindern die Nomina. Dies wurde
bei Kindern mit unterschiedlicher Muttersprache gefunden, man spricht von <NomenVorliebe> des Kindes. Szagun (2002) errechnete bei 15 von 17 deutschen Kindern einen
Anteil von 64,6% Nomina, 23,4% Funktionswörtern, 7,1% Verben und 4,6% Adjektiven.
[…] Funktionswörter haben in der frühen Kindersprache die Aufgabe, Beziehungen
zwischen Personen, Handlungen und Gegenständen auszudrücken (<relationale Wörter>).
So bezeichnen z.B. da und weg das Auftauchen und Verschwinden von Personen oder
Gegenständen, ran, auf und ähnliche Wörter drücken Funktionen von bzw. mit
Gegenständen aus, usw.“122
Die ersten Wörter bezeichnen also hauptsächlich die Gegenstände und die häufig wiederkehrenden
Prozesse innerhalb der kindlichen Lebenswelt. Wörter für abstrakte und komplexe Begriffe
121
122
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 48/49
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 50
126
kommen erwartungsgemäß nicht vor. Sie werden erst viel später aus den einfacheren Begriffen
gebildet. Wenn man eine Theorie vertritt, die besagt, dass Sprache zunächst hauptsächlich dazu
dient, die Gegenstände in der Welt abzubilden, um Kommunikation über die Welt zu ermöglichen,
dann bekommt man oft den Einwand zu hören, dass man so die abstrakten Begriffe nicht erklären
könnte. Dabei wird von den Kritikern jedoch übersehen, dass die problematisierten Begriffe
keinesfalls von Kindern verwendet werden, oder zumindest nicht in dem gleichen Sinn, in dem
Erwachsene sie verwenden. Die Bedeutung der abstrakten Wörter wird in einem langwierigen
neuronalen Prozess immer weiter verfeinert:
„Insbesondere darf man nicht übersehen, dass auch beim älteren Kind noch
<Bedeutungswandel> stattfindet, allerdings ist er subtiler als beim jüngeren Kind und ohne
genauere Analyse oft gar nicht nachweisbar (Menyuk 2000). Betroffen sind, versteht sich,
vor allem Abstrakta. Untersucht wurde u.a. der Erwerb von Leben, Mitleid, Mut, Geld und
Bank. Gisela Szagun, die sich mit Mitleid und Mut befasst hat, geht davon aus, dass die
Assoziation zwischen Wortform und Begriff schnell erlernt wird und stabil bleibt, dass sich
aber der Begriff selbst (als Bedeutung der Wortform) im Laufe der Entwicklung stark
verändert.
Diese
Veränderung
ist
nach
Szagun
als
sukzessive,
alters-
und
erfahrungsabhängige Begriffsstruktur empirisch fassbar.“123
Dass ein Kind eine Wortform kennt und sie grammatikalisch korrekt in einem Satz verwenden kann,
bedeutet nicht, dass es die volle Bedeutung des Wortes kennt. Abstrakte Wörter werden also über
lange Zeiträume ähnlich ungenau verwendet, wie zum Beispiel „Hund“ am Anfang des
Spracherwerbs für alle Vierbeiner verwendet wird. Der wichtigste Unterschied besteht darin, dass
der Bedeutungsunterschied (der abweichende Gebrauch eines abstrakten Wortes) für die anderen
Sprecher schwerer zu erkennen ist, und er daher nicht so schnell korrigiert wird. Es muss erst viel
Wissen über die Welt erworben werden, um die abstrakten Wörter mit einer großen Menge von dazu
passendem Wissen verknüpfen zu können. Ein Kind, das von „Geld“ spricht, meint damit die
physischen Münzen oder bunten Scheine, mit denen es sich etwas kaufen kann. Ein gebildeter
Erwachsener weiß jedoch darüber hinaus, dass es verschiedene Währungen gibt auf der Welt, dass
die meisten Menschen arbeiten müssen, um Geld zu bekommen, dass Geld eigentlich nur ein
abstraktes System ist, um Tauschrechte anzuzeigen, und vieles mehr. Diese Veränderung der
Bedeutung lässt sich für alle komplexen Begriffe nachweisen:
123
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 51
127
„Den <Bedeutungswandel> von Mut z.B. erhoben Szagun/Schäuble (1997) mittels eines
Fragebogens und eines Interviews. Es zeigte sich, dass Sechsjährige die Erfahrung von Mut
als Gefühl der Stärke oder den Gedanken an die Gefahr beschreiben, aber nicht mit Bezug
auf Angst oder deren Überwindung. Mit zunehmendem Alter werden dann mehr Gefühle
und psychische Zustände benannt, das Abwägen der Gefahr und das Gefühl der Stärke sind
weiterhin dabei, aber die Faktoren Angst und Überwindung der Angst werden zunehmend
häufiger angeführt. Ab dem 9. Lebensjahr wird Mut als zeitliche Folge von psychischen
Zuständen erfahren, Erwachsene berichten übereinstimmend ein anfängliches Angstgefühl,
gefolgt von dessen Überwindung, was sie als konflikthaft erleben. Für die Sechs- und
Neunjährigen impliziert Mut, in eine physisch gefährliche Situation geraten zu sein, für
Erwachsene hingegen, sich einer möglichen Verletzung auszusetzen. Die Beschreibungen
des psychischen Zustands von Mut durch die Sechsjährigen korrespondiert dem
beobachtbaren Verhalten, im Laufe der Entwicklung verschiebt sich dies in Richtung auf ein
Verständnis von Mut als vielschichtiger emotionaler Erfahrung.“124
Es wurde also empirisch gezeigt, dass die Bedeutung eines Wortes für einen Sprecher nicht
feststeht, sondern stattdessen intraindividuelle Entwicklungen der Bedeutungen bei allen Sprechern
stattfinden. Daraus ergibt sich zwangsläufig auch, dass interindividuelle Unterschiede zwischen den
Bedeutungen bestimmter Wörter für mehrere Sprecher vorliegen können, da diese Sprecher sich auf
verschiedenen Entwicklungsstufen des Wissens um die Wortbedeutung befinden können. Diese
Erkenntnis steht im Gegensatz zu vielen bisherigen Bedeutungstheorien, die Bedeutung für konstant
und unabhängig vom Sprecher gehalten haben. Natürlich sind diese Bedeutungsunterschiede
vergleichsweise gering, so dass eine Kommunikation der ungefähren Inhalte trotz dieser
Unterschiede meistens gelingt, oder zumindest das Misslingen der Kommunikation unbemerkt
bleibt. Die aktuellen neurobiologischen Ergebnisse passen gut zu dieser Erkenntnis, dass Bedeutung
nicht konstant und unabhängig vom Sprecher, sondern flexibel ist, so dass diese Erkenntnis
problemlos in die neuropsychologische Bedeutungstheorie integriert werden kann.
6.3.5 Der Erwerb der Grammatik
Bisher haben wir uns nur mit dem Erwerb der einzelnen Wörter und deren Bedeutung befasst,
während wir den Erwerb der Grammatik, also den Wissenszuwachs
124
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 51/52
128
bezüglich der
Gesetzmäßigkeiten der legitimen Zusammenstellung von Wörtern zu Sätzen und den Erwerb der
Flexionsformen der Muttersprache, ignoriert haben. Diese Vorgehensweise entspricht jedoch dem
zeitlichen Verlauf des Spracherwerbs. Kinder verwenden keine Sätze der Erwachsenensprache,
sondern zunächst Ein-, dann Zwei- und Dreiwortäußerungen.
„Tatsächlich sind es in erster Linie Funktionswörter (Artikel, Konjunktionen, Präpositionen,
usw.), Hilfsverben und Flexionsformen, die in den Zwei- und Dreiwortäußerungen fehlen,
d.h. die eigentlich grammatischen Elemente im Satz; die Äußerung ist im Wesentlichen auf
die Inhaltswörter reduziert. Stern/Stern (1928) nennen diese Sprechweise deshalb
«Telegraphenstil». Durch ihre Bauart bedürfen die Äußerungen zum Verständnis der
ergänzenden Intonation, der Mimik und Gebärden bzw. des situativen Kontextes.“125
Viele Monate bevor Kinder selbst vollständige Sätze formulieren können, setzt bei ihnen jedoch
schon das Verständnis von Sätzen ein, deren Bedeutung nur durch ihre grammatikalische Struktur
eindeutig bestimmt ist. Sie sind dann bereits in der Lage, die Bedeutungen von Sätzen zu
unterscheiden, die jeweils aus genau denselben Wörtern bestehen, aber sich in ihrer
grammatikalischen Struktur voneinander unterscheiden:
„Hirsh-Pasek/Golinkoff (1996) konnten zeigen, dass Kinder zwischen 1;4 und 1;7, also in
der späten Einwortphase bzw. am Beginn der Zweiwortphase, bereits in der Lage sind, die
Wortfolge in <reversiblen Aktivsätzen> zu verstehen. […] Die untersuchten Kinder konnten
zwischen Sätzen wie Big Bird is tickling Cookie Monster und Cookie Monster is tickling Big
Bird unterscheiden, wobei die Leistungen der Mädchen über denen der Jungen lagen. Mit
durchschnittlich 2;0 können englische Kinder auch zwischen transitivem und intransitivem
Gebrauch von Verben unterscheiden: Nach der Aufforderung Look at Cookie Monster
turning Big Bird (Schau auf CM, der BB herumdreht; to turn transitiv verwendet) schauten
sie vorzugsweise auf eine Abbildung, die darstellte, wie Cookie Monster Big Bird im Kreis
dreht, bei der Aufforderung Look at Cookie Monster and Big Bird turning (Schau auf CM
und BB die sich drehen; to turn instransitiv verwendet) schauten sie vorzugsweise auf eine
Abbildung, die darstellte, wie Cookie Monster und Big Bird sich im Kreis drehen.“126
Die Bedeutung gewisser grammatikalischer Strukturen kann von den Kindern demnach schon zu
diesem frühen Zeitpunkt verstanden werden, während solches Wissen noch lange keine Anwendung
125
126
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 54/55
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 57
129
in der eigenen Sprachproduktion findet. Aufgrund der Komplexität der vielen teilweise parallel
verlaufenden Lernprozesse sollte uns dies jedoch nicht wundern.
Diese Lernprozesse werden von den erwachsenen Sprechern unterstützt, indem die an das Kind
gerichteten Äußerungen immer den jeweils vorhandenen Sprachfähigkeiten des Kindes angepasst
werden. Während im zweiten Lebensjahr durch die Verwendung der sogenannten stützenden
Sprache hauptsächlich Hilfe beim Wortschatzaufbau geleistet wird, ändert sich der Stil der
Kommunikation mit dem Kind im dritten Lebensjahr, um den jetzt erfolgenden Grammatikerwerb
zu erleichtern. Von nun an wird die sogenannte „lehrende Sprache“ verwendet, die sich durch die
folgenden Strukturmerkmale gegenüber der „stützenden Sprache“ auszeichnet:
„(1) längere Äußerungen, (2) höhere durchschnittliche Anzahl von Nominalphrasen pro
Äußerung, (3) Ja-/Nein- und W-Fragen – Letztere sind Fragen, die mit einem Fragewort
beginnen, z.B. Wo willst Du hingehen? - (4) teilweise Wiederholung der eigenen oder der
kindlichen Äußerung, mit oder ohne Modifikation, (5) Expansionen (Erweiterungen der
kindlichen Äußerung).“127
Die Bezugspersonen erkennen also intuitiv, dass sie die Komplexität der Kommunikation mit dem
Kind langsam erhöhen können. Insbesondere behalten sie dabei die Inhalte der Kommunikation bei,
lenken aber durch Fragen, korrigierende Wiederholungen und leichte Variationen des jeweils
Gesagten die Aufmerksamkeit des Kindes von den Inhalten auf die grammatikalisch korrekten
Strukturen der jeweiligen Kommunikation. Die Erweiterungen der kindlichen Äußerungen spielen
dabei wahrscheinlich eine entscheidende Rolle, da so immer nur kleine Neuerungen zu den schon
beherrschten Kommunikationsformen dazugelernt werden müssen.
„Die Mutter nimmt die grammatikalisch unvollkommene Äußerung teller machen auf,
behält den Inhalt bei, verleiht ihm aber eine vollständige grammatische Form (Sollen wir da
noch etwas auf den Teller machen). Das Kind kann seine eigene Äußerung formal mit
diesem «Modell» vergleichen und aus den Veränderungen lernen. Wichtig ist, dass auf diese
Weise «zwischen dem Schon-Gewussten und dem Noch-nicht-Gewussten keine zu große
Diskrepanz» besteht (Grimm 1999): Die Mütter erweisen sich als sensitiv für das
Leistungsniveau der Kinder.“128
Diese Hilfestellung durch die (die lehrende Sprache verwendende) Bezugspersonen erleichtert den
127
128
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 60
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 61
130
Kindern offensichtlich den Grammatikerwerb, aber könnte der Grammatikerwerb auch ohne diese
Hilfe gelingen? Die Frage danach, wie wichtig das präsentierte Sprachmaterial im Verhältnis zu den
genetischen Anlagen für den Erfolg des Grammatikerwerbs wirklich ist, wurde unterschiedlich
beantwortet. Die zunächst entwickelten Theorien hielten gewisse angeborene sprachliche
Kompetenzen für die entscheidenden Triebfedern des Spracherwerbs. Dem empirisch dargebotenen
Sprachmaterial kam diesen Autoren gemäß nur geringe Bedeutung zu. Im Gegensatz zu diesen
mittlerweile
„nativistische
Theorien“
genannten
Ansätzen
betonen
die
aktuelleren
„funktionalistischen Theorien“ die Wichtigkeit des dargebotenen Sprachmaterials für den
Grammatikerwerb. Im Folgenden werden wir diese beiden Ansätze und ihre Unterschiede etwas
genauer betrachten.
6.4 Nativistische und Funktionalistische Theorien des Grammatikerwerbs
6.4.1 Nativistische Theorien des Grammatikerwerbs
Als Hauptvertreter der nativistischen Theorien sind Noam Chomsky und Steven Pinker zu nennen.
Ihre Theorien besagen, dass es angeborenes sprachspezifisches Wissen gibt, also spezialisierte
Gehirnstrukturen, in denen die Grundstrukturen für potentielle grammatische Regeln bereits
vorgegeben sind. Jede einzelne menschliche Sprache wäre demnach nur eine mögliche Ausprägung
eines Regelsystems innerhalb gewisser allgemeingültiger Regeln. Der Spracherwerb bestünde
hauptsächlich in der Leistung, aus dem (durch die erwachsenen Sprecher präsentierten)
Sprachmaterial die einzelnen Parameter der Muttersprache zu erkennen, und diese Parameter für die
eigenen zukünftigen Sprechversuche zu verwenden. Chomsky nennt diese Grundlagen aller
menschlichen Sprachen Universalgrammatik:
„Die Prinzipien, die die Form der Grammatik determinieren und eine Grammatik der
geeigneten Form auf der Basis gewisser Daten auswählen, konstituieren dasjenige, was, dem
traditionellen Gebrauch gemäß, als »universale Grammatik« bezeichnet werden kann. Die
Untersuchung der universalen Grammatik ist, so verstanden, eine Untersuchung der Natur
der menschlichen intellektuellen Fähigkeiten. Sie versucht die notwendigen und
hinreichenden Bedingungen zu formulieren, denen ein System genügen muss, um sich als
eine mögliche menschliche Sprache auszuweisen, Bedingungen, die nicht zufällig auf die
existierenden menschlichen Sprachen zutreffen, sondern begründet sind in der menschlichen
131
»Sprachfähigkeit« und so die natürliche Organisation konstituieren, die determiniert, was als
sprachliche Erfahrung zu gelten hat und welche Sprachkenntnis auf der Basis dieser
Erfahrung möglich ist.“129
Chomsky und Pinker führen diverse Argumente zur Unterstützung ihrer nativistischen Positionen
an, wovon die meisten allerdings nur ausreichen, um deutlich schwächere Thesen zu stützen als
diejenigen, die sie vertreten. Für die Universalgrammatik wird zum Beispiel angeführt, dass
Sprache für den Menschen ein universales, aber zugleich spezifisches Phänomen ist. Das kann man
zwar so sehen, denn die Kommunikationssysteme anderer Lebewesen unterscheiden sich doch
massiv in ihrer Leistungsfähigkeit vom menschlichen Kommunikationssystem, aber daraus folgt
trotzdem nicht, dass Sprache ein genetisch bedingtes Phänomen ist. Wir unterscheiden uns auch in
anderen Hinsichten von anderen Lebewesen, zum Beispiel durch das Kochen unserer Nahrung, was
offensichtlich nicht genetisch bedingt, sondern eine erlernte Kulturtechnik ist. Als ein weiteres
Argument für die Universalgrammatik wird die angebliche Mühelosigkeit und zeitliche
Gebundenheit des Spracherwerbs angeführt. Chomsky vergleicht den Spracherwerb sogar mit der
Entwicklung von Organen und sensorischen Fähigkeiten. Es ist zwar korrekt, dass für die einzelnen
Phasen des Spracherwerbs nur gewisse Zeitfenster zur Verfügung stehen, aber mühelos und
automatisch geht der Spracherwerb in vielen Hinsichten nicht vonstatten. Im Gegenteil ist in allen
Phasen viel (idealerweise animierender und korrigierender) sprachlicher Input und viel Übung
erforderlich. Man kann also eigentlich nur festhalten, dass das menschliche Gehirn nur in den ersten
Lebensjahren in der Lage ist, die komplexen Strukturen der ersten erlernten Sprache aufzunehmen.
Durch den Vergleich mit einfachen Wachstumsprozessen wird die Wichtigkeit der Sprachdarbietung
durch die Umwelt fälschlicherweise ignoriert. Die während dieser Phase ablaufenden Prozesse im
Gehirn genauer zu betrachten, ist das Ziel neuropsychologischer Untersuchungen, welche im
siebten und achten Kapitel ausführlicher thematisiert werden. Dabei zeigt sich, dass es durchaus
spezialisierte Gehirnareale gibt, in denen die Sprachverarbeitung normalerweise stattfindet, aber
auch das ist wiederum nur ein Argument für schwächere Thesen als die von den Nativisten
vertretenen. Denn diese Bereiche sind einfach nur gut geeignet für Assoziationen und
Diskriminationen von sehr ähnlichen Wahrnehmungen, was zwar sehr günstig für die
Sprachverarbeitung ist, aber nicht spezifisch dafür vorgesehen. Während wir Sprache
normalerweise in spezifischen Bereichen der linken Gehirnhälfte verarbeiten, nutzen wir die dazu
analogen Bereiche in der rechten Gehirnhälfte für die Erkennung und Unterscheidung von
menschlichen Gesichtern. Einem erwachsenen Menschen kommt es zwar nicht so vor, weil er
129
Chomsky, N.: Sprache und Geist – Sinzheim: Suhrkamp, 1973, S.50
132
hochentwickelte Fähigkeiten für diese Unterscheidungsprozesse hat, aber menschliche Gesichter
sind sich eigentlich ebenso extrem ähnlich, wie die Geräusche, die wir mit unseren Stimmbändern
erzeugen. Wenn wir jemanden in einer uns völlig unbekannten Sprache reden hören, dann fehlen
uns die Assoziationen und die Diskriminationsfähigkeit für manche der in der fremden Sprache
enthaltenen Laute. Dadurch nehmen wir nur einen verwaschenen Singsang wahr statt einer
bedeutungstragenden artikulierten Sprache, die für einen Sprecher dieser uns unbekannten Sprache
jedoch vorliegt. Zu diesem Effekt gibt es auch einen analogen Effekt in der Gesichtswahrnehmung:
Für Europäer ist es deutlich schwieriger asiatische Gesichter zu unterscheiden als europäische
Gesichter. Das liegt jedoch keinesfalls an der Struktur asiatischer Gesichter, sondern an der
mangelnden Vertrautheit mit asiatischen Gesichtern und daher dem Mangel an der erforderlichen
Diskriminationsfähigkeit. Es lassen sich also durchaus bestimmte neuronale Gesetzmäßigkeiten
feststellen, aber die sind nicht speziell auf die Sprachverarbeitung beschränkt, wie die Nativisten
behaupten, sondern gelten für diverse kognitive Fähigkeiten. Auch gegen die These von der Armut
des Stimulus, also die These, dass Kinder bestimmte Sprachstrukturen lernen, obwohl sie diese
niemals gehört haben, wurden mittlerweile berechtigte Einwände erhoben. Insgesamt scheint mir
Chomskys
Theorie
in
vielen
Aspekten
zu
stark
von
der
Informatik
und
den
Computerwissenschaften beeinflusst zu sein. Gemäß der Prinzipien- und Parameter-Theorie, die
Chomsky später entwickelte, nutzt das lernende Kind den sprachlichen Input nur, um die Parameter
zu setzen, die die zu erlernende Sprache aus allen möglichen Sprachen heraushebt. Eine solche
Modellierung ist typisch für die Computerwissenschaften. Computer wurden zwar als
informationsverarbeitende Systeme gewissermaßen nach dem Vorbild des Menschen modelliert,
aber historisch deutlich früher und völlig ohne die Erkenntnisse der Gehirnforschung über die
Abläufe neuronaler Informationsverarbeitung. Daher kann man die Erkenntnisse und Theorien der
Computerwissenschaften nicht umgekehrt nutzen, um mit Sicherheit etwas über die menschliche
Sprachverarbeitung zu erfahren. So verwundert es nicht, dass es auch empirisches Datenmaterial
gibt, das der Parameter-Theorie widerspricht:
„Erstens wird die Prinzipien- und Parameter-Theorie einem Merkmal der Entwicklung der
grammatischen Kompetenz des Kindes nicht gerecht: Der Beobachtung, dass Kinder
manchmal über einen längeren Zeitraum korrekte und inkorrekte Konstruktionen
nebeneinander verwenden. Auch wurde nachgewiesen, dass Kinder nicht unbedingt alle mit
einer grammatischen Kategorie verbundenen Funktionen gleichzeitig erwerben. Es kann
vorkommen, dass ein Kind ein Nomen bereits syntaktisch produktiv zur Bezeichnung
verschiedener semantischer Rollen (z.B. Handelnder, Ziel einer Handlung) benutzt, die
133
Pluralbildung dieses Wortes aber noch nicht beherrscht, oder dass einige Worte einer Wortart
bereits
gemäß
der
grammatischen
Funktion
verwendet
werden,
andere
nicht
(Tomasello/Olguin 1993). Wenn ein Parameter einmal gesetzt, die entsprechende
einzelsprachliche Konstruktion also erworben ist, dürfte das nicht geschehen.“130
Obwohl die Nativisten viele gute Ansätze hatten und die Erforschung der Sprachverarbeitung damit
enorm vorangetrieben haben, sind doch viele ihrer Punkte angreifbar, oder bedürfen zumindest
leichter Korrekturen oder Verfeinerungen, wie insbesondere durch die Fortschritte innerhalb der
Neuropsychologie deutlich wird.
Chomsky hat daher den eigentlichen Inhalt dessen, was unter der Universalgrammatik verstanden
werden sollte, in seinen weiteren Publikationen immer weiter ausgedünnt:
„In radikalem Unterschied zur ursprünglichen Fassung erwägt er sogar, die UG könne nur
ein einziges Element enthalten, nämlich Rekursivität, d.h., etwas verkürzt gesagt, die
Fähigkeit, Nebensatzkonstruktionen zu bilden (Hauser et al. 2002). Und schließlich räumt er
gar die Möglichkeit ein, aufgrund zukünftiger empirischer Arbeiten könne sich die UG als
«empty set», also als leer erweisen (Fitch et al. 2005). Damit wäre der nativistischen
Theoriebildung die Basis komplett entzogen.“131
Wenden wir uns daher nun den funktionalistischen Theorieansätzen zu:
6.4.2 Funktionalistische Theorien des Grammatikerwerbs
Die neueren funktionalistischen Theorien des Grammatikerwerbs sind aus der Kritik der
nativistischen Ansätze entstanden und definierten sich daher zunächst hauptsächlich negativ über
die Ablehnung gewisser nativistischer Grundannahmen. So wird zum Beispiel die Annahme einer
angeborenen Universalgrammatik verworfen. Stattdessen wird der Grammatikerwerb nur mit Hilfe
der durch die Umwelt dargebotenen Sprache erklärt. Durch den Vergleich des Spracherwerbs in
strukturell unterschiedlichen Muttersprachen wurde gezeigt, dass sowohl die Häufigkeit des
Vorkommens in der dargebotenen Sprache als auch die Komplexität bestimmter Konstruktionen den
jeweiligen Zeitpunkt des Erwerbs beeinflussen.
130
131
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 77
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 78
134
„So erwerben Kinder das grammatische Genus im Spanischen, das ein transparentes, also für
das Kind gut zugängliches System bildet, früher als das Genus im Walisischen, das ein
schwer durchschaubares System mit vielen sich überlappenden Form-FunktionsZusammenhängen bildet.“132
Es gibt jedoch keinen absoluten Zusammenhang zwischen der Häufigkeit der Darbietung und dem
Zeitpunkt des Erwerbs. Die Grammatik wird also nicht durch reine Speicherung und Wiederholung
erlernt. Die Sprache muss auch in einem passenden Verhältnis zum bereits erworbenen Wissen über
die Umwelt stehen, beziehungsweise für das Kind auch praktisch nützlich sein. Aber sobald ein
Kind für den Erwerb bestimmter grammatischer Strukturen generell bereit wäre, hängt der
wirkliche Zeitpunkt des Erwerbs doch von der Menge der Darbietungen und der Komplexität des
Materials ab:
„Für jede Konstruktion muss das Kind ein gewisses Maß an Erfahrung sammeln, eine
kritische Masse des Input, um die relevanten Verallgemeinerungen leisten zu können, wenn
denn die Entwicklung für diese Verallgemeinerungen reif ist. Die kritische Masse ist umso
kleiner, je transparenter die Konstruktion ist.“133
Bisher hatten wir den Worterwerb und den Grammatikerwerb weitgehend unabhängig voneinander
betrachtet. Das entspricht jedoch eher nativistischen Ansätzen, die problemlos eine klare Trennlinie
zwischen dem Erwerb des Lexikons und dem Erwerb der grammatischen Regeln ziehen würden.
Gemäß den funktionalistischen Theorien sind die Prozesse des Worterwerbs und des
Grammatikerwerbs jedoch nicht völlig voneinander unabhängig, sondern die grammatischen Regeln
werden jeweils im Zusammenhang mit und speziell für den Gebrauch der einzelnen Wörter erlernt:
„Tomasello hingegen postuliert einen Erwerb von Grammatik, der mit dem Erwerb des
einzelnen Wortes untrennbar verbunden ist: Konstruktionen werden «um das Wort», vor
allem das konkrete Verb, «herum» erworben, das frühe grammatische Wissen besteht in
einem Inventar von relativ unabhängigen «Verb-Insel»-Konstruktionen, die eine Szene oder
Erfahrung, die das Kind gemacht hat, mit einer Konstruktion koppeln (Tomasello 2006).
Empirisch spricht für diese Idee, dass erworbene Konstruktionen zunächst über Tage und
Wochen überwiegend unverändert mehrfach geäußert und nur zu einem geringen
Prozentsatz produktiv ausgeweitet werden (Tomasello 2000b).“
132
133
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 79
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 80
135
Diese Theorie der Anbindung des Wissens über grammatische Strukturen an die einzelnen Wörter
passt auch zu den neuropsychologischen Vorstellungen, wie neuronale Verknüpfungen im
Allgemeinen funktionieren. Alle Informationseinheiten, die man über ein bestimmtes Wort wissen
kann (Bedeutung, Wortart, Deklination/Konjugation, Verwendung im Satz, etc.), werden
miteinander vernetzt. Die Funktionsweise solcher Netze wird im Rahmen des Konnektionismus,
einem alternativen funktionalistischen Ansatz, mit Hilfe von künstlichen neuronalen Netzen
untersucht. Diese virtuellen Netze verfügen nicht über eine Universalgrammatik, sondern sie
verändern ihre Netzstruktur und die jeweiligen Verknüpfungsstärken zwischen den Knoten aufgrund
des gegebenen sprachlichen Inputs. Die Lernergebnisse dieser künstlichen neuronalen Netze sind
relativ beeindruckend. Sie zeigen jedoch nur, wie die Lernprozesse auf der reinen Zeichenebene
potentiell ablaufen könnten. Die Rückbindung an die Erfahrungen in der Welt, die den Wörtern erst
ihre Bedeutung verleiht, wird dabei weggelassen. Insofern kann man dem Konnektionismus bisher
noch vorwerfen, nur ein unvollständiges Bild des Spracherwerbs zu zeichnen, weil für Kinder beim
Spracherwerb immer die Bedeutung und die Funktion der sprachlichen Elemente eine wichtige
Rolle spielt. Tomasello nennt daher zwei allgemeine menschliche Fähigkeiten, die er für essentiell
für den Spracherwerb hält:
„Erstens das Erkennen von Intentionen, das die artspezifischen menschlichen kognitiven
Fähigkeiten umfasst, die für die Aneignung von Symbolen und die funktionalen
Dimensionen der Sprache verantwortlich sind; und zweitens Muster-Erkennung, das ist die
Gesamtheit der den Primaten eigenen kognitiven Fähigkeiten, die in Abstraktionsprozessen
eine Rolle spielen.“134
Unter Mustererkennung versteht man die Fähigkeit, in einer Datenmenge Regelmäßigkeiten zu
erkennen. Dass Mustererkennung auch beim Spracherwerb eine signifikante Rolle spielt, sollte
nicht verwundern. Mustererkennung ist die Grundlage fast aller unserer kognitiven Fähigkeiten, sei
es bei Wahrnehmungsanalysen, wie der Gesichts-, Sprach- oder Texterkennung, bei der
Zusammenfassung von detailliertem Datenmaterial zu größeren Einheiten zur effizienteren
Abspeicherung, oder bei jedweder Form des Problemlösens. So betrachtet könnte man auch sagen,
dass Menschen eigentlich die ganze Zeit nur dabei sind, auf den verschiedensten Ebenen
Mustererkennung zu betreiben.
Die andere essentielle Grundlage für den Spracherwerb besteht in der generell nützlichen Fähigkeit,
134
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010 S. 84
136
die Absichten unserer Mitmenschen erkennen zu können, bevor sie diese in die Tat umsetzen.
Insbesondere in den frühen Erwerbsphasen ist es für das Kind nützlich zu erkennen, worauf der
Sprecher gerade seine Aufmerksamkeit gerichtet hat. Diese Fähigkeit ermöglicht es dem Kind, die
noch unbekannten und somit für es selbst bisher bedeutungslosen sprachlichen Äußerungen
zumindest auf die richtigen Bestandteile der Welt zu beziehen.
Im Allgemeinen lässt sich festhalten, dass die funktionalistischen Theorien eher der Psychologie
näher stehen und die Wichtigkeit der menschlichen Interaktion für den Grammatikerwerb betonen,
während sich die nativistischen Theorien des Grammatikerwerbs eher an Computermodellen der
Sprachverarbeitung orientiert hatten.
Fassen wir kurz zusammen, welche Erkenntnisse wir aus der detaillierten Betrachtung der
Sprachentstehung und des kindlichen Spracherwerbs gewonnen haben, die bei der Erstellung einer
neuropsychologischen Bedeutungstheorie auf jeden Fall beachtet werden sollten:
1. Sprache und höhere kognitive Prozesse beeinflussen sich gegenseitig.
2. Sprache beeinflusst nicht unsere basalen Wahrnehmungsprozesse.
3. Der Erwerb der Lauterzeugung erfolgt nach einem festen Schema, beruhend auf den genetisch
determinierten Wachstumsprozessen.
4. Die ersten Wörter bezeichnen die Gegenstände und die häufig wiederkehrenden Prozesse
innerhalb der kindlichen Lebenswelt und keine Abstrakta.
5. Im Kindesalter zeigen sich häufig Überdiskriminierungen und Übergeneralisierungen von
Wortbedeutungen.
6. Es findet Bedeutungswandel im Verlauf des Lebens statt.
7. Es gibt Bedeutungsunterschiede zwischen Sprechern.
8. Die Verständigung zwischen Sprechern ist trotz potentieller Bedeutungsunterschiede möglich
dank der gemeinsamen Umwelt, auf die die Sprache sich bezieht.
137
7. Die Neuropsychologie der Sprache
7.1 Die neuropsychologische Grundlagen
In diesem Kapitel werde ich die neuropsychologischen Grundlagen darstellen, mit denen man
vertraut sein sollte, um meine Modellierungen zur Funktionsweise von Sprachprozessen besser
nachvollziehen zu können. Es werden zunächst der Aufbau von Nervenzellen und ihre allgemeine
Funktionsweise thematisiert. Im Anschluss daran geht es um die biochemischen Grundlagen
neuronalen Lernens.
Der fächerübergreifende Ansatz dieser Arbeit bringt es leider mit sich, dass man in Hinsicht auf den
Detailreichtum nicht jedem Leser gerecht werden kann. Insbesondere bei der Gestaltung dieses
Kapitels erwies es sich als schwierig, das Vorwissen der potentiellen Leser einzustufen. Während
einerseits Psychologen mit Spezialisierung auf Biopsychologie dieses Kapitel nur kurz überfliegen
müssen, sind die Darstellungen für Sprachphilosophen an manchen Stellen eventuell zu knapp.
Obwohl es in diesem Kapitel einzig und allein um die physiologischen Grundlagen geht, habe ich
an vielen Stellen biologische Details weggelassen, um stattdessen die funktionalen Strukturen
deutlicher herausstellen zu können, die ich später für die Theoriebildung verwenden werde. Ich
hoffe jedoch, einen akzeptablen Mittelweg gefunden zu haben, der einige der empirischen
Erkenntnisse der Neuropsychologie für Sprachphilosophen nachvollziehbar und nutzbar macht.
Denjenigen Lesern, die durch meine Darstellung animiert werden, sich diese biologischen Prozesse
noch weiter im Detail anzuschauen, möchte ich Carlsons Physiologische Psychologie empfehlen.
7.2 Die Nervenzellen
Nervenzellen (Neuronen) sind die physikalische Grundlage aller unserer Wahrnehmungen, ihrer
Verarbeitung und unserer motorischen Aktivitäten. Das Nervensystem erstreckt sich prinzipiell
durch
den
gesamten
menschlichen
Körper,
wobei
im
Allgemeinen
zwischen
dem
Zentralnervensystem (bestehend aus Gehirn und Rückenmark) und dem peripheren Nervensystem
(den Sinnesorganen) unterschieden wird. Diese Unterscheidung ist allerdings nur topografisch, denn
funktionell betrachtet liegen keine zwei voneinander unabhängigen Systeme vor. Die Nervenzellen
erfüllen nur je nach ihrer Lage unterschiedliche Funktionen für den Organismus. Das menschliche
138
Gehirn besteht aus ca. 100.000.000.000 Neuronen, wobei jedes einzelne Neuron mit bis zu 60.000
anderen Neuronen direkt vernetzt sein kann. Wenn man sich das gewaltige Ausmaß an
Möglichkeiten einer solchen informationsverarbeitenden Netzstruktur vorzustellen versucht, dann
verschwindet die zunächst vorhandene philosophische Verwunderung darüber, wie menschliche
Gehirne so komplexe Leistungen, wie Spracherzeugung, Gesichtserkennung und Motorkoordination
erbringen können. In Abhängigkeit von ihrer jeweiligen Funktion kann auch die Form der
Nervenzellen stark variieren. Trotzdem lassen sich einige grundlegende Strukturen erkennen, die
Neuronen normalerweise aufweisen. Sie bestehen aus einem Soma, einem Axon und vielen
Dendriten und Endknöpfen, wie sie hier schematisch dargestellt sind:
Abbildung 6: Abbildung aus Carlson, Neil R.: Physiologische Psychologie – München: Pearson
Studium, 2004 S. 36
Das Soma enthält den Zellkern und die anderen für die Lebensprozesse der Zelle relevanten
Strukturen, die für unsere funktionale Betrachtungsweise der Nervenzelle als Ort der
Informationsverarbeitung jedoch weniger wichtig sind. Ganz im Gegensatz zu den Dendriten, die
die Orte sind, an denen die Informationen von den umgebenden Neuronen meistens ankommen. An
diesen baumartigen Verästelungen heften sich die Endknöpfe anderer Nervenzellen an und
ermöglichen über chemische Prozesse (die in den Kapiteln „Neurotransmitter und Rezeptoren“ und
139
„Die
Freisetzung
des
Neurotransmitters“
detailliert
dargestellt
werden)
eine
Informationsübertragung zwischen den Neuronen. Diese Kontaktstellen, die die Endknöpfe mit
anderen Neuronen bilden, werden Synapsen (von gr. σύν, syn = zusammen, ἅπτειν, haptein =
ergreifen, fassen, tasten) genannt. Der winzige verbleibende Raum zwischen einem Dendrit und
einem Endknopf wird dementsprechend als synaptischer Spalt bezeichnet. In diesem Spalt findet
die chemische Informationsübertragung durch Neurotransmitter statt. Um bei der Beschreibung der
Vorgänge an einer Synapse deutlich zwischen den Prozessen in den beiden beteiligten Neuronen
unterscheiden zu können, sind die Bezeichnungen präsynaptisches und postsynaptisches Neuron
üblich, wobei das präsynaptische Neuron immer dasjenige ist, das Informationen überträgt, während
das postsynaptische Neuron sie empfängt. Ein oder mehrere Endknöpfe des präsynaptischen
Neurons sitzen also auf einem Dendriten des postsynaptischen Neurons und bilden dort jeweils eine
Synapse.
Das Axon stellt sozusagen die Leitung dar, entlang der die Informationen weitergeleitet werden. Es
ist in Relation zu den anderen Bestandteilen meistens deutlich länger als die Größenverhältnisse in
der obigen Abbildung vermuten lassen. Es leitet die Informationen in Form von Aktionspotentialen
unidirektional vom Zellkörper bis zu den Endknöpfen. Axone sind bei erwachsenen Menschen
meistens von einer Myelinscheide umgeben, die die Geschwindigkeit der Weiterleitung der
Aktionspotentiale erhöht und dafür sorgt, dass das Neuron weniger Energie benötigt, um sein
Natriumgleichgewicht zu erhalten. Aktionspotentiale sind kurze elektrochemische Impulse mit
feststehender Stärke und Dauer, die sich an allen Verzweigungen des Neurons jeweils unvermindert
in beide Äste fortsetzen.
An den Ausläufern aller dieser Verzweigungen befinden sich die
Endknöpfe, die wiederum die Funktion haben, die Informationen an andere Neuronen
weiterzugeben. Wenn ein Aktionspotential einen Endknopf erreicht, dann setzt dieser Endknopf
Neurotransmitter genannte Substanzen frei, die von der anliegenden Nervenzelle aufgenommen
werden. Es gibt viele verschiedene Neurotransmitter. Je nach Art der Verschaltung und des
Neurotransmitters wird die aufnehmende Zelle dadurch erregt oder gehemmt und somit wird
beeinflusst, ob in ihrem Axon ebenfalls ein Aktionspotential auftreten wird oder nicht.
Funktional betrachtet ähnelt ein Neuron also einerseits einem Kabel zur Datenübertragung,
andererseits ist jedes Neuron selbst bereits ein komplexer Baustein (im Sinne eines Logikgatters 135),
dessen Output von einer großen Zahl an eingehenden Inputs abhängt, aber der auch an viele
135
Logikgatter sind technische Realisierungen der Wahrheitstafeln, die Wittgenstein im TLP einführte. In einem
Logikgatter ergibt sich in Abhängigkeit von allen Werten an den Eingängen ein eindeutiger Wert am Ausgang. Aus
multiplen Logikgattern kann man einen komplexeren Baustein namens Flip-Flop bauen. Aus mehreren Flip-Flops
konstruiert man Datenspeicher und Zähler und wiederum aus diesen erstellt man einen Mikroprozessor. Logikgatter
sind also der Grundbaustein für unsere moderne Computertechnologie. Und Neuronen sind funktional betrachtet
äquivalent zu komplexen Logikgattern.
140
verschiedene Empfänger weitergeleitet wird. Doch wie beeinflussen die vielen an den Dendriten
(oder direkt am Soma) eintreffenden biochemischen Botschaften der Nachbarneuronen die
Entstehung von Aktionspotentialen in einem spezifischen Neuron? In den beiden folgenden
Abschnitten wird diese Frage im Detail behandelt.
141
7.3 Neurotransmitter und Rezeptoren
Die an den Endknöpfen in den synaptischen Spalt
freigesetzten Neurotransmitter heften sich an die
postsynaptischen Rezeptoren an und bewirken damit
in
der
Empfängerzelle
kurzfristig
lokale
Veränderungen des Membranpotentials. Dies kann
zum
Beispiel
durch
transmittergesteuerte
Ionenkanäle geschehen, die sich nur für Ionen
öffnen, wenn sich ein passender Neurotransmitter an
ihrem Bindungsort anheftet. Ist eine derartige
Verbindung hergestellt, dann verändert der durch
den geöffneten Ionenkanal erfolgende Ionenstrom in
Abbildung 7: Abbildung aus Carlson S. 67
die Empfängerzelle deren Membranpotential. Eine solche aus einem Ionenkanal und einem
Rezeptor bestehende Konstellation wird ionotroper Rezeptor genannt. Dies ist die einfachste
Rezeptorform, die direkt das postsynaptische Membranpotential beeinflusst, sobald bei ihr
Neurotransmitter eintreffen.
Darüber hinaus gibt es auch noch metabotrope Rezeptoren, die durch ihre Aktivierung eine Reihe
biochemischer Ereignisse in der Empfängerzelle
auslösen,
die
unter
anderem
auch
postsynaptische Potentiale bewirken, welche
allerdings langsamer entstehen und länger
andauern. Die dabei entstehenden sekundären
Botenstoffe können die Zellfunktionen zwar
noch viel weitgehender beeinflussen, aber diese
Details brauchen hier nicht behandelt zu werden.
Aus funktionaler Sicht reicht es zu wissen, dass
Nervenzellen durch diese Prozesse in der Lage
Abbildung 8: Abbildung aus Carlson S. 68
sind, Informationen über ihre Zellgrenzen hinaus
an andere Neuronen weiter zu geben. Aber was macht eine Empfängerzelle mit den eingehenden
Informationen, insbesondere wenn sie viele unterschiedliche Signale von mehreren anderen
Neuronen erhält? Die verschiedenen Botschaften müssen zu einem Verhalten integriert werden:
142
7.4 Neuronale Integration
Je nachdem welche Neurotransmitter an den eingehenden Synapsen freigesetzt werden und über
welche Rezeptoren die Empfängerzelle dort verfügt, werden in der empfangenden Zelle entweder
excitatorische oder inhibitorische postsynaptische Potentiale ausgelöst. Es handelt sich dabei
jeweils um lokale Veränderungen der elektrischen Ladung innerhalb des Somas der Zelle durch
Ioneneinstrom. Excitatorische postsynaptische Potentiale (EPSPs) verändern die Verhältnisse in
der Nervenzelle so, dass die Wahrscheinlichkeit für die Bildung von Aktionspotentialen steigt,
während inhibitorische postsynaptische Potentiale (IPSPs) die Wahrscheinlichkeit dafür senken.
Beide Potentialarten werden von den Dendriten ausgehend durch das Soma bis zum Axonhügel
geleitet, wo sich die Effekte aufsummieren. Als Axonhügel bezeichnet man den Bereich, an dem
das Axon aus dem Soma austritt. Falls die elektrische Depolarisierung am Axonhügel insgesamt
stark genug ist, dann wird ein Aktionspotential ausgelöst (man sagt dazu auch: das Axon „feuert“).
Dazu muss eine bestimmte Erregungsschwelle überschritten werden. Das ist zum Beispiel der Fall,
wenn mehrere EPSPs eintreffen (siehe Abbildung 10a). Treffen jedoch im selben Zeitraum auch
inhibitorische postsynaptische Potentiale (IPSPs) in der Nervenzelle ein, dann wird der
Depolarisierung entgegengewirkt, so dass kein Aktionspotential ausgelöst wird (siehe Abbildung
10b).
Abbildung 9: neuronale Integration - Abb. aus Carlson S. 72
143
7.5 Das Aktionspotential
Zellmembranen sind nicht einfach durchlässig für die sie umgebenden Substanzen. Stattdessen gibt
es verschiedene komplexe Mechanismen, die dafür sorgen sollen, dass innerhalb von Zellen die
lebensnotwendigen chemischen Zusammensetzungen bestehen bleiben, obwohl außerhalb
ebendieser Zellen andere Bedingungen bestehen mögen. So kommt es auch dazu, dass Ionen nur in
bestimmten
Verhältnissen
in
die
Zelle
gelassen
werden.
Dadurch
stellt
sich
ein
Membranruhepotential ein, also eine gewisse elektrische Grundladung innerhalb einer
Nervenzelle.
Ein Aktionspotential besteht in einer extrem
kurzfristigen (ca. 1 Millisekunde dauernden)
Veränderung dieser elektrischen Ladung auf +40
mV gegenüber dem Membranruhepotential von
-70 mV. Diese blitzschnelle Ladungsveränderung
wird verursacht durch eine kurze Zunahme der
Durchlässigkeit der Zellmembran für Na+ Ionen,
die dadurch in die Zelle einströmen können.
Diesem Effekt folgt eine ebenso kurze Zunahme
der Durchlässigkeit der Zellmembran für K+
Ionen, die dadurch aus dem Neuron ausströmen
können. Innerhalb von nur 2 Millisekunden
normalisiert sich die elektrische Ladung wieder,
wobei kurzfristig sogar eine Hyperpolarisation
auf ca. -80 mV stattfindet, bevor sich das
Abbildung 10: Aktionspotential – Abb. aus
Membranruhepotential wieder einstellt.
Carlson S. 56
Jedes solche Aktionspotential wird entlang des Axons unidirektional bis zu seinen vielen
Endknöpfen weitergeleitet. Die feste Richtung ist dabei kein Resultat der Bauweise des Axons
selbst, sondern durch den Startpunkt des Potentials bedingt. Falls man künstlich ein
Aktionspotential in der Mitte eines Axons erzeugen würde, dann würde sich dieses von dort aus in
beide Richtungen des Axons fortsetzten, aber so etwas kommt auf natürliche Weise nicht vor. Da
bei lebenden Nervenzellen natürliche Aktionspotentiale immer nur am Axonhügel entstehen, setzen
sie sich von dort aus nur in eine Richtung entlang des Axons fort. Mit Hilfe von
Aufzeichnungselektroden und einem Oszilloskop kann man die Wanderung dieses elektrischen
144
Signals genauer beobachten. Zur Erleichterung der Messungen nimmt man dafür zum Beispiel das
Riesenaxon eines Tintenfisches. So kann man leicht feststellen, dass sowohl die Größe als auch die
Form des Potentials über die gesamte Strecke hinweg konstant bleiben. Aus solchen Experimenten
leitet sich das Alles-oder-nichts-Gesetz ab, welches besagt, dass ein Aktionspotential entweder
ausgelöst wird oder nicht, und dass, sobald ein Aktionspotential erst einmal ausgelöst wurde, seine
Form über alle Aufspaltungen des Axons hinweg konstant weitergeleitet wird.
Dieses Gesetz legt natürlich die Frage nahe, wie neuronale Aktivität dann für unsere
Wahrnehmungen und unsere Bewegungssteuerung verantwortlich sein kann. Sowohl unsere
Wahrnehmungen als auch unsere Muskelkontraktionen können offensichtlich in ihrer Intensität
stark variieren. Neuronen scheinen aber keine Abstufungen übertragen zu können, sondern nur über
zwei verschiedene Zustände zu verfügen, was nicht ausreicht, um die stufenlos veränderlichen
Werte unserer Wahrnehmung und Bewegungssteuerung umzusetzen. Die Antwort besteht darin,
dass nicht ein einziges Aktionspotential die erforderlichen Informationen kodiert, sondern die
Frequenz der Aktionspotentiale. Starke Reize und starke Muskelkontraktionen entsprechen jeweils
hohen Aktionspotentialfrequenzen in den entsprechenden beteiligten Nervenzellen. Dieses Prinzip,
welches besagt, dass Intensitätsvariationen von Reizen durch Frequenzvariationen der
Aktionspotentiale realisiert werden, wird das Gesetz der Frequenzkodierung genannt. Zusammen
mit dem Alles-oder-nichts-Gesetz erklärt es, wie Neuronen stufenlos veränderliche Informationen
kodieren und intern weiterleiten können.
Damit wäre der Prozess der neuronalen Informationsweiterleitung fast vollständig beschrieben. Es
fehlt nur noch der Prozess der Freisetzung des Neurotransmitters an den Endknöpfen, sobald das
Aktionspotential dort ankommt. Diese freigesetzten Neurotransmitter übertragen die Information
über die aktuelle Feuerrate eines Neurons dann an genau die Neuronen, mit denen es über seine
Endknöpfe vernetzt ist.
145
7.6 Die Freisetzung des Neurotransmitters
Neurotransmitter sind biochemische Botenstoffe, die für die Informationsübertragung zwischen
Nervenzellen erforderlich sind. Es wurden bereits über 40 verschiedene Neurotransmitter gefunden.
Sie können erregende Wirkung haben, wie zum Beispiel Glutamat, oder hemmende Wirkung wie
zum Beispiel Gamma-Aminobuttersäure (GABA) und Glycin. Die unterschiedlichen Systeme für
Motivation, Lernen, Gedächtnis, Entwurf von Bewegungsabläufen, etc. verwenden jeweils
spezifische Neurotransmitter. Daher können altbekannte klinische Diagnosen, wie endogene
Depression,
Zwangsstörung
oder
Panikstörung,
mittlerweile
mit
Störungen
in
den
Ausschüttungsmengen spezifischer Neurotransmitter in Zusammenhang gebracht werden. Mangel
oder Überschuss von spezifischen Neurotransmittern in den dazugehörigen Gehirnarealen führen zu
den Effekten, die als Morbus Alzheimer (Acetylcholin), Schizophrenie (Dopamin) oder endogene
Depression (Serotonin) diagnostiziert werden. Zusätzlich zu den Neurotransmittern gibt es auch
noch Neuromodulatoren, die die Wirksamkeit der Neurotransmitter verstärken oder abschwächen
können. An dieser Stelle wollen wir uns jedoch nur der unmodulierten Informationsübertragung
zwischen Neuronen mithilfe von Neurotransmittern widmen.
Abbildung 11: Freisetzung des Neurotransmitters – Abb. aus Carlson S.65
Im Detail erfolgt die Ausschüttung laut Almers Modell von 1990 in folgenden Schritten:
146
„Einige synaptische Vesikel sind an der präsynaptischen Membran angedockt und befinden
sich in Bereitschaft, ihren Neurotransmitter in den synaptischen Spalt freizusetzen. Das
Andocken erfolgt durch das Anheften von Proteinmolekülen der Vesikel an Proteinmoleküle,
die sich in der präsynaptischen Membran befinden. Die Aktivzone der präsynaptischen
Membran enthält spannungsgesteuerte Calciumkanäle. Diese Kanäle öffnen sich infolge der
Depolarisation der Membran des Endknopfes durch das eintreffende Aktionspotential. Wie
Natriumionen auch befinden sich Calciumionen (Ca 2+) in höherer Konzentration in der
extrazellulären
Flüssigkeit.
Folglich
strömt
bei
geöffneten
spannungsgesteuerten
Calciumkanälen Ca2+ in die Zelle, getrieben von der Diffusionskraft und der
elektrostatischen Kraft. Der Einstrom von Ca2+ ist ein entscheidender Schritt; wenn man ein
Neuron in eine Lösung legt, die keine Calciumionen enthält, dann führt ein Aktionspotential
nicht mehr zur Freisetzung von Neurotransmitter. […] Nach Almers (1990) binden sich die
in die Endknöpfe einströmenden Calciumionen an die Bündel derjenigen Proteinmoleküle,
die die Membran der synaptischen Vesikel mit der präsynaptischen Membran vereinigen.
Infolge dessen bewegen sich Abschnitte dieser Proteinmoleküle seitwärts, wodurch eine
Fusionspore entsteht – eine Öffnung durch beide Membranen. Der Fusionsprozess dauert
etwa 0,1 ms.“136
Da der gesamte Prozess der Freisetzung nur wenige Millisekunden dauert, benötigt man aufwändige
Versuchsanordnungen, in denen nach der Auslösung des Aktionspotentials direkt eine
Schockgefrierung der Zellen erfolgt, um die Freisetzung der Neurotransmitter beobachten zu
können. Die folgenden Bilder sind auf diese Art entstanden.
136
Carlson S. 64/65
147
Abbildung 12: fusionierte synaptische Vesikel – Abb. aus
Carlson S. 66
Auf diesen Bildern sieht man die Fusionszone eines Endknopfes von außen, also sozusagen aus der
Sicht der postsynaptischen Membran. Abbildung 13a zeigt den Zustand unmittelbar vor der
Ausschüttung des Neurotransmitters, während man auf Abbildung 13b die kreisförmigen Öffnungen
in der präsynaptischen Membran während der Freisetzung des Neurotransmitters erkennen kann.
148
Da bei der Fusion der synaptischen Vesikel mit der präsynaptischen Membran die Membran des
Endknopfes etwas dicker wird, könnte dieser Prozess nicht immer wieder ablaufen, falls es nicht
einen gegenläufigen Prozess gäbe.
Ansonsten würde die Membranfläche
und
damit
die
gesamten
unkontrolliert
anwachsen.
Ausdehnung
der
Endknöpfe
einfach
immer
weiter
Dieser
gegenläufige
Prozess wird Pinozytose genannt und
findet an der Stelle statt, an der das
Axon in den Endknopf übergeht.
Dabei werden Membranknospungen in
das Zytoplasma zurückgeführt, was
die Gesamtfläche der Membran wieder
verringert.
Während
eines
circa
einminütigen Prozesses gelangen diese
Membranknospen zu den Zisternen,
wo aus ihnen neue synaptische Vesikel
gebildet werden, die wiederum mit
Neurotransmitter befüllt werden. Von
Abbildung 13: Pinozytose - Abbildung aus Carlson S. 66
präsynaptischen
hier aus wandern diese dann zur
Membran, um für die Ausschüttung
im Falle weiterer eintreffender
Aktionspotentiale bereit zu stehen. So kann dieser Prozess beliebig oft wiederholt werden.
Und mit der Erklärung dieses kleinen Kreislaufs schließt sich auch der größere Kreis der
Darstellung der neuronalen Informationsübertragung. Es wurde gezeigt, wie Neuronen auf
Neurotransmitter anderer Neuronen reagieren, wie Aktionspotentiale intern weitergeleitet werden,
und wie Neuronen selbst Neurotransmitter ausschütten. Obwohl diese Darstellung noch mit vielen
weiteren biologischen Details angereichert werden könnte, reicht sie aus, um einerseits bereits die
Komplexität der biochemischen Vorgänge erahnen zu lassen, um andererseits aber auch die rein
funktionale Analyse nicht aus den Augen zu verlieren.
Jedes Neuron lässt sich funktional als komplexes Logikgatter interpretieren. Es verfügt über
eingehende Daten und seine Ausgabe hängt von diesen Eingängen in eindeutiger Weise ab. Da jedes
einzelne Neuron mit bis zu 60.000 anderen Neuronen direkt vernetzt sein kann, was einer
149
Gesamtheit von 60.000 Eingängen und Ausgaben entspricht, stellt jedes einzelne Neuron bereits
einen hochkomplexen Baustein dar. Das menschliche Gehirn besteht jedoch aus ca.
100.000.000.000 Neuronen. Dies ist eine Anzahl von Bausteinen, die schon an sich schwer
vorstellbar ist, aber das Potential der möglichen Netzstrukturen aus dieser Menge an Elementen ist
natürlich noch exponentiell höher. Angesichts dieses Potentials verringert sich die Verwunderung,
die uns häufig überkommt, wenn wir philosophische Fragestellungen bezüglich unserer Sprache
bearbeiten. Obwohl unsere Sprachfähigkeiten so wunderbar vielfältig und komplex sind, können sie
problemlos durch unser exponentiell komplexeres neuronales Netz realisiert werden.
7.7 Neuronales Lernen
Dass unsere Neuronen hochkomplexe Bausteine sind, erklärt aber nicht, wieso wir in der Lage sind,
extrem unterschiedliche Fähigkeiten wie Schachspielen und Stabhochsprung zu erlernen und zu
meistern. Eine Sprache zu erlernen ist mindestens genauso schwierig wie diese beiden Fähigkeiten
zu erwerben. Der Unterschied besteht nur darin, dass wir viel früher damit anfangen eine Sprache
zu lernen, und sobald wir damit angefangen haben, gibt es keinen Tag mehr, an dem wir diese
Fähigkeit nicht anwenden. Nur deswegen scheint uns als Erwachsene das Sprechen so einfach zu
sein. Durch meine Rede von Bausteinen und Logikgattern drängte sich dem Leser eventuell der
Vergleich zwischen Mensch und Computer auf. Dieser Vergleich scheint mir jedoch wenig nützlich,
denn selbst in rein funktionaler Betrachtungsweise sind die Unterschiede zwischen den
Datenverarbeitungsstrukturen massiv. Insbesondere sind Neuronen keine statischen Bausteine,
sondern sie sind über die Zeit hinweg flexibel. Sie können wachsen und neue Verknüpfungen mit
anderen Neuronen ausbilden, ihre Endknöpfe können sich vergrößern und deren Anzahl kann sich
ändern. Unbenutzte oder dysfunktionale Neuronen sterben ab, während häufig benötigte Neuronen
und Cluster gestärkt werden. Genau diese neuronale Flexibilität, die während der Kindheit am
größten ist, ermöglicht es uns je nach Training, in den unterschiedlichsten Bereichen unglaubliche
Fähigkeiten zu entwickeln. In den verschiedenen Entwicklungsschüben, die beim Menschen bis zur
Pubertät andauern, entstehen zunächst große Mengen nicht-myelinisierter Neuronen. Die
Leitungsgeschwindigkeit dieser Neuronen ist 30-35mal langsamer als die von myelinisierten
Neuronen. Sie stellen die unspezifische noch maximal lernfähige Netzstruktur dar, die aufgrund der
Anforderungen der Umwelt eingestellt und spezialisiert werden kann. Erst nachdem sich die zur
150
Umwelt passenden neuronalen Strukturen gebildet haben, werden die Neuronen myelinisiert, was
die Schnelligkeit der Reaktion erhöht, aber auch die persönlichen Fähigkeiten und
Verarbeitungsstrukturen festigt und unflexibler macht. Neuronales Lernen stellt also eine
aktivitätsabhängige Veränderung von Verschaltungsmustern und Funktionsabläufen dar. Viele
verschiedene biochemische Mechanismen ermöglichen Veränderungen von Verschaltungen mit
jeweils unterschiedlichen Wirkungsgraden in Hinsicht auf Langfristigkeit und Bedeutsamkeit der
Auswirkungen.
Eine
davon
wird
als
Langzeitpotenzierung
bezeichnet. Es handelt sich dabei um eine langzeitige
Zunahme der Erregbarkeit eines Neurons für einen
bestimmten synaptischen Input, verursacht durch
wiederholte hochfrequente Aktivität genau dieses
Inputs. Betrachten wir, was dabei im Detail geschieht.
Die hochfrequente Aktivität an einer Synapse führt zu
excitatorischen postsynaptischen Potentialen (EPSPs),
die wiederum ein oder mehrere Aktionspotentiale
auslösen. Durch das Aktionspotential wird die Zelle
kurz depolarisiert. Das Gleichzeitige Auftreten dieser
Depolarisation mit der hochfrequenten Stimulation
Abbildung 14: Langzeitpotenzierung – Abb. aus
einer Synapse führt zur Stärkung dieser Synapse. Man
Carlson S. 506
kann experimentell nachweisen, welche Vorgänge essentiell für eine solche Langzeitpotenzierung
sind, indem man - wie in der Abbildung gezeigt - die Depolarisation des Zellkörpers und die
Stimulation des Axons selbst vornimmt. Dabei kann man die Zeitpunkte der beiden elektrischen
Stimulationen variieren, womit man zeigen kann, dass die Depolarisation zum gleichen Zeitpunkt
stattfinden muss, damit die Stimulation der Synapse zu einer Stärkung der Synapse führt. Da durch
eine einzelne Stimulation keine Depolarisation bewirkt wird, folgt daraus, dass nur hochfrequente
Stimulationen eine Langzeitpotenzierung bewirken können, genau wie es die folgende Grafik
veranschaulicht:
151
Abbildung 15: hochfrequente Stimulation – Abb. aus Carlson S. 505
Man weiß nun, wodurch Langzeitpotenzierung, also eine langzeitige Zunahme der Erregbarkeit
eines Neurons für einen bestimmten synaptischen Input, ausgelöst wird, aber welche biochemischen
Prozesse sorgen eigentlich für die Stärkung der synaptischen Effizienz? Mindestens zwei
unterschiedliche Effekte können vorliegen, die Vergrößerung der Synapse bis hin zur Ausbildung
zusätzlicher Synapsen und die Einfügung zusätzlicher Rezeptoren in die postsynaptische Membran.
Die Umstrukturierung einer Synapse sieht man in der folgenden Abbildung schematisch dargestellt:
Abbildung 16: Synapsenumstrukturierung – Abb. aus Carlson S. 513
152
Die vergrößerte postsynaptische Aktivzone wird zunächst zweigeteilt von einem in der Mitte
entstehenden Dorn, durch dessen Wachstum auch der präsynaptische Endknopf deformiert wird.
Dadurch entstehen zwei getrennte Aktivzonen, die zu voller Größe heranwachsen. Der so
entstandene verzweigte Spine entwickelt sich zuletzt zu zwei einzelnen Spines. Dadurch sind die
zwei beteiligten Neurone jetzt mehrfach verbunden, was bedeutet, dass das postsynaptische Neuron
stärker auf Aktionspotentiale des präsynaptischen Neurons reagiert als zuvor.
Die Einfügung zusätzlicher Rezeptoren in die postsynaptische Membran stellt eine andere
Möglichkeit der stärkeren Verknüpfung von Neuronen dar. Diese zusätzlichen Rezeptoren bewirken
eine stärkere Reaktion im postsynaptischen Neuron bei gleichbleibender Menge an ausgeschüttetem
Neurotransmitter durch den präsynaptischen Endknopf. Auch dieser Umbau ist ein Teil der vielen
Prozesse, die Langzeitpotenzierung bewirken. In der folgenden Abbildung sieht man den Einbau
zusätzlicher
AMPA-Rezeptoren
neben
bereits
bestehenden
NMDA-Rezeptoren
in
der
postsynaptischen Membran.
Abbildung 17: Einbau zusätzlicher Rezeptoren – Abb. aus Carlson S. 506
Wie man sieht, handelt es sich um einen mehrstufigen Prozess, für den genau die Bedingungen für
Langzeitpotenzierung erfüllt sein müssen, damit er stattfinden kann. Zunächst muss der NMDA153
Rezeptor durch den Neurotransmitter Glutamat aktiviert werden, so dass überhaupt Calciumionen in
das Zellinnere gelangen können, wo sie das calciumabhängige Enzym CaM-KII (Typ II CalziumCalmodulin-Kinease) in den dendritischen Spines aktivieren. Nur in aktivierter Form dockt CaMKII an den NMDA-Rezeptor an und kann sich dann mit Verbindungsproteinen zu einer Art
Aufhängung für AMPA-Rezeptoren entwickeln. Wenn nun noch gleichzeitig AMPA-Rezeptoren in
Vesikeln zur Membran transportiert werden, dann können sich diese an die Aufhängungen binden,
so dass es zusätzliche Rezeptoren in der postsynaptischen Membran gibt, die auf Glutamat
reagieren. Auch auf diese Weise entsteht eine stärkere Aktivierbarkeit des postsynaptischen Neurons
durch das präsynaptische Neuron.
An dieser Stelle können nicht einmal alle bisher bekannten Möglichkeiten neuronalen Lernens
besprochen werden und es ist davon auszugehen, dass in der Zukunft noch weitere gefunden
werden. Wie wir noch sehen werden, sind für meine Bedeutungstheorie insbesondere genau die
Prozesse interessant, die Verknüpfungen zwischen zunächst nicht zueinander gehörenden Bereichen
realisieren. Daher betrachten wir noch die assoziative Langzeitpotenzierung, die einen Sonderfall
der Langzeitpotenzierung darstellt.
Abbildung 18: assoziative Langzeitpotenzierung - Abbildung aus Carlson S. 509
Bei der assoziativen Langzeitpotenzierung werden durch die gleichzeitige Stimulation starker
Synapsen, die ein postsynaptisches Aktionspotential auslösen, und schwacher Synapsen eines
Neurons, deren Aktivität nicht für die Auslösung eines Aktionspotentials ausgereicht hätte, die
schwachen Synapsen langfristig gestärkt. Dieser und ähnliche mittlerweile gefundene Prozesse
154
bestätigen die von Donald Hebb 1949 vorgeschlagene Regel. Die Hebb´sche Regel besagt, dass je
häufiger Neuron A gleichzeitig mit Neuron B aktiv ist, umso stärker werden die beiden Neuronen
aufeinander reagieren. Sie wird häufig abgekürzt als "What fires together, wires together".
Weiterhin sind diese Prozesse die biochemische Grundlage von klassischem und instrumentellem
Konditionieren, die jeweils leicht beobachtbare Lernprozesse darstellen. Betrachten wir die
neuronalen Vorgänge beim klassischen Konditionieren, wie sie in der folgenden Zeichnung
dargestellt sind. Beim klassischen Konditionieren werden zwei Reize durch Lernen miteinander
verbunden, so dass der zunächst neutrale Reiz zuletzt die gleiche Reaktion auslöst wie der andere
Reiz. Als äußerliche Reize liegen in diesem Beispiel ein Luftstoß auf das Auge, der einen Lidschlag
zum Schutz des Auges auslöst, und ein 1000 Hertz Ton vor, der zunächst keine spezifische Reaktion
bei dem Versuchstier bewirkt.
Abbildung 19: Hebb´sche Regel - Abbildung aus Carlson S. 498
„Wird der Ton von 1000 Hz zuerst dargeboten, dann wird die schwache Synapse T aktiv.
Wenn der Luftstoß unmittelbar danach folgt, wird die starke Synapse P aktiv und veranlasst
das motorische Neuron, zu feuern. Dieses Feuern des motorischen Neurons stärkt jede
Synapse mit diesem Neuron, die zu diesem Zeitpunkt aktiv gewesen ist. Natürlich betrifft
das Synapse T. Nach mehreren Paarungen der zwei Reize wird Synapse T stark genug, um
das motorische Neuron selbst zum Feuern zu bringen. Es hat Lernen stattgefunden.
Offenkundig gibt es im auditiven System des Kaninchens mehr als ein Neuron, ebenso in
dessen motorischen System – mit Neuronen, die das Ohrenwackeln steuern, das
Naserümpfen steuern, das Rennen, das Schnüffeln, das Kauen und alles andere, was ein
155
Kaninchen sonst so tun kann. Aber vor dem Lernen sind all diese Verbindungen schwach;
das Hören eines Tones von 1000 Hz erzeugt eine so geringe Aktivierung der Neurone des
motorischen Systems, dass das Tier keine offene Reaktion zeigt. Von all den tausenden
Synapsen des motorischen Systems, die durch den Ton von 1000 Hz aktiviert werden,
werden nur genau diejenigen gestärkt, die sich auf Neuronen befinden, die genau zu diesem
Zeitpunkt feuerten.“137
Man sieht hier einen typischen Lernprozess auf neuronaler Ebene nachgezeichnet. Wichtig daran ist
vor allem, dass es bei einem solchen Lernprozess gelingt, neue eigenständige funktionale
Netzstrukturen zu bilden, indem bestehende Verbindungen gestärkt werden, die sich über
verschiedene Wahrnehmungsmodalitäten und somit auch über verschiedene Gehirnareale
erstrecken. Dabei müssen die assoziierten Neuronen nicht wie im Beispiel direkt miteinander
verbunden sein, sondern sie können über dazwischenliegende Neuronen vernetzt sein, deren
Verbindungen untereinander jeweils gestärkt werden. Genau diese Art von neuronalem Lernen wird
die Grundlage meiner Modellierung des Spracherwerbs und damit der Funktionsweise von
Bedeutung sein.
In diesem Kapitel wurden die neurophysiologischen Grundlagen besprochen, deren Kenntnis in den
weiteren Kapiteln vorausgesetzt wird. Der prinzipielle Aufbau von Neuronen und die Funktionalität
ihrer Kommunikation untereinander wurden dabei dargestellt. Man konnte nachvollziehen, wie
Aktionspotentiale entstehen und wie mit Neurotransmittern Botschaften an andere Neuronen
weitergeleitet werden. Die Stufenlosigkeit aller Informationen, wie zum Beispiel bei Intensitäten
von Wahrnehmungen und Muskelkontraktionen konnten durch die Frequenzkodierung von
Aktionspotentialen erklärt werden.
Sehr wichtig werden im weiteren Verlauf unsere Erkenntnisse zur neuronalen Plastizität und zu den
Prozessen des neuronalen Lernens werden, da sie die physiologische Grundlage des Spracherwerbs
bilden.
137
Carlson S. 499
156
8. Die neuronale Realisierung von Sprache
8.1 Wortrepräsentationen durch neuronale Netze
Die menschliche Sprache basiert auf Prozessen in unseren Gehirnen. Sei es die Steuerung unseres
Kehlkopfs und der Stimmbänder beim Sprechen, die Steuerung der Hand- und Armmuskulatur beim
Schreiben, das Wiedererkennen und Verstehen von einzelnen Wörtern oder die Erzeugung von
grammatisch korrekten Satzstrukturen. Das ist in den Neurowissenschaften unstrittig, doch von
einer allgemein anerkannten Theorie, die die Details der vielen komplexen Prozesse bei der
Sprachverarbeitung darstellen und vorhersagen kann, ist man noch weit entfernt. In diesem Kapitel
soll ein Theorieansatz gezeigt werden, der mit den Versuchsergebnissen bezüglich einfacher
Prozesse der Sprachverarbeitung vereinbar ist und zugleich eine gute Vorstellung davon geben
kann, wie die komplexeren Prozesse darauf aufbauen könnten.
Es sind immens viele Arten vorstellbar, wie Sprache neuronal verarbeitet werden könnte. Gibt es
neuronale Korrelate von sprachlichen Bestandteilen und falls ja, was genau sind die Elemente, für
die sich neuronale Korrelate aufspüren lassen? Der im weiteren Verlauf verfolgte Ansatz von
Friedemann Pulvermüller138 besagt, dass es ein eindeutiges und auffindbares neuronales Korrelat zu
jedem einzelnen Wort gibt. Dieses Korrelat kann interpersonal unterschiedlich sein, aber innerhalb
einer Person führt die wiederholte Wahrnehmung eines spezifischen Worts wieder zu der gleichen
neuronalen Aktivität. Die Annahme der Existenz eines neuronalen Korrelats zu jedem Wort scheint
jedoch gewisse philosophische Einwände nahezulegen. Wenn man behaupten würde, dass jedem
Wort genau ein Neuron oder die Aktivierung genau eines Neurons entspricht, dann würden sich in
der Tat schwerwiegende Fragen wie die folgenden ergeben, für die es keine Antworten zu geben
scheint: Wieso korreliert die Aktivität genau dieses Neurons mit diesem spezifischen Wort? Wie
konnte eine Verknüpfung zwischen genau diesem Neuron und diesem Wort überhaupt entstehen?
Zwischen was genau besteht die Korrelation überhaupt? Entspricht die Aktivität des spezifischen
Neurons der Aussprache oder der Schreibweise oder der Bedeutung des Wortes oder allen drei
Dingen zugleich?
Aber wie wir sehen werden, können alle diese Fragen entweder leicht beantwortet werden, oder
stellen sich überhaupt nicht mehr, sobald man wie Pulvermüller nicht einzelne Neuronen, sondern
diskrete funktionale Netze als neuronale Korrelate unserer Wörter postuliert. Neben der Auflösung
138
Pulvermüller, F.: The Neuroscience of Language, Cambridge, 2002
157
dieser Fragen hat diese Theorie zugleich den Vorteil, leichter experimentell überprüfbar zu sein,
denn die Aktivität einer funktionalen neuronalen Netzstruktur lässt sich mit den aktuellen Techniken
der funktionellen Magnetresonanztomographie und der Elektroenzephalographie eher aufspüren als
die Aktivität eines einzelnen Neurons.
Was genau soll unter einem funktionalen neuronalen Netz in diesem Sinne verstanden werden?
Unter einem funktionalen Netz versteht man eine Menge von Neuronen, die
1.
stark miteinander verknüpft sind
2.
über eine spezifische Menge kortikaler Bereiche verteilt sind
3.
zusammen als funktionale Einheit operieren
und
4.
deren Teilbereiche funktional voneinander abhängig sind, so dass jeder Teil notwendig für
das optimale Funktionieren des Netzes ist.139
Die Neuronen, die ein solches funktionales Netz bilden, haben aufgrund ihrer Vernetzungsstruktur
die Tendenz, sich gegenseitig zu aktivieren und damit relativ schnell das gesamte funktionale Netz
zum Feuern zu bringen. Aufgrund der multidirektionalen Verbindungen ergeben sich aufeinander
abgestimmte hochfrequente Aktivitätsrhythmen.
Wenn eigenständige funktionale Netze wirklich die neuronalen Korrelate unserer Wörter sind, dann
sollte man diese hochfrequente Aktivität auch experimentell auffinden können. In der Tat gibt es
bereits diverse experimentelle Studien, die mit dieser These gut vereinbar sind. Mit Hilfe von
Magnetenzephalographie wurden in einem Experiment die Unterschiede der neuronalen Reaktionen
auf akustisch dargebotene Wörter und Pseudowörter untersucht. Die Pseudowörter bestanden dabei
aus typischen Silben der untersuchten Sprache, die in der gegebenen Zusammensetzung keine
echten Wörter bildeten, sich von den dargebotenen wirklichen Wörtern aber jeweils nur minimal
unterschieden. Dabei wurden signifikante Unterschiede zwischen der Verarbeitung von Wörtern und
Pseudowörtern festgestellt. Ungefähr eine halbe Sekunde nach der Präsentation waren die
hochfrequenten Reaktionen deutlich höher bei den Präsentationen der echten Wörter der
untersuchten Sprache. Das entspricht genau den Erwartungen. Die Schallwellen erreichen die
Versuchsperson und werden im Unterschied zu anderen Umgebungsgeräuschen sowohl für die
139
Vgl. Pulvermüller, F.: The Neuroscience of Language, Cambridge, 2002 S. 24
158
Wörter als auch für die Pseudowörter als potentielles Sprachsignal erkannt, welches im Wernicke
Areal den Prozessen der Worterkennung unterzogen wird. Sobald die Worterkennung abgeschlossen
ist, wird bei den echten Wörtern das funktionale Netz aktiviert, während bei den Pseudowörtern
nichts dergleichen passiert.
Weitere Experimente mit Magnetenzephalographie und Elektroenzephalographie lieferten ähnliche
Ergebnisse. Um auszuschließen, dass die Messungen durch die zwangsweise vorliegenden
minimalen Unterschiede zwischen Wörtern und Pseudowörtern beeinträchtigt werden, wurde dabei
von genau den finnischen Konsonanten Gebrauch gemacht, die die Aussprache von zweisilbigen
Wörtern klar und deutlich in zwei Bestandteile aufteilen. Dadurch ließen sich die Reaktionen im
Gehirn auf die beiden Silben einzeln aufzeichnen. Die zweite Silbe war für die Wörter und
Pseudowörter jeweils genau gleich, während die erste Silbe der Pseudowörter sich minimal von der
ersten Silbe der echten Wörter unterschied. Beobachtet wurde ein deutlicher Unterschied zwischen
den neuronalen Prozessen für Wörter und Pseudowörter nach 200ms und weitere Unterschiede
500ms nach ihrer jeweiligen Präsentation. Das bedeutet, dass die Worterkennung bereits nach
200ms abgeschlossen ist, in dem Sinne, dass zu diesem Zeitpunkt bereits erfolgreich zwischen
Wörtern und Nicht-Wörtern unterschieden werden konnte. Es scheint mir plausibel, dass zu diesem
Zeitpunkt nur die Wortform erfolgreich analysiert wurde, ohne dass die Bedeutung bereits verfügbar
ist. Der Unterschied nach 500ms entspräche dann der anschließenden Aktivierung des funktionalen
Netzes, also dem Einholen der zugehörigen Gedächtnisinhalte zur Erkennung der Bedeutung.
Alternativ könnte auch bereits nach 200ms die Aktivierung des funktionalen Netzes zum ersten Mal
angestoßen werden, die hochfrequente Aktivität durch Rückkopplungsprozesse jedoch erst nach
500ms auftreten.
Diese experimentellen Resultate sind also mit der These der Wortrepräsentation durch funktionale
Netze kompatibel, aber noch kein Beweis ihrer Richtigkeit. Weiterhin ist die bisher vorliegende
Beschreibung der Netzstruktur extrem allgemein, so dass sich noch keine experimentell
überprüfbaren Vorhersagen über Aktivierungsorte machen lassen. Um von der These eine genauere
Vorstellung zu erhalten und sie zu überprüfen, betrachten wir zunächst diese Fragen:
Aus welchen kortikalen Bereichen beinhaltet ein funktionales Netz, das ein spezifisches Wort
repräsentiert, jeweils Neuronen? Gibt es überhaupt prinzipiell unterschiedliche Netzstrukturen für
Wörter, und falls ja, worin unterscheiden sie sich? Gibt es Ähnlichkeiten zwischen Netzstrukturen
von Wörtern verwandter Bedeutungskategorien oder grammatischer Kategorien?
159
„Word use in the context of objects and actions lead to associations between neurons in the
cortical core language areas and additional neurons in areas processing information about
the words´ referents. This is implied by the correlation learning principle and the cortex´s
long-range connections between motor and sensory systems. Functional webs could
therefore provide the basis for the association, in the psychological sense, between an animal
name and the visual image it relates to, or between an action verb and the action it normally
expresses. Strong links within the web can account for one´s impression that the image is
automatically aroused by the word form presented alone, and that, vice versa, the image
almost automatically calls the name into active memory. The neuron ensembles linking
phonological information and information about the actions and perceptions to which a word
refers are termed word webs here. They would include the phonological webs in perisylvian
areas critically involved in processing perceptions and actions, and additional neurons in
various cortical sites where sensory and action-related information converges and is being
merged. The type of entity a word usually refers to should be reflected in the cortical
topography of the functional web that realizes it.“140
Wenn man den Prozess des Spracherwerbs bedenkt, dann erscheint einem die beschriebene
Netzstruktur zumindest für die zunächst erworbenen Wörter ganz natürlich. Die Wörter werden im
Zusammenhang erlernt. Es liegen gleichzeitig zu jeder Äußerung immer eine Menge Umweltdaten
vor, auf die sich die Erwachsenen mit ihren Äußerungen beziehen. Das Kind stellt eine
Verknüpfung zwischen seinen sonstigen Wahrnehmungen und den Wörtern her. In seinem Gehirn
entstehen neue neuronale Verbindungen, oder bestehende werden gestärkt oder geschwächt, genau
wie im Kapitel neurologische Grundlagen dargestellt. Diese neuronale Verschaltung ist am
einfachsten nachzuvollziehen für den Fall, dass ein Wort beim Betrachten eines Bildes gelernt wird.
In diesem Fall werden einfach nur die Daten im visuellen Gedächtnis mit den Daten aus der
Worterkennung verknüpft. In Wirklichkeit werden aber solche Netze immer und in beliebigen
Lernsituationen gebildet. Insofern sie gleichzeitig aktiv sind, werden Repräsentationen aus allen
Bereichen mit den Wortformrepräsentationen verknüpft. So könnte zum Beispiel „Hammer“
genauso wie „hämmern“ mit genau den neuronalen Strukturen vernetzt werden, die benötigt
werden, um den typischen Bewegungsablauf des Hämmerns zu steuern, also mit den kortikalen
Bereichen für die Motorik der für das Hämmern präferierten Hand und dem entsprechenden Arm,
falls diese Wörter zugleich mit der praktischen Verwendungsweise erlernt werden. Daher lassen
sich Aktivierungsmuster für Gruppen von Wörtern, deren Bedeutungen ähnlich sind, vorhersagen.
140
Pulvermüller, F.: The Neuroscience of Language, Cambridge, 2002 S. 56
160
Diese Wortgruppen müssen sich keinesfalls zwingend in ihren grammatischen Kategorien ähnlich
sein, sondern in dem Sinne, dass sie auf ähnliche Weise erlernt werden, oder mit ähnlichen
motorischen Prozessen assoziiert sind. Da Wörter in unterschiedlichen Zusammenhängen erlernt
werden und je nach Lebenslauf später noch verschiedene weitere Assoziationen mit ihnen verknüpft
werden können, können sich die neuronalen Netzstrukturen eines spezifischen Wortes zwischen
Menschen strukturell massiv unterscheiden. So werden die meisten Menschen zum Beispiel Wale
nur von Bildmaterial kennen und daher wird der Hauptbestandteil des Wortnetzes im visuellen
Assoziationscortex liegen. Ein langjähriger Waltrainer im Sea World beispielsweise verfügt jedoch
über viel weitgehendere Erfahrungen mit Walen und sein neuronales Netz für das Wort „Wal“ wird
daher auch deutlich mehr Neuronen aufweisen, die in Gehirnbereichen liegen, die zur Verarbeitung
akustischer und taktiler Informationen dienen.
Aufgrund dieser potentiellen Unterschiede zwischen neuronalen Wortnetzen von Versuchspersonen
und des Mangels an Vorabuntersuchungen, in welche Kategorie die untersuchten Wörter aufgrund
der persönlichen Erwerbssituationen wirklich gehören, müssen die Ergebnisse von einigen
Untersuchungen,
die
die
neuronalen
Unterschiede
zwischen
Wörtern
der
klassischen
grammatischen Kategorien untersuchen, mit Vorbehalt betrachtet werden.
In einem der Experimente zur Bestätigung der These, dass Wörter als funktionale Netze realisiert
sind, fanden Pulvermüller, Lutzenberger und Preissl (1999) deutliche Unterschiede zwischen den
Wortnetzen von Tiernamen und Werkzeugbezeichnungen. Tiernamen führten zu deutlich höheren
Aktivierungen im visuellen Cortex, während die Werkzeugbezeichnungen eher zu Aktivierungen im
Motorcortex führten, wie auf der folgenden Abbildung zu sehen ist. Die dunklen Markierungen auf
den beiden linken Gehirnansichten stellen die Aktivierungen für Werkzeugbezeichnungen dar, die
nicht auch für die Tierbezeichnungen vorlagen, während auf den beiden rechten Ansichten die
Aktivierungen für Tierbezeichnungen zu sehen sind, die für Werkzeugbezeichnungen nicht
vorlagen. Alle Ansichten zeigen jeweils nur die linke Gehirnhälfte, auf den oberen Bildern von
außen gesehen, während die unteren Bilder die Ansicht aus der Gehirnmitte darstellen.
161
Abbildung 20: Aktivierungen von Wörtern für Werkzeuge und Tiere – Abb. aus Pulvermüller S. 58
Der größte in diesem Experiment gemessene Unterschied in den Aktivitätsmustern bestand jedoch
nicht zwischen Tierbezeichnungen und Werkzeugbezeichnungen, sondern zwischen Verben, die
physische Tätigkeiten ausdrücken, einerseits und ausgewählten Nomen, die Tiere oder große von
Menschen hergestellte Objekte bezeichnen, andererseits.
Abbildung 21: Aktivierungen von Wörtern für Tätigkeiten und primär
visuell zugänglichen Objekten – Abb. aus Pulvermüller S. 58
Dieses Ergebnis ließe sich zwar auf den ersten Blick als Beleg für eine unterschiedliche neuronale
Verarbeitung von Verben und Nomen interpretieren, die Detailergebnisse zeigen aber, dass die
vorliegenden Prozesse komplexer sind als vom linguistischen Standpunkt aus erwartet. Man erkennt
162
hier nebenbei auch, dass es zur philosophischen Einteilung belebt/unbelebt auf dieser
Verarbeitungsebene keine neuronale Entsprechung zu geben scheint. Die Ähnlichkeit zwischen den
Aktivierungen für Tiernamen und Bezeichnungen für „große von Menschen hergestellte Objekte“
widersprechen herkömmlichen Erwartungen an Wortkategorien, sind aber mit der Theorie, dass
Wörter als unabhängige funktionale Netze realisiert werden, problemlos zu erklären. Für die
Objekte, die durch Wörter dieser beiden Wortgruppen benannt werden, verfügen die
Versuchspersonen wahrscheinlich primär über visuelle Informationen und sie wurden nur anhand
von Bildmaterial erlernt. Daher ergeben sich strukturell ähnliche neuronale Muster. Das erklärt auch
die gefundenen Diskrepanzen innerhalb der Kategorie „Tiernamen“, für die man eigentlich
einheitliche Ergebnisse erwartet hätte. Es ergaben sich jedoch deutliche Abweichungen vom
üblichen Aktivierungsmuster der Tierkategorie für manche Tiernamen. Für „Katze“ oder „Hund“
liegen im Unterschied zu „Hai“ oder „Wal“ bei einer europäischen Versuchsperson auch Daten von
den anderen Sinnen vor, so dass sich gemäß der Theorie der unabhängigen Wortnetze eine deutlich
abweichende neuronale Netzstruktur für diese Wörter ergeben muss.
Gemäß dieser Theorie, dass Wörter intern durch unabhängige neuronale Netze realisiert werden,
müsste es problematische Ergebnisse geben, wenn man nach spezifischen Aktivierungen für die
herkömmlichen grammatischen Kategorien sucht. Und so verhält sich auch. In einer weiteren Studie
konnte man den Unterschied zwischen den neuronalen Aktivierungen von Substantiven, die etwas
mit dem Sehen zu tun hatten, und Verben für Tätigkeiten bestätigen, darüber hinaus aber auch einen
vergleichbaren Unterschied nur zwischen Nomen, wenn die einen mit dem Sehen zu tun hatten und
die anderen mit Tätigkeiten. Dagegen gab es keinen Unterschied zwischen Nomen und Verben, falls
diese jeweils einen starken Tätigkeitsbezug aufwiesen. Aus der Struktur eines Wortnetzes kann man
also nichts über die grammatische Klassifikation (die Wortart) eines Wortes ableiten, sondern nur
über seine Bedeutung, seine physikalische Referenz.
Es wurden weitere Experimente unternommen, um die exakteren Vorhersagen zu überprüfen, die
sich aus der These ergeben, dass die Struktur eines Wortnetzes seine Bedeutung (im Sinne
physischer Referenz) widerspiegelt. Pulvermüller, Hummel und Härle untersuchten 2001 die
neuronalen Aktivierungen
durch
verschiedene
Verben,
die
sich
auf
Tätigkeiten
mit
unterschiedlichen Körperteilen bezogen. Insbesondere ging es um Tätigkeiten mit den Beinen
(„walking“), mit den Armen („waving“) und dem Gesicht („talking“). Wie erwartet wiesen die
Wortnetze aller dieser Verben Aktivierungen im Motorcortex auf, aber die genaue Lage der
163
Aktivierung entsprach darüber hinaus auch jeweils dem Bereich, der für die Steuerung genau des
Körperteils zuständig war, das man zur Ausführung der benannten Tätigkeit benötigte. Dazu muss
man wissen, dass im primären motorischen Cortex Neuronen, die für die Steuerung von im Körper
nahe zusammen liegenden Muskeln zuständig sind, auch meistens in benachbarten Regionen liegen,
was somatotope Organisation genannt wird. Im folgenden Bild sieht man die Lokalisation der
motorischen Areale und welche Bereiche des primären motorischen Cortex jeweils welche
Körperzonen steuern:
Abbildung 22: Kartierung des primären motorischen Cortex und motorischer Homunkulus - Abb.
aus Carlson S. 304
Der ebenfalls dargestellte motorische Homunkulus veranschaulicht anhand der Größenverhältnisse
seiner Körperzonen, dass überproportional viel kortikale Kapazität für die Bewegung der
Sprachmuskulatur und der Hände verwendet wird. An dem pink gezeichneten Frontalschnitt des
164
primären motorischen Cortex der linken Gehirnhälfte sind die Körperbereiche eingetragen, die
jeweils von diesen kortikalen Bereichen gesteuert werden. Der Bereich für die Beine befindet sich
also mittig oben (dorsal medial), während sich die Gesichtsbereiche außen weiter unten befinden
(dorsal lateral) und die Bereiche für Arme und Hände dazwischen liegen. Wir erwarten also für die
Untersuchung der neuronalen Reaktionen auf die Präsentation von Verben, die sich auf
Bewegungen
mit
gewissen
Körperteilen
beziehen,
jeweils
unterschiedliche
neuronale
Aktivierungen. Für Wörter wie „talking“ sollten sich Aktivierungen im inferioren präzentralen
Gyrus ergeben, während „walking“ zu neuronaler Aktivität im dorsomedialen Bereich des
präzentralen Gyrus führen sollte. Dieser Unterschied zeigte sich bei der Präsentation der
unterschiedlichen Verben im Experiment deutlich:
Abbildung 23: Aktivierungen von Wörtern mit inhaltlichem Bezug auf die Bewegung von Beinen,
Armen und dem Gesicht – Abb. aus Pulvermüller S. 63
Die relevanten neuronalen Aktivitätsmuster sind entsprechend der angenommenen funktionalen
Netze hier als Netzstruktur dargestellt. Der untere Netzbestandteil, der bei allen drei Kategorien
gleich aussieht, repräsentiert die Aktivitäten im Wernicke- und Broca-Areal, den primären Arealen
für die Sprachverarbeitung. Diese Aktivitäten entsprechen der Erkennung eines akustischen
Geräusches als Wort, der Erkennung der phonologischen Bestandteile und der Wortform, aber noch
nicht der Bedeutung. Selbstverständlich sind auch diese Bestandteile der aktivierten Netze nicht
identisch, wie die schematische Zeichnung oben fälschlicherweise suggerieren könnte, sondern
unterscheiden sich für jedes Wort. Aufgrund der immens hohen Anzahl an Neuronen im
menschlichen Gehirn, sind diese feinen regionalen Aktivitätsunterschiede selbstverständlich nicht
darstellbar, für unsere Zwecke aber auch nicht interessant. Der entscheidende Unterschied besteht
doch im sehr deutlichen Unterschied der Orte der Aktivierungen außerhalb der primären
Sprachverarbeitungsregionen. Diese Unterschiede zeigen sich sowohl in Untersuchungen mit
165
Elektroenzephalographie
(EEG)
als
auch
in
Untersuchungen
mit
der
funktionellen
Magnetresonanztomographie, wie man in den folgenden Abbildungen erkennen kann:
Abbildung 24: Aktivierungsunterschiede für Verben mit inhaltlichem Bezug auf Hände und Füße in
funktioneller Magnetresonanztomographie – Abb. aus Pulvermüller S.63
Die Aktivierungen bei Verben mit Bezug auf Aktivitäten mit den Händen sind im fMRT-Bild weiß
markiert, während die für Verben mit Beinbezug schwarz sind. Man kann deutlich erkennen, dass
die schwarzen Punkte eher mittig oben liegen, während sich die weißen eher seitlich außen
konzentrieren. Das entspricht den Erwartungen gemäß der Kartierung des primären motorischen
Cortexes (siehe Abbildung 23).
In der folgenden Abbildung sieht man links die Korrelation zwischen den Aktivierungen bei
Gesichts-, Arm- und Beinbewegungen und der Darbietung der entsprechenden Verben. Das rechte
Bild zeigt den Lokalisationsunterschied der Aktivierungen zwischen Wörtern für Aktivitäten mit
Gesichtsbezug und wiederum solchen mit Beinbezug, diesmal im EEG.
166
Abbildung 25: Aktivierungsunterschiede für Verben mit inhaltlichem Bezug auf Hände und Füße im
Elektroenzephalogramm – Abb. aus Pulvermüller S.63
Wir können somit festhalten, dass die Theorie der unabhängigen funktionalen Netze durch die
experimentellen Befunde nicht nur nicht widerlegt, sondern gestützt wird. Zugleich scheinen
andere Theorieansätze es schwer zu haben, die Ergebnisse dieser Experimente umzudeuten und in
ihre Darstellung der ablaufenden Prozesse zu integrieren. Es ist daher bis auf weiteres davon
auszugehen, dass jedes einzelne Wort in einem eigenen funktionalen Netz repräsentiert wird und die
erfolgreiche Worterkennung im Wernicke Areal dazu führt, dass das funktionale Netz des erkannten
Wortes in einen hochfrequenten Aktivierungszustand versetzt wird. Aufgrund der Art und Weise des
Spracherwerbs
bestehen
die
funktionalen
Wortnetze
meistens
aus
Neuronen
in
den
Assoziationscortices, die die relevanten Gedächtnisinhalte sensorischer oder motorischer Natur zu
diesem Wort kodieren. Das wiederum bedeutet, dass uns diese sensorischen und motorischen
Gedächtnisinhalte bewusst werden, sobald wir das zugehörige Wort hören. Auf genau diese Weise
führt das erfolgreiche Erkennen eines Wortes also dazu, dass wir automatisch seine Bedeutung
erfassen (genau in dem Bedeutungsumfang, den das Wort in Abhängigkeit von unseren Erfahrungen
für uns hat, der nicht genau deckungsgleich sein muss mit dem Bedeutungsumfang, den das Wort
für einen anderen Sprecher hat).
167
8.2 Polysemie und Synonymie als Überschneidung von funktionalen Netzen
Wenn man nun davon ausgeht, dass es unabhängige funktionale Netze für alle Wörter gibt, dann
drängen sich weitere Fragen auf. Denn wohlbekannte und unbestreitbare Effekte wie zum Beispiel
Polysemie und Synonymie würden sich schwerlich erklären lassen, wenn zu jedem Wort ein eigenes
Netz bestünde, das mit den anderen Wortnetzen überhaupt nichts zu tun hätte.
Doch dass die Wortnetze vollständig unabhängig voneinander sind, sollte gar nicht behauptet
werden. Um Polysemie und Synonymie auf neuronaler Ebene verstehen zu können, kommen wir
auf die Feinstruktur der Wortnetze zurück. Sie bestehen jeweils aus einem Neuronennetzbestandteil
in den primären Spracharealen in der linken Gehirnhälfte, das phonologische Daten und die
Wortform kodiert, und aus einem zweiten Bestandteil, der sich über verschiedene Bereiche in
beiden Gehirnhälften erstreckt, dessen genaue Struktur von den semantischen Eigenschaften des
Wortes abhängt.
Es spricht nichts dagegen, dass sich Wortnetze von irgendwie verwandten Wörtern einige Neuronen
teilen. Im Gegenteil sprechen die Ergebnisse von Priming Experimenten sogar stark dafür, dass es
sich so verhält. Bei diesen Experimenten konnte man nachweisen, dass zuvor gegebene Reize die
Reaktion auf nachfolgende Reize deutlich verändern können. So gelang den Versuchspersonen zum
Beispiel die Erkennung eines extrem kurz dargeboten Brotlaibs sehr viel besser (80% statt 40%
erfolgreiche Erkennungen), wenn zuvor eine Küche dargeboten worden war. Diesen Effekt nennt
man Priming und er basiert auf der neuronalen Voraktivierung von Inhalten, die mit den jeweils
aktuell gegebenen Inhalten assoziiert sind. Aufgrund ihrer teilweisen Voraktivierung sind diese
Inhalte im folgenden Zeitraum leichter abzurufen als andere Inhalte, die mit den vorherigen Inhalten
überhaupt nichts zu tun haben. Die jeweils aktiven Netze könnten also Neuronen als Bestandteile
haben, die auch Bestandteil anderer Netze sind, und die durch ihre hochfrequente Aktivität diese
anderen Netze in einen voraktivierten Zustand versetzen.
Für die Fälle der Polysemie und der Synonymie liegen jeweils unterschiedliche neuronale
Situationen vor: Bei der Polysemie gibt es mehrere Bedeutungsnetze zu nur einem Wortformnetz,
während bei der Synonymie mehrere Wortformnetze an dem gleichen Bedeutungsnetz hängen. Die
neuronalen Überschneidungen müssen nicht das jeweils ganze phonologische oder semantische
Teilnetz betreffen, sondern können auch nur in Teilbereichen vorliegen, wie es bei Oberbegriffen
von Begriffen (Hyperonymen) für den semantischen Netzteil der Fall ist. Für den phonologischen
Netzteil sind solche Teilüberschneidungen auch denkbar (so wie bei „Maus“ in „Schmaus“), wobei
168
man bedenken muss, dass es sich bei diesen Fällen nur in schriftlicher Form um eine vollständige
Inklusion des kürzeren Wortes handelt, während die Aussprache des eingeschlossenen Wortes durch
den Rest des längeren Wortes in den meisten Fällen beeinflusst wird, so dass in diesen Fällen keine
vollständige Inklusion vorliegt, wie die folgende Abbildung sie fälschlicherweise suggeriert.
Abbildung 26: neuronale Netzstrukturen bei Polysemie, Synonomie, Hyperonymie und
Wortformeinschluß – Abb. aus Pulvermüller S.85
Neuronale Wortnetze können sich also an verschiedenen Stellen überschneiden und so
wohlbekannte sprachliche Effekte, wie den der Bedeutungsgleichheit oder den der Mehrdeutigkeit
auslösen. Es stellt sich jedoch die Frage, wieso meistens trotzdem das in der Situation richtige
Wortnetz aktiviert wird, auch in den Fällen, in denen mehrere Wortnetze zur Auswahl stehen.
Es findet sozusagen immer ein zeitliches Wettrennen statt, welches Netz zuerst vollständig in
hochfrequente Aktivität versetzt wird. Dieses Rennen wird von vielen Faktoren beeinflusst, wie
169
zum Beispiel von der jeweiligen Häufigkeit des Vorkommens in der Sprache, oder von den
Voraktivierungen durch den sensorischen und sprachlichen Kontext. An was man denkt, wenn
jemand von einem „Läufer“ spricht, wird sich stark unterscheiden, je nachdem ob man gerade bei
einem Marathon, in einer Teppichfabrik, bei einem Schachturnier, oder bei einem Volleyballspiel
ist. Gleichgültig welcher Fall davon gerade zutrifft, benötigt man zu jedem Zeitpunkt jedoch nur die
eine gerade passende der verschiedenen Bedeutungen und die anderen nicht. Durch einen speziellen
Regulierungsprozess wird verhindert, dass die anderen Wortnetze noch zusätzlich aktiv werden,
nachdem das erste bereits in hochfrequente Aktivität geraten ist. In der folgenden Abbildung sieht
man diesen Regulierungsprozess für zwei solche Netze schematisch dargestellt (die Bestandteile des
einen Netzes sind schwarz und die des anderen weiß gefärbt und werden „Knoten“ genannt). Die
Pfeile stellen die Richtungen von erregenden Aktivierungen dar, während die anderen Verbindungen
hemmende Wirkung haben. Man beachte, dass zwei hintereinander geschaltete hemmende
Verbindungen wiederum erregende Wirkung an ihrem Zielknoten haben.
Abbildung 27: Zwei sich teilweise überlappende neuronale Netze, deren
gleichzeitige vollständige Aktivierung durch subkortikale hemmende
Netzstrukturen im Neostriatum verhindert wird (aus Pulvermüller S. 81)
Der überlappende Bestandteil (dargestellt durch den schwarzweißen Knoten) führt zwar jeweils zu
einer Aktivierung der sich gegenseitig hemmenden „Kontrahenten“ im Neostriatum, aber das
stärker aktivierte Netz führt zu weiteren Aktivierungen des Knotens der zugehörigen Farbe.
Nehmen wir an, dass der schwarze Knoten im Neostriatum schneller/stärker aktiviert wird als der
170
weiße Knoten. Das führt zu einer weiteren Aktivierung des schwarzen Netzwerks durch Hemmung
der Hemmung des Knotens im Thalamus, was die verstärkende Feedbackschleife zum Cortex
aktiviert. Außerdem wird der weiße Knoten im Neostriatum vom schwarzen Knoten gehemmt.
Dadurch erfolgt keine weitere Verstärkung der Aktivität des weißen Netzwerks aufgrund der nicht
erfolgenden Hemmung im Pallidum, die zur Hemmung im Thalamus führt, so dass es keine
verstärkende Feedbackschlaufe zurück zum Cortex gibt.
Durch diesen Prozess wird nur genau das Wortnetz aktiviert, das im gegeben Zusammenhang am
wahrscheinlichsten ist, was meistens zu richtigen Resultaten führt, aber natürlich nicht immer.
Solche Fehler durch Aktivierung alternativer Wortnetze lassen sich in der Tat beobachten. Sie sind
zum Beispiel die Quelle von Missverständnissen oder auch Belustigung, wenn bei Polysemie der
Hörer eine andere Wortbedeutung wahrnimmt als der Sprecher sie beabsichtigt hatte. Es kann auch
vorkommen, dass beim lauten Vorlesen eines Textes der Leser von ihm selbst unbemerkt statt eines
Wortes ein anderes bedeutungsgleiches Wort ausspricht, welches überhaupt nicht im Text steht.
8.3 Schriftsprache als optionale angehängte Netzstruktur
Auch mit Bedeutungsgleichheit und Polysemie haben wir also keine theoretischen Probleme. Aber
wir haben uns bisher auch nur mit der phonologischen Wortform und der Bedeutung auseinander
gesetzt und andere Sprachbestandteile vernachlässigt. Wie verhält es sich zum Beispiel mit
affektiven Tönungen, die manchen Wörtern anhaften, oder mit dem orthographischen Wissen, über
das wir potentiell verfügen?
Die Schriftsprache wird normalerweise erst erlernt, wenn das Sprechen schon relativ gut beherrscht
wird. Für die meisten Europäer gibt es heute keinen erkennbaren Unterschied zwischen ihren
mündlichen und schriftlichen Kommunikationsfähigkeiten. Das war jedoch lange Zeit deutlich
anders. Lesen und schreiben konnte nur ein geringer Bevölkerungsanteil, meistens nur die
Geistlichen und Adeligen. Doch auch heute gibt es noch Analphabeten in Deutschland. Aktuelle
Studien schätzen den Bevölkerungsanteil derjenigen Menschen, die nicht Lesen und Schreiben
können, auf 5-10% der deutschen Bevölkerung. Die Fähigkeiten des Lesens und Schreibens sind
also sozusagen optional. Sie stellen ein Wissen dar, über das man zusätzlich zur Lautsprache
verfügen kann, aber das für die primären Sprachfähigkeiten nicht erforderlich ist.
171
Aus theoretischer Sicht kann dieses optionale Wissen genauso als Netzfortsatz an die
Repräsentation der Wortform angehängt sein, wie der Netzbestandteil, der die Bedeutung des
jeweiligen Wortes darstellt. Lerntheoretisch betrachtet entstehen die Verbindungen zwischen den
neuronalen Repräsentationen von akustischen Lauten und der visuellen Struktur der Buchstaben
(und später zwischen Lautfolgen und ganzen Wörtern) genauso wie zwischen allen anderen
assoziierten Datenbeständen. Experimente weisen darauf hin, dass das Wissen, wie ein Wort
geschrieben wird, von Neuronen im Brodmann Areal 37141 kodiert sein könnte, während affektive
Gehalte von Wörtern durch Verbindungen zur Amygdala repräsentiert werden könnten.
Dieses Modell nach Pulvermüller besagt also, dass alle relevanten Informationen, die man zu einem
Wort hat, aufgrund der Mechanismen des zugrundeliegenden autoassoziativen Netzwerkmodells zu
einer Netzstruktur verbunden werden. Darin besteht ein wichtiger Unterschied zu herkömmlichen
modularen Modellen, wie dem von Ellis & Young (1988). Solchen Modellen zufolge findet die
Verarbeitung der verschiedenen Informationstypen in jeweils eigenen Modulen statt, die nicht alle
direkt miteinander vernetzt sind. In der folgenden Abbildung sieht man in der oberen Tabelle die
modulare Verknüpfungsstruktur entsprechend der Vorstellung von Ellis & Young. Schwarze Punkte
zeigen die starke neuronale Vernetzung innerhalb eines Moduls an, während die weißen Punkte
anzeigen, von welchen Modulen auf der linken Seite es eine Verbindung zu welchen Modulen oben
gibt. Die untere Tabelle zeigt dagegen die Verbindungen im autoassoziativen Netzwerkmodell,
wobei die schwarzen Punkte lokale Vernetzungen anzeigen, während die weißen Punkte für
Langstreckenverknüpfungen stehen. In beiden Tabellen wird von dem allgemeinen Fall
ausgegangen, dass die entsprechenden Daten, beziehungsweise Module zu ihrer Verarbeitung
vollständig vorliegen. Wie bereits erwähnt, können im Einzelfall einige von ihnen nicht vorhanden
sein (zum Beispiel bei Analphabetismus), oder aufgrund von Gehirnschäden beeinträchtigt oder
ausgefallen sein.
141
Dieses Areal erweist sich experimentell als sehr wichtig für das Lesen herkömmlicher Schrift als auch von
Blindenschrift. Vgl. Carlson S.611
172
Abbildung 28: postulierte neuronale Verbindungen zwischen Sprachmodulen in den
unterschiedlichen Modellen – Abb. aus Pulvermüller S.92
173
Zu Beginn dieses Kapitels hatte ich erwähnt, dass sich mit der Theorie der Wortrepräsentation durch
autoassoziative neuronale Netze die schwerwiegenden Fragen, denen sich eine Theorie gegenüber
sähe, in der ein Wort durch nur ein Neuron repräsentiert würde, problemlos beantworten lassen.
Warum dies so ist, sollte durch dieses Kapitel klar geworden sein. Um damit gleichzeitig einige
Ergebnisse des Kapitels zusammenzufassen, werde ich diese Fragen nun explizit beantworten.
Wieso korreliert die Aktivität genau dieses Neurons mit diesem spezifischen Wort? Wie konnte eine
Verknüpfung zwischen genau diesem Neuron und diesem Wort überhaupt entstehen? Zwischen was
genau besteht die Korrelation überhaupt? Entspricht die Aktivität des spezifischen Neurons der
Aussprache, oder der Schreibweise, oder der Bedeutung des Wortes, oder
allen drei Dingen
zugleich?
Es gibt kein einzelnes Neuron dessen Aktivität einem Wort entspricht, sondern ein komplexes
Netzwerk aus vielen Neuronen. Jedes einzelne Neuron in diesem Netzwerk repräsentiert einen
winzigen Aspekt des Wortes. Selbst nur einzelne Teilaspekte von Wörtern, wie die akustische
Wortform, die Bedeutung, die Schreibweise oder die dazugehörige Motorik werden jeweils schon
durch eine Vielzahl von unterschiedlichen Neuronen repräsentiert. Die Verknüpfung zwischen
einem solchen Aspekt der Welt und einem Neuron entsteht durch die sensorische Wahrnehmung, die
zum Gehirn geleitet und dort verarbeitet wird, um im Fall der Relevanz abgespeichert zu werden.
Die einzelnen Neuronen, welche die verschiedenen Aspekte des gleichen Wortes repräsentieren,
verknüpfen sich durch neuronales Lernen zu einer Netzstruktur, deren Teilnetze sich leicht
gegenseitig aktivieren können.
8.4 Funktionswörter und Grammatik
Mit der Theorie der Wortrepräsentation durch autoassoziative neuronale Netze haben wir zwar eine
solide Grundlage für das Verständnis der neuronalen Prozesse der Sprachverarbeitung gelegt, aber
offensichtlich haben wir uns bisher nur mit einzelnen Wörtern beschäftigt. Es fehlen also noch
Erklärungen für die Verarbeitung ganzer Sätze und der dabei auftretenden grammatischen
Strukturen. Im Satzverband begegnen uns darüber hinaus auch die bisher relativ unbeachteten
Funktionswörter (Synsemantika), die hauptsächlich eine grammatische Funktion im Satz haben,
aber keine Bedeutung (im Sinne eines physikalischen Referenzobjekts). Widmen wir uns zunächst
diesen Funktionswörtern. In Hinsicht auf die akustische Worterkennung, Aussprache und
174
Schreibweise gibt es keinen funktionalen Unterschied zu den bisher thematisierten Objekt- oder
Inhaltswörtern. Die Funktionswörter verfügen jedoch nicht über einen neuronalen Netzbestandteil
außerhalb der Broca- und Wernicke-Areale, da es keine sensorischen Daten gibt, mit denen sie
etwas zu tun haben, so dass keine Verknüpfungen zum sensorischen Gedächtnis gebildet werden.
Die folgende Abbildung illustriert den Unterschied zwischen den neuronalen Netzen von
Inhaltswörtern und Funktionswörtern.
Abbildung 29: schematische Darstellung linkshemisphärischer Netzstrukturen von Inhaltswörtern
und Funktionswörtern – Abb. aus Pulvermüller S. 117
Es ist leicht einzusehen, warum dieser Theorie zufolge abstrakte Funktionswörter keine
Netzbestandteile in den Assoziationscortices aufweisen sollten, aber verhält es sich wirklich so? In
der Tat sprechen die Ergebnisse in der Aphasieforschung stark dafür. Als Aphasien bezeichnet man
durch Schädigungen (Läsionen) der an der Sprachverarbeitung beteiligten Gehirnbereiche
entstandene Sprachstörungen. Es gibt mehrere verschiedene Hauptklassifikationen mit deutlich
unterscheidbaren Krankheitsbildern, wobei sich die kleineren Auswirkungen der Schädigungen auf
die Sprache der Patienten in jedem Einzelfall natürlich immer unterscheiden, was aufgrund der
Komplexität der Gehirnstruktur jedoch auch nicht anders zu erwarten ist. Für so stark
unterschiedliche Netzstrukturen, wie wir sie für Inhalts- und Funktionswörter postuliert haben,
sollte es jedoch auch kategorial deutlich unterscheidbare Auswirkungen von unterschiedlichen
Läsionstypen geben.
Während das Verstehen und die aktive Verwendung von Funktionswörtern allein durch Störungen in
den primären Spracharealen beeinträchtigt werden sollte, sollte im Gegensatz dazu die Verarbeitung
175
von Inhaltswörtern misslingen, falls Störungen in den thematisch jeweils passenden Bereichen der
Assoziationscortices vorliegen. In der Tat gibt es genau diese beiden unterschiedlichen Effekte, die
als Agrammatismus und als anomische Aphasie bezeichnet werden, welche jeweils mit den
passenden Läsionen einhergehen.
„Agrammatismus
nennt
man
die
Schwierigkeit
der
Nutzung
grammatikalischer
Konstruktionen. Diese Störung kann auch für sich allein auftreten ohne Schwierigkeiten
beim Aussprechen der Worte (Nadeau, 1988). Personen mit einer Broca´schen Aphasie
verwenden kaum Funktionsworte. Überdies verwenden sie selten grammatikalische
Markierungen wie Hilfswörter. […] In einer gewöhnlichen Unterhaltung verstehen Personen
mit Broca´scher Aphasie alles, was ihnen gesagt wird. Sie sind irritiert und verwundert über
ihre Unfähigkeit ihre Gedanken ordentlich auszusprechen und unterstützen ihr
unzulängliches Sprechen mit Gesten. […] Schwartz, Saffran und Marin (1980) zeigten
Patienten mit Broca´scher Aphasie Bildpaare, in denen die Handlungsträger und
Handlungsobjekte ausgetauscht wurden: Beispielsweise ein Pferd tritt eine Kuh und eine
Kuh tritt ein Pferd; ein Traktor zieht ein Auto und ein Auto zieht einen Traktor; ein Tänzer
applaudiert einem Clown und ein Clown applaudiert einem Tänzer. Bei der Darbietung jedes
Bildpaares lasen sie die Grundaussage zum Bild, z.B. Das Pferd tritt die Kuh. Die Aufgabe
der Probanden bestand darin, auf das richtige Bild zu zeigen, um zu erkennen, ob die
grammatikalische Konstruktion des Satzes verstanden wurde. Die Leistung der Probanden
war sehr dürftig.“142
Der als Agrammatismus bezeichnete Effekt wird ausgelöst von Läsionen im Broca´schen Areal und
führt zu einem Verlust grammatischer Fähigkeiten und Verständnisproblemen in Bezug auf
Funktionswörter, während das Verständnis von Inhaltswörtern relativ gut erhalten bleibt. Da der
größte Teil der neuronalen Netze von Funktionswörtern sich im beschädigten Gehirnareal befindet,
ist es wahrscheinlicher, dass diese nicht mehr angemessen funktionieren, während die neuronalen
Netze von Inhaltswörtern aufgrund ihrer Verteilung über mehrere kortikale Bereiche durch den
Schaden im Broca Areal nur einen geringen Anteil ihrer Netzstruktur verlieren und somit potentiell
weiter funktionieren können. Der genau umgekehrte Fall liegt bei der anomischen Aphasie vor, bei
der die primären Sprachareale unbeschädigt sind, während sich in anderen Gehirnbereichen
Läsionen befinden und es bei ansonsten flüssiger Sprache zu Wortfindungsstörungen kommt:
142
Carlson S. 587
176
„Die Sprache von Patienten mit anomischer Aphasie ist flüssig und grammatikalisch korrekt,
ihr Sprachverständnis ist ausgezeichnet, aber sie haben Schwierigkeiten damit, die
passenden Worte zu finden. Sie nutzen oft Umschreibungen, um das Fehlende zu ersetzen.
Die anomische Aphasie unterscheidet sich von der Wernicke´schen Aphasie. Personen mit
einer anomischen Aphasie verstehen, was andere zu ihnen sagen. Was sie selbst sagen, ergibt
vollständigen Sinn, auch wenn sie Umschreibungen nutzen, um etwas zu sagen. […]
Anomie wurde als eine partielle Amnesie für Worte beschrieben. Sie kann das Resultat von
Läsionen anteriorer oder posteriorer Bereiche des Gehirns sein, aber nur posteriore Läsionen
führen zu einer flüssigen Anomie. Die wahrscheinlichste Lokalisation von Läsionen, die zu
einer Anomie ohne die anderen Symptome der Aphasie führen (Verständnisschwierigkeiten,
Agrammatismus, Artikulationsschwierigkeiten), ist der linke Temporal- oder Parietallappen,
ohne dass das Wernicke´sche Areal einbezogen ist. Im Falle der oben beschriebenen Frau
war der mittlere und untere Gyrus des Temporallappens geschädigt, in denen sich ein
wichtiger Bereich des visuellen Assoziationscortex befindet. Das Wernicke´sche Areal war
nicht geschädigt.“143
Bei der anomischen Aphasie treten also Wortfindungsstörungen in Bezug auf Inhaltswörter auf,
während es keine Probleme mit Funktionswörtern und Satzstrukturen gibt. Das entspricht genau den
Erwartungen gemäß der Theorie, da das Broca Areal unbeschädigt ist. Darüber hinaus sollten sich
sogar je nach Läsion die von den Wortfindungsstörungen betroffenen Wortbedeutungen kategoriell
vorhersagen lassen. Dazu sind mir jedoch noch keine größeren Studien bekannt. Da Läsionen
immer durch unerwünschte zufällige Ereignisse entstehen, sind die beschädigten Bereiche bei
jedem Patienten unterschiedlich, so dass vergleichende Studien mit vielen Patienten schwierig sind.
Am Einzelfall sind diese kategorialen Ausfälle jedoch in der Tat belegt worden:
„Als meine Kollegen und ich die anomische Patientin untersuchten, beeindruckte mich die
Tatsache, dass es ihr schwerer fiel, Substantive im Vergleich zu anderen Worten zu finden.
Ich prüfte ihre Fähigkeit, Handlungen zu benennen, indem ich sie fragte, was die Leute, die
man in einer Bildserie sah, taten. Sie machte beim Finden von Verben zumeist keine Fehler.
Obwohl sie nicht sagen konnte, was ein Junge in seiner Hand hält, bereitete es ihr keine
Schwierigkeiten zu sagen, dass er das warf. Sie wusste, dass ein Mädchen etwas erkletterte,
143
Carlson S. 600
177
konnte mir aber nicht sagen, was sie erkletterte (Zaun). Sie hatte keine Schwierigkeiten,
unanschauliche Adjektive zu finden. Beispielsweise konnte sie sagen, dass Zitronen sauer
schmecken, das Eis kalt ist und dass sich ein Katzenfell weich anfühlt.“144
Die unterschiedlichen Netzstrukturen von Inhaltswörtern und Funktionswörtern führen also zu den
erwarteten unterschiedlichen Ausfallerscheinungen dieser Wortkategorien in Abhängigkeit vom
jeweiligen Läsionsort. Wir haben daher nun eine gute Vorstellung davon wie Inhaltswörter und
Funktionswörter funktionieren und durch welche Art von neuronalen Netzstrukturen sie jeweils
realisiert werden. Im Bereich der Grammatik gibt es natürlich über die Funktionswörter hinaus noch
viele weitere Effekte zu erklären. Zum Beispiel besteht ein Satz nicht aus einer ungeordneten
Menge an Wörtern, sondern die Wortreihenfolge kann und wird meistens sehr wichtig sein, um die
Bedeutung eines Satzes richtig zu verstehen. Das bedeutet, dass es zusätzlich zu den neuronalen
Repräsentationen von Wörtern auch noch neuronale Strukturen geben muss, die die Informationen
über die zeitliche Struktur der im Satzverband gesprochenen Wörter verarbeiten. In diesem
Forschungsbereich gibt es jedoch bisher nur wenige empirische Ergebnisse und die vorhandenen
theoretischen Erklärungsansätze sind aufgrund der komplexen zeitlichen Prozessstruktur, die sie zu
beschreiben trachten, sehr aufwändig. Darüberhinaus stehen grammatische Betrachtungen an dieser
Stelle nicht im Zentrum unseres Interesses. Daher soll hier nur ein kurzer Ausblick erfolgen, um
anzudeuten, dass auch von diesen Prozessen erklärt werden kann, durch welche neuronalen
Strukturen sie möglicherweise realisiert werden.
In Pulvermüllers Theorie wird die neuronale Struktur, die solche Prozesse, für die ein zeitlicher
Ablauf relevant ist, leisten kann „sequence set“, „sequence detector“ oder „sequence web“ genannt
(siehe unten Abbildung 30). Es handelt sich dabei prinzipiell um ein funktionales neuronales Netz,
das aber noch weitere Eigenschaften aufweisen muss, die in der Definition eines funktionalen
Netzes bei ihm noch nicht enthalten sind. Es muss in der Lage sein, durch Bahnung unterschwellig
voraktiviert zu werden („priming at the neuronal level“) und es muss aufgrund seiner
Verschaltungsstruktur spezifisch auf Abläufe reagieren können. Da diese Anforderungen von
natürlichen neuronalen Netzen problemlos erfüllt werden können, entwickelt Pulvermüller ein
mathematisches Modell über die Aktivierungsverhältnisse in solchen Netzstrukturen. Dadurch ist
abzusehen, wie zum Beispiel unsere grammatischen Erwartungen bezüglich der jeweils nächsten
Wörter eines Satzes (erwarten wir als nächstes ein Substantiv oder ein Verb, etc.) während des
144
Carlson S. 600
178
Hörens dieses Satzes auf neuronaler Ebene durch Voraktivierungen und Aufrechterhaltung von
bestehenden Aktivierungen bewirkt werden könnte.
Abbildung 30: Übersicht über die verschiedenen Benennungen von unterschiedlichen Arten von
neuronalen Strukturen - Abb. aus Pulvermüller S.171
Es sind also offenbar Modelle möglich, die unsere hochkomplexen und vielgestaltigen Fähigkeiten
im Bereich der Sprache auf neuronale Prozesse zurückführen. Wie wir bereits gesehen haben, lassen
sich im Bereich einzelner Wörter für die Realisierung als funktionale Netze auch schon empirische
Nachweise erbringen. Dass die empirischen Nachweise für zeitliche Abläufe deutlich schwieriger
sind und daher in diesen relativ neuen Forschungsbereichen noch nicht vorliegen, sollte nicht
verwunderlich sein. An dieser Stelle sollen jedoch keine unbelegten Theorien weiter verfolgt,
sondern stattdessen die bisherigen Erkenntnisse zusammengetragen werden.
179
9. Neuropsychologische Bedeutungstheorie - Ein neuer Ansatz
9.1 Bedeutung ist eine neuronale Verknüpfung
Nun sollen die diversen in den Kapiteln jeweils gewonnenen Erkenntnisse zu einer einheitlichen
Theorie zusammengefügt werden. Es gilt somit, die einzelnen Erkenntnisse, die bei der Betrachtung
der Bedeutungstheorien von Frege, Wittgenstein und Quine gewonnen wurden, mit den
Wissensbeständen zum Spracherwerb aus der Linguistik und den neurobiologischen Erkenntnissen
zu vereinen. Es geht darum, einen alternativen Entwurf einer Bedeutungstheorie zu erstellen, in
dessen Zentrum neuronale Prozesse stehen. Dabei soll der seltsamen Entität „Bedeutung“ eine
physikalische Grundlage zugeordnet werden, genau wie Quine es sich gewünscht hatte. Natürlich
kann es sich im Rahmen dieser Arbeit nur um eine erste Skizze einer neuropsychologischen
Bedeutungstheorie handeln, die jedoch eine interessante und erfolgversprechende Basis für weitere
Forschungen darstellen sollte.
In der folgenden Darstellung werde ich in physiologischer Hinsicht nicht so ins Detail gehen, wie in
den Kapiteln 7 und 8, sondern eher philosophische Strukturanalyse betreiben. Dadurch wird die
entstehende Theorie zugleich etwas allgemeiner und ausbaufähiger in Hinblick auf zukünftige
Erkenntnisse bezüglich neurophysiologischer Details. Trotzdem werden die bereits beschriebenen
neuronalen Prozesse vorausgesetzt, auch wenn sie nicht im Detail wieder dargestellt werden.
Mein grundlegender und aus philosophischer Perspektive ungewöhnlicher Vorschlag besteht darin,
dass Bedeutung ein physikalisches Objekt ist. Bedeutung besteht in der physischen neuronalen
Vernetzung der neuronalen Repräsentation eines Wortes (als aktuelle Reiz-Wahrnehmung oder
Gedächtnisinhalt) und der neuronalen Repräsentation eines Gegenstands (als aktuelle ReizWahrnehmung oder sensorischer Gedächtnisinhalt) im Gehirn eines Sprechers. Ich werde
zunächst ausführen, wieso es strukturanalytisch überhaupt sinnvoll ist, die Bedeutung als
Vernetzung zu bestimmen. In weiteren Schritten zeige ich dann, wie man sich diese physische
neuronale Verknüpfung vorzustellen hat, welche Gehirnstrukturen durch sie verknüpft werden, wie
die Kompositionalität der Bedeutung realisiert wird und wie wir von einfachen Wörtern, die
Gegenstände bezeichnen, zu komplizierten theoretischen Begriffen fortschreiten. Weiterhin gilt es
noch darzustellen, wie diese Theorie den Spracherwerb, die Bedeutungsunterschiede von Wörtern
für verschiedene Sprecher, und die Möglichkeit der Entstehung und Weiterentwicklung einer
Sprache als System von Zeichen erklärt.
Zuletzt werde ich dann noch zeigen, inwiefern meine Theorie die wichtigsten Herausforderungen
180
für jede Bedeutungstheorie bewältigen kann, und warum einige verwandte Themenbereiche, die in
anderen Bedeutungstheorien unnötigerweise einbezogen werden, in meiner Bedeutungstheorie
ausgeblendet werden. Es wird sich nämlich zeigen, dass sie nicht nur theoretisch auf eine andere
Ebene gehören, sondern auch physisch vollkommen anders realisiert werden.
9.1.1 Von der Referenz zur Verknüpfung
In der philosophischen Diskussion der Bedeutung als Referenz finden sich häufig Pfeilmetaphern.
Die Wörter sind offensichtlich mit den Gegenständen verknüpft, sie deuten auf sie. Bei dieser
Betrachtungsweise liegt eine Symbolisierung mit einem Richtungspfeil nahe.
Das Wort bedeutet den Gegenstand
„Dreieck“
Wortbedeutung als einseitige Referenz
Damit betont man einen wichtigen konzeptionellen Teil der Bedeutung, der in Quines
Reizbedeutung und Wittgensteins Gebrauchstheorie nicht genug hervorgehoben wird. Wir sind
nämlich durchaus häufig in der Lage, mit einem einzigen Wort für andere Personen eindeutig auf
ein bestimmtes Objekt hinzuweisen. Darüber hinaus lassen sich aber noch weitere Effekte
beobachten, die immer dann auftreten, wenn ein Wort geäußert wird. Man erinnert sich zumeist
direkt an vergangene sensorische Wahrnehmungen genau des Gegenstands, auf den der Sprecher
verweisen wollte, oder hat im allgemeinen Fall zumindest eine oder mehrere Vorstellungen von
Objekten, die man mit diesem Wort normalerweise verbindet. Aufgrund der Art der Formulierung
der Fragestellung, wie Wörter auf Gegenstände deuten können, blieb jedoch bisher die andere
Richtung völlig unbeachtet. Aber auch der Anblick von Gegenständen aktiviert die ihnen
entsprechenden Bezeichnungen im Sprachareal. Man ist zwar nicht gezwungen, die Namen von
Gegenständen auszusprechen, oder an sie zu denken, wie es bei der extrem starken neuronalen
Verknüpfung zwischen Schrift- und Lautsprache der Fall ist 145, aber die entsprechenden Regionen
werden voraktiviert, so dass ein Zugriff leichter möglich wird. Die neuronale Verknüpfung besteht
also in beide Richtungen. Das eine aktiviert das jeweils andere. Daher sollte Bedeutung nicht mit
einem Richtungspfeil symbolisiert werden, sondern mit einem Pfeil in beide Richtungen, um die
145
Vgl. PU, Abschnitt 165, S. 325: „Ja, ich kann ein deutsches gedrucktes Wort gar nicht ansehen, ohne einen
eigentümlichen Vorgang des innern Hörens des Wortklangs.“ Vgl. auch Kapitel 3.2.2
181
Relation der beidseitigen Verknüpfung abzubilden.
Wort und Gegenstand sind verbunden
„Dreieck“
Wortbedeutung als zweiseitige Verknüpfung
9.1.2 Eine Verknüpfung zwischen zwei neuronalen Repräsentationen
Hier stellt sich die komplizierte Frage, wieso ein Wort (sei es als Geräusch oder als Zeichenfolge)
überhaupt auf einen Gegenstand verweisen kann, also wie so unterschiedliche Dinge überhaupt
verknüpft sein können. Die Antwort besteht darin, dass diese Dinge in der Welt überhaupt nicht
direkt verknüpft sind. Verknüpft werden in Wirklichkeit nur neuronale Repräsentationen von
Wörtern und neuronale Repräsentationen von Gegenständen. Ohne den Zwischenschritt über
menschliche Gehirne können Wörter und Gegenstände nicht verbunden sein, wenn man vom
trivialen Sonderfall der direkten Beschriftung von Gegenständen mit ihrem Namen absieht. Das
wird offensichtlich, wenn man ein Wort einer Sprache betrachtet, die man nicht versteht. Es gibt
dann für uns von diesem Wort überhaupt keine Verbindung zu dem Gegenstand, der von dem uns
unbekannten Wort bezeichnet wird. Eine solche Verbindung besteht nur in den Gehirnen von
Sprechern dieser uns unbekannten Sprache.
Bei einer Analyse der relevanten Entitäten finden sich also auf den ersten Blick vier verschiedene
Typen: Gegenstände, Zeichen146, neuronale Repräsentationen von Gegenständen und neuronale
Repräsentationen von Zeichen. Wir haben es demnach mit zwei zunächst voneinander
unabhängigen Entitäten zu tun, die jeweils mit einer anderen verknüpft sind. Erst diese beiden
anderen sind dann untereinander verknüpft. Wie bereits gezeigt wurde, wird diese zweite
Verbindung durch andere neuronale Prozesse realisiert als die erste, aber diese Detailtiefe benötigen
wir an dieser Stelle nicht. In der Welt gibt es die physischen Zeichen (Lautbilder und Schriftbilder)
und die davon theoretisch separierbaren restlichen Gegenstände. Es liegt zwar kein prinzipieller
Unterschied zwischen den physischen Zeichen (zum Beispiel realisiert als strukturierte
Tintenflecken auf Papier) und anderen physischen Gegenständen vor, aber wir erwerben in der
Kindheit einen komplexen Erkennungsmechanismus, der dafür sorgt, dass wir als lesefähige
Erwachsene bei der visuellen Analyse unserer Umwelt die spezielle Struktur von Buchstaben direkt
146
„Zeichen“ wird hier als allgemeine Formulierung benutzt, unter die alle unterschiedlichen Ausprägungen (für die
akustische, visuelle oder haptische Wahrnehmung gedacht) fallen, in der die Wortform physisch vorliegen kann.
182
erkennen. Aufgrund einer analogen Fähigkeit erkennen wir auch Sprachlaute einer uns völlig
unbekannten Sprache trotzdem direkt als Sprachlaute und verwechseln sie nicht mit anderweitigen
Geräuschen. Der Unterschied zwischen Zeichen und den restlichen Gegenständen besteht also nicht
in der Welt, sondern nur in unserem Umgang mit ihnen. Er besteht darin, dass bei Menschen mit
Lesefähigkeiten (zusätzlich zu den basaleren Analyseprozessen in Hinblick auf Farben und
Kontraste) in Bezug auf Zeichen eine detailliertere Formanalyse ähnlich wie bei der
Gesichtserkennung automatisch abläuft. Nur diese erlernte Analysefähigkeit hebt die Zeichen aus
der Menge der anderen wahrgenommenen Gegenstände heraus. Denn Zeichen nehmen wir genau
wie Gegenstände durch Licht- und Schallwellen mit unseren Wahrnehmungsorganen wahr, und in
unseren Gehirnen laufen dadurch neuronale Verarbeitungsprozesse und Veränderungen der
neuronalen Verschaltungsstruktur ab, an deren Ende spezifische Aktivitätsmuster stehen, die dann
jeweils die Repräsentationen einer dieser beiden Entitäten darstellen. Alle vier Entitäten
(Gegenstände,
Zeichen,
neuronale
Repräsentationen
von
Gegenständen
und
neuronale
Repräsentationen von Zeichen) können gleichzeitig bestehen, ohne dass man von Bedeutung reden
müsste. Gegenstände und Zeichen haben offensichtlich sowieso keine Bedeutung, solange keine
psychischen Systeme involviert sind, die sie wahrnehmen, aber auch die Repräsentationen von
Gegenständen oder Zeichen durch neuronale Strukturen sind noch nicht die Bedeutung, sondern die
Bedeutung besteht in der Vernetzung dieser neuronalen Repräsentationen. Sie ist physisch
realisiert als (mindestens) ein neuronaler Pfad, der dazu führt, dass die eine von der jeweils anderen
neuronalen Repräsentation aktiviert wird, oder unter hemmenden Umständen zumindest eine
Voraktivierung stattfindet. Im folgenden Diagramm findet sich eine übersichtliche Darstellung der
bisher durchgeführten allgemeinen Analyse:
183
Gehirn eines
Menschen
Bedeutung
Haben die Tendenz sich
gegenseitig zu aktivieren
(neuronales Lernen)
Wahrnehmungsorgane sammeln
Informationen über die Außenwelt
Physisches
Zeichen
Neuronale
Repräsentation
eines
Gegenstands
Wiederholte Wahrnehmung
führt zur Erstellung der
neuronalen Repräsentation
Wiederholte Wahrnehmung
führt zur Erstellung der
neuronalen Repräsentation
Neuronale
Repräsentation
eines
Zeichens
Gegenstand
Es gibt keine Verknüpfung
zwischen Gegenstand und
Zeichen in der Welt
Außenwelt
Abbildung 31: Bedeutung als neuronale Verknüpfung zwischen neuronalen Repräsentationen von
Zeichen und neuronalen Repräsentationen von Gegenständen
147
147
„Zeichen“ wird hier als allgemeine Formulierung benutzt, unter die alle unterschiedlichen Ausprägungen (für die
akustische, visuelle oder haptische Wahrnehmung gedacht) fallen, in der die Wortform physisch vorliegen kann:
Schallwellen, Schwarzschrift, Reliefschrift oder Punktschrift
184
Dieser grundlegenden Strukturanalyse der ablaufenden Prozesse werden nun weitere Details
hinzugefügt. Bedeutung ist immer an ein hoch entwickeltes „psychisches System“ 148 gebunden.
Daher ist Bedeutung sprachbasiert und kein absoluter Begriff, in dem Sinne, dass sich niemals
angeben lässt, was ein Wort W bedeutet. Angeben lässt sich immer nur, was ein Wort W in der
Sprache S für die meisten Sprecher der Sprache S üblicherweise bedeutet, oder was es für einen
bestimmten Sprecher der Sprache S (eventuell abweichend von der allgemein üblichen Bedeutung)
bedeutet.
Bedeutung ist eine Verknüpfung, die auf zwei verschiedenartigen Verknüpfungen basiert. Die
beiden Verknüpfungsarten können und sollten unterschieden werden:
Die erste Verknüpfung stellt die Verknüpfung zwischen Gegenständen und ihren neuronalen
Repräsentationen dar. Sie erfolgt über die Wahrnehmungsorgane und die daran anschließenden
neuronalen Verarbeitungswege, in denen die Wahrnehmungsdaten nach relevanten Kategorien wie
Farbe, Form, Kontur, Bewegung, usw. zunächst einzeln in spezialisierten Gehirnarealen analysiert
und dann für unsere bewusste Wahrnehmung wieder zu einem Gesamtbild zusammengesetzt
werden. Dieser Prozess ist automatisiert und kann nicht bewusst beeinflusst werden. Wiederholte
Wahrnehmung verwandter Strukturen in der Umwelt führt zu einer entsprechenden Anpassung der
neuronalen Strukturen, so dass die Wiedererkennung von bereits bekannten, aber auch die
Unterscheidung von sehr ähnlichen Dingen in Zukunft vereinfacht wird. Diese basale
Wahrnehmung und Gedächtnisbildung funktioniert für die Verknüpfung zwischen Zeichen und ihrer
neuronalen Repräsentation ganz genauso wie für die Verknüpfung zwischen Gegenständen und ihrer
neuronalen Repräsentation. Dies ist nicht weiter verwunderlich, denn Zeichen sind für unsere Sinne
ebenso physische Objekte und hinsichtlich ihrer Objekthaftigkeit nicht zu unterscheiden von den
„Gegenständen“, sondern nur hinsichtlich unseres Umgangs mit ihnen. Während unseres Lebens
spezialisieren sich Neuronenverbände auf eben die Fähigkeiten, die wir häufig benötigen. Das gilt
sowohl für die Neuronen in den Analysepfaden der Wahrnehmung als auch für die Motorneuronen,
die unsere Bewegungen steuern. Im Gehirn eines professionellen Musikers werden sich zum
Beispiel die neuronalen Bereiche zur akustischen Wahrnehmung und zur Feinkoordination der
Hände und Finger vergrößern und sehr spezialisierte Neuronen ausbilden. Die Feinkörnigkeit der
Repräsentation bestimmter Umweltbereiche variiert demnach für jeden einzelnen Menschen in
Abhängigkeit davon, welche Relevanz die Daten für ihn haben. Diese Unterschiede zwischen den
Repräsentationen verschiedener Menschen erklären in einem späteren Schritt die Möglichkeit der
148
Mit dem Begriff „psychisches System“ wird hier immer ein menschliches Gehirn bezeichnet, und er sollte nicht mit
unterbestimmten metaphysischen Begriffen wie „Geist“ oder „Seele“ verwechselt werden. Der einzige Grund, von
psychischen Systemen statt von Gehirnen zu reden, besteht darin, die prinzipielle Möglichkeit offen zulassen, dass
durch Evolution oder menschliche Technik irgendwann ähnliche Strukturen entstehen könnten, die keine menschlichen
Gehirne sind, aber auch über die Funktionalität der Bedeutung verfügen.
185
Bedeutungsunterschiede von gleichen Wortformen für mehrere Sprecher, insofern diese leicht
unterschiedliche Repräsentationen mit gleichen Wörtern verknüpfen. An dieser Stelle geht es jedoch
erst einmal nur um die generelle Möglichkeit der Gedächtnisbildung und der Bildung von
Repräsentation der Gegenstände und der Zeichen im Gehirn. Bisher haben wir Erklärungen für die
Entstehung neuronaler Repräsentationen von Gegenständen in einem Gehirnareal und neuronaler
Repräsentationen von Zeichen in einem anderen Gehirnareal, wobei eine neuronale Repräsentation
eben darin besteht, dass spezifische neuronale Strukturen immer nur dann aktiv werden, wenn
genau der repräsentierte Gegenstand wahrgenommen wird, oder die Person sich gerade erfolgreich
an genau diesen Gegenstand erinnert. Damit verbleibt nur noch die Frage nach der Realisierung der
Verknüpfung zwischen zwei solchen Repräsentationen:
Die zweite Verknüpfung stellt die Verknüpfung zwischen den neuronalen Repräsentationen der
Zeichen und den neuronalen Repräsentationen der Gegenstände dar. Sie wird realisiert durch eine
oder mehrere neuronale Bahnen zwischen den zwei neuronalen Netzbereichen, die die jeweilige
Repräsentation enthalten. Diese starke Verbindung ermöglicht die schnelle Aktivierung des jeweils
anderen Bestandteils des funktionalen neuronalen Netzes149. Die interessante Frage ist natürlich,
wieso genau diese neuronale Bahn ausgebildet worden sein sollte. Es sind ja nicht alle Neuronen
untereinander verknüpft. Ein bestimmter Gegenstand wurde oft genug wahrgenommen, um eine
Repräsentation im visuellen Assoziationscortex verursacht zu haben, und das Lautbild eines
bestimmten Wortes hat ebenfalls eine Repräsentation im Wernicke´schen Areal verursacht. Wieso
werden jedoch jetzt genau die richtigen Wortformrepräsentationen mit den Repräsentationen genau
der Gegenstände verknüpft, die sie in der Landessprache der Person gewöhnlich bezeichnen? Diese
Verknüpfung ermöglichen neuronale Lernmechanismen, unter anderem der als assoziative
Langzeitpotenzierung bekannte Effekt. Es handelt sich dabei um eine spezielle Form der
Langzeitpotenzierung, bei der die gleichzeitige Stimulation schwacher und starker Synapsen eines
Neurons dafür sorgt, dass die schwachen Synapsen gestärkt werden.150
Synapsen ermöglichen generell die biochemische Signalübertragung an andere Neuronen. Sie
können jedoch unterschiedlich stark ausgeprägt sein, so dass sehr unterschiedliche Verschaltungen
möglich sind. Wenn ein Neuron aktiviert wird, wird es dies zwar an seinen Synapsen signalisieren,
aber dadurch fangen die Neuronen, an denen die Synapsen anliegen, nicht direkt ebenfalls an zu
feuern.151 Abgesehen davon, dass es neben aktivierenden auch hemmende Verschaltungen von
Neuronen gibt, muss erst ein bestimmter Schwellenwert positiver Aktivierung überschritten werden,
damit ein Neuron anfängt zu feuern. Die assoziative Langzeitpotenzierung besteht nun darin, dass
149
Siehe Kapitel 8.1
Die Details dieses Prozesses wurden in Kapitel 7.7 beschrieben.
151
Siehe Kapitel 7.4
150
186
immer wenn ein Neuron erfolgreich aktiviert wurde, genau die schwachen Synapsen vergrößert
werden, die gleichzeitig aktiv waren, während stärkere Synapsen dafür sorgten, dass der
Schwellenwert zur Aktivierung dieses Neurons überschritten wurde. Das bedeutet, dass „zufällig“
immer gleichzeitig ablaufende Prozesse langfristig miteinander verknüpft werden, und sich dann
gegenseitig aktivieren. Offensichtlich ist es für einen Organismus nützlich, zusammengehörige
Daten aus der Umwelt, die von verschiedenen Wahrnehmungsorganen häufig zur gleichen Zeit
ermittelt werden, als zusammengehörig zu kategorisieren. Darum verwundert es nicht, dass es einen
solchen neuronalen Mechanismus der Verknüpfung gibt. Und ebendieser ermöglicht auch die
Verknüpfung zwischen den neuronalen Repräsentationen der Zeichen und den neuronalen
Repräsentationen der Gegenstände, also die physische Realisierung der Bedeutung.
Betrachten wir diesen Mechanismus im Detail: Die zwei bedeutsamsten Gehirnareale für die
Sprachfähigkeit sind das Wernicke´sche Areal und das Broca´sche Areal.152
Im Wernicke-Areal findet die Worterkennung
statt,
während
im
Sprachproduktion
Broca-Areal
gesteuert
die
wird.
Interessanterweise liegt das Wernicke-Areal
genau
im
auditiven,
Grenzgebiet
dem
zwischen
visuellen
dem
und
dem
somatosensorischen Assoziationscortex. Die
verschiedenen Assoziationscortices erhalten
ihre
Informationen
entsprechenden
Arealen:
von
primären
„Neuronale
den
jeweils
sensorischen
Schaltkreise
im
sensorischen Assoziationscortex analysieren
Abbildung 32: Lokalisation der primären
Sprachareale – Abb. aus Carlson S. 586
die Information, die sie aus dem primären
sensorischen Cortex erhalten; hier findet Wahrnehmung statt und es erfolgt die Gedächtnisbildung.
Die Anteile des sensorischen Assoziationscortex, die den primären sensorischen Arealen am
nächsten liegen, erhalten die Information nur von einem sensorischen System. Beispielsweise
analysiert die Region, die sich unmittelbar an den primären visuellen Cortex anschließt, visuelle
Information und speichert visuelle Gedächtnisspuren. Dagegen erhalten die Regionen des
sensorischen Assoziationscortex, die sich weiter entfernt von den primären sensorischen Arealen
befinden, Information von mehr als einem sensorischen System. Daher sind sie an verschiedenen
Arten von Wahrnehmungen und Gedächtniseintragungen beteiligt. Diese Regionen erlauben die
152
Zur Verbesserung der Lesbarkeit im Folgenden als „Wernicke-Areal“ und „Broca-Areal“ abgekürzt.
187
Integration der Information aus mehreren sensorischen Systemen. Beispielsweise können wir die
Verbindung zwischen dem Anblick eines bestimmten Gesichtes und dem Klang einer bestimmten
Stimme herstellen.“153
Da das Wernicke-Areal an der Grenze von drei Assoziationscortices liegt, erscheint es sinnvoll, dass
genau hier die Verknüpfung von visuell verarbeiteter Schriftsprache und auditiv erfasster
Lautsprache stattfindet. Diese Lage ist außerdem ideal für die Bedeutungsverknüpfung, weil die
Gedächtnisinhalte
aller
Sinne
in
den
angrenzenden Arealen vorliegen, so dass sich
kurze neuronale Wege ergeben. Welche
weiteren Belege gibt es für die These, dass
die Bedeutung von Wörtern realisiert wird
durch Verknüpfungen des Wernicke-Areals
mit den Zellverbänden in den umliegenden
Regionen der drei Assoziationscortices?
Der wichtigste Beleg besteht darin, dass
unterschiedliche
Schädigungen
Assoziationscortex
für
den
im
Verlust
bestimmter
unterschiedlicher
Arten
Bedeutung
sorgen.
sprachlichen
Fähigkeiten
von
Die
Patienten
mit
von
solchen
Schädigungen sind prinzipiell vollständig
vorhanden, nur jeweils einer bestimmten
Kategorie von Wörtern kann keine Bedeutung
mehr
zugeordnet
werden.
Ein
solches
Beispiel ist der Fall der Autotopagnosie, bei
der eine Schädigung des Assoziationscortex
im linken Parietallappen dazu führt, dass die
Patienten die eigenen Körperteile nicht mehr
benennen
können:
„Personen,
die
sich
ansonsten ganz normal unterhalten können,
sind nicht in der Lage, zuverlässig auf ihre
Ellbogen, ihre Knie oder ihre Wangen zu
Abbildung 33: Lokalisation der Assoziationscortices – zeigen, wenn man sie darum bittet. Und sie
Abb. aus Carlson S. 96
153
Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 96
188
können Körperteile nicht benennen, wenn der Untersucher auf diese zeigt. Allerdings haben sie
keine Schwierigkeiten damit, die Bedeutung anderer Worte zu verstehen.“154
Es gibt multiple analoge Fälle zur Autotopagnosie, in denen Patienten die Bedeutung von Wörtern
in bestimmten anderen Kategorien verloren ging. So beschreibt Carlson den Fall einer Patientin mit
Schädigung im rechten Parietallappen wie folgt:
„Sie war aufgeweckt und intelligent und zeigte keine Anzeichen von Aphasie. Allerdings
verwechselte sie Richtungen und andere räumliche Relationen. Wenn man sie darum bat,
konnte sie auf die Zimmerdecke und auf den Fußboden zeigen, aber sie konnte nicht sagen,
was sich oberhalb des anderen befindet. Ihre Wahrnehmung anderer Menschen war
anscheinend völlig normal. Sie konnte aber nicht sagen, ob sich der Kopf einer Person
oberhalb oder unterhalb des Körpers befindet. Ich schrieb eine Reihe von Fragen mit
mehrfacher Antwortauswahl auf, um ihre Fähigkeit zu prüfen, ob sie Worte zur Bezeichnung
räumlicher Relationen verwenden konnte. Die Ergebnisse dieses Tests zeigten mir, dass sie
die Bedeutung solcher Worte wie oben, unten und unterhalb nicht verstand, wenn sie sich
auf räumliche Relationen bezogen. Sie konnte diese Worte aber ganz normal verwenden,
wenn sie sich auf nichträumliche Relationen bezogen.“155
Die bisher erwähnten Fälle bezogen sich auf Störungen im somatosensorischen Assoziationscortex,
so dass bisher auch noch andere Thesen über die neuronale Realisierung von Bedeutung möglich
wären. Es gibt aber auch Beispiele für Probleme mit Bedeutungen, in denen die anderen
Assoziationscortices betroffen sind. Man betrachte die Beschreibung eines solchen Falls, in dem
eine linkstemporale Hirnschädigung vorlag, die es dem Patienten T. B. unmöglich machte, die
Bedeutung von Wörtern für Lebewesen zu erklären:
„Wenn er beispielsweise gebeten wurde, das Wort Nashorn zu definieren, dann sagte er:
»Ein Tier. Zu den Funktionen kann ich nichts sagen«. Zeigte man ihm aber das Bild eines
Nashorns, dann sagte er: »Enorm, wiegt über eine Tonne, lebt in Afrika.« Ganz ähnlich war
es, wenn man ihn bat anzugeben, was ein Delfin sei, dann sagte er: »Ein Fisch oder ein
Vogel.« Aber beim Anblick eines Bildes des Delfins sagte er: »Der Delfin lebt im Wasser...
Delfine werden trainiert, hochzuspringen und aus dem Wasser herauszukommen.« [...] Wenn
man T. B. bat, die Bedeutung der Worte für unbelebte Gegenstände zu definieren, hatte er
154
155
Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 596
Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 596
189
keine Schwierigkeiten.“156
Diese Befunde, dass die Wahrnehmung von Wörtern aus unterschiedlichen Kategorien
unterschiedliche Gehirnregionen aktiviert, wurden mit funktionellen bildgebenden Verfahren bei
gesunden Personen in mehreren Experimenten bestätigt:
„Spitzer et al. (1995) baten ihre Versuchspersonen, Bilder zu benennen, die zu vier
verschiedenen semantischen Kategorien gehörten: Tiere, Möbel, Früchte und Werkzeuge.
FMRT-Schnittbilder zeigten einige kategorial spezifische Aktivationsorte im Frontal- und
Temporallappen.“157
Doch kommen wir nochmal zurück zu den oben beschriebenen Defiziten der verschiedenen
Patienten. Es ist wichtig festzuhalten, dass sie alle nicht an einer massiven Gehirnschädigung
leiden, die keine genauen Rückschlüsse auf spezifische neuronale Strukturen zuließe. Die Patienten
sind in der Lage, die Wortformen der für sie problematischen Wörter genauso wie die Wortformen
von allen anderen Wörtern wahrzunehmen und zu wiederholen. Das bedeutet, dass ihre
Worterkennung im Wernicke-Areal noch einwandfrei funktioniert. Darüber hinaus sind ihre
Gedächtniseinträge über die jeweils relevanten Gegenstände ebenfalls noch vorhanden. Diese
Gedächtniseinträge können ganz normal abgerufen und angewendet werden, wenn die Gegenstände
nicht sprachlich referenziert, sondern bildlich dargestellt werden, oder einfach physisch präsent
sind. Dies zeigt, dass in allen oben angeführten Beispielen, in denen Patienten die Bedeutungen
gewisser Wörter nicht mehr angeben konnten, jeweils nur die neuronale Verknüpfung zwischen
Worterkennung und den Gedächtnisinhalten in den Assoziationscortices beschädigt ist. Und das
wiederum stützt meine oben erläuterte These, dass die Bedeutung eines Wortes einem Sprecher
genau dann bekannt ist, wenn eine funktionierende neuronale Verknüpfung zwischen seiner
Repräsentation des Wortes (nach erfolgreicher Worterkennung im Wernicke-Areal) und seiner
Repräsentation des zugehörigen Gegenstands (der relevanten Gedächtnisinhalte für diesen
Gegenstand in den sensorischen Assoziationscortices) vorliegt. Die bisherige Modellierung ist
allgemeingültig, unabhängig von den physischen Details der Realisierung der neuronalen
Verknüpfungen. Eine mit hoher Wahrscheinlichkeit zutreffende weitergehende Theorie darüber, wie
diese Verknüpfungen als funktionale neuronale Netze aufgebaut sind, wurde im 8. Kapitel
dargestellt. Aber man könnte diese Spezifikation auch auslassen und die Theorie damit offener für
zukünftige Forschungen in physiologischen Detailfragen halten.
156
157
Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 596
Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 596
190
9.2 Die Kompositionalität der Bedeutung
Unsere philosophischen Betrachtungen haben gezeigt, dass die Bedeutung eines Satzes sich
zusammensetzt aus der Summe der Bedeutungen der Wörter, die er enthält. Wie die einzelnen
Wortbedeutungen neuronal realisiert sind, habe ich in der obigen Theorie dargestellt. Welche
neuronalen Prozesse sind nun die Grundlage dafür, dass wir komplexe Bedeutungsstrukturen in
Form von Sätzen bilden können? Man kann sich die Konstruktion der Gesamtbedeutung als aus
zwei unterschiedlichen Verarbeitungsprozessen zusammengesetzt vorstellen. Auf der einen Seite
haben wir einfach nur die Summe der Aktivierungen der einzelnen Wörter. Wir sind problemlos
dazu in der Lage, eine oder mehrere mögliche Weltbeschreibungen aus einer zufällig oder nach
Anfangsbuchstaben geordneten Wörtermenge, die keine übliche Satzstruktur aufweist, zu
entnehmen (z. B.: das die Kind Mutter tadelt). Darüber hinaus ist es allerdings genauso
offensichtlich, dass wir über ein implizites Wissen der grammatischen Regeln unserer
Muttersprache verfügen. Wir gewinnen also die exakte Bedeutung des Satzes auch mit Hilfe seiner
Struktur. Es läuft also, immer wenn mehrere Wörter wahrgenommen werden, ein Analyseprozess
parallel zur Wortbedeutungsaktivierung ab, der anhand der Wortreihenfolgen und des Kasus der
Wörter zusätzliche Informationen ermittelt, die allein aus der Summe der Wortbedeutungen nicht zu
entnehmen sind. Das zeigt sich deutlich bei einer Untersuchung an Patienten mit einer Schädigung
im Broca-Areal, die als Broca´sche Aphasie bezeichnet wird, und die unter anderem
Agrammatismus zur Folge hat, sich ansonsten aber dadurch auszeichnet, dass es Probleme bei der
Sprachproduktion, aber nicht beim Verständnis von Wörtern gibt.
„Schwartz, Saffran und Marin zeigten Patienten mit Broca´scher Aphasie Bildpaare, in
denen die Handlungsträger und Handlungsobjekte ausgetauscht wurden: Beispielsweise ein
Pferd tritt eine Kuh und eine Kuh tritt ein Pferd; ein Traktor zieht ein Auto und ein Auto
zieht einen Traktor; ein Tänzer applaudiert einem Clown und ein Clown applaudiert einem
Tänzer. Bei der Darbietung jedes Bildpaares lasen sie die Grundaussage zum Bild, z. B. Das
Pferd tritt die Kuh. Die Aufgabe der Probanden bestand darin, auf das richtige Bild zu
zeigen, um zu erkennen, ob die grammatikalische Konstruktion des Satzes verstanden
wurde. Die Leistung der Probanden war sehr dürftig.“158
Es ist also höchst wahrscheinlich, dass es mehrere parallele Analyseprozesse gibt, genau wie es bei
der bereits deutlich besser erforschten visuellen Wahrnehmung der Fall ist, bei der Farbe, Form und
158
Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 587
191
Bewegung einzeln verarbeitet und später wieder zusammengesetzt werden 159. Wenn wir an
gesprochene Sprache denken, fallen uns sogar noch weitere parallele Analysepfade ein, wie zum
Beispiel der Versuch der Entnahme von Absichten und Stimmungen allein aus der Prosodie des
Sprechers, die mit den beabsichtigten Bedeutungen der geäußerten Sätze nicht überein stimmen
müssen. Die Bedeutung eines Satzes setzt sich also zusammen aus der Summe der
Wortbedeutungen kombiniert mit den Ergebnissen der Analysepfade bezüglich der Grammatik und
Prosodie.
9.3 Die Entstehung komplexer theoretischer Begriffe
Die bisherigen Ausführungen gingen zunächst von der klassischen Vereinfachung aus, dass Wörter
immer nur auf Gegenstände und deren Attribute oder Bewegungen verweisen. Diese Vereinfachung
ist jedoch durchaus legitim, um zunächst die Grundlagen der neuronalen Realisierung von
Bedeutung zu erläutern, wenn es prinzipiell möglich ist, die Entstehung der höherstufigen Begriffe,
über die wir zweifelsfrei ebenfalls verfügen, in einem zweiten Schritt zu erklären. In diesem
speziellen Fall ist es darüber hinaus auch noch besonders sinnvoll, zunächst die einfachen
gegenstandsbezogenen Bedeutungen zu erklären, denn wie im 6. Kapitel gezeigt wurde, sind es
genau diese Wörter, die Kinder zuerst lernen, wenn sie damit beginnen, ihre Muttersprache zu
erlernen.
Wenn sich im Gehirn eines Kindes eine Menge neuronaler Repräsentationen von Objekten und auch
von Phonemen und Wörtern, und ebenfalls einige Verknüpfungen zwischen ihnen ausgebildet
haben, kann es damit anfangen, nach dem Vorbild der Erwachsenen Wörter zu bedeutungsvollen
Sätzen zu verbinden. Durch genaue Beobachtung der Reaktionen der Umwelt auf die
Sprechversuche werden im weiteren Verlauf Korrekturen vorgenommen und ausdifferenziertere
Begriffe gebildet. Dabei werden neue Wörter erlernt oder bereits bekannte Wörter mit
detaillierteren neuronalen Repräsentationen verknüpft. Zum Beispiel wird ein Langhaardackel
zunächst nur als „Wauwau“, dann als „Hund“ oder „kleiner Hund“ bezeichnet, bevor aufgrund
elterlicher Belehrungen diese Hunderasse anhand ihrer speziellen Attribute von anderen
unterschieden und mit dem üblichen Namen versehen werden kann. Wir bauen also aus den
einfachen Bedeutungen „Hund“, „klein“, „kurze Beine“, „langes Fell“ durch neuronale
Verknüpfung über parallele Aktivierung in einer zweiten Lernphase kompliziertere Bedeutungen
159
Zu den Details der Verarbeitung der visuellen Wahrnehmung siehe Carlson, Neil R.: Physiologische Psychologie München: Pearson Studium, 2004, S. 194 – 239
192
auf. Dabei ist es jedoch irrelevant, ob die neuen Verknüpfungen mit neuronalen Repräsentationen
eines Gegenstandes verknüpft werden. Es ist möglich, beliebige neue Wörter nur mit der
Kombination mehrerer Wortrepräsentationen zu verknüpfen. Wenn wir das Wort „Junggeselle“ über
die Definition erlernen, statt am Beispiel, dann erweitert sich unsere neuronale Struktur in der
Hinsicht, dass das neue neuronale Netz, das die Repräsentation der Wortform des Wortes
„Junggeselle“ darstellt, mit den Repräsentationen von „Mann“ und „unverheiratet“ verknüpft wird.
Wenn wir Beispiele von Junggesellen kennen, verknüpfen wir die sensorischen Repräsentationen im
Gedächtnis ebenfalls mit diesen, andernfalls eben nicht. Daher können wir Wörter wie „Pegasus“ zu
verwenden lernen, obwohl wir keine neuronale Repräsentation eines Gegenstands mit diesem Wort
verknüpfen können. Wir verknüpfen „Pegasus“ einfach mit den Worten „Pferd“ und „Flügel“ und
deswegen automatisch auch mit allen damit verbundenen sensorischen Gedächtnisinhalten. Dadurch
können wir sogar eine bildliche Vorstellung von Objekten gewinnen, die es in der Welt überhaupt
nicht gibt, indem wir die sensorischen Gedächtnisinhalte über Pferde und Flügel gleichzeitig
aktivieren und zusammenfügen. Prinzipiell funktioniert dies genauso wie für jede Person in
fiktionalen Texten, deren Name mit den fiktiven Beschreibungen ihres Aussehens und mit ihren
Taten verknüpft wird. Durch diese neuronalen Verknüpfungsmöglichkeiten ist die Möglichkeit der
Entstehung sowohl unserer Wörter für Fantasieobjekte als auch der Wörter mit beliebig komplexer
Bedeutung aus den „einfachen“ Wörtern, die mit sensorischen Repräsentationen von Gegenständen
verknüpft sind, hinreichend erklärt. Es bleibt jedoch noch die Problematik der abstrakten oder
theoriebasierten Begriffe, wie „Gerechtigkeit“, „Existenz“, den logischen Junktoren oder
grammatischen Satzelementen, bei denen nicht auf den ersten Blick zu sehen ist, inwiefern sie aus
den wahrnehmungsbasierten Begriffen zusammengesetzt sein sollten. Solche Wörter bezeichnen die
Ergebnisse komplizierter und langfristiger Analyseprozesse unserer Wahrnehmungsdaten. Sie
wurden nach der Erarbeitung eines theoretischen Konzepts per Definition in die Sprache eingeführt.
Während des kindlichen Spracherwerbs werden solche Wörter nicht erlernt, oder es wird zunächst
nur ein verschwommenes grammatikalisches Wissen erworben, in was für Sätzen solche Wörter
vorkommen. Zum Beispiel enthalten frühe kindliche Sätze mit Aufzählungen wie „Papa, Mama,
Opa Garten gehen.“ zunächst kein „und“ zwischen den aufgezählten Gegenständen. Erst durch den
korrigierenden Eingriff anderer Sprecher wird erlernt, dass in solchen Sätzen immer dieses seltsame
Wort, das weder für einen Gegenstand noch für eine Eigenschaft oder eine Tätigkeit steht,
verwendet werden muss. Es wird zunächst nur die grammatische Strukturregel erlernt, wann „und“
zu verwenden ist. Erst viel später kann dann die Wortbedeutung von „und“ über das Verstehen der
diesem Wort zugrunde liegenden theoretischen Konzeption erworben werden. Ähnlich verhält es
sich mit „Gerechtigkeit“. Wie in Kapitel 6.3.4 gezeigt wurde, wird für solche Wörter zunächst eine
193
sehr basale Bedeutung angelegt, die im Verlauf des Lebens noch massiv verändert und verfeinert
wird. Somit konnte gezeigt werden, wie die Wörter ohne offensichtlichen Bezug auf Gegenstände,
Eigenschaften oder Tätigkeiten in einem späteren Lernprozess erworben werden, der auf den bereits
gelernten Wörtern mit Gegenstandsbezug aufbaut.
9.4 Spracherwerb und Bedeutungsunterschiede
Die soziale Situation, in der Bedeutung gemäß meiner neuropsychologischen Theorie festgelegt
wird, unterscheidet sich deutlich von der Zustimmungssituation, die Quine beschreibt. Es handelt
sich um die Situation des zumeist kindlichen Erlernens eines Wortes. Durch die wiederholte
gleichzeitige Wahrnehmung eines Wortes und eines Gegenstands wird die neuronale Verknüpfung
langsam ausgebildet. Zunächst vermag der Lernende nur grob einzuschätzen, was mit einem
spezifischen Wort gemeint sein soll. Zum Beispiel könnte das Wort „Hund“ zunächst für alle
möglichen Vierbeiner angewendet werden. Erst durch den korrigierenden Eingriff der anderen
Sprecher und die Abgrenzung zu ähnlichen Begriffen entsteht später ein genaueres Verständnis der
Worte. Die neuronale Netzstruktur differenziert sich langsam weiter aus.
Diese so konstruierte Bedeutungstheorie erlaubt Bedeutungsunterschiede für verschiedene Sprecher
und erklärt, wie diese entstehen können. Denn Bedeutungsunterschiede sind ein weiterer
offensichtlicher Fakt unserer normalen Sprachen, der in denjenigen Theorien ignoriert wird, welche
die Bedeutung in einem metaphysischen Bereich ansiedeln, so dass die Bedeutung vom Sprecher
unabhängig festzustehen scheint. Aber selbstverständlich kann für zwei Sprecher der gleichen
Sprache S das Wort W unterschiedliche Dinge bedeuten. Das liegt daran, dass die beiden Sprecher
während des Erlernens unterschiedlichen Situationen ausgesetzt waren, so dass unterschiedliche
neuronale Verknüpfungen ausgebildet wurden. Dabei kann es sich um regionale Unterschiede der
Sprache handeln, so dass der gleiche Gegenstandsbereich mit unterschiedlichen Wörtern verknüpft
wird. Oder es herrscht bei gleichen Wörtern Uneinigkeit über den Gegenstandsbereich, der mit
ihnen verknüpft ist. Dieser zuletzt genannte Fall ist natürlich schwieriger zu entdecken und führt
daher eher zu Missverständnissen in der Kommunikation, während der zuerst genannte Fall durch
das Erfragen der Bedeutung des unbekannten Wortes leicht aufgelöst werden kann.
Obwohl uns Missverständnisse und regionale Differenzen im Sprachgebrauch gut bekannt sind,
müssen Bedeutungsunterschiede zwischen Sprechern doch eher die Ausnahme als die Regel sein,
weil sonst überhaupt keine Sprache jemals hätte entstehen können. Es muss also in jeder Theorie,
die Bedeutungsunterschiede zwischen Sprechern zulässt und diese erklärt, zusätzlich eine Erklärung
194
geben, wieso die Verknüpfungen zwischen Wörtern und Welt im Normalfall für verschiedene
Sprecher gleich oder ähnlich genug gelingen. Aber auch dies wird klar bei der Betrachtung der
Funktionsweise des Spracherwerbs. Ein Kind erfindet sich keine eigene Sprache in einer isolierten
Umgebung, sondern es erlernt die Wörter im Zusammenhang der Lebenswelt seiner Mitmenschen.
Die Sprache ist also schon weitgehend fertig und an die jeweiligen Lebensumstände der Region
angepasst. Weiterhin wird die Sprache in genau derselben Umwelt erlernt, in der sie die anderen
Sprecher auch verwenden. Also werden wirklich bei dem neuen Sprecher dieselben physischen
Gegebenheiten oder zumindest relativ ähnliche mit den Wörtern verbunden wie bei der
Sprechergemeinschaft, in die er hinein geboren wurde. In der Polarregion lernt man eher
verschiedene Bezeichnungen für die Beschaffenheit von Schnee und Eis, im Dschungel die Namen
der gefährlichen und der essbaren Tiere und in einer hochtechnisierten Gesellschaft die Namen von
Computerbauteilen. Aber in allen Fällen liefert die gemeinsame Umwelt ähnliche physische
Bezugspunkte für alle Sprecher einer Sprache, so dass die Sprecher sich im Normalfall mit ihren
Wörtern auf dieselben Objekte beziehen und sich dadurch erfolgreich verständigen können, obwohl
die genauen Lernumstände und somit die Bedeutungen potentiell voneinander abweichen.
9.5 Die Möglichkeit der Sprachentstehung und Weiterentwicklung
Diese theoretische Erklärung der Entstehung der Bedeutung im Spracherwerb und der
Bedeutungsunterschiede von Wörtern für mehrere Sprecher scheint jedoch vorauszusetzen, dass
eine Sprache schon vollständig bestehen muss, damit ein neuer Sprecher sie erlernen kann. Falls das
der Fall wäre, könnte man dieser Theorie daher vorwerfen, dass sie die historische Entstehung und
Entwicklung einer Sprache überhaupt nicht erklären könnte. Dieser Vorwurf lässt sich jedoch
problemlos zurückweisen. Wie in Kapitel 6.2 dargestellt wurde, ist das menschliche Sprachsystem
auf der Grundlage sozialer Interaktionen Schritt für Schritt von primitiven Bausteinen aus natürlich
gewachsen. Immer wenn neue Wörter oder sprachliche Verhaltensweisen nötig waren, wurden sie
der Sprache hinzugefügt. Dieser Prozess der Spracherweiterung ist jedoch ein völlig anderer als der
Prozess des kindlichen Spracherwerbs, bei dem die Sprache bereits vorliegt.
Erst wenn man ein kompetenter Sprecher geworden ist, kann man eigene Wörter, oder Redensarten
in die Sprache einbringen. Dieser Prozess der Veränderung der Sprache ist möglich und nötig, aber
er ist ein völlig anderer Prozess, der in Bezug auf ein Individuum zu einem viel späteren Zeitpunkt
auftritt als das kindliche Erlernen einer Sprache. Für neu entwickelte technische Verfahren und
Objekte werden ständig neue Wörter benötigt, aber auch kulturelle Untergruppen entwickeln häufig
195
neue Bezeichnungen oder Redeweisen, die dann entweder Kennzeichen dieser Gruppen werden,
oder sich allgemein durchsetzen, oder einfach nach einiger Zeit wieder verschwinden. Dieser
Vorgang der Erzeugung eines neuen Wortes entspricht einem Taufprozess und liegt zum Beispiel bei
wissenschaftlichen Definitionen, oder der Entwicklung einer wissenschaftlichen Fachsprache vor.
Er darf nicht mit dem kindlichen Erlernen von Wörtern durch wiederholte Reizverknüpfung
verwechselt werden. Es geht dabei um den Versuch, alle anderen kompetenten Sprecher davon zu
überzeugen, einen neuen Begriff in der vorgeschlagenen Weise zu verwenden. Ein solcher Versuch
kann auch scheitern. Falls dieser Versuch jedoch nicht scheitert, so dass das neue Wort in die
Sprache aufgenommen wird, dann fügen es langfristig alle kompetenten Sprecher zu ihrem
Wortschatz hinzu, und er kann schon bald nicht mehr von anderen Begriffen unterschieden werden.
Spätere Sprechergenerationen erlernen ihn dann genauso wie alle anderen Begriffe. Auf diese Art
kann die Menge der in einer Sprache enthaltenen Wörter in einem langsamen historischen Prozess
anwachsen.
9.6 Die Vorteile neuropsychologischer Bedeutungstheorie
Durch diese Unterscheidung zwischen dem personalen Spracherwerb in der Kindheit und der nicht
personengebundenen Sprachentwicklung sind einige der Hauptprobleme, denen sich viele andere
Sprach- und Bedeutungstheorien gegenüber sehen, zufriedenstellend gelöst. Diese Theorie
beschreibt, wie es möglich ist, überhaupt eine Sprache zu erlernen, in der Bedeutungsunterschiede
zwischen Sprechern möglich sind, zugleich aber die Sprache als System sich immer weiter
entwickeln kann. Das Wort „Bedeutung“ bekommt in Form der beschriebenen neuronalen
Netzstruktur einen eindeutigen physischen Bezug und verliert dadurch seinen ungenauen
metaphysischen Status, genau wie Quine es gefordert hatte. Es kann von nun an zur Beschreibung
der in der Tat im menschlichen Gehirn ablaufenden neuronalen Verknüpfungs- und
Aktivierungsprozesse verwendet werden. Es zeigen sich weder offensichtliche Schwachpunkte in
den Erklärungsmöglichkeiten, die einem mit dieser Bedeutungstheorie zur Verfügung stehen, noch
steht sie im Widerspruch zu unseren herkömmlichen Verwendungsweisen von Sätzen, in denen das
Wort „Bedeutung“ vorkommt. Wir können zum Beispiel den Satz „Willard weiß nicht, was das
Wort W bedeuten soll.“ genauso wie vorher verwenden. Der einzige Unterschied besteht darin, dass
wir jetzt wissen, warum Willard nicht weiß, was das Wort W bedeutet, nämlich weil es in seinem
Gehirn keine neuronale Verknüpfung zwischen der Repräsentation der Wortform des Wortes W und
einer Repräsentation eines beliebigen Gegenstands oder anderen Wortnetzen gibt. Auch alle anderen
196
Sätze zum Thema Bedeutung, wie zum Beispiel „Wir sind uns nicht einig über die Bedeutung des
Wortes x.“ erfahren durch die Theorie keine Umdeutung, in dem Sinne, dass sie anders verwendet
werden müssten. Man verfügt jetzt nur über das zusätzliche Wissen, dass die beteiligten Personen
mit demselben Wort unterschiedliche neuronale Repräsentationen verknüpft haben. Durch die
Analyse ihrer jeweiligen Lernprozesse hinsichtlich dieses Wortes ließe sich die Begründung dafür
finden, warum die Bedeutungen für die Beteiligten voneinander abweichen, und es könnte dann
leicht eine Übereinkunft gefunden werden, welcher Bedeutungsgehalt mit der Wortform
sinnvollerweise in der Zukunft verknüpft sein sollte.
Auch für die formale Darstellung von Sprache in der philosophischen Logik ändert sich nur
aufgrund unserer physischen Verortung der Bedeutung nichts. Denn die im 4. Kapitel dargestellte
Weiterentwicklung der Prädikatenlogik zur Attributsskalenlogik ist davon völlig unabhängig. Die
Attributsskalenlogik stellt einen großen Fortschritt der formalen Darstellung dar, weil sie die
Lösung von Wittgensteins Elementarsatzproblem erlaubt und damit die Bildtheorie als
wissenschaftliches Konzept rehabilitiert. Die Bildtheorie passt wiederum zu der Erkenntnis, dass
die in der Kindheit zuerst erlernten Wörter alle einen starken Weltbezug aufweisen, und die anderen
Wortbedeutungen sich aus ihnen aufbauen lassen. Daher bewirkt nicht die physische Verortung der
Bedeutung eine Veränderung am logischen Formalismus, sondern die Weiterentwicklung des
logischen Formalismus ermöglicht die Ausarbeitung der bereits bestehenden philosophischen
Theorie, so dass sie mit den empirischen Ergebnissen der Linguistik und der Neurobiologie
zusammenpasst.
Um die Nützlichkeit unserer neuropsychologischen Bedeutungstheorie zu beweisen, betrachten wir
im Folgenden einige beispielhafte Probleme aus der neueren Sprachphilosophie, die nun leichter
aufgelöst werden können. So findet sich zum Beispiel in Albert Newens Einführung in die
Sprachphilosophie eine übersichtliche Zusammenstellung der wichtigen sprachlichen Phänomene,
die Herausforderungen für jede Bedeutungstheorie darstellen. Ich zitiere diese zunächst, bevor ich
erläutere, inwiefern diese Herausforderungen von der vorliegenden Bedeutungstheorie gelöst
werden:
„Dazu gehören 1. informative Identitätsaussagen wie »Der Abendstern ist identisch mit dem
Morgenstern«, 2. wahre negative Existenzaussagen wie »Pegasus existiert nicht« sowie 3.
nichtwidersprüchliche Überzeugungen trotz oberflächlich widersprüchlicher Äußerungen.
Letzteres liegt vor, wenn Peter glaubt, dass der Abendstern ein von der Sonne beleuchteter
Körper ist, aber nicht glaubt, dass der Morgenstern ein von der Sonne beleuchteter Körper
ist. Alle diese Beispiele stellen eine besondere Herausforderung dar, weil sie entweder zwei
197
Arten, über ein und dasselbe Objekt nachzudenken, involvieren und deshalb nicht trivial (1)
oder widersprüchlich (3) werden oder gar kein Objekt einbeziehen (2) und trotzdem sinnvoll
und wahr sind. Die Arbeiten von Kripke haben darüber hinaus zu einer Berücksichtigung
von (4) Modalaussagen geführt, wie z. B. »Es ist notwendig, dass Cicero identisch ist mit
Tullius«.“160
Wie ich in Kapitel 2.3 und 2.4 dargestellt habe, entsteht das Problem der informativen
Identitätsaussagen nur aufgrund der Problematik von Freges Verwendung des Identitätsbegriffs für
diverse eindeutig unterschiedliche Phänomene, die eigentlich auch begrifflich unterschieden werden
sollten: zur Bezeichnung der Gleichheit von Attributen, der Wiedererkennung von Gegenständen zu
verschiedenen Zeitpunkten und der Verwendbarkeit von zwei unterschiedlichen Wörtern zu den
gleichen Zwecken. „Identität“ ist daher kein wohldefinierter Begriff, wie Wittgenstein im
Tractatus161 ausführt, und jedwede philosophische Argumentation, die zwingend auf der
Verwendung
dieses
Wortes
in
Freges
problematischer
Verwendungsweise
beruht,
ist
zurückzuweisen. Das Problem der informativen Identitätsaussagen ist somit gar kein Problem für
Bedeutungstheorien, sondern ein Problem für den von Frege überfrachteten Identitätsbegriff. Die
Information, die man seit Frege Sätzen der Form „a = b“ beilegen wollte, ist eine Belehrung über
die Bedeutung von Wörtern, wie man sie gemäß meiner Theorie in einer fortgeschrittenen
Spracherwerbssituation in der folgenden Form finden könnte: „Man hat den Planeten, den wir heute
„Venus“ nennen, früher je nach dem Zeitpunkt seiner Beobachtung mit den zwei verschiedenen
Wörtern „Morgenstern“ und „Abendstern“ bezeichnet, weil man ihn nicht wiedererkannt hatte. Man
hielt die Venus zudem für einen Stern statt für einen Planeten.“ Ein Sprecher, der vor Erhalt dieser
Information schon über separate neuronale Realisierungen der Bedeutungen von „Morgenstern“ und
„Abendstern“ verfügen würde, was heutzutage jedoch nicht mehr vorkommen dürfte, müsste
einfach nur die neue neuronale Repräsentation für die Wortform „Venus“ ausbilden. Diese würde
dann mit den sensorischen Gedächtnisinhalten über Morgen- und Abendhimmel und auch mit den
ehemals verwendeten Wörtern „Morgenstern“ und „Abendstern“ verknüpft. Es handelt sich um
einen theoretisch völlig unproblematischen neuronalen Lernprozess, der immer auftritt, wenn von
zwei Namen gelernt wird, dass sie auf dasselbe Objekt verweisen.
Die Modalaussagen von Saul Kripke beinhalten ebenfalls problematische Identitätssätze. Dazu
gesellt sich bei Kripke noch der ebenfalls problematische Begriff der „Notwendigkeit“, für den er
160
Newen, A./Schrenk, M.: Einführung in die Sprachphilosophie - Darmstadt: Wissenschaftliche Buchgesellschaft,
2008, S. 88
161
TLP 5.5303 Beiläufig gesprochen: Von zwei Dingen zu sagen, sie seien identisch, ist ein Unsinn, und von
Einem zu sagen, es sei identisch mit sich selbst, sagt gar nichts.
Vgl. auch Kapitel 2.3
198
eine gewisse Absolutheit beansprucht. Notwendig sind Dinge aber immer nur im Hinblick auf ein
relatives Bezugssystem. Wenn man die Randbedingungen des Bezugssystems verändert, dann
verlieren die scheinbar notwendigen Aussagen ihre Notwendigkeit. Man betrachte ein Schachspiel,
in dem Schwarz am Zug ist, als Bezugssystem. Ein legaler Zug besteht dann darin, dass genau eine
schwarze Figur (gemäß ihren Bewegungsregeln) auf ein anderes Feld gesetzt wird. War dieses Feld
von einer gegnerischen Figur besetzt, wird diese aus dem Spiel genommen. Es ist also den
Spielregeln gemäß notwendig, dass genau dies als nächstes geschehen wird. Aber das muss
trotzdem nicht der Fall sein, denn verschiedenste andere Szenarien sind denkbar: Das Spielbrett
könnte aufgrund eines unerwarteten Ereignisses verlassen und das Spiel nie beendet werden, oder
bei der Rückkehr kann nicht mehr rekonstruiert werden, wer am Zug war, so dass der Spieler mit
den weißen Figuren irrtümlich nochmal zieht, oder der Spieler mit den schwarzen Figuren lässt den
eindeutig unterlegenen Gegner sogar absichtlich nochmal ziehen. Auch gewichtigere Sätze, die uns
sehr viel notwendiger erscheinen, wie „ein Gegenstand muss immer irgendeine Farbe haben“, sind
immer nur notwendig in Hinblick auf ein Bezugssystem. In diesem Fall in Bezug auf ein
funktionierendes menschliches visuelles Wahrnehmungssystem. Es sind multiple Weltzugänge
möglich, die keine Farbwahrnehmung beinhalten, sei es bei anderen Lebewesen, oder bei Menschen
bedingt durch neuronale Ausfälle, die zu Achromatopsie162 führen, oder durch generelle Blindheit.
Dass Kripke entgegen unserer obigen Ausführungen „Notwendigkeit“ in Bezug auf den ebenfalls
problematischen Begriff „Identität“ absolut statt relativ verwenden zu können glaubt, sollte uns
kritisch gegenüber Kripkes Konzeption werden lassen. Die Herausforderungen (1) und (4) stellen
somit gar keine speziellen Herausforderung für zukünftige Bedeutungstheorien mehr dar, denn
diese scheinbaren Probleme verschwinden sobald man eine sprachanalytische Klärung der Begriffe
„Notwendigkeit“ und „Identität“ vornimmt, wie sie mit Bezug auf Freges Bedeutungstheorie im
Kapitel 2.3 bereits ausgeführt wurde.
Die Herausforderung der wahren negativen Existenzaussagen, wie zum Beispiel »Pegasus
existiert nicht«, stellt für eine neuropsychologische Bedeutungstheorie kein Problem dar. Da wir,
sobald wir einige Wortformen erlernt haben, und diese mit unseren Wahrnehmungsdaten verknüpft
sind, neue Wörter über eine Kombination von bereits bekannten Wörtern definieren und erlernen
können,163 ohne eigene sensorische Repräsentationen für diese zu benötigen, können wir potentiell
Wörter erlernen, zu denen es keine Gegenstände in der Welt gibt. Mit der Aussage »Pegasus
existiert nicht« sprechen wir nicht über einen paradoxerweise existierenden und nicht existierenden
Gegenstand, sondern darüber, dass wir ein Wort geschaffen haben, das zur Bezeichnung einer
spezifischen Gegenstandskonstellation (Pferd + Flügel) dient, die es so in der Welt nicht gibt. Dabei
162
163
Vgl. Carlson, Neil R.: Physiologische Psychologie - München: Pearson Studium, 2004, S. 223
Vgl. Kapitel 9.3
199
handelt es sich in den meisten Fällen um Namen von Elementen in fiktionalen Texten, in
Ausnahmefällen um einen Namen für eine Gegenstandskonstellation, die es bisher noch nicht gibt,
die aber jemand hervorzubringen beabsichtigt. Wir sprechen also über Wörter, deren Besonderheit
darin besteht, dass beim Spracherwerb die neuronale Repräsentation der Wortform nicht direkt mit
den aktuell vorliegenden sensorischen Repräsentationen verknüpft wird, sondern stattdessen mit der
Summe der sensorischen Repräsentationen von bereits bekannten einfacheren Wörtern, über die das
neue Wort definiert wird. Diese indirekte Verknüpfung ermöglicht es uns meistens sogar, eine
visuelle Vorstellung des theoretischen Gegenstands aus den einzelnen visuellen Gedächtnisinhalten
der definitorisch verknüpften Wörter zu erzeugen. Es ist also neuropsychologisch nachvollziehbar,
wie ein Wort ohne Bezugsgegenstand in der Welt gelernt werden kann. Die Aussage, dass es einen
mit einem so konstruierten Wort zu bezeichnenden Gegenstand gar nicht gibt auf der Welt, ist
trivialerweise wahr. Somit entfällt die scheinbare Paradoxie der gleichzeitigen Existenz und NichtExistenz. Es existiert nur ein Name für eine sprachlich beschreibbare Gegenstandskonstellation,
deren definitorische Bestandteile zwar existieren, aber niemals in dieser Konstellation auftreten.
Die
beobachteten
Vorkommnisse
von
nichtwidersprüchlichen
Überzeugungen
trotz
oberflächlich widersprüchlicher Äußerungen lassen sich ebenfalls leicht anhand des
neuropsychologischen Modells erklären. Der jeweilige Sprecher verfügt aufgrund ungewöhnlicher
Umstände während seines Spracherwerbs bezüglich gewisser Wörter nicht über die gleichen
Bedeutungen, über die der jeweilige Zuhörer, oder gar die ganze Sprechergemeinschaft
üblicherweise verfügt. Seine abweichende neuronale Verknüpfung bestimmter Wörter führt dazu,
dass er problemlos für ihn nichtwidersprüchliche Sätze bilden kann, die unter Annahme der
Standardbedeutung für den Zuhörer oder die Sprachgemeinschaft nicht miteinander kompatibel
sind, so dass sie dem Sprecher widersprüchliche Überzeugungen unterstellen müssen. In Newens
obigem Beispiel fehlt dem Sprecher im Vergleich zur Sprachgemeinschaft einfach die neuronale
Verknüpfung, die besagt, dass „Morgenstern“ und „Abendstern“ dasselbe Objekt bezeichnen. Daher
kann er glauben, dass der Abendstern ein von der Sonne beleuchteter Körper ist, und zugleich nicht
glauben, dass der Morgenstern ein von der Sonne beleuchteter Körper ist. Seine Überzeugungen
und seine Äußerungen sind nicht widersprüchlich für ihn selbst, weil er nicht weiß, dass alle
anderen Sprecher mit den Namen „Morgenstern“ und „Abendstern“ dasselbe Objekt bezeichnen.
Nur aus der Sicht der besser informierten Sprachgemeinschaft stellt der Satz einen Widerspruch dar.
Die vielen weiteren bekannten Gedankenexperimente und Problemstellungen der neueren
Sprachphilosophie können nun ebenfalls aus einem neuen Blickwinkel untersucht werden. Bei
manchen wird man einfach nur das Wissen um die neuronale Realisierung zum philosophischen
200
Modell hinzufügen, während andere Thesen nun möglicherweise widerlegt werden können. So zum
Beispiel Hilary Putnams These, dass Bedeutungen nicht im Kopf seien. Zu dieser These kam
Putnam ausgehend von seinen Überlegungen zu Begriffen für „natürliche Arten“, wie „Tiger“ oder
„Wasser“ mit seinem berühmten Gedankenexperiment zur „Zwillingserde“.
„Angenommen es gäbe irgendwo im All eine Zwillingserde, die unserer Erde sehr
weitgehend ähnelt, außer dass die Flüssigkeit, die auf der Zwillingserde »Wasser« genannt
wird, nicht die chemische Struktur H2O besitzt, sondern XYZ. Die Flüssigkeit mit der
chemischen Struktur hat jedoch dieselben Oberflächeneigenschaften wie die Flüssigkeit mit
der chemischen Struktur H2O. Beide Flüssigkeiten sind geruchlos, farblos, durstlöschend
usw., und sie lassen sich erst mit Hilfe einer chemischen Analyse unterscheiden. Auf der
Erde gibt es eine Person Tom, die auf der Zwillingserde einen physischen Doppelgänger
Zwillings-Tom hat, d.h. Tom und Zwillings-Tom haben gemäß Gedankenexperiment
insbesondere dieselben Gehirnzustände und dieselben innerpsychischen Zustände. Trotzdem
ist es so, dass Tom mit dem Satz »Wasser ist durstlöschend« im Deutschen etwas anderes
sagt als Zwillings-Tom mit demselben Satz im Zwillingsdeutschen; denn gemäß unseren
Sprachintuitionen bezeichnet das Substanzwort »Wasser« im Deutschen die Flüssigkeit mit
der chemischen Struktur H2O, während es im Zwillingsdeutschen die Flüssigkeit mit der
Struktur XYZ bezeichnet. […] Putnam stellt erstens fest, dass der Inhalt eines Satzes, der
natürliche Artbegriffe enthält, davon abhängt, auf welchem Planeten bzw. allgemeiner in
welcher Umgebung er geäußert wird bzw. welche natürliche Art genau durch den Begriff
bezeichnet wird. Zweitens ist Putnam bei dem Gedankenexperiment davon ausgegangen,
dass Tom und Zwillings-Tom dieselben internen (sowohl innerphysischen als auch
innerpsychischen) Zustände haben. Insofern folgt, dass der Inhalt der Äußerung eines Satzes
nicht allein durch die internen Zustände einer Person festgelegt wird, insbesondere ist der
Inhalt eines Satzes nicht allein durch die Hirnzustände bestimmt. So ergibt sich der Slogan
»Bedeutungen sind nicht im Kopf«.“164
Dieses verblüffende Ergebnis scheint in vollständigem Widerspruch zu meinen Ausführungen zu
stehen, dass Bedeutungen physische Strukturen sind und im Gegenteil überhaupt nur „im Kopf“
eines Menschen bestehen können. In Wirklichkeit sind die Gegensätze weniger extrem, denn die
Bedeutung wurde zwar als physische Struktur im Kopf verortet, aber ebenso wurde ausgeführt, dass
diese auf der Wahrnehmung von Gegenständen und Wortformen in der Welt basiert und somit nicht
164
Newen, A./Schrenk, M.: Einführung in die Sprachphilosophie - Darmstadt: Wissenschaftliche Buchgesellschaft,
2008, S. 127
201
unabhängig von der Welt entstehen kann. Diesen Aspekt beweist Putnam, aber sein bekannt
gewordener Slogan behauptet zu viel. Denn Putnams Gedankenexperiment zeigt eigentlich nur, dass
Bedeutungen auf Erfahrungen mit der Umwelt aufgebaut werden und es potentiell
Bedeutungsunterschiede zwischen Sprechern aufgrund der Unterschiedlichkeit der Erwerbssituation
einer Wortbedeutung gibt. Denn der einzig relevante Faktor für den Bedeutungsunterschied in
seinem theoretischen Beispiel besteht in dem postulierten Unterschied zwischen den Flüssigkeiten,
die jeweils in den ansonsten vollständig gleichen Erwerbssituationen vorliegen. Dieser Unterschied
ist den beiden Zwillingen aber unbekannt, daher gibt es zu diesem Zeitpunkt keinen
Bedeutungsunterschied für die beiden. Solange sie nicht mit den Ergebnissen einer chemischen
Analyse konfrontiert würden, könnten Tom und sein Zwilling problemlos zwischen ihren Welten
hin und herreisen und sich erfolgreich unterhalten, ohne zu merken, dass sie möglicherweise zwei
verschiedene Wörter benötigen für die zwei sehr ähnlichen, aber potentiell unterscheidbaren
Flüssigkeiten in den jeweiligen Welten. Denn solange sie diese Flüssigkeiten sowieso nicht
unterscheiden können, benötigen sie auch keine zwei unterschiedlichen Wortformen. Für beide
bedeutet „Wasser“ nur ungenau eine trinkbare Flüssigkeit auf beiden Welten in diversen Gewässern.
Putnams gedanklicher Fehler liegt in seiner Intuition, dass „Wasser“ im Deutschen etwas
Unveränderliches bedeute, was unter anderem die Strukturformel H2O einschließt. Für Tom kann
gemäß Putnams Konstruktion das Wissen um die Strukturformel jedoch kein Bestandteil der
Bedeutung sein, da er sonst nicht mehr vollständig mit seinem Zwilling übereinstimmen könnte, da
für den Zwilling dann die andere Strukturformel Bestandteil der Bedeutung sein müsste. Damit
zeigt das Gedankenexperiment eigentlich, dass Bedeutungen nicht allgemeingültig sein müssen,
sondern interpersonal geringfügig variieren können.
Dass zwei Wörter nötig sein könnten, insofern es irgendeinen relevanten Grund gibt, die beiden
Flüssigkeiten zu unterscheiden, weiß zu diesem Zeitpunkt nur der bereits besser informierte
„chemisch versierte“ Teilnehmer des Gedankenexperiments. Dabei sollte sich sein Wissen über
chemische Zusammenhänge jedoch in Grenzen halten, damit er Putnam überhaupt weiter folgen
möchte. Dazu müsste er ansonsten zumindest von seinem chemischen Grundwissen absehen, dass
eine Flüssigkeit mit der Strukturformel XYZ unmöglich genau dieselben Eigenschaften wie H 2O
haben kann, da die Oberflächeneigenschaften eines Stoffes immer von den Strukturen dieses Stoffes
auf der Molekularebene abhängig sind. Somit wird natürlich fragwürdig, was Putnams
Gedankenexperiment aufgrund seiner fehlerhaften Prämissen überhaupt zeigen kann. Denn aus
falschen Prämissen kann man bekanntlich beliebige Schlüsse ziehen. Wenn man von diesem Fehler
abstrahiert, dann verbleibt als beabsichtigte Struktur des Falles eine Situation, in der zwei Sprecher
dasselbe Wort für zwei unterschiedliche Dinge erlernen und verwenden. Was eigentlich nur zeigt,
202
dass (solange die Sprecher der Sprache darin übereinstimmen) es prinzipiell beliebig ist, welche
Wortform mit welchem Weltwissen verknüpft wird, und dass Erfahrungen mit der Umwelt
erforderlich sind, um Bedeutungen aufzubauen. Sobald die theoretischen Zwillinge Wissen über die
chemischen Strukturen ihrer Flüssigkeiten erhalten, wird dieses unterschiedliche Wissen in Form
einer neuronalen Repräsentation an die bisher gleiche neuronale Netzstruktur angehängt. Dadurch
unterscheiden sich ab diesem Zeitpunkt die neuronalen Strukturen der bisher gleichen Zwillinge in
Hinblick auf das Wort „Wasser“. Erst jetzt liegen unterschiedliche Bedeutungen für das Wort
„Wasser“ vor, und daher können sie auch jetzt erst erkennen, dass sie ein neues Wort benötigen für
die Flüssigkeit, die auf ihrem Planeten jeweils nicht vorkommt. Denn nun gehören zur
Wortbedeutung von „Wasser“ für Tom nicht nur die Eigenschaften trinkbar, farblos, geschmacklos,
die Erinnerung an Seen, Flüsse usw., sondern auch die chemische Strukturformel H 2O. Somit
ergäbe sich in Gesprächen nach weiteren Weltenwechseln der Zwillinge potentiell die Situation, in
der sie sich auf ein neues Wort für eine oder beide Flüssigkeiten einigen müssten. Damit sind die
biopsychologischen Vorgänge, die in Putnams theoretischer Situation auftreten würden, hinreichend
dargestellt.
Es
wurde
gezeigt,
dass
selbst
die
Vorgänge
in
dieser
kontrafaktischen
Zwillingsweltkonstellation problemlos erklärt werden können, wenn man Bedeutungen auf
physische neuronale Strukturen zurückführt. Darüber hinaus konnte die theoretische Situation sogar
nutzbar gemacht werden, um zu zeigen, dass Bedeutung interpersonal variiert und nicht irgendwo
außerhalb einzelner Menschen als eigene Entität feststeht. Somit folgt aus Putnams
Gedankenexperiment keinesfalls sein bekannter Slogan, sondern mit gewissen Einschränkungen
gewissermaßen dessen Gegenteil.
9.7 Pragmatik und Wahrheitswert eines Satzes
Bei jeder Theorie stehen bestimmte thematische Aspekte im Vordergrund, während andere weniger
Beachtung finden. Ich möchte nun auf einige der von meiner Theorie scheinbar vernachlässigten
Teilaspekte eingehen, und zeigen, dass diese Aspekte nicht ignoriert werden, weil sie mit der
Theorie unvereinbar sind, sondern weil sie auf eine andere Ebene gehören. Im Zusammenhang mit
Freges Definition der Bedeutung als Wahrheitswert hatten wir in Kapitel 2.2.1 festgestellt, dass wir
es beim Wahrheitswert nicht mit einer einfachen Funktion zu tun haben, sondern mit einer Funktion
einer Funktion. Der Wahrheitswert eines Satzes ist etwas, das von einer Funktion, deren Argumente
der Satz und ein Bereich der Welt sind, festgelegt wird. Wir hatten gesehen, dass der Wahrheitswert
eines Satzes auf keinen Fall die Bedeutung eines Satzes sein kann, da die Bedeutung eines Satzes
203
schon bekannt sein muss, damit ihr ein Wahrheitswert durch die Wahrheitsfunktion (unter
Zuhilfenahme der Welt) zugeordnet werden kann. Weiterhin können nur Sätzen Wahrheitswerte
zugeordnet werden und nicht Wörtern. Die Bedeutung von Wörtern besteht aber in der neuronalen
Verknüpfung zwischen den neuronalen Repräsentationen von Wortformen und den neuronalen
Repräsentationen von Gegenständen. Der Wahrheitswert eines Satzes wird also dadurch festgestellt,
dass zunächst die Bedeutung eines Satzes ermittelt wird, indem die neuronalen Aktivierungen der
enthaltenen Wörter mit den zusätzlich vorhandenen Informationen (Satzstruktur, Prosodie, aktuelle
Wahrnehmungssituation,
usw.)
verrechnet
werden,
und
dann
die
Gegenstände,
deren
Repräsentationen im Satz vorkommen, aufgesucht werden, um die Wahrnehmung der
Gegenstandskonstellation mit der Satzbedeutung zu vergleichen. Dies ist offensichtlich eine
Operation, die die Bedeutung als Grundlage benötigt, um funktionieren zu können. Insofern ist sie
thematisch verwandt, aber gehört nicht direkt zur Diskussion des Bedeutungsbegriffs, oder gar in
den Bedeutungsbegriff hinein, wie Frege dies fälschlicherweise annimmt. Diese Erkenntnis
formuliert Wittgenstein schon im Tractatus:
4.024
Einen Satz verstehen, heißt, wissen was der Fall ist, wenn er wahr ist.
(Man kann ihn also verstehen, ohne zu wissen, ob er wahr ist.)
Man versteht ihn, wenn man seine Bestandteile versteht.165
Der Wahrheitswert eines Satzes kann nur bestimmt werden, nachdem die Bedeutung des Satzes
bereits eindeutig geklärt ist. Der so entstandene Wahrheitsbegriff ist demnach immer relativ zu einer
Sprache und abhängig davon, dass die Bedeutungen der in diesem Satz vorkommenden Wörter
verstanden werden und nicht strittig sind.
Weiterhin wurde der thematische Bereich, der unter dem Stichwort Pragmatik bekannt ist, also
Theorien, die sich auf Austins und Searles Sprechakttheorie, oder Wittgensteins Sprachspiel- und
Lebensformkonzeptionen berufen, scheinbar nicht aufgenommen. Dies ist insofern nicht korrekt, als
diese Konventionen des Gebrauchs von Wörtern laut meiner Theorie in der kindlichen
Spracherwerbssituation am Beispiel mit erlernt werden. Ganz im Gegenteil wird die im 6. Kapitel
erfolgte Betrachtung der philosophisch bisher eher vernachlässigten speziellen Situation des
kindlichen Spracherwerbs sehr hilfreich sein, um einige Aspekte der Gebrauchstheorie besser
verstehen zu können.
Darüber hinaus gibt es vor allem in den akustischen Versionen von Sprachen diverse Konventionen,
die nicht an einzelne Wörter gebunden sind, sondern über die Anordnung der Wörter oder die
165
TLP S. 36
204
Tonhöhenfolge zusätzliche Informationen zu übermitteln versuchen. In dieser Form wird
ausgedrückt, dass der Sprecher sich bestimmte Informationen oder Handlungen von anderen
Personen erhofft (Fragen, Bitten, Befehle, Beleidigungen, etc.). Diese sind jedoch nur
Abkürzungen, deren Inhalte durch längere Aussagesätze nicht nur überhaupt, sondern meistens
sogar eindeutiger ausgedrückt werden könnten. Zum Beispiel kann die normale Satzstellung eines
Aussagesatzes in Ausnahmefällen eine Frage kodieren, falls der Satz mit ansteigender Intonation
ausgesprochen wird.166 Diese im Tonfall verborgenen Bedeutungsbestandteile können immer auch
explizit gemacht werden durch Satzerweiterungen wie „Sagen Sie mir, ...“, „Ich rate Ihnen, ...“, „Ich
verbiete Ihnen, ...“ oder „Ich bitte Sie, ...“. Diese erweiterten Sätze können den gleichen Effekt
erzielen wie die Sätze mit den in der Intonation verborgenen Informationen. Im Fall der
Verwendung von Schriftsprache benötigen wir ebenfalls eine Symbolik, falls wir solche
Abkürzungen verwenden wollen, da uns die Intonation nicht zur Verfügung steht. Wir verwenden
dann
zum
Beispiel
die
Symbole,
die
wir
bezeichnenderweise
„Fragezeichen“
und
„Ausrufungszeichen“ nennen. Überaus deutlich zeigt sich nun, dass es sich bei diesen Sprechakten
nur um symbolische Abkürzungen handelt, die uns für unsere Bedeutungstheorie nicht übermäßig
interessieren müssen. Es ist zwar richtig, dass es diese Abkürzungen gibt, und auch, dass sie dazu
führen, dass häufiger die Wirkung eines Satzes nicht die Wirkung ist, die der Sprecher eigentlich
beabsichtigt hatte, aber dies ist prinzipiell dem Sprecher selbst anzulasten. Wenn er sorgfältiger
formuliert hätte, hätte es keinen Unterschied zwischen Wirkungsabsicht und Wirkung gegeben.
Betrachten wir den auf einem öffentlichen Platz geäußerten Satz: „Sie dürfen hier nicht rauchen.“
Auf diese Äußerung könnte ein angesprochener Raucher, der vermutet, dass der Sprecher nur
anzeigen will, dass er sich durch den Rauch belästigt fühlt, möglicherweise unfreundlich erwidern:
„Es zwingt sie doch niemand in meiner Rauchwolke zu stehen.“ Falls die Wirkungsabsicht jedoch
darin bestand, dass die angesprochene Person aus Gründen des Feuerschutzes sofort das Rauchen
einstellt, wäre es eben angemessener gewesen, zu sagen: „Löschen Sie sofort ihre Zigarette. Hier
besteht Explosionsgefahr.“
Der perlokutionäre Akt, wie Austin und Searle es nennen, also das Erzielen der vom Sprecher
beabsichtigten und beim Hörer auch tatsächlich eingetretenen Wirkung der Äußerung, ist demnach
ein Teilaspekt erfolgreicher Kommunikation, aber er hat weder etwas mit dem grundlegenden
Spracherwerb noch mit der Bedeutung von Wörtern zu tun. Nur wenn ein Sprecher die
Bedeutungen vieler Wörter seiner Sprachgemeinschaft, die üblichen Satzstrukturen und die
üblichen Intonationen kennt, kann er dafür sorgen, dass beim Hörer tatsächlich die beabsichtigte
Wirkung der Äußerung eintritt. Auf jeden Fall gehört die Betrachtung der Kompetenz, Aussagen zu
166
Zum Beispiel kann der Satz „Er wohnt in Bochum.“ ohne Umstellung in die übliche Satzstruktur einer Frage
(„Wohnt er in Bochum?“) durch Verwendung ansteigender Intonation zur Frage „Er wohnt in Bochum?“ werden.
205
wählen, die die gewünschte Wirkungsabsicht haben, nicht zur Bedeutungstheorie. Denn die
Bedeutung der einzelnen Wörter steht für jeden einzelnen Sprecher (im Idealfall in
Übereinstimmung mit seiner Sprachgemeinschaft) fest, und zwar unabhängig von den Absichten,
die dieser Sprecher mehr oder weniger effektiv mit ihnen zu verfolgen versucht.
9.8 Zusammenfassung und Ausblick
Ausgehend von einigen wichtigen philosophischen Bedeutungstheorien habe ich versucht, eine
neue Theorie darzulegen, die diese Ansätze soweit wie möglich vereint und zugleich nicht im
Widerspruch zu den Ergebnissen der Neuropsychologie steht, sondern sich darum bemüht, allen
theoretischen Bestandteilen ein physiologisches Korrelat zuzuordnen. Dabei habe ich gezeigt,
warum Freges Unterscheidung zwischen Sinn und Bedeutung unnötig ist. Aufgrund meiner dabei
erfolgten Ausführungen zur Problematik des Identitätsbegriffs erledigen sich auch die Probleme
bezüglich der informativen Identitätsaussagen und der Modalaussagen, die bisher für jede
Bedeutungstheorie wichtige Herausforderungen und Probleme darstellten.
In Bezug auf Wittgensteins zwei Bedeutungstheorien konnte ich zeigen, dass viele seiner
psychologischen Theorien in den Philosophischen Untersuchungen mit den neuen Erkenntnissen
der Neuropsychologie übereinstimmen. Während sein Spätwerk daher die Grundlage meiner
Ausführungen zum Spracherwerb und zur Sprachentwicklung darstellt, liefert der Tractatus mit der
Bildtheorie das Grundgerüst des eigentlichen Kerns meiner Bedeutungstheorie. Dieses Modell der
Wortbedeutung als Referenz wird nur aufgrund neuropsychologischer Fakten zu einer in beide
Richtungen wirksamen Verknüpfung erweitert. Wittgensteins Früh- und Spätwerk werden somit
nicht als widersprüchliche Konzepte gesehen, sondern ergänzen sich in dieser Interpretation zu
einer umfassenden Bedeutungstheorie, die sowohl den kindlichen Spracherwerb als auch die
ausgereiften
Sprachmechanismen
erwachsener
Sprecher
erklären
kann.
Die
scheinbare
Unmöglichkeit, Beispiele für Elementarsätze anzugeben, war ein großes Problem von Wittgensteins
Bildtheorie. Im 4. Kapitel wurde jedoch gezeigt, dass dieses Problem durch Unzulänglichkeiten der
Prädikatenlogik begründet war, und ich habe mit der Attributsskalenlogik eine entsprechende
Weiterentwicklung des logischen Formalismus angeboten. Diese Weiterentwicklung macht es
möglich, sowohl eine allgemeine logische Form [Fi (x) = a] als auch Beispiele für Elementarsätze
anzugeben, die Wittgensteins Vorstellungen entsprechen. Damit entfällt der größte Schwachpunkt
der Konzeption im Tractatus, wodurch die Verwendung einer modifizierten Bildtheorie noch
plausibler wird.
206
Durch die Verbindung der beiden oben genannten Theoriebestandteile mit der Darstellung der
Gehirnprozesse, die diesen jeweils zugrunde liegen, wird Quines Forderung nach einer
Naturalisierung der Bedeutung nachgekommen, die seine eigene Theorie leider nur unzureichend
erfüllen konnte. Im 5. Kapitel wurde gezeigt, dass sein Versuch der Bindung von Bedeutung an die
Aktivierung von Wahrnehmungsrezeptoren und an das Zustimmungs- und Ablehnungsverhalten von
anderen Sprechern nicht weitgehend genug war, und auch sein berühmtes Gedankenexperiment der
„radikalen Übersetzung“ nicht leisten konnte, was es versprach, da es nicht den primären
Spracherwerb fokussierte. Obwohl viele der philosophisch relevanten Ergebnisse dieser Arbeit auch
ohne Bezug auf die Neuropsychologie hätten entstehen können, sollte man den zusätzlichen
Erkenntniswert, der durch interdisziplinäres Vorgehen und die damit einhergehende Veränderung
des Blickwinkels entsteht, nicht unterschätzen. Anhand meiner Ausführungen sollte offensichtlich
geworden sein, dass die Neuropsychologie jetzt schon für das Verständnis unserer Sprachprozesse
sehr hilfreich sein kann und zukünftige weitere Fortschritte im Verständnis neuronaler Prozesse
dabei helfen werden, die Analysen von komplexen Sprachprozessen noch weiter zu verbessern.
Natürlich konnte im 7. und 8. Kapitel auch nur ein Teil des bereits vorhandenen neurobiologischen
Wissens bezüglich der Realisierung von Sprachprozessen angesprochen werden, so dass sich
ausgehend von der hier dargelegten Bedeutungstheorie viele interessante Forschungsperspektiven
eröffnen. Zum Beispiel wäre es sicher von philosophischem Interesse, die Gedankenexperimente
und viel diskutierten Problemstellungen innerhalb der Sprachphilosophie der letzten 50 Jahre unter
Anwendung neuropsychologischer Erkenntnisse erneut zu betrachten, wie ich es beispielhaft in
Kapitel 9.6 mit Putnams Gedankenexperiment zur Zwillingserde getan habe. Dadurch könnten
möglicherweise elegante Lösungen für einige dieser Probleme gefunden werden, oder zumindest
Konzepte für zukünftige neuropsychologische Experimente entwickelt werden, die hilfreich bei
ihrer Lösung sein könnten.
207
Eidesstattliche Erklärung
Vor- und Zuname: Hans Joachim Höh
Geburtsdatum:
14.08.1977
Geburtsort:
Hagen
Hiermit erkläre ich an Eides statt,
–
dass ich die vorgelegte Dissertation selbständig und ohne unzulässige fremde Hilfe
angefertigt und verfasst habe, dass alle Hilfsmittel und sonstigen Hilfen angegeben
und dass alle Stellen, die ich wörtlich oder dem Sinne nach aus anderen
Veröffentlichungen entnommen habe, kenntlich gemacht worden sind;
–
dass die Dissertation in der vorgelegten oder einer ähnlichen Fassung noch nicht
zu einem früheren Zeitpunkt an der Ruhr-Universität Bochum oder einer anderen inoder ausländischen Hochschule als Dissertation eingereicht worden ist.
Bochum, 06.01.2013
__________________________
Hans Joachim Höh
208
Abbildungsverzeichnis
Abbildung 1:
Freges Unterscheidung von Sinn und Bedeutung für Wörter und Sätze
S. 16
Abbildung 2:
Freges Unterscheidung von Sinn und Bedeutung für Wörter und Sätze
S. 33
Abbildung 3:
Bedeutung von Wörtern und Sätzen
S. 34
Abbildung 4:
unterschiedliche potentielle Analysehinsichten bedeutungsvoller Sätze
S. 34
Abbildung 5:
Wahrheitstafeln für 1-3 Elementarsätze gemäß TLP 4.31
S. 76
Abbildung 6:
Neuron - Abbildung aus Carlson S. 36
S.139
Abbildung 7:
ionotroper Rezeptor - Abbildung aus Carlson S. 67
S.142
Abbildung 8:
metabotroper Rezeptor - Abbildung aus Carlson S. 68
S.142
Abbildung 9:
neuronale Integration - Abbildung aus Carlson S. 72
S.143
Abbildung 10: Aktionspotential - Abbildung aus Carlson S. 56
S.144
Abbildung 11:
S.146
Freisetzung des Neurotransmitters - Abbildung aus Carlson S.65
Abbildung 12: fusionierte synaptische Vesikel - Abbildung aus Carlson S. 66
S.148
Abbildung 13: Pinozytose - Abbildung aus Carlson S. 66
S.149
Abbildung 14: Langzeitpotenzierung - Abbildung aus Carlson S. 506
S.151
Abbildung 15: hochfrequente Stimulation - Abbildung aus Carlson S. 505
S.152
Abbildung 16: Synapsenumstrukturierung - Abbildung aus Carlson S. 513
S.152
Abbildung 17: Einbau zusätzlicher Rezeptoren - Abbildung aus Carlson S. 506
S.153
Abbildung 18: assoziative Langzeitpotenzierung - Abbildung aus Carlson S. 509
S.154
Abbildung 19: Hebb´sche Regel - Abbildung aus Carlson S. 498
S.155
Abbildung 20: Aktivierungen von Wörtern für Werkzeuge/Tiere - Abb. aus Pulvermüller S. 58
S.162
Abbildung 21: Aktivierungen für Tätigkeiten/visuelle Objekte – Abb. aus Pulvermüller S. 58
S.162
Abbildung 22: Kartierung des primären motorischen Cortex und motorischer Homunkulus Abb. aus Carlson S. 304
S.164
Abbildung 23: Aktivierungen von Wörtern mit inhaltlichem Bezug auf die Bewegung von Beinen,
Armen und dem Gesicht – Abb. aus Pulvermüller S. 63
S.165
Abbildung 24: Aktivierungunterschiede für Verben mit inhaltlichem Bezug auf Hände und Füße
in funktioneller Magnetresonanztomographie – Abb. aus Pulvermüller S.63
S.166
Abbildung 25: Aktivierungunterschiede für Verben mit inhaltlichem Bezug auf Hände und Füße
im Elektroenzephalogramm – Abb. aus Pulvermüller S.63
S.167
Abbildung 26: neuronale Netzstrukturen bei Polysemie, Synonymie, Hyperonymie und
Wortformeinschluß – Abb. aus Pulvermüller S.85
S.169
Abbildung 27: Teilweise überlappende neuronale Netze, deren gleichzeitige vollständige Aktivierung
durch subkortikale Hemmung verhindert wird – Abb. aus Pulvermüller S. 81
S.170
Abbildung 28: postulierte neuronale Verbindungen zwischen Sprachmodulen in den
unterschiedlichen Modellen – Abb. aus Pulvermüller S.92
S.173
Abbildung 29: schematische Darstellung linkshemisphärischer Netzstrukturen von Inhaltswörtern
und Funktionswörtern – Abb. aus Pulvermüller S. 117
Abbildung 30: Übersicht über die verschiedenen Benennungen von unterschiedlichen Arten
209
S.175
von neuronalen Strukturen – Abb. aus Pulvermüller S.171
S.179
Abbildung 31: Bedeutung als neuronale Verknüpfung zwischen neuronalen Repräsentationen von
Zeichen und neuronalen Repräsentationen von Gegenständen
S.184
Abbildung 32: Lokalisation der primären Sprachareale aus Carlson S. 586
S.187
Abbildung 33: Lokalisation der Assoziationscortices aus Carlson S. 96
S.188
210
Literaturverzeichnis
Beckermann, A. : Analytische Einführung in die Philosophie des Geistes – Berlin; New York: de Gruyter, 2001
Blau, U.: Die dreiwertige Logik der Sprache, Berlin, New York: de Gruyter, 1977
Carlson, N.R.: Physiologische Psychologie – München: Pearson Studium, 2004
Chomsky, N.: Sprache und Geist – Sinzheim: Suhrkamp, 1973
Dittmann, J.: Der Spracherwerb des Kindes – München: Beck, 2010
Dummett, M.: Frege. Philosophy of Language – London, 1973
Dummett, M.: The Interpretation of Frege’s Philosophy – London, 1981
Dummett, M.: Frege. Philosophy of Mathematics – London, 1991
Everett, D.L.: Das glücklichste Volk. Sieben Jahre bei den Pirahã-Indianern am Amazonas - München: DVA, 2010
Frege, G.: Function und Begriff – Jena: Verlag von Hermann Pohle, 1891
SB - Frege, G.: Über Sinn und Bedeutung – in Zeitschrift für Philosophie und philosophische Kritik, NF 100, 1892
Forum für Philosophie Bad Homburg (Hrsg.): Realismus und Antirealismus – Frankfurt a.M.: Suhrkamp, 1992
Gabriel, Gottfried u.a. (Hg.): Gottlob Frege: Wissenschaftlicher Briefwechsel, Hamburg 1976
Grayling, A.C.: Wittgenstein aus der Reihe Philosophie jetzt! – Freiburg im Breisgau: Herder Verlag, 1999
Gumperz, J.J./Levinson, S.C.: Rethinking linguistic relativity – Cambridge University Press, 1996
Hacker, P.M.S.: Wittgenstein´s Place in Twentieth-century Analytic Philosophy – Oxford: Blackwell Publishers Ltd.,
1997
Herrmann, C./Fiebach, C.: Gehirn und Sprache – Frankfurt am Main: Fischer Verlag, 2007
Hume, D.: Ein Traktat über die menschliche Natur, Bd. 1. Über den Verstand – Hamburg, 1989
Jacquette, D. (Hg.): Philosophy of Logic – An Anthology – Oxford: Blackwell Publishers Ltd., 2002
211
Jonas, D.F./Jonas D.J.: Das erste Wort – Wie die Menschen sprechen lernten – Hamburg: Hoffmann und Campe, 1979
Karnath, H.-O./Thier, P.: Neuropsychologie – Heidelberg: Springer Medizin Verlag, 2003
Keil, G.: Quine zur Einführung – Hamburg, 2002
Klann-Delius, G.: Spracherwerb – Stuttgart: Verlag J.B. Metzler, 2008
Köhler, W.: Intelligenzprüfungen an Menschenaffen – Berlin ° Heidelberg ° New York, Springer-Verlag, 1973
Kolb, B./Whishaw, I.Q.: Neuropsychologie – Heidelberg - Berlin - Oxford: Spektrum Akademischer Verlag, 1996
Kripke, S. A.: Name und Notwendigkeit – Frankfurt am Main: Suhrkamp, 1981
Kutschera, F. von/Breitkopf, A.: Einführung in die moderne Logik – Freiburg/München: Alber, 2000
Lepore, E./Smith B.C.: The Oxford Handbook of Philosophy of Language – Oxford: Oxford University Press, 2008
Macho, T.H.: Wittgenstein – München: Deutscher Taschenbuch Verlag, 2001
Martens, E./Schnädelbach, H. (Hg.): Philosophie Band 2 – Reinbek bei Hamburg: Rowohlts Enzyklopädie, 2003
Newen, A.: Willard Van Orman Quine in Otfried Höffe (Hrsg.) Klassiker der Philosophie 2 – Von Immanuel Kant bis
John Rawls - München: Verlag C.H. Beck, 2008
Newen, A./Schrenk, M.: Einführung in die Sprachphilosophie - Darmstadt: Wissenschaftliche Buchgesellschaft, 2008
Pardey, U.: Identität, Existenz und Reflexivität. Sprachanalytische Untersuchungen zur deskriptiven Metaphysik Weinheim: Beltz/Athenäum Monographien Philosophie, 1994
Pardey, U.: Freges Kritik an der Korrespondenztheorie der Wahrheit – Paderborn: Mentis, 2004
Pardey, U.: Begriffskonflikte in Sprache, Logik, Metaphysik - Paderborn: Mentis, 2006
Pears, D.: The False Prison – A Study of the Development of Wittgenstein´s Philosophy, Oxford, 1987
Pulvermüller, F.: The Neuroscience of Language, Cambridge, 2002
Quine, W.V.O.: Pursuit of Truth, Cambridge, Mass. 1990; dt. Unterwegs zur Wahrheit, Paderborn 1995
212
Quine, W.V.O: Theories and things, Harvard. 1981; dt. Theorien und Dinge, Frankfurt a.M. 1985
Quine, W.V.O.: Word and Object, Cambridge, Mass. 1960; dt. Wort und Gegenstand, Stuttgart 1980
Stepanians, M.S.: Gottlob Frege zur Einführung – Hamburg, 2001
Störig, H.J.: Kleine Weltgeschichte der Philosophie, Frankfurt a.M.:Fischer 1998
Von Savigny, E. (Hrsg): Ludwig Wittgenstein, Philosophische Untersuchungen (Klassiker auslegen ; Bd. 13) – Berlin:
Akademie Verlag, 1998
Von Savigny, E.: Wittgensteins „Philosophische Untersuchungen“ - Ein Kommentar für Leser, Band 1&2 – Frankfurt
a.M.: Klostermann, 1988
Waismann, F.: Logik, Sprache, Philosophie – Stuttgart: Reclam, 1985
Wehmeier, K.F.: Wittgensteinian Predicate Logic, Notre Dame Journal of Formal Logic Volume 45, Number 1, 2004
Wehmeier, Kai F.: Wittgensteinian Tableaux, Identity, and Co-Denotation – in Erkenntnis 69, S. 363-376, 2008
Werning, M.: The ‘complex first’ paradox: What’s needed to compose neurally distributed lexical meanings? in Behavioral and Brain Sciences, 28 (Online suppl.), 2005
Werning, M.: The complex first paradox. Why do semantically thick concepts so early lexicalize as nouns? in Interaction Studies, 9(1), 2008.
Whitehead, A.N./Russell, B.: Principia Mathematica – Baden-Baden: Suhrkamp Taschenbuch Verlag, 1986
Whorf, B.L.: Sprache, Denken, Wirklichkeit – Beiträge zur Metalinguistik und Sprachphilosophie – Hamburg:
Rowohlt, 1963
PU - Philosophische Untersuchungen zitiert aus Wittgenstein, L.: Werkausgabe Band 1 – Frankfurt a.M.: Suhrkamp,
1984
TLP - Tractatus logico-philosophicus zitiert aus Wittgenstein, L.: Werkausgabe Band 1 – Frankfurt a.M.: Suhrkamp,
1984
Wittgenstein, L.: "Some Remarks on Logical Form" in Proceedings of the Aristotelian Society, Suppl. vol. 9 (1929)
Wittgenstein, L.: Werkausgabe Band 3 – Frankfurt a.M.: Suhrkamp, 1984
213
Wittgenstein, L.: Über Gewißheit – Frankfurt a.M.: Suhrkamp, 1970
Zimmer, D.E.: So kommt der Mensch zur Sprache – München: Heyne, 2008
Zoglauer, T.: Einführung in die formale Logik für Philosophen, Göttingen, 2002
214
Hans Joachim Höh
Mansfelder Str. 58
44892 Bochum
0176 / 23124941
[email protected]
Lebenslauf:
Geb. 14.08.1977 in Hagen
1984-1988 Grundschule Rüggeberg in Ennepetal
1988-1997 Abitur am Reichenbach Gymnasium Ennepetal
1997-1998 Zivildienst im Klinikum Wuppertal-Barmen
1998-2001 Universität Dortmund Diplom Informatik mit Nebenfach Psychologie
2001
Ruhr-Universität Bochum Magister Philosophie/Geschichte
2001-2002 Ruhr-Universität Bochum Magister Philosophie/Psychologie/Sozialwissenschaften
2002-2003 Universität Wuppertal Magister Philosophie/Psychologie/Sozialwissenschaften
2003-2008 Ruhr-Universität Bochum Magister Philosophie/Psychologie/Sozialwissenschaften
2009-2013 Ruhr-Universität Bochum Promotiosstudiengang Philosophie
215
Herunterladen