Wie ihr Gebrauch die Sprache prägt

Werbung
Erscheint in:
Sybille Krämer und Ekkehard König (eds)
Gibt es eine Sprache hinter dem Sprechen?
Frankfurt, Suhrkamp Taschenbücher Wissenschaft
Vermutlich Herbst 2002
2
Gisbert Fanselow
Wie ihr Gebrauch die Sprache prägt*
Gisbert Fanselow
1. Einleitung
Es hat wohl mit Weicheiern, Beckenrandschwimmern und Schattenparkern begonnen, was binnen kürzester Zeit, über TeletubbyZurückwinker, Windows-Runterfahrer und Virenscannerupdater zu
Zum-Frühstück-Bleibern oder Dackel-bei-Gefahr-auf-den-Armnehmern geführt hat. In atemberaubender Schnelligkeit hat sich das
Deutsche in seinen Wortzusammensetzungen, wie die letzten beiden
Beispiele zeigen, vom „No-Phrase-Constraint“ verabschiedet, einem
grammatischen Prinzip, das verboten hatte, dass in die Strukturen eines komplexen Wortes Strukturen des Satzbaus (zum Frühstück bleiben, den Dackel auf den Arm nehmen) eingehen. Der entschiedene
Wille zum Gebrauch eines Musters kann - zumindest für einen Teil
*
Die Überlegungen zum Thema „Optimales Parsing“, die ich unten kurz berichte, sind
Ergebnis meiner Zusammenarbeit mit Matthias Schlesewsky, Stefan Frisch, Reinhold
Kliegl und Damir Ćavar. Für weitere Diskussion über den Gegenstand des Aufsatzes
bin ich auch Artemis Alexiadou, Karin Donhauser, Heiner Drenhaus, Carola Fanselow, Sascha Felix, Caroline Féry, Peter Gebert, Hubert Haider, Ekkehard König,
Gereon Müller, Klaus Oberauer und Peter Staudacher zu herzlichem Dank verpflichtet.
Die hier berichteten Ergebnisse stehen in Zusammenhang mit meiner Arbeit im Innovationskolleg INK 12 "Formale Modelle kognitiver Komplexität", welches vom
BMBF finanziert und von der DFG verwaltet wurde, und meiner Arbeit in der Forschergruppe „Konfligierende Regeln“ und im Graduiertenkolleg „Ökonomie und
Komplexität in der Sprache“, welche beide durch die DFG gefördert werden.
Wie ihr Gebrauch die Sprache prägt*
3
der Sprechergemeinschaft, und zumindest für einige Zeit- die
„Sprache“ also schnell verändern.
Erst ihr Gebrauch konstituiert die Sprache; ihr Regelsystem unterliegt dynamisch der Veränderung. Aus dieser Beobachtung folgt freilich keineswegs, dass der Variation sprachlicher Regeln keine Grenzen auferlegt sind, dass man nichts identifizieren könnte, was für
menschliche Sprache universell gültig wäre, und daher potentiell
konstitutiv ist für Sprache. Ganz im Gegenteil! Dass Menschen
Sprache gebrauchen, schränkt ihre Formen erheblich ein. Wenn wir
Sprache sprechen, schreiben, hören, lesen oder gestisch kommunizieren, so tun wir das ja mit den Händen, Augen, Mündern, Ohren und
Gehirnen, die uns gegeben sind. Dass jedes dieser Organe der Sprache Grenzen auferlegt, scheint offenkundig, und diese Grenzen menschlicher Sprache können durch empirische Forschung identifiziert
werden. Was jenseits solcher Grenzen das Konstitutive von „Sprache
schlechthin“ wäre, also wie Sprache beschaffen sein könnte (und wie
nicht), wenn sie nicht in menschlichen, sondern in Vulkaniergehirnen
produziert wird, ist dagegen ein viel schwierigeres, und - zumindest
bis zur Erfindung des WARP-Antriebs - auch kein empirisches Problem.
Ich möchte in folgenden einige konkrete Aspekte der Frage besprechen, welchen Einfluss die Bedingungen des Gebrauchs von Sprache
auf die Natur ihres Regelsystems haben. Ich will dabei u.a. die These
plausibel machen, dass eine fundamentale Architektureigenschaft
von Grammatiken Konsequenz der Gebrauchsbedingungen der Sprache ist - nämlich die Tatsache, dass Konflikte zwischen sprachlichen
Regeln auftreten können, und dass diese Konflikte dann immer auf
eine ganz bestimmte Art und Weise gelöst werden.
Der nächste Abschnitt wird ganz allgemein den Zusammenhang besprechen, der zwischen dem System sprachlicher Regeln auf der
4
Gisbert Fanselow
einen Seite, und dem Erlernen dieser Regeln, ihrer Verwendung und
ihrer historischen Veränderung auf der anderen Seite besteht. Hier
wird deutlich werden, dass die Gebrauchs- und Lernumstände von
Sprache erhebliche formende Einflüsse auf die Natur sprachlicher
Regeln haben. Andererseits kommen wir zu einer zurückhaltenden
Einschätzung bei der Frage, zu welchem Grade die angeborenen
Grundlagen der Sprachfähigkeit aufgabenspezifisch sind, bis zu welchem Grade also in unserem genetischen Programm grammatische
Eigenschaften als solche angelegt sind (wie Noam Chomsky dies v.a.
in den achtziger Jahren vertreten hat).
Abschnitt 3 geht der Frage der Natur der Sprachfähigkeit aus der
Perspektive des Syntaktikers nach. Ich führe das sogenannte optimalitätstheoretische Grammatikmodell ein, bei dem wesentlich ist, dass
grammatische Prinzipien sogar im Regelfall zueinander in Konflikt
stehen, und für das eine bestimmte Art und Weise der Auflösung von
Konflikten charakteristisch ist. In Abschnitt 4 stelle ich erst ein
grundlegendes Problem beim Sprachverstehen vor, nämlich das der
Lesartenpräferenz bei mehrdeutigen Sätzen. Ich werde dann argumentieren, dass der Mechanismus, der für diese Lesartpräferenzen
verantwortlich ist, identisch ist mit dem Konfliktlösemechanismus
der Grammatik. Abschnitt 5 bemüht sich schließlich, plausibel zu
machen, dass unsere menschlichen Grammatiken diesen Konfliktmechanismus deswegen aufweisen, weil sie nur in einer bestimmten Art
und Weise beim Hören verarbeitet werden können, und weil diese
Beschränkung in einem Prozess der „sozialen Evolution“ die Natur
der Grammatik geformt hat.
In dieser Sicht gibt es kein (notwendiges) Primat der Sprache über
das Sprechen. Die Bedingungen des Sprechens und Hörens, und die
Bedingungen des Lernens des Sprechens und des Hörens legen die
Grenzen der Sprache fest.
Wie ihr Gebrauch die Sprache prägt*
5
2. Gibt es eine Sprache vor dem Sprechen?
Mit großer Verlässlichkeit lassen sich bestimmte Aspekte der
menschlichen Sprachfähigkeit bestimmten Hirnarealen zuordnen. Das
grundsätzliche Wissen über diesen Zusammenhang ist vielleicht
schon 5000 Jahre alt, findet man doch in Fragmenten eines altägyptischen Chirurgielehrbuches die Aussage "Wenn du einen Menschen
untersuchst, dessen Schläfe eingedrückt ist ... so antwortet er dir
nicht, denn er ist der Sprache nicht mehr mächtig" (Changeux 1984:
14). Der hier berichtete Zusammenhang zwischen der Lokalisation
einer Verletzung des Gehirns und dem dann beobachtbaren Ausfall
spezifischer kognitiver Fähigkeiten ist durch spätere Forschungen,
die man mit Namen wie Paul Broca und Carl Wernicke verbindet, im
Grundsatz bestätigt worden, und die modernen bildgebenden Verfahren erlauben es, auch für ein nicht-verletztes Gehirn festzustellen:
verschiedene Gehirnregionen spielen für verschiedene Aspekte
sprachlichen Wissens und Verhaltens eine unterschiedlich große
Rolle.
Man muss gar nicht der Versuchung nachgeben, sprachliche Teilfertigkeiten wie „lexikalische Semantik“ (die Bedeutung von Wörtern)
oder „Grammatik der Funktionswörter“ (also Grammatik von der,
dass, im, weil) in bestimmten Hirnarealen zu lokalisieren, um zu dem
Schlusse zu gelangen, dass der systematische Zusammenhang zwischen Teilen der sprachlichen Fähigkeit und bestimmten Hirnregionen darauf hindeutet, dass unsere Sprachfähigkeit partiell angeboren
ist. Da beispielsweise das Broca’sche Areal (eine Region im linken
Schläfenlappen des Gehirns) eine bedeutende Rolle für die Verarbeitung der Funktionswörter spielt, liegt die Vermutung nahe, dass bestimmte Aspekte dieser Verarbeitung durch die Anatomie und Funktionsweise dieser Hirnregion bedingt sind. Diese Verarbeitungsspezifika werden selbst wiederum einen Einfluss auf die Grammatik der
6
Gisbert Fanselow
Funktionswörter ausüben. Insofern schließt sich der Bogen vom genetischen Programm (welches Anatomie und Funktionsweise des
Broca’schen Areals mit bestimmt) zur Grammatik recht zwanglos.
Zusammenfassende Darstellungen wie Pinker (1994) und Fanselow &
Felix (1987) stellen noch weitere Beobachtungen vor, die erstens für
eine biologische Fundierung der Sprachfähigkeit sprechen, und zweitens nahezulegen scheinen, dass diese biologische Fundierung „aufgabenspezifisch“ ist, d. h. unabhängig von der „allgemeinen Intelligenz“ oder anderen kognitiven Fertigkeiten. Salopp ausgedrückt: das
genetische Programm spezifiziert nach dieser Sicht direkt solche Eigenschaften der menschlichen Kognition, die nur für Grammatik und
Sprache relevant sind. Hierfür führen Pinker, Fanselow und Felix
beispielsweise die folgenden Tatsachen an: Durch Schlaganfälle oder
Verletzungen des Gehirns erworbene kognitive Ausfälle können
sprachspezifisch sein (die Aphasien), also die anderen kognitiven Fähigkeiten anscheinend intakt lassen. Ebenso scheint es auf die Grammatikfähigkeit beschränkte Entwicklungsstörungen beim Kind zu
geben, aber andererseits auch gravierende Störungen „allgemeiner
Intelligenz“, die wohl die Grammatikfähigkeit nicht beeinträchtigen
(Williams-Syndrom).
Solche Beobachtungen harmonieren mit der in den achtziger Jahren
von Chomsky etwas anders hergeleiteten These einer aufgabenspezifisch angeborenen Universalgrammatik (Chomsky 1980, 1981,
1986a). Nach Chomsky genügen die Grammatiken aller natürlichen
Sprachen einer Reihe von sehr abstrakten Prinzipien, den Gesetze der
Universalgrammatik. Diese Prinzipien sind so komplex und so abstrakt, dass sie von Kindern im Alter von 2 - 6 Jahren (dann ist der
Grammatikerwerb für die meisten grammatischen Aspekte abgeschlossen) niemals auf der Basis von „normalen Lernprozessen“ erlernt werden können. Also müssen sie angeboren sein. Weiter sind
Wie ihr Gebrauch die Sprache prägt*
7
die Prinzipien der Universalgrammatik aufgabenspezifisch in dem
Sinne, dass ihre Basisterme nur im sprachlichen Bereich Anwendung
finden. In (1) habe ich versucht, das sogenannte Prinzip A der Bindungstheorie, ein Bestandteil der Theorie der Universalgrammatik
von Chomsky (1981), in eine etwas verständlichere Form zu bringen.
Offensichtlich treten hier eine Reihe von Konzepten auf (Subjekt,
Flexion, Kasus), die nur bei Anwendung auf Sprache Sinn machen.
Wenn Prinzip A der Universalgrammatik angeboren ist, dann spezifiziert unser genetisches Programm - so kann man schlussfolgern eine grammatikspezifische Tatsache.
(1) Das Bezugswort eines Reflexivpronomens (sich) oder eines
Reziprokpronomens (einander) A muss sich in dem kleinsten Satz
oder der kleinsten Nominalphrase B befinden, der/die A enthält,
das Element, das den Kasus von A bestimmt, und ein von A verschiedenes Subjekt oder Flexionselement, welches für A „zugänglich“ ist.
Der eben skizzierte Schluss enthält einen „Reifikationsirrtum“ im
Sinne von Rose (1987): Eigenschaften und Entitäten, die in einer
funktionalen Beschreibung von X verwendet werden, müssen nicht
unbedingt auch Eigenschaften und Aspekte des „materiellen“ Objektes darstellen, das X zugrunde liegt. Man kann sich darüber streiten,
ob in der Auseinandersetzung über die Frage, wie aufgabenspezifisch
die biologische Grundlage von Sprache ist, so ein Reifikationsirrtum
von Chomsky selbst, oder nur von einigen seiner Interpretatoren (z.
B. von Fanselow & Felix 1987) begangen wurde. Jedenfalls habe ich
in Fanselow (1991) argumentiert, dass Chomsky (1980, 1986a) sich
stets mit Vorsicht und Sorgfalt zum Thema Aufgabenspezifik
geäußert hat.
Einige neuere Erkenntnisse deuten darauf hin, dass Vorsicht bei der
Annahme einer aufgabenspezifisch angeborenen Universalgrammatik
8
Gisbert Fanselow
nicht allein aus grundsätzlichen Erwägungen geboten ist. Jüngeren
Datums sind beispielsweise Simulationsexperimente zur Evolution
von Grammatik, siehe etwa Kirby (1999), Hurford (2000). In solchen
Untersuchungen in einer virtuellen Welt werden Populationen von
kommunizierenden Wesen simuliert, die in einer Folge von Generationen auftreten. Wesen einer neuen Generation „lernen“ auf der Basis ihres Inputs ein Regelsystem zur Kommunikation. Es gibt eine
Menge von potentiell komplexen Sachverhalten, die zu kommunizieren sind, und ein Basisvokabular. Zu Beginn des Simulationsexperiments gibt es keine sprachlichen Regeln, d.h., die virtuellen Wesen
kommunizieren die Sachverhalte durch arbiträr zugeordnete Basiszeichen oder Kombinationen davon. Unter bestimmten, durchaus
realistischen Bedingungen (z.B. der Annahme, dass nicht alle Sachverhalte kommuniziert werden) entsteht nach unterschiedlich vielen
Generationszyklen (=Lerndurchläufen) in solchen virtuellen Sprechergemeinschaften in einem Prozess der Selbstorganisation ein Regelsystem, das einige Eigenschaften von Grammatik aufweist. Beispielsweise sind passivähnliche Konstruktionen oder Markierer für
Satzgrenzen in einigen Simulationsexperimenten entstanden.
Sicherlich kann man bei solchen Simulationen nicht ausschließen,
dass das Entstehen „grammatischer“ Strukturen dadurch bedingt oder
begünstigt ist, dass vom Experimentator den semantischen Repräsentationen der Sachverhalte eine komplexe Struktur zugrundegelegt
wird. Es liegt dann aber die Vermutung nahe, dass eine noch reichere
und damit realistischere Strukturierung der Sachverhaltsrepräsentationen zu einer noch reicheren grammatischen Strukturierung führen
würde. Damit ist ein Szenario denkbar, in dem auf der Basis reicher
biologisch vorgeprägter semantischer Strukturen durch Selbstorganisation eine reiche syntaktische Universalgrammatik entsteht. Wenn
unser Gehirn in der Lage ist, diese reiche Universalgrammatik (wie
Wie ihr Gebrauch die Sprache prägt*
9
aber potenziell auch anders strukturierte und ebenso reiche formale
Systeme) relativ perfekt zu lernen, so werden diese selbstorganisierten formalen Strukturen tradiert, ohne dass sie als solche angeboren
sind (das sind ja, ex hypothesi, die reichen semantischen Strukturen).
Ist dieses Szenario als Modell der Entstehung und Weiterentwicklung
der Universalgrammatik auf der Basis der verfügbaren Evidenz beweisbar? Natürlich nicht, aber für die Einschätzung der Plausibilität
einer syntaxspezifisch angeborenen Universalgrammatik ist eher von
Belang, dass die verfügbare Evidenz auch nicht ausreicht, dieses
Szenario zu widerlegen.
Noch eine zweite Überlegung möchte ich anführen. Die These, dass
Prinzipien eines bestimmten Teilsystems (eines „Moduls“ im Sinne
von Fodor 1984) in aufgabenspezifischer Weise angeboren sind, ist
nicht schon dadurch belegt, dass man keine andere „real existierende“ kognitive Fähigkeit identifiziert hat, die mit denselben grundsätzlichen Eigenschaften vom selben Hirnareal bearbeitet wird, und
in derselben kritischen Phase auf dieselbe Weise erworben wird. Das
absehbare Schicksal des Moduls „Gesichtererkennung“ lässt Vorsicht
auch für den sprachlichen Bereich angeraten erscheinen.
Seit dem 19. Jahrhundert weiß man, dass Verletzungen in einer
bestimmten Hirnregion zum Verlust der Fähigkeit der Gesichtererkennung (Prosopagnosie) führen können. Weiter zeigen viele experimentelle Untersuchungen, dass die Wahrnehmung von Gesichtern Eigenschaften aufweist, die sich in anderen Wahrnehmungsdomänen
(normalerweise) nicht zeigen. Drittens kann man bei Säuglingen eine
Präferenz für menschliche Gesichter schon im Alter von drei Wochen
(und vermutlich auch schon für den Zeitpunkt unmittelbar nach der
Geburt) feststellen (siehe die Zusammenfassung solcher Befunde in
Landau 1993). All dies deutet auf den ersten Blick darauf hin, dass
ein angeborenes Modul ausschließlich für die Aufgabe der Gesichter-
10
Gisbert Fanselow
erkennung vorliegt. Aber seit kurzem weiß man, dass die Hirnregion,
die für die Gesichtererkennung zuständig ist, bei Experten für Autos
oder Vögel auch beim Identifizieren von Autos bzw. Vögeln aktiviert
wird. Es ergeben sich dabei dann auch dieselben charakteristischen
Wahrnehmungsspezifika wie bei der Gesichtererkennung (Gauthier,
Skudlarski, Gore & Anderson 2000). Dieser Befund lehrt, dass unser
Gehirn über ein spezifisches Wahrnehmungsmodul mit „holistischen“
Eigenschaften verfügt, das für die Erkennung von vertrauten und
relevanten Objekten wie Gesichtern eingesetzt werden kann und
wird, dessen Eigenschaften es aber keinesfalls auf diesen Bereich
einschränken, wenn Objekte wie Autos oder Vögel vergleichbar
relevant und vergleichbar vertraut werden wie Gesichter. Das
„Modul
Gesichtererkennung“
ist
abstrakt,
und
nicht
im
chomskyanischen Sinne „aufgabenspezifisch“.
Für die Sprachfähigkeit lässt sich daraus zumindest ableiten, wie entscheidende „Experimente“ zur Aufgabenspezifik der Grammatik aussehen müssten. Man müsste zeigen, dass Systeme mit vergleichbarer,
aber nicht identischer formaler Struktur und mit dem gleichen Grad
an Vertrautheit und Relevanz gerade nicht vom Gehirn auf dieselbe
Weise verarbeitet werden wie Grammatik, und auch nicht in den
Arealen, die für Sprache und Grammatik zuständig sind. Dieser
Nachweis ist keinesfalls erbracht, und er dürfte auch schwer zu erbringen sein, weil man sich nur wenige Objekte mit solchen Eigenschaften vorstellen kann. Immerhin weiß man, dass Vertrautheit mit
musikalischer Verarbeitung dazu führt, dass sich die Verarbeitung
von Musik partiell von der eher holistischen rechten Hemisphäre in
die analytische linke verlagert (etwa: Kapitel 9 von Jourdain 1998).
Dass z. B. diese analytische Verarbeitung tonaler Musik bei BrocaAphasiker (die unter einer gravierenden Störung der syntaktischen
Fähigkeiten leiden) nicht beeinträchtigt ist, ist m. W. nicht nachge-
Wie ihr Gebrauch die Sprache prägt*
11
wiesen. Einige neuere Befunde (Koelsch et al., eingereicht, und
Maess et al., eingereicht) deuten darauf hin, dass Verletzungen „musikalischer“ Regeln bei Akkordsequenzen vom Gehirn ähnlich verarbeitet werden wie Verletzungen grammatischer Prinzipien. Die grammatische und musikalische Verarbeitung findet z. B. im Broca’schen
Areal und seiner rechtshemisphärischen Entsprechung statt (allein ist
bei Sprache die linke, bei Musik aber die rechte Hemisphäre dominant).
Die Analogie zur Gesichtererkennung und die Ergebnisse zur Verarbeitung von Musik legen nahe, dass bestimmte Verarbeitungsmodi
besonders gut in bestimmten Hirnregionen durchgeführt werden können. Offensichtlich ist beispielsweise das Broca-Gebiet für Grammatikverarbeitung geeignet, so dass Syntax oder Grammatik „in“ dieser
und anderen Regionen repräsentiert werden, und der Erwerb der Syntax und Grammatik mit Bezug auf diese Areale erfolgt. Sie sind aber
keinesfalls „Sprach- oder Grammatikzentren“, sondern können
grundsätzlich alle Aufgaben bearbeiten, die eine zur Sprachverarbeitung analoge Struktur aufweisen. Plausibel ist dann, dass die spezifisch grammatischen Eigenschaften (die konkrete Universalgrammatik) nicht notwendig durch die einschlägigen kognitiven Module festgelegt sein müssen. Grammatiken könnten auch anders strukturiert
sein.
Natürlich muss man sich der Frage stellen, was dann dafür verantwortlich ist, dass die Grammatiken natürlicher Sprachen nur bestimmte Formen annehmen. Antworten wird man finden, wenn man –
ergänzt um eine dritte - sich den „gebrauchsorientierten" Fragen von
Chomsky (1986a) zuwendet:
1) Wie wird Grammatik beim Sprechen und Verstehen verwendet?
2) Wie wird Grammatik erworben?
12
Gisbert Fanselow
3) Wie entsteht eine spezifische Grammatik im historischen
Prozess?
Frage 3) ist oben schon kurz angesprochen worden. Syntaktische Eigenschaften, die in einem Prozess der "Selbstorganisation" von
Grammatik im Zuge der Sprachevolution entstanden sind, können im
Prozess der weiteren historischen Entwicklung von Sprache zwar
verloren gehen, müssen dies aber nicht notwendigerweise. Ob sie das
tun oder nicht, hängt von der Natur des Sprachwandels ab. Die Mechanismen des Sprachwandels können umgehrt auch dafür verantwortlich sein, dass aus beliebigen Vorgängerstufen immer nur Sprachen des Typs X entstehen. Wenn die Universalgrammatik dem
Primzip X genügt, so liegt das also in diesem Falle nicht daran, dass
X als solches angeboren wäre, sondern dass unter den natürlichen
Bedingungen der Sprachveränderung immer X resultiert.
Bevor dies durch ein Beispiel illustriert werden kann, sind einige
grundsätzliche Erwägungen zum Thema Sprach- und Grammatikwandel sinnvoll. Wenn man auf die literatursprachliche Norm fokussiert,
kann „Grammatikwandel“ durchaus schnell und abrupt sein, weil der
normkonstituierende Dialekt durch politische Umstürze wechseln
mag. Den Austausch von Dialekten durch eine Sprechergruppe oder
als Norm wollen wir im folgenden aber nicht näher betrachten. Abgesehen von solchen Ereignisse wird der Grammatikwandel als Veränderung innerhalb eines Dialekts ruhiger verlaufen, und er kann verursacht sein durch ‚spontane’ Grammatikveränderungen etwa beim
Spracherwerb oder durch Verschiebungen in den Häufigkeiten konkurrierender Konstruktionstypen (Kroch 2001).
Der Typ von Sprachwandel, der kein kompletter oder partieller Austausch von Dialekten ist, ist ein gradueller und beschränkter Prozess.
Man beachte, dass Sprachen über eine Sequenz von Spracherwerbsprozessen tradiert werden. Die Erwachsenengeneration produziert auf
Wie ihr Gebrauch die Sprache prägt*
13
der Basis einer Grammatik G den sprachlichen Input I der Kinder.
Die Kinder konstruieren auf der Basis von I eine eigene Grammatik
G', die im Kern dieselben Sätze wie in I als wohlgeformt auszeichnen
muss, aber sich in der Peripherie von I durchaus unterscheiden mag.
Dies kann z. B. dann geschehen, wenn G' bezogen auf den Kern von I
einfacher ist als G, oder durch spontane Grammatikveränderung. Da
sich die beiden Grammatiken G und G' im Kern von I nicht unterscheiden dürfen, sind dem Sprachwandel zumindest in den einzelnen
Schritten erhebliche Grenzen auferlegt. Dramatische „Sprünge“ kommen nicht vor (aber siehe unten), da Kinder für solche dramatischen
Sprünge korrigiert würden, und ab (und bis zu) einem bestimmten
Alter diese Korrektur annehmen (weil Spezifika des Dialekts ja zentrale sozialpsychologische Identifikationsfaktoren mit den Eltern
oder den peers sind). Im Grundsatz folgt aus dieser Beschränkung,
dass auch bei Betrachtung eines längeren Zeitraums nicht alle denkbaren Grammatiken G" aus einer Grammatik G entstehen können. Da
unsere Grammatiken nicht gottgegeben sind, sondern allesamt in einem historischen Prozess entstanden sind, ist also die Natur der möglichen menschlichen Grammatiken über das neuropsychologisch per
se mögliche hinaus eingeschränkt.
Alexiadou und Fanselow (2001) haben ein konkretes Beispiel für
solche historisch bedingten Beschränkungen analysiert, dass hier nur
stark vereinfacht skizziert werden kann. Natürliche Sprachen haben
zumindest eine starke Tendenz, die Generalisierung (2) zu erfüllen
(wenn diese nicht ohnedies universell beachtet wird):
(2) Wenn im Flexionssystem eines Verbs reiche Unterscheidungen
gemacht werden, und die Flexion am rechten Rand des Verbs
realisiert wird, und wenn in der Sprache das Verb dem Objekt
vorangeht, dann geht es auch Adverbien voran, die vor dem
Objekt stehen.
14
Gisbert Fanselow
Was mit (2) gemeint ist, illustrieren partiell die Sätze in (3) und (4).
Im Englischen ist die Flexion (die „Beugung“ eines Verbs zur Kongruenz mit dem Subjekt nach Eigenschaften wie Person und Numerus) 'schwach': nur im Präsens gibt es überhaupt einen Kontrast
zwischen eats (3. Person Singular) und eat (alle anderen Formen).
Auch stellen wir in (3) fest, dass im Englischen das Verb nicht vor
Adverbien gesetzt werden kann, die vor dem Objekt stehen. (3b) ist
nämlich ungrammatisch (was entsprechend linguistischer Praxis
durch "*" notiert wird).
(3) a. That John often eats tomatoes
b. *That John eats often tomatoes
Die Beispiele in (4) entstammen dem Isländischen, und sind wörtliche Übertragungen der englischen Sätze in (3). Im Isländischen unterscheiden sich die Formen des Verbs (wie im Deutschen) relativ zu
Person und Numerus stark voneinander, und wir sehen in (4), dass im
Isländischen das Verb vor ein Adverb gesetzt werden muss, das vor
dem Objekt steht.
(4) a. *Að
dass
b.
Jonas oft borðar tómata
John oft isst
Tomaten
Að Jonas borðar oft tómata
Beschränkt man seine Aufmerksamkeit auf Sprachen, bei denen die
Flexion am rechten Rande des Verbs erfolgt, so scheint - nach all
dem, was wir wissen - das Gesetz in (2) zumindest insofern erfüllt zu
sein, dass die Stellung Verb-Adverb-Objekt in Sprachen mit reich
differenzierter Flexion möglich ist.
Es ist wenig plausibel, dass ein Gesetz wie (2) als solches direkt aus
den biologisch bedingten Charakteristika der menschlichen Sprachkognition folgt. Warum ist es dennoch gültig? Alexiadou und Fanselow schlagen vor, (2) aus den Begrenzungen der Sprachveränderung
Wie ihr Gebrauch die Sprache prägt*
15
herzuleiten. Sie nehmen dabei (in Harmonie mit einem Grossteil der
syntaktischen Literatur) an, dass Sätze auf der Basis eines Strukturschemas wie (5) konstruiert werden. Restringiert ist die Abfolge von
Redegegenstand (kann häufig das Subjekt sein) – Subjektposition –
Adverbposition und Objektposition, wohingegen das Verb anscheinend je nach Sprache jede Stellung zwischen diesen Elementen einnehmen kann. Auf der Basis manifester, positiver Evidenz (zwischen
welchen Elementen kann man das Verb hören?) kann das Kind die
Position des Verbs relativ zu den anderen Satzteilen lernen.
(5) Redegegenstand (Thema) – (Verb) - Subjekt – (Verb) - Adverb
– (Verb) -Objekt –(Verb)
Die einfachste Annahme ist, dass die Position des Verbs im Grundsatz in jeder Sprache frei fixiert werden kann. Wenn das Verb nicht
(oder kaum) flektiert ist, entspricht dies auch den empirischen Befunden: im Irischen steht das Verb in der Position vor dem Subjekt,
im Kronoby - Dialekt des Schwedischen in der Position vor dem Adverb, im Englischen in der Position vor dem Objekt, und im Japanischen in der Position hinter dem Objekt. In Sprachen mit „reicher“
Flexion ist dagegen die Position zwischen Adverb und Objekt dem
Verb nicht zugänglich.
Nun weiß man, dass die Flexion des Verbs für Numerus und Person
des Subjekts dadurch entsteht, dass ein schwachtoniges Subjektspronomen mit einem noch nicht flektierten Verb zu einer Einheit verschmilzt (Corbett 1995). Man braucht sich keine Gedanken darüber
machen, welche Bedingungen diese Verschmelzung von Verb und
Pronomen zu einem flektierten Verb faktisch auslöst, um folgendes
zu beobachten: auf diese Weise kann Flexion am rechten Rand des
Verbs nur dann entstehen, wenn sich das Verb in der betreffenden
historischen Sprachstufe in der ersten denkbaren Position in (5) befindet, also vor dem Adverb. Mit anderen Worten: zum Zeitpunkt der
16
Gisbert Fanselow
Entstehung reicher Flexion am rechten Rand des Verbs muss (2) beachtet werden, weil in einer anderen Position als einer vor dem Adverb Subjekt und Verb nicht in der relevanten Konstellation zueinander stehen.
Solche Verschmelzungsprozesse lassen sich synchron an verschiedenen Dialekten des Arabischen, an italienischen Dialekten und durchaus auch im Bairischen beobachten. Flektierte Verben können, wie
Alexiadou und Fanselow diskutieren, noch auf eine zweite Weise
entstehen, aber auch diese setzt voraus, dass sich das Verb vor dem
Adverb befindet, wenn der Verschmelzungsprozesse stattfindet. Das
Entstehen „reicher“ Flexion ist mit einer Position des Verbs hinter
dem Adverb nicht verträglich.
Damit ist (2) natürlich noch nicht vollständig hergeleitet. Man muss
auch zeigen, dass in Sprachwandelprozessen ein Verb mit reicher
Flexion nur unter sehr seltenen Umständen die mit (2) konformen
Position verlassen würde. Exakt dies versuchen Alexiadou & Fanselow (2001) nachzuweisen. Man beachte, dass die Entstehung von
Flexion, also die Reinterpretation der Sequenz [Verb + schwachtoniges Subjekt] als [Verb+Flexion] per se nur sehr geringe, schwer
wahrnehmbare Veränderungen im System der von der Grammatik erzeugten Sätze mit sich bringt (die phonetischen Ketten verändern
sich nicht), obwohl die resultierenden Grammatiken fundamental
verschieden sind. Diesem Sprachwandel wirkt also das Bemühen der
Kinder, ihren sprachlichen Output dem der Eltern und peers anzupassen, kaum entgegen. Demgegenüber würde der Wechsel von der Abfolge Subjekt Verb Adverb Objekt zur Abfolge Subjekt Adverb Verb
Objekt zwar nur eine minimale Veränderung der Grammatik implizieren, aber eine erhebliche und nicht überhörbare Veränderung der
Satzgrundstruktur, welche die Kinder im Angesicht des Erwachsenenmodells kaum langfristig ohne Not aufrechterhalten würden. Die
Wie ihr Gebrauch die Sprache prägt*
17
Veränderung von Verb – Adverb – Objekt zu Adverb - Verb – Objekt
kann nur über mehrere, auch einzeln nicht sehr wahrscheinliche Zwischenschritte ablaufen, die - wie Alexiadou & Fanselow (2001) im
Detail zeigen – im Zusammenhang mit einem Verlust der Flexion
stehen. Insgesamt scheint also zu gelten: Starke Flexion kann in einem natürlichen Sprachwandelprozess allein in einer Sprache entstehen, die (2) beachtet, und der Verlust einer Stellung des Verbs vor
dem Adverb ist an unwahrscheinliche, mit Flexionsabbau verbundene
Prozesse gebunden, so dass (2) aus Einsichten in dem Ablauf der
Sprachveränderung hergeleitet werden kann.
Die Sicht, dass Syntaxwandel stets aus einer Vielzahl oberflächlich
kleiner Veränderungsschritten resultiert, mag partiell modifikationsbedürftig sein, aber auch, wenn man mit systembedingten schnellen
Grammatikwandelvorgängen rechnen muss, impliziert dies nicht notwendig, dass die Richtung des Grammatikwandel beliebig ist, ganz
im Gegenteil.
Neben die formende Wirkung des Sprachwandels tritt die formende
Wirkung des Spracherwerbs. Auch wenn man der Überzeugung ist,
dass nicht alle sprachlichen Regeln vom Kinde im strengen Sinne gelernt werden können, lässt sich angesichts der grammatischen Unterschiede zwischen den Sprachen nicht abstreiten, dass einige Aspekte
der Grammatik gelernt werden müssen. Wie schon Wexler & Culicover (1980) nachgewiesen haben, ergeben sich aus der Notwendigkeit
des Lernens bestimmter Gesetze fundamentale Einschränkungen dessen, was eine mögliche natürlichsprachliche Grammatik sein kann,
und diese Einschränkungen müssen und – sollten - daher nicht als
Primitiva den biologischen
Grundlagen der Sprachfähigkeit zuge-
wiesen werden. Beispielsweise weisen natürliche Sprachen keine
oder fast keine Regularitäten auf, die man nur dann erkennen kann,
18
Gisbert Fanselow
wenn man Sätze mit mindestens zwei Satzeinbettungen analysiert,
also Gebilde wie (6).
(6) Hans meinte, dass Gaby dem Josef erzählt hat, dass Senta Fritz
ohrfeigte
Diese Beschränkung der Ausdruckskraft von Regeln in menschlichen
Sprachen illustriert eine Betrachtung von (7) und (8). Wie man an (7)
sieht, muss man im Deutschen verschiedene Wörter als Satzobjekt
benutzen (einmal ein Reflexivpronomen, das andere mal ein Personalpronomen) um sich semantisch auf das Hauptsatzsubjekt zu beziehen, je nachdem, ob sich das Objekt im selben Satz befindet (7a)
oder in einem anderen Satz (7b). Deutsch besitzt also eine Regel, die
man
nur
dann
erkennen
kann,
wenn
man
Sätze
mit einer
Satzeinbettung betrachtet. Es gibt aber keine Sprache, in der man wie in (8) angedeutet - bei der ersten Satzeinbettung eine Wort ihm-1
verwenden muss, um sich auf das Hauptsatzsubjekt zu beziehen, und
bei der zweiten aber dann ein ganz anderes Wort, etwa „ahm-2s“.
(7) a. Hans sieht sich/*ihn im Spiegel
b. Hans weiß, dass ich ihn/*sich auf dem Foto sehe
(8) a. Hans meinte, dass Gaby ihm-1 erzählt hat, dass Senta Fritz
ohrfeigt
b. Hans meinte, dass Gaby dem Josef erzählt hat, dass Senta
ahm-2 ohrfeigt
Soll man diese Einschränkung über mögliche Grammatiken von Personal- und Reflexivpronomina als Bestandteil der angeborenen Universalgrammatik ansehen? Die Antwort ist negativ. Wenn eine Sprechergemeinschaft einer Regel wie für ihm/ahm in (8) folgen würde,
so würde die nachfolgende Generation sie mit großer Wahrscheinlichkeit verlieren. Sätze der Komplexität von (8) richtet man selten
an Kleinkinder im Alter von 2 oder 4 Jahren, und wenn man es doch
Wie ihr Gebrauch die Sprache prägt*
19
tut, so mögen die Kinder sie auf Grund ihrer Komplexität kaum vollständig und korrekt verarbeiten können. Die spracherwerbenden Kinder haben also keinen Zugang zu den Daten, auf deren Basis sie die
ihm - ahm Regel lernen könnten: die Daten sind zu komplex. Die Regel kann also grundsätzlich nicht gelernt werden.
Allgemeiner formuliert: Wenn es eine kritische Periode für den
Grammatikerwerb gibt (und darauf deutet alles hin), dann werden die
in der fraglichen Altersspanne bestehenden Beschränkungen der Systeme, die mit der Grammatik interagieren (Arbeitsgedächtnis, semantische Repräsentation, kommunikative Beschränkungen) aus offenkundigen Gründen mit dafür entscheidend sein, welche Grammatiken
erlernt werden können. Auch wenn das „eigentlich“ die Grammatik
lernende Modul der kindlichen Kognition kaum Restriktionen hinsichtlich der Komplexität der lernbaren Regelsysteme aufweisen
würde, ergeben sich erhebliche Komplexitätsrestriktionen aus den
erst heranreifenden interagierenden Modulen. Die daraus resultierenden Beschränkungen dessen, was eine mögliche Grammatik sein
kann, sind kein Teil einer aufgabenspezifisch angeborenen Universalgrammatik.
Der Spracherwerb ist der entscheidende "Flaschenhals" auch für die
Überlegung, dass natürlichsprachliche Grammatiken einfach verarbeitbar sein müssen. Offensichtlich gibt es Sätze wie die in (9), die
nicht oder nur sehr schwer verstehbar sind, obwohl sie nach den
Strukturprinzipien des Deutschen gebaut sind. Für das sprachverarbeitende System sind also nicht alle Sätze gleich gut perzipierbar,
und es ist nicht unplausibel, dass langfristig vor allem solche Sprachen verwendet werden, die zu verarbeiten nicht ungeheuer schwer
ist (so auch Hawkins 1994). Das Maß aller Dinge ist dabei wiederum
die Verarbeitungskapazität des Kindes, das die Grammatik rekonstruiert.
20
Gisbert Fanselow
(9) a. dass der Professor, den der Student, der den Dekan, der
den Hausmeister lobte, alarmieren wollte, besucht hat, den
Rektor beleidigte
b. dass er Opernsängerinnen die man anruft vertrauen sollte
3. Die Form der Syntax
Im vorangehenden Abschnitt haben wir gesehen, dass die Grammatikfähigkeit zwar eine angeborene Grundlage hat, aber diese nicht
notwendigerweise aufgaben-, d. h. grammatikspezifisch sein muss.
Wir haben gesehen, dass Beschränkungen von Spracherwerb, Sprachveränderung und Sprachverarbeitung die Detailstruktur der Grammatikfähigkeit prägen. In diesem Kapitel soll nun die Grundlage für die
Argumentation in Abschnitt 5 gelegt werden, die den Gedanken von
Abschnitt 2 fortführt. In Abschnitt 5 will ich plausibel machen, dass
eine recht fundamentale architekturale Eigenschaft natürlichsprachlicher Grammatiken aus Verarbeitungsbeschränkungen folgt. Zunächst soll diese Eigenschaft der Grammatik motiviert werden, in
Abschnitt 4 ihr verarbeitungsbezogenes Pendant.
Die Argumente für eine angeborene und aufgabenspezifische Universalgrammatik, die bis in die neunziger Jahre oft sehr engagiert vorgetragen wurden (etwa in Fanselow & Felix 1987) basierten auf dem
damaligen state of the art der Grammatiktheorie. Anhänger alternativer grammatischer Modelle mögen es mir verzeihen, wenn ich (zu
Recht, so scheint mir) die Entwicklung der Rektions- und Bindungstheorie (Chomsky 1981) als entscheidenden Durchbruch in der
Syntaxtheorie bezeichnen möchte: zum ersten Male in der Geschichte
der modernen Grammatikforschung wurde ein kohärentes und restriktives Modell der Grenzen syntaktischer Variation vorgelegt, und
im Detail an Hand der Analyse einer beträchtlichen Zahl sehr ver-
Wie ihr Gebrauch die Sprache prägt*
21
schiedener Sprachen (Englisch, Japanisch, Mohawk, um nur ein paar
zu nennen) fortentwickelt. Die Anziehungskraft, die das Rektionsund Bindungsmodell aufwies, bestand gerade in den reichen Möglichkeiten der systematischen Suche nach universell gültigen Prinzipien des Sprachbaus, und nach Detaileigenschaften von Regeln in
Einzelsprachen. Gerade weil sie aus einem System abstrakter, aber
noch hinreichend einfacher, d.h. Erklärungen erlaubender Prinzipien
bestand, konnte die Theorie auch die Basis für das Argumentationsmodell aus Abschnitt 2 für eine aufgabenspezifisch angeborene Universalgrammatik abgeben. Die Rektions- und Bindungstheorie bzw.
einige der ihr zugrundeliegenden Annahmen führten auch zu einer
beträchtlichen Expansion der Spracherwerbsforschung, und befruchteten die Psycholinguistik auch im Bereich Syntaxverarbeitung/ Satzanalyse/Parsing.
Warum ein solch erfolgreiches Modell (praktisch) aufgegeben worden ist, mag ein genauso großes Rätsel darstellen wie das plötzliche
Verschwinden der Dinosaurier nach einer Erfolgsgeschichte von
mehr als 100 Millionen Jahren. Manchmal wird argumentiert, dass
dies ein sehr negatives Licht auf die Soziologie des Wissenschaftsbetriebes Syntax werfe.
Einerseits aber (und das entspricht der Katastrophe „Meteoreinschläge“ in der Geschichte der Dinosaurier) erwiesen sich die fundamentalen architekturalen Annahmen der Theorie als unhaltbar: die Annahme einer eigenständigen „Tiefenstruktur“ oder die strikte Trennung von „Logischer Form“ und „Oberflächenstruktur“ (Chomsky
1995). Andererseits (und das entspricht der schleichenden Verschlechterung der Umweltbedingungen im Schicksal der Saurier)
scheiterten verschiedene Versuche der Unifikation von Teiltheorien
(so etwa die in Chomsky 1986b vorgeschlagene, siehe Sternefeld
1991). Ganz im Gegenteil: durch die fortschreitende Erweiterung der
22
Gisbert Fanselow
empirischen Basis der Grammatiktheorie auf immer mehr Sprachen
wurden die Prinzipienformulierungen immer komplexer, so dass sie
sich immer mehr entfernten vom dem, was man als Erklärung bezeichnen kann, und immer mehr zu dem wurden, was nur eine technisch komplexe Reformulierung des zu beschreibenden Problems ist.
Auch wenn man die Geschichte damit durch eine verzerrende Brille
betrachtet beschreibt: am Ende der Rektions- und Bindungstheorie
waren die resultierenden grammatischen Beschreibungen kaum mehr
überzeugend.
Mindestens zwei Modelle haben die Nachfolge des Dinosauriers Rektions- und Bindungstheorie angetreten. Auf der einen Seite sind das
Theorien (denen wir hier wenig Aufmerksamkeit schenken), die versuchen, so wenig an syntaxspezifischen Annahmen wie möglich in
der grammatischen Beschreibung zu verwenden. Solche Modelle
bauen also im Grunde auf Ideen auf, die schon Koster (1987, 1988)
formuliert hat, siehe auch Fanselow (1991), Haider (1993). Prägend
für einen großen Teil der Syntaxforschung ist hier das Minimalistische Programm (Chomsky 1995). All diese Systeme sind in Harmonie mit den Schlussfolgerungen des vorangehenden Kapitels, weil sie
negieren, dass grammatische Beschreibung syntaxspezifisch ist. Die
umfassende breite empirische Analyse ist freilich bislang nicht die
Stärke des Minimalismus.
Das Alternativmodell, die Optimalitätstheorie (OT) (siehe die
einführenden Darstellungen Kager
1999 und Müller 2000) basiert
auf einer Einsicht, die so alt ist wie grammatischen Beschreibungen
überhaupt, die sich nämlich schon in der altindischen Grammatiktradition bei Panini wiederfindet: Grammatische Regeln können zueinander in Konflikt stehen, und die Lösung des Konflikts geschieht
nicht durch eine Komplizierung der Regeln oder Prinzipien, sondern
Wie ihr Gebrauch die Sprache prägt*
23
durch die Entwicklung einer separaten Theorie der Lösung von Konflikten.
Betrachten wir zunächst ein einfaches Beispiel. Um etwa die Daten
in (10) im Englischen zu erfassen, könnten wir ein Beschreibungssystem wie (11) postulieren.
(10) a. (when) a man loves a woman
b. *(when) a man a woman loves
c. *(when) loves a man a woman
(11) a. Ein Objekt folgt dem Verb
b. Das Subjekt geht dem Verb voran
(11) kann aber so nicht korrekt sein, wie man an (12) sieht. Man
kann versuchen, die Beschreibungsadäquatheit der Grammatik dadurch sicherzustellen, dass die Regel in (11a) verkompliziert wird,
wie in (13a) ausgeführt.
(12) a. who does a man love?
b. *a man loves who?
c. every girl who a man loves
d. *every girl a man loves who
(13) a. Ein Objekt folgt dem Verb, es sei denn, es wäre ein Frageoder Relativpronomen, in welchem Falle es dem Subjekt
und dem Verb vorangeht.
b. Das Subjekt geht dem Verb voran.
Allerdings ist auch (13a) nicht korrekt, wie man (14) sieht. Das Objekt kann im Fragesatz nur dann von seiner kanonischen Position abweichen, wenn nicht gleichzeitig das Subjekt erfragt wird (14a,b)
oder why im Satz vorkommt (14c,d), aber es muss abweichen, wenn
das zweite Fragewort im Satz Teil eines Präpositionalausdrucks ist
(14e,f). Wenn man will, kann man (13a) wie in (15a) angedeutet weiter verkomplizieren.
24
Gisbert Fanselow
(14) a. *who does who love?
b. who loves who(m)
c. why does she love whom?
d. *who does she love why?
e. what did she give to whom?
f. *who did she give what to
(15) a. Ein Objekt folgt dem Verb, es sei denn, es wäre ein Frageoder Relativpronomen, in welchem Falle es dem Subjekt
und dem Verb vorangeht. Diese zweite Klausel gilt aber
nicht, wenn gleichzeitig das Subjekt erfragt würde, oder
how und why an die Satzspitze zu stellen ist.
b. Das Subjekt geht dem Verb voran.
Die Grammatikalität eines Satzes wie (16) mit drei Fragewörtern
mag dann Anlass genug sein, vom Versuch weiterer Verkomplizierungen Abstand zu nehmen: ein Ende der Komplexität scheint nicht
in Sicht!
(16) who wonders what who bought for Mary?
Ganz offensichtlich kann man aber eine viel einfachere Beschreibung
der Fakten finden, wenn man erlaubt, dass Prinzipien in Konflikt
miteinander geraten können, und sich im Konfliktfalle nur eines der
Prinzipien durchsetzt. Die Prinzipien sind dann nicht mehr "oberflächentreu" in dem Sinne, dass sie in jedem Satz erfüllt sind, aber die
resultierende Beschreibung ist wesentlich einfacher.
Für die Sätze in (10) gibt es keinen Grund, von (11) abzuweichen.
Für (12) fügen wir das Prinzip (11c) hinzu:
(11) a. Das Objekt folgt dem Verb
b. Das Subjekt geht dem Verb voran
c. Ein Fragesatz muss mit einem Fragewort beginnen, ein Relativsatz mit einem Relativpronomen
Wie ihr Gebrauch die Sprache prägt*
25
Ist in einem Fragesatz nur das Objekt ein Fragewort, dann stellen
(11a) und (11c) nicht miteinander vereinbare Forderungen an die
Satzstruktur: das Objekt kann nicht gleichzeitig hinter dem Verb und
an der Satzspitze stehen. Offensichtlich löst das Englischen diesen
Konflikt so, dass (11c) Vorrang von (11a) hat.
Mit dieser Beschreibung wird uns (14a,b) schon fast geschenkt. Denn
wenn das Subjekt selbst ein Fragewort ist, können wir durch die
Anordnung who loves whom einen Satz bilden, der alle Forderungen
in (11) erfüllt. Die Ungrammatikalität von (14a) zeigt also, dass
Prinzipien nur dann verletzt werden dürfen, wenn dies (wie im Falle
von (12)) unvermeidbar ist.
Für (14c,d) müssen wir auf der Basis dessen, was wir bislang vorgebracht haben, nichts weiter sagen, denn (14c) verletzt kein Prinzip.
Für eine komplette Grammatik wäre dies wohl nicht die korrekte Beschreibung. Für (14e,f) postulieren wir (11d), ein Prinzip, das wir
wegen (15) ohnedies benötigen. Dann verletzt (14e) nur ein Prinzip
(nämlich (11a) wegen (11c)) und (14f) dagegen zwei ((11a) und
(11d)), denn to-Objekte sind Objekte, und scheidet daher aus.
(11) d.
Ein to-Objekt, und alles was darinnen steht, folgt dem
direkten Objekt
(15) a. I gave the book to a girl
b. *I gave to a girl the book
Wir sehen also: wenn man Konflikte zwischen Prinzipien zulässt,
und eine Theorie der Konfliktresolution besitzt, dann kann man die
Prinzipien der Grammatik erheblich einfacher formulieren. Möglicherweise reflektiert dies die Tatsache, dass an den Satzbau die Einfachheitsforderungen sehr vieler verschiedener Teilaspekte der
Sprachfähigkeit herangetragen werden. Diese kommen aus verschiedenen Quellen und müssen daher nicht ohne weiteres kompatibel
sein. In jedem Falle deutet sich durch den Konfliktaspekt aber eine
26
Gisbert Fanselow
Lösung des Grundproblems der Rektions- und Bindungstheorie an:
Wenn die Prinzipien nicht (anders als in Chomsky 1981) oberflächentreu sein müssen, weil sie im konkreten Einzelfalle durch wichtigere Prinzipien außer Kraft gesetzt werden können, dann muss auch
die Erweiterung der empirischen Datenbasis nicht ohne weiteres zu
einer immer komplexeren Formulierung der Prinzipien führen.
Somit ist (genau wie bei Dinosauriern und Vögeln) die Rektions- und
Bindungstheorie im Grunde nicht wirklich tot, sondern in die optimalitätstheoretische Syntax überführt worden, die viele - wenn nicht gar
alle - Annahmen zur Konfliktlösung ihrem Pendant in der Phonologie, in Prince & Smolensky (1993) entwickelt, entlehnt hat. Spezifisch vertritt sie die folgenden vier Annahmen:
1. Die Grammatik besteht aus einem System sehr einfacher Prinzipien
Im besten Falle kann man diese Prinzipien aus Forderungen der
Interaktion mit anderen Teildomänen der Sprache bzw. aus Einfachheitsforderungen für die Syntax herleiten. In diesem Falle würde sich die Prinzipienstruktur von der im minimalistischen Programm nicht wesentlich unterscheiden.
2. Diese Prinzipien können in Konflikt zueinander stehen, und sind
daher nicht notwendigerweise oberflächentreu.
Auch diese Annahme findet sich im Minimalistischen Programm
indirekt wieder
3. Die Konfliktresolution geschieht lexikographisch: die Prinzipien
sind hierarchisch geordnet. Eine Struktur S ist dann und nur dann
grammatisch, wenn gilt: verglichen mit jeder anderen Strukturalternative T verletzt S das höchste Prinzip H, bezüglich dessen
sich S und T unterscheiden, weniger oft als T.
Wie ihr Gebrauch die Sprache prägt*
27
Konflikte im Minimalistischen Programm werden im Grundsatz
auch so gelöst, sie spielen aber eine zu geringe Rolle, als dass man
dort (3) als Strategie identifizieren könnte.
4. Sprachen unterscheiden sich nicht in den Prinzipien die sie regieren, sondern allein in der Hierarchie der Prinzipien
Diese Annahme wird vom Minimalistischen Programm abgelehnt.
Letztlich gibt es also bezüglich 1. bis 3. einen nicht immer erkannten
Konsens in der aktuellen Syntaxforschung. Die Annahme 4 ist zwar
nicht für die aktuelle Darstellung, aber für das ihr zugrundeliegende
System (siehe Fanselow. Schlesewsky, Ćavar & Kliegl, 1999,
Fanselow, Schlesewsky & Frisch, 2001) von Bedeutung, so dass sie
dennoch kurz illustriert werden soll.
Betrachtet man z. B. das Englische, so stellt man fest, dass jeder Satz
ein Subjekt aufweist. Im Deutschen trägt jedes Subjekt den Nominativ. Wir können beide Generalisierungen tentativ als Prinzipien
im Hierarchiesystem der Grammatik ansetzen (16a,b).
(16) a. Jeder Satz hat ein Subjekt
b. Jedes Subjekt steht im Nominativ
Verben bestimmen ferner den Kasus ihrer Objekte: sehen regiert den
Akkusativ, gedenken den Genetiv, und helfen den Dativ. Anders als
beim Akkusativ oder beim Genetiv muss ein verbal regierter Dativ
auch wirklich immer morphologisch realisiert werden (16c).
(16) c. Ein verbal regierter Dativ muss morphologisch realisiert
werden
Betrachten wir den Satz (17a). Beim Passiv wird das aktive Subjekt
(der Polizist) entweder weggelassen oder durch einen Ausdruck wie
vom Polizisten ersetzt. Normalerweise wird dann das „alte“ Objekt
zum Subjekt (wie in dass der Polizist vom Kind gesehen wurde), damit (16a) erfüllt wird. Es ergibt sich wegen (16b) für das Aktivobjekt
28
Gisbert Fanselow
ein Kasuswechsel zum Nominativ (vgl.: dass das Kind den Polizisten
sieht). Dass dies beim Passiv von (17a) auch geschieht, dem steht
(16c) entgegen: der Kasuswechsel zum Nominativ wird blockiert, so
dass die Konstruktion (17b) - unter Verletzung von (16a)- subjektlos
ist.
(17) a. dass der Polizist dem Kind helfen wird
b. dass dem Kind (vom Polizisten) geholfen wird
(17b) entsteht genau dann., wenn (16c) das wichtigste Prinzip ist,
gefolgt von (16b) und (16a) in dieser Reihenfolge.
Sollten sich nun Sprachen dadurch unterscheiden können, dass sie
zwar dieselben Prinzipien verwenden, aber diese anders hierarchisieren, dann erwarten wir eine Sprache zu finden, in der die Hierarchie der Prinzipien z. B. (16a) > (16b) > (16c) ist. In dieser Sprache
ist es wichtiger, in jedem Satz nominativische Subjekte zu haben, als
die Dativrektion eines Verbs zu respektieren. Solch eine Sprache ist
Färöisch:
(18) Teir
hjálpa
sie helfen
hann
honum
ihm. DAT
varδ hjálptur
er. NOM wird geholfen
Übrigens erhält man (18) auch dann, wenn (16b) > (16a) die von der
Sprache verwendete Hierarchie ist.
Ist (16a) das wichtigste Prinzip, aber (16c) > (16b), so hätten die
Sätze zwar Subjekte, aber diese würden im Dativ erscheinen. Auch
solche Sprachen existieren, wie etwa Isländisch zeigt. Eine ganze
Batterie grammatischer Tests weist den Dativ in (19) hier als Subjekt
aus. Beispielsweise sind Infinitivkonstruktionen wie in (20) denkbar,
ganz anders als im Deutschen.
29
Wie ihr Gebrauch die Sprache prägt*
(19) honum
ihm. DAT
var
hjalpað
wurde geholfen
(20) ég vonast til að
ich hoffe
verða
auf dass (zu) werden
hjalpað
geholfen
*ich hoffe, geholfen zu werden
Solche und weitere Beispiele zeigen, dass zwischensprachliche Variation durch Umordnungen einfacher Prinzipien erfasst werden
kann.
Zentral ist in der Optimalitätstheorie, dies sei betont, die lexikographische Lösung der Konflikte zwischen den Prinzipien: Das höchste
unterscheidende Prinzip entscheidet stets den Wettbewerb. Der
Begriff „lexikographisch“ erklärt sich wie folgt. Im Lexikon ordnen
wir die Wörter so, dass zunächst ihr erster Buchstabe über die Reihenfolge entscheidet (Katze vor Tiger und Zebra). Wo der erste
Buchstabe keine Entscheidung erlaubt, erfolgt diese durch den zweiten (Katze vor Kitze), wo auch der zweite keine Ordnung herstellt,
betrachtet man den dritten (Katze vor Kauz), u.s.w. Es gibt insbesondere keine "kompensatorischen" Effekte. Von vorne gesehen entscheidet immer der erste Buchstabe, durch den sich zwei Wörter unterscheiden, über deren Reihenfolge. Die weiteren Buchstaben sind
irrelevant. Daher finden wir Azur immer vor Esel, obwohl hinsichtlich aller Buchstabenpositionen außer der ersten Esel im Alphabet
Azur vorangeht.
Analog werden in der Optimalitätstheorie konkurrierende Strukturen
S und T hinsichtlich der Hierarchie der Prinzipien betrachtet, die
man von oben nach unten abarbeitet. Das oberste der Prinzipien, bezüglich dessen sich S und T unterscheiden, entscheidet auch zwischen S und T. Ist S hier besser, dann kann T nicht grammatisch sein,
auch wenn T bezüglich aller tiefer liegenden Prinzipien besser ist als
S. Die Verletzung eines Prinzips X kann nur durch Beachtung höhe-
30
Gisbert Fanselow
rer Prinzipien gerechtfertigt sein, niemals durch die Beachtung auch
vieler weniger wichtiger Prinzipien.
Tatsächlich ist die Syntax (wie die Phonologie) in ihrem Kernbereich
niemals kompensatorisch. Gelegentlich wird für (schwache) kompensatorische Effekte in der Konfliktresolution argumentiert, so etwa bei
der Interaktion des semantischen Bereichs von Quantoren wie jeder,
mindestens einer oder bei der Reichweite von Bewegungsprozessen.
Die wenigen Beispiele entstammen Bereichen mit unscharfer Datenlage, sind manchmal mit weiteren Problemen verbunden, und betreffen meist die Schnittstelle Syntax-Semantik eher als die Syntax
selbst. Man sollte sie also nur mit Vorsicht bei der Theoriebildung
interpretieren, In jedem Falle gibt es relativ konservative Verfahren,
sie in die Optimalitätstheorie zu integrieren, ohne die Ausdruckskraft
der Theorie zu sehr zu erweitern (Fischer, 2001). Wegen der angesprochenen Probleme der Datenbasis scheint der Beweis der Existenz
kompensatorischer Konfliktresolution in der Syntax keinesfalls erbracht.
4. Die Grammatik im Sprachverstehen
Dass die Lösung von Konflikten einen herausragenden Stellenwert
einnehmen kann, ist für die Syntaxtheorie eine Erkenntnis jüngeren
Datums. Für die Theorie des menschlichen Sprachverstehens, fokussiert auf den Bereich der Satzanalyse (Parsing), stellt sie quasi das
tägliche Brot dar.
Syntaktische Strukturen sind manchmal "global mehrdeutig": Wir
können einer Kette vor Wörtern nach den Regeln des Deutschen
mehrere Analyse zuordnen. Das ist etwa bei (21) so.
(21) a. dass der Arzt der Schauspielerin helfen wollte
b. dass das Kind auf dem Klavier spielte
Wie ihr Gebrauch die Sprache prägt*
31
Solche syntaktischen Mehrdeutigkeiten sind immer dann gut erkennbar, wenn sie zu Bedeutungsunterschieden führen. Sie können mit
einer Kasusmehrdeutigkeit verbunden sein (man vergleiche das Verschwinden der Mehrdeutigkeit bei dass der Arzt des Schauspielers
helfen wollte vs. dass der Arzt dem Schauspieler helfen wollte). Die
Mehrdeutigkeiten lösen sich auf, wenn man die Satzstellung entsprechend verändert, so dass jeweils nur eine einzige grammatische Analyse möglich ist (das Kind spielte auf dem Klavier -- das Kind auf
dem Klavier spielte).
Eine wesentlich größere Rolle für die Theorie der menschlichen
Sprachverarbeitung spielen die "lokalen Mehrdeutigkeiten". Sätze
werden ja inkrementell verarbeitet, d. h., wir warten mit der syntaktischen und semantischen Analyse dessen, was wir hören oder lesen,
nicht bis der Satz fertig ist, sondern verarbeiten jedes Wort im Inputstrom, sobald wir es wahrgenommen haben. Ein Teil eines Satzes ist
nun im strikten Sinne lokal mehrdeutig, wenn dieser Teil des Satzes
mehrere Analyse zulässt, aber die Mehrdeutigkeit von späteren
Elementen im selben Satz aufgelöst wird. So ist in (22) das Segment
der Arzt der Schauspielerin genauso mehrdeutig wie in (21), aber die
Mehrdeutigkeit wird -in verschiedener Weise- durch die nachfolgenden Wörter aufgelöst.
(22) dass der Arzt der Schauspielerin dem kranken Kind geholfen
hat
dass der Arzt der Schauspielerin und nicht dem kranken Kind
geholfen hat
Lokale Mehrdeutigkeiten stellen potenziell ein erhebliches Problem
für die menschliche Sprachverarbeitung dar. Wir verarbeiten Sätze
inkrementell, also versuchen, jedes Wort zu verarbeiten, sobald wir
es wahrgenommen haben. Im Falle einer lokalen (oder globalen)
Mehrdeutigkeit ist es aber – grammatisch betrachtet – gar nicht
32
Gisbert Fanselow
gerechtfertigt, eine der Optionen bevorzugt zu behandeln. Eigentlich
müssten „alle“ Analysen berechnet werden (und hier kann die Zahl
der Alternativen sich leicht explosiv vermehren) oder auf die
Information gewartet werden, die alle bis auf eine Strukturoptioen
ausschließt
(das
ist
aber
ggf.
zu
zeitraubend
für
effektive
Sprachverarbeitung).
Wie geht der Mensch mit dieser Mehrdeutigkeit, dem Konflikt von
verschiedenen Analysemöglichkeiten um? Schon introspektive Daten
geben ersten Aufschluss darüber, wie Menschen Syntax verarbeiten.
Manchmal können wir die einzige korrekte Analyse eines Satzes
nicht erkennen. Wir verstehen den Satz nicht, und müssen erst auf
die richtige Struktur aufmerksam gemacht werden. In (23a) findet
sich der erste, von Bever (1970) in die wissenschaftliche Diskussion
eingebrachte sogenannte Holzwegsatz. Alle Sätze in (23) sind
wohlgeformt, aber kaum analysierbar. Deutsche Entsprechungen sind
(aus guten Gründen) etwas schwerer zu finden, aber die Beispiele in
(24) sind für viele Muttersprachler nur unter großen Mühen zu
verstehen.
(23) a. the horse raced past the barn fell down
b. cotton shirts are made of grows in Mississippi
c. he told the girl that he had kissed the truth
(24) dass der Entdecker von Amerika bestimmt erst am Vorabend
auf dem Schiff erfahren hatte
dass man Frauen die man sehr liebt vertrauen muss
dass Maria zugunsten von Fritz bestimmt nichts unternommen
wurde
Von Holzwegsätzen (garden path sentences) spricht man deswegen,
weil man die Verarbeitungsschwierigkeiten wie folgt erklären kann.
Ein Satz wird von links nach rechts verarbeitet, und bei einem bestimmten Wort - in (23a) bei raced - tritt eine lokale Mehrdeutigkeit
Wie ihr Gebrauch die Sprache prägt*
33
auf. Raced könnte das finite Verb eines Hauptsatzes sein - wie in the
horse raced into the woods - , es könnte aber auch das Passivpartizip
des transitives Verbs race im Sinne von "hetzen" sein. Das wäre eine
Konstruktion wie in the book given to the children was very
interesting, oder in This is a symphony composed by Benjamin
Britten. Dies wäre für (23a) eine erfolgreiche Hypothese (siehe the
horse which was raced past the barn fell down), während die
Analyse von raced als Hauptverb uns in die Irre, auf den Holzweg
führt. Wenn wir meinen, dass der Satz so anfängt wie das Pferd
rannte hinter die Scheune, dann können wir das plötzlich auftretende
Verb fell nicht mehr integrieren.
Charakteristisch für die Sätze in (23) und (24) ist also: von den zwei
Analyseoptionen, die sich zu einem Zeitpunkt stellen, ist die eine so
dominant, dass wir uns bei der Satzverarbeitung für sie entscheiden.
Der Konflikt wird in eindeutiger Weise aufgelöst. In (23) und (24) ist
die Dominanz so stark, dass wir die dominierte Lösung nur unter
größten Anstrengungen erkennen. Vom Holzweg kommen wird nicht
mehr herunter, man könnte die Strukturen auch Sackgassensätze
nennen. Die Sackgasse in (23b) entsteht durch die Analyse von
cotton shirt als "Baumwollhemd", welche die Alternative eines
Relativsatzes ohne Relativpronomen dominiert ((the) cotton (which)
shirts are made of grows in Mississippi). In (23c) dominiert die
Analyse von that he has ... als Satzergänzung von tell, und blockiert
die korrekte Analyse als Relativsatz (he told the girl who/that he had
kissed the truth).
Sackgassensätze legen also nahe, dass die Sprachverwender bei der
Satzanalyse im Falle einer grammatischen lokalen Mehrdeutigkeit
häufig (oder immer) nicht sofort alle möglichen Analysen errechnen
(das wäre das sogenannte parallele Parsen), sondern sich unbewusst
34
Gisbert Fanselow
für eine der beiden (oder der mehreren) Optionen entscheiden, und
zwar in systematischer Weise immer für dieselbe.
Die psycholinguistische Forschung ist nun nicht auf Sackgassensätze
angewiesen, um die Existenz von systematisch präferierten Lesarten
im Falle lokaler Mehrdeutigkeiten nachzuweisen, also um zu zeigen,
dass man bei konfligierenden Analysemöglichkeiten in der Regel
eine (und zwar jeweils dieselbe) Option vorzieht. Präsentiert man
beispielsweise Versuchspersonen auf einem Bildschirm wort- oder
satzgliedweise Sätze wie (25), so kann man in (25b) gegenüber (25a)
und in (25d) gegenüber (25c) jeweils für das Hilfsverb haben eine
Erhöhung der Lesezeit messen.
(25) a. welche Frau aus der Vorstadt hat die Männer angerufen?
b. welche Frau aus der Vorstand haben die Männer angerufen?
c. welche Frauen aus der Vorstadt haben den Mann angerufen
d. welche Frauen aus der Vorstadt hat der Mann angerufen
Da die erhöhte Lesezeit einmal bei hat, und einmal bei haben auftritt, kann sie nichts mit dem Wortformunterschied per se zu tun haben. Die Erklärung ist dennoch denkbar einfach: offenbar haben wir
als Sprecher (Hörer, Leser) des Deutschen die starke Präferenz,
welche Frau bzw. welche Frauen in satzinitialer Position als Subjekt
zu verstehen. Zeigt das nachfolgende Verb - wie in (25b,d) - auf
Grund der mangelnden Kongruenz an, dass diese Analyse falsch ist,
so müssen wir die Satzstruktur umbauen (und welche Frau(en) als
Objekt deuten), und dieser Umbau kostet anscheinend Zeit - was wir
in der Lesezeitveränderung relativ zu (25a,c) feststellen, den Beispielen also, bei denen sich die Subjektanalyse von welche Frau(en)
bewährt. Nicht jeder Holzweg führt uns in eine Sackgasse ohne Wendemöglichkeit, aber auch dann können wir oft die strukturelle Präferenz in Lesezeitvergleichen messen. In der aktuellen Forschung setzt
man oft aufwendigere Verfahren wie z. B. die Ableitung von Hirn-
Wie ihr Gebrauch die Sprache prägt*
35
strömen im EEG (ereigniskorrelierte Potentiale, EKP/ERP) ein, mit
denen sich noch mehr Lesartpräferenzen nachweisen lassen.
Nach einer sehr bedeutsamen (aber nicht alternativlosen) Sicht des
Sprachverarbeitungsprozesses, die vor allem mit dem Namen von
Lyn Frazier und Chuck Clifton verbunden wird, wird bei grammatischen Mehrdeutigkeiten in der Syntax (zumindest in ihrem Kernbereich) immer systematisch eine Analyse vorgezogen, und dies geschieht auf der Basis von formal-syntaktischen Strategien. Dieser gut
begründeten Sichtweise schließe ich mich hier an.
Eine entscheidende Frage ist, ob die Strategien, mit denen wir in der
on-line Sprachverarbeitung unbewusst eine Entscheidung zwischen
den konkurrierenden Analysen treffen (und manchmal dabei auf den
Holzweg geraten) mit den Prinzipien der Grammatik identisch sind
oder nicht. Frazier & Clifton (1996) geben eine negative Antwort,
dahingegen Pritchett (1993), Phillipps (1996), oder Fanselow et al.
(1999, 2001) eine positive. Offensichtlich hat die korrekte Antwort
viel damit zu tun, welches Grammatikmodell man verwendet, und
nach Sicht von Fanselow, Schlesewsky und Kollegen ergeben sich
bei der Optimalitätstheorie besonders positive Ergebnisse. Das kann
man am folgenden Beispiel leicht nachvollziehen.
Das oben eingeführte Prinzip (16a) "jeder Satz hat ein Subjekt" kann
man nur dann in einer deutschen Grammatik postulieren, wenn Sätze
dieses Prinzip im Interesse der Beachtung wichtigerer Prinzipien
missachten dürfen, wie das in der Optimalitätstheorie möglich ist.
Denn in einigen deutschen Sätzen findet sich ja kein Subjekt:
(26) dass dem Kind geholfen wurde
dass mir schlecht ist
dass mich friert
dass im Saal gelacht und getanzt wurde
36
Gisbert Fanselow
In einer Grammatik, die keine Konflikte zulässt, dürfen wir (16a)
nicht annehmen. In einer Grammatik mit Konflikten ist (16a)
dagegen hilfreich - und macht darüber hinaus auch Aussagen zur präferierten Struktur in (25)!
Der Grundgedanke stammt vom Bruce Tesar (1995), und besagt in
etwa folgendes: wenn wir einen Satz von "links nach rechts" analysieren, dann konstruieren wir zu jedem Analysezeitpunkt die Teilstruktur, die lokal die optimalitätstheoretischen Prinzipien am besten
erfüllt. Hat man nun z. B. welche Frau wahrgenommen, so konstruiert man für die verschiedenen Optionen eine partielle Satzstruktur. In der Analyse A ist welche Frau das Subjekt des Satzes, in
der anderen Analyse B ist welche Frau das Objekt. A und B werden
– solange man nur welche Frau gehört hat - eine Vielzahl von sehr
wichtigen Satzbauprinzipien des Deutschen verletzen. Sätze ohne
Verben oder Hilfsverb sind im Deutschen ja nicht zugelassen, und in
den postulierten Satzstrukturen für A und B kann sich noch kein
Verb befinden, weil noch keines wahrgenommen wurde.
In einer optimalitätstheoretischen Analyse kommt es aber nicht
darauf an, ob man überhaupt Prinzipien verletzt (jeder Satz verletzt
irgendein Prinzip!), sondern das relative Verletzungsprofil der konkurrierenden Kandidaten ist entscheidend. Weil sowohl die Annahme
A: "hier ist ein Satz, in dem welche Frau das Subjekt ist" als auch
die Annahme B: "hier ist ein Satz, in dem welche Frau das Objekt
ist" das „Problem“ mit dem fehlenden Verb aufweisen, ist dieses
Problem für die Akzeptabilität einer Analyse unerheblich. In der
Optimalitätstheorie muss der Gewinner nur besser sein, nicht unbedingt auch gut.
Es gibt aber durchaus einige Prinzipien, hinsichtlich derer sich die
Alternativen A und B unterscheiden. In A haben wir ein Satzsubjekt
gefunden, in B hingegen nicht. A erfüllt also (16a), B aber nicht. Da
Wie ihr Gebrauch die Sprache prägt*
37
es nun kein höher als (16a) hierarchisiertes Prinzip zu geben scheint,
welches A verletzt, aber B nicht, zeichnet die Links-nach-RechtsAnwendung der optimalitätstheoretischen Prinzipien die Alternative
A (die Annahme, welche Frau sei ein Subjekt) korrekt als Gewinner
aus. Anders formuliert: wenn das menschliche Sprachverarbeitungssystem einfach versucht, bei der Satzverarbeitung von links nach
rechts die Prinzipien der Grammatik immer wieder anzuwenden, so
führen diese nach Wahrnehmung von welche Frau zu eiuer Strukturanalyse, in der welche Frau als Subjekt des noch zu vervollständigen
Satzes interpretiert wird. Dies entspricht, wie gesagt, auch genau
dem, was man in der Psycholinguistik durch Lesezeit- oder EEGExperimente festgestellt hat.
Hätten wir dagegen welcher Frau wahrgenommen, so würde die
Subjektsanalyse zwar durch (16a) favorisiert, aber weil (16b) (also:
Subjekte haben den Nominativ) wichtiger als (16a) im Deutschen ist,
verwerfen wir als Sprachverarbeiter hier schon im ersten Schritt die
inkorrekte Analyse, und erkennen welcher Frau als Objekt.
Unsere erste Hypothese, entlehnt aus Fanselow et al (1999), ist also:
[I] Parsingpräferenzen lassen sich (von wenigen Ausnahmen
abgesehen) erklären durch inkrementelle Anwendung der optimalitätstheoretischen Prinzipien von links nach rechts.
Eine Illustration von [I] durch weitere Beispiele findet sich in der
eben zitierten Arbeit von Fanselow et al. Dort versuchen wir auch,
entgegen der Sicht von Gibson & Broihier (1998) zu zeigen, dass bei
Verwendung geeigneter Prinzipienformulierung die Konfliktresolution im grammatisch regierten Bereich lexikographisch erfolgt. Das
heißt: wenn sich der menschliche Parser zwischen zwei Strukturanalysen X und Y zu entscheiden hat, und die Cues w 1 ,...,w n für x, und
v 1 ,...,v m für Y sprechen, dann entscheidet nur der ranghöchste dieser
Cues. Die Cues werden nicht gegeneinander verrechnet,
38
Gisbert Fanselow
[II] Wie in der Grammatik ist die Konfliktlösung beim inkrementellen Parsing lexikographisch, folgt also allein der grammatischen Hierarchie der Prinzipien.
5. Das Sprechen in der Sprache
Wenn Grammatik und Parser dieselbe Grundstruktur haben, wenn
beide mit denselben verletzbaren Prinzipien in derselben Hierarchisierung arbeiten, wenn beide ihre Konflikte lexikographisch lösen,
dann stellt sich die Frage, warum diese Übereinstimmung besteht.
Zwei naheliegende Antworten sind die in A1 und A2:
A1:
Das Sprachverarbeitungssystem hat sich der Grammatik optimal angepasst
A2:
Die Grammatik hat eine lexikographische Konfliktresolutionsarchitektur, weil dies eine optimale Sprachverarbeitung
ermöglicht.
A1 ist eine Sichtweise, die vom Primat des sprachlichen Wissens
ausgeht, und sich dann - wie Chomsky 1986a - die Frage stellt: wie
wendet man bei Sprechen und Verstehen diese Wissensstruktur am
besten an? Nach A2 hat sich dagegen die „Sprache“ den Bedingungen ihrer Verarbeitung optimal angepasst.
Hinweise, die bei einer Entscheidung zwischen A1 und A2 hilfreich
sein mögen, erhält man, wenn man nicht-linguistische Fragen in die
Betrachtung mit einbezieht. Die Lösung von Konflikten bei verschiedenen Typen von Entscheidungsproblemen ist auch ein Gegenstand
der kognitiven und der Motivationspsychologie (vgl. etwa Todd &
Gigerenzer 2000 für einen lexikographischen Ansatz). Aus diesem
Bereich stammt eine einfache Überlegung zu Vorteilen der lexikographischen Konfliktlösung im Vergleich mit Verfahren, die kompensatorische Effekte berücksichtigen, in dem sie z. B. die Gewichte
39
Wie ihr Gebrauch die Sprache prägt*
aller Prinzipien/Kriterien miteinander verrechnen. Bei einer lexikographischen Entscheidung wird man niemals mehr, aber im Regelfalle erheblich weniger Prinzipien/Constraints/Kriterien zu analysieren haben als in den gewichtenden Verfahren. Gewichtende Verfahren berücksichtigen alle Kriterien, lexikographische Konfliktresolution kann dann abbrechen, sobald das höchste Prinzip P analysiert
ist, bezüglich dessen ein Kandidat K besser ist als alle (verbleibenden) Mitstreiter. Das entscheidende Prinzip P kann zwar das tiefste
sein, muss es aber nicht, und in letzteren Fällen ergibt sich der potentielle Vorteil des lexikographischen Verfahrens.
Wenn die Verarbeitung der Cues nicht parallel abläuft, so ergibt sich
ein Zeitvorteil des lexikographischen Verfahrens. Wenn die Analyse
von Kriterien kognitiv kostenträchtig ist, so ergibt sich ein Kostenvorteil. Experimentell zeigt sich, dass Probanden bei bewussten Entscheidungsaufgaben signifikant häufiger zur lexikographischen Strategie greifen, wenn sie ihre Entscheidung unter Zeitdruck zu treffen
haben, oder wenn die Information zur Kriterienauswertung Kosten
verursacht (Rieskamp & Hoffrage 1999, Bröder 2000, Bröder &
Eichler 2001). Allerdings beeinflussen weitere Faktoren die Auswahl
der Konfliktresolutionsstrategie (z.B. die numerische Intelligenz),
und
allgemein
ist
die
experimentelle
Befundlage
zu
Thema
Strategiewahl eher noch unbefriedigend. Dies ändert freilich nichts
an der Richtigkeit der grundsätzlichen Überlegung zum Vorteil
lexikographischer Strategien bei nicht-parallelen Prozessen.
Syntaxverarbeitung findet nun unter Zeitdruck statt, weil Sprecher
beim Reden nicht unbegrenzt auf Hörer warten, und weil sich das
Problem der Überlastung der phonologischen Schleife des Arbeitsgedächtnis ergeben würde, wenn der menschliche Parser nicht schnell
genug für die wahrgenommenen Satzteile eine Interpretation errechnet. Wenn die Parallelität in der Syntaxverarbeitung in der relevanten
40
Gisbert Fanselow
Hinsicht (Überprüfung der Erfüllung der verschiedenen Satzaufbauprinzipien) begrenzt ist, so sollte Grammatikverarbeitung in der Konfliktlösung lexikographisch organisiert sein (oder auch dann, wenn es
anderweitig energetisch unvorteilhaft wäre, alle Kriterien zu berücksichtigen).
Angesichts des erheblichen Vorteils der lexikographischen Strategie
kann man sich fragen, warum sie nicht die einzige vom Menschen
angewendete ist. Optimal ist eine Strategie aber nur dann, wenn sie
schnell und akkurat ist. In der Sprachverarbeitung würde es dem Hörer wenig nützen, wenn er oder sie zwar schnell zu einer Analysehypothese gelangte, diese aber in vielen oder gar den meisten Fällen
später wieder zu revidieren hätte.
Die lexikographische Konfliktresolution ist also nur dann in der
Sprachverarbeitung optimal, wenn sie genügend oft korrekte Vorhersagen über die zu analysierende Satzstruktur machen kann. Das ist
verbunden mit der optimalitätstheoretischen Struktur der Grammatik,
aber letztere ist keine hinreichende Bedingung für den Erfolg des lexikographischen Parsens mit der Grammatikhierarchie. Wir müssen
vielmehr die Hypothese [III] vertreten.
[III] Grammatiken sind nicht wirklich hinterhältig.
Bezüglich eines Satzes S ist eine Grammatik G unter der folgenden
Bedingung "hinterhältig": Prinzip P ist wichtiger als Prinzip Q, und
daher muss der Satz global die Analyse K2 aufweisen. Der Anfang
des Satzes S enthält keine Information, für die P einschlägig ist. Q
favorisiert aber die Analyse K1. Erst am Ende des Satzes taucht Information auf, für P einschlägig ist, und P favorisiert K2. Bei einer
Satzverarbeitung von „links nach rechts“ operiert der Sprachverarbeiter also eine ganze Zeit lang mit der inkorrekten Analyse K1, weil
die Information für K2 und gegen K1 erst sehr spät kommt. Bezüglich des Satzes dass die Frau gestern abend wahrscheinlich ihre Kin-
Wie ihr Gebrauch die Sprache prägt*
41
der angerufen haben ist das Deutsche also hinterhältig, aber nicht etwa bezüglich dass den Mann gestern abend wahrscheinlich seine
Kinder angerufen haben. Anders gesagt: die Grammatik ist bei Holzwegsätzen hinterhältig.
Eine Grammatik G sei „wirklich hinterhältig“, wenn sie bezogen auf
einen genügend großen Anteil des sprachlichen Inputs hinterhältig
ist. Das Deutsche ist bezogen auf die Subjektpräferenz nicht hinterhältig. Ungefähr 90 Prozent aller Sätze, die mit einer Nominalphrase
beginnen, sind auch subjektsinitial - und unter den 10 Prozent objektsinitialen (etwa 6 Prozent aller Sätze) sind auch viele mit eindeutiger Kasusmarkierung des voranstehenden Objekts, bei denen das
Objekt sofort als Objekt erkannt werden kann, so dass der Satz nicht
hinterhältig ist. Nur bei was-Fragen scheint Deutsch hinterhältig zu
sein. Meistens ist ein was am Satzanfang nämlich ein Objekt. Die auf
der Grammatik basierenden Parseprinzipien sagen aber vorher, dass
was am Satzanfang ein Subjekt sein sollte. Wirklich zeigen auch unsere Experimente, dass Sprecher des Deutschen für was die Subjektsanalyse bevorzugen (und daher häufig auf dem Holzweg sind!). Bei
den meisten Satztypen entspricht aber die vom Parser vorgezogene
Analyse auch der in der Sprache häufiger realisierten Struktur. Die
bislang unter dieser Perspektive betrachteten Sprachen sind wohl
allesamt nicht hinterhältig. Sie könnten es aber sehr wohl sein.
Ist Hypothese III korrekt, so kann ein lexikographisch operierender
Parser die Grammatik als Prinzipien- und Hierarchiebasis verwenden, ohne zu oft in die Irre zu gehen. Ist er auf Grund seiner lexikographischen Natur auch schneller als seine Alternativen, so wird er
auch verwendet werden. Zumindest für bewusste Entscheidungen
scheint es ja plausibel, dass Menschen in hervorragender Weise Eigenschaften ihrer Umwelt für eine optimale Entscheidungsfindung
nutzen (Todd & Gigerenzer 2000). Es wäre überraschend, wenn dies
42
Gisbert Fanselow
für die Verarbeitung von Sprache nicht gelten würde. So könnte die
komplette Version von A1 lauten.
Was an A1 stört, ist aber der Bezug auf selbst nicht herleitbare
Eigenschaften des grammatischen Wissens. A 1 besagt, dass sich das
menschliche Sprachverarbeitungssystem effizient den Strukturen der
Grammatik angepasst hat. Für die Grammatik nehmen wir eine optimalitätstheoretische Struktur an, und postulieren daneben, dass sie
nicht wirklich hinterhältig ist. Warum sollte sie so sein? Darauf gibt
A1 keine Antwort. Nun ist vielleicht ein Gott, der nicht würfelt, auch
nicht gemein. Er wird uns keine Sprachen geben, die wir nur umständlich verstehen können.
Aber eigentlich haben wir Menschen uns die Sprachen uns selbst
konstruiert, und daher liegt die Lösung des Problems eher in einer
Umkehrung der Blickrichtung. Konflikte zwischen Prinzipien und
Regeln sind in der online Sprachverarbeitung unvermeidbar. Aber die
Konfliktresolution muss schnell und effizient geschehen. Sofern wir
unsere Grammatikprinzipien nicht hochgradig parallel verarbeiten
können, lässt sich Effizienz und Schnelligkeit vor allem durch lexikographische Konfliktresolution erreichen, Daher haben wir uns
Grammatiken geschaffen, die wir lexikographisch verarbeiten können, die also nicht wirklich hinterhältig sind, und die mit den heuristischen Generalisierungen unseres Parsers auskommen können. Das
ist die Sichtweise A2.
Erschaffen werden die Sprachen dabei nicht von uns erwachsenen
und erfahrenen Sprecher, mit einer vollautomatisierten Syntaxverarbeitung, für die die Differenzen zwischen den einzelnen Analyseoptionen nur noch marginal sein mögen. Erschaffen werden die Grammatik von Kleinkindern, deren Syntaxverarbeitung noch nicht automatisiert ist. Die Notwendigkeit, von Kleinkindern mit begrenztem
Arbeitsgedächtnis und nicht-automatisierter Sprachverarbeitung stets
43
Wie ihr Gebrauch die Sprache prägt*
auf neue rekonstruiert zu werden, ist der entscheidende Flaschenhals
in der Entwicklungsgeschichte der Klasse der Grammatiken. Vielleicht könnten wir Erwachsene mit einer wirklich hinterhältigen
Grammatik leben, die wichtungsbasiert verarbeitet wird. Würden wir
die hinterhältigen Sätze gegenüber unseren Kindern verwenden?
Wohl kaum, aber falls ja, so würden wir kaum verstanden werden,
und die hinterhältigen Sätze gingen zunächst in den Aufbau der kindlichen Grammatik gar nicht erst ein. Irgendwann ist die kritische
Periode des Grammatikerwerbs vorbei, und Sätze, deren Analyse zu
spät kommt, die bestraft bekanntlich das Leben.
Die Natur des syntaktischen Regelsystems scheint also in vielen Hinsichten aus den Bedingungen des Gebrauchs der Syntax ableitbar zu
sein. Stets auf neue rekonstruiert von Tausenden von Generationen
von Kiudern, haben die Grammatiken eine Gestalt angenommen, die
sie optimal an die Erfordernisse lexikographischen Parsens anpasst.
Sprachen sind keine Umwelt, die wir vorfinden, Sprachen sind eine
Umwelt, die wir uns selbst geschaffen haben.
6. Literatur
Alexiadou, Artemis und Gisbert Fanselow, “On the correlation
between morphology and syntax”, in: Proceedings of the Germanic
Syntax Workshop (Arbeitstitel), hg. von
J.W. Zwart und W.
Abraham, Amsterdam, 2001.
Bever, Tom. “The cognitive basis for linguistic structures”, In:
Cognition and the Development of Language, hg. von J. R. Hayes,
New York, 1970.
Bröder, Arndt, 'Take The Best - Ignore The Rest', Untersuchungen
zur
psychologischen
Realität
einer
Entscheidungsheuristik, Lengerich, 2000.
begrenzt
rationalen
44
Gisbert Fanselow
- und Alexandra Eichler, "Individuelle Unterschiede in bevorzugten
Entscheidungsstrategien." Manuskript, Psychologisches Institut der
Universität Bonn, 2001.
Changeux, Jean-Pierre, Der neuronale Mensch, Reinbek bei Hamburg 1984.
Chomsky, Noam, Rules and Representations. New York, 1980.
- Lectures on Government and Binding. Dordrecht, 1981
- Knowledge of Language. London, 1986a.
- Barriers. Cambridge, Mass., 1986b.
- A Minimalist Program for Linguistic Theory, Cambridge, Mass.,
1995
Corbett, G., “Agreement”, in: Handbuch Syntax, hg. von J. Jacobs,
A.v. Stechow, W. Sternefeld, und T. Vennemann. Berlin, 1995:
235-244.
Fanselow, Gisbert, Minimale Syntax, Groningen 1991 (=Groninger
Arbeiten zur Germanistischen Linguistik 32),
- und Sascha W. Felix, Sprachtheorie, Tübingen, 1987.
- Matthias Schlesewsky, Damir Ćavar und Reinhold Kliegl, Optimal
Parsing, Rutgers Optimaly Archive ROA 382, 1999.
- Matthias Schlesewsky und Stefan Frisch Optimal Parsing,
eingereichtes Manuskript, 2001.
Fischer, Silke, “On the integration of cumulative effects into
Optimality Theory”, in: Competition in Syntax, hg. von Gereon
Müller und Wolfgang Sternefeld, Berlin, 2001: 151 - 173.
Fodor, Jerry, The Modularity of Mind, Cambridge, Mass.. 1984.
Frazier, Lyn und Charles Clifton. 1996, Construal, Cambridge,
Mass., 1996.
45
Wie ihr Gebrauch die Sprache prägt*
Gauthier, I, P. Skudlarski, J. C. Gore und A. W. Anderson, 2000. "Expertise
for cars and birds recruits brain areas involved in face recognition". Nature
Neuroscience, Feb. 2000.
Gibson, Ted und Kevin Broihier, “Optimality and Human Sentence
Processing”, in: Is the Best Good Enough? , hg. von Pilar Barbosa et al.
Cambridge, Mass., 1998: 157-196.
Haider, Hubert, Deutsche Syntax – generativ, Tübingen, 1993.
Hawkins, John, A performance theory of order and constituency.
Cambridge, 1994.
Hurford, Jim, “Expression/induction models of language evolution:
dimensions and issues,” in: Linguistic evolution through language
acquisition: formal and computational models, hg. von E. Briscoe
Cambridge, 2000.
Jourdain, Robert, Das wohltemperierte Gehirn, Heidelberg, 1998.
Kager, René, Optimality Theory. Cambridge, 1999.
Kirby, Simon, Function, Selection, and Innateness. Oxford & New
York, 1999.
Koelsch, Stefan, Thomas Gunter, Yves von Cramon, Stefan Zysset,
Gabriele Lohmann und Angela Friederici, A cortical ‘languagenetwork’ serves the processing of music. Ms., Max Planck Institut für
kognitive
Neuropsychologie,
Leipzig,
zur
Veröffentlichung
eingereicht.
Koster, Jan, Domains and Dynasties, Dordrecht, 1987.
- Doelloze Structuren, Dordrecht, 1988. .
Kroch, Anthony, 2001, “Syntactic Change”, In: Handbook of Syntax,
hg. von M. Baltin und C. Collins. London.
Landau, Terry, Von Angesicht zu Angesicht, Heidelberg, 1993.
Maess, Burkhard, Stefan Koelsch, Thomas Gunter und Angela
Friederici, Musical syntax is processed in the area of Broca. Ms.,
46
Gisbert Fanselow
Max Planck Institut für kognitive Neuropsychologie, Leipzig, zur
Veröffentlichung eingereicht.
Müller, Gereon, Elemente der optimalitätstheoretischen Syntax.
Tübingen, 2000.
Phillips, Colin, Order and Structure, Dissertation, MIT, Cambridge,
Mass., 1996.
Pinker, Steven, The Language Instinct, London, 1994.
Pritchett,
Bradley,
Grammatical
Competence
and
Parsing
Performance, Chicago, 1992
Prince, Alan und Paul Smolensky, Optimality Theory. Constraint
Interaction in Generative Grammar. Ms., Rutgers University und
University of Colorado at Boulder, 1993.
Rieskamp, Jörg und Ullrich Hoffrage, "When do people use simple
heuristics, and how can we tell", in: Simple Heuristics that Make us
Smart, hg. von Gerd Gigerenzer, Peter Todd und der ABC Research
Group, New York, 1999: 141-167.
Rose, Stephen, Molecules and Minds, Milton Keynes. 1987.
Sternefeld, Wolfgang, Syntaktische Grenzen, Opladen, 1991.
Tesar, Bruce, Computational Optimality Theory, Dissertation, University of
Colorado, 1995.
Todd, Peter & Gerd Gigerenzer. Précis of Simple Heuristics that
Make us Smart, Behavioral and Brain Sciences 23, 727 – 780.
Wexler, Ken und Peter Culicover, Formal Principles of Language
Acquisition, Cambridge, Mass., 1980.
Herunterladen