Erscheint in: Sybille Krämer und Ekkehard König (eds) Gibt es eine Sprache hinter dem Sprechen? Frankfurt, Suhrkamp Taschenbücher Wissenschaft Vermutlich Herbst 2002 2 Gisbert Fanselow Wie ihr Gebrauch die Sprache prägt* Gisbert Fanselow 1. Einleitung Es hat wohl mit Weicheiern, Beckenrandschwimmern und Schattenparkern begonnen, was binnen kürzester Zeit, über TeletubbyZurückwinker, Windows-Runterfahrer und Virenscannerupdater zu Zum-Frühstück-Bleibern oder Dackel-bei-Gefahr-auf-den-Armnehmern geführt hat. In atemberaubender Schnelligkeit hat sich das Deutsche in seinen Wortzusammensetzungen, wie die letzten beiden Beispiele zeigen, vom „No-Phrase-Constraint“ verabschiedet, einem grammatischen Prinzip, das verboten hatte, dass in die Strukturen eines komplexen Wortes Strukturen des Satzbaus (zum Frühstück bleiben, den Dackel auf den Arm nehmen) eingehen. Der entschiedene Wille zum Gebrauch eines Musters kann - zumindest für einen Teil * Die Überlegungen zum Thema „Optimales Parsing“, die ich unten kurz berichte, sind Ergebnis meiner Zusammenarbeit mit Matthias Schlesewsky, Stefan Frisch, Reinhold Kliegl und Damir Ćavar. Für weitere Diskussion über den Gegenstand des Aufsatzes bin ich auch Artemis Alexiadou, Karin Donhauser, Heiner Drenhaus, Carola Fanselow, Sascha Felix, Caroline Féry, Peter Gebert, Hubert Haider, Ekkehard König, Gereon Müller, Klaus Oberauer und Peter Staudacher zu herzlichem Dank verpflichtet. Die hier berichteten Ergebnisse stehen in Zusammenhang mit meiner Arbeit im Innovationskolleg INK 12 "Formale Modelle kognitiver Komplexität", welches vom BMBF finanziert und von der DFG verwaltet wurde, und meiner Arbeit in der Forschergruppe „Konfligierende Regeln“ und im Graduiertenkolleg „Ökonomie und Komplexität in der Sprache“, welche beide durch die DFG gefördert werden. Wie ihr Gebrauch die Sprache prägt* 3 der Sprechergemeinschaft, und zumindest für einige Zeit- die „Sprache“ also schnell verändern. Erst ihr Gebrauch konstituiert die Sprache; ihr Regelsystem unterliegt dynamisch der Veränderung. Aus dieser Beobachtung folgt freilich keineswegs, dass der Variation sprachlicher Regeln keine Grenzen auferlegt sind, dass man nichts identifizieren könnte, was für menschliche Sprache universell gültig wäre, und daher potentiell konstitutiv ist für Sprache. Ganz im Gegenteil! Dass Menschen Sprache gebrauchen, schränkt ihre Formen erheblich ein. Wenn wir Sprache sprechen, schreiben, hören, lesen oder gestisch kommunizieren, so tun wir das ja mit den Händen, Augen, Mündern, Ohren und Gehirnen, die uns gegeben sind. Dass jedes dieser Organe der Sprache Grenzen auferlegt, scheint offenkundig, und diese Grenzen menschlicher Sprache können durch empirische Forschung identifiziert werden. Was jenseits solcher Grenzen das Konstitutive von „Sprache schlechthin“ wäre, also wie Sprache beschaffen sein könnte (und wie nicht), wenn sie nicht in menschlichen, sondern in Vulkaniergehirnen produziert wird, ist dagegen ein viel schwierigeres, und - zumindest bis zur Erfindung des WARP-Antriebs - auch kein empirisches Problem. Ich möchte in folgenden einige konkrete Aspekte der Frage besprechen, welchen Einfluss die Bedingungen des Gebrauchs von Sprache auf die Natur ihres Regelsystems haben. Ich will dabei u.a. die These plausibel machen, dass eine fundamentale Architektureigenschaft von Grammatiken Konsequenz der Gebrauchsbedingungen der Sprache ist - nämlich die Tatsache, dass Konflikte zwischen sprachlichen Regeln auftreten können, und dass diese Konflikte dann immer auf eine ganz bestimmte Art und Weise gelöst werden. Der nächste Abschnitt wird ganz allgemein den Zusammenhang besprechen, der zwischen dem System sprachlicher Regeln auf der 4 Gisbert Fanselow einen Seite, und dem Erlernen dieser Regeln, ihrer Verwendung und ihrer historischen Veränderung auf der anderen Seite besteht. Hier wird deutlich werden, dass die Gebrauchs- und Lernumstände von Sprache erhebliche formende Einflüsse auf die Natur sprachlicher Regeln haben. Andererseits kommen wir zu einer zurückhaltenden Einschätzung bei der Frage, zu welchem Grade die angeborenen Grundlagen der Sprachfähigkeit aufgabenspezifisch sind, bis zu welchem Grade also in unserem genetischen Programm grammatische Eigenschaften als solche angelegt sind (wie Noam Chomsky dies v.a. in den achtziger Jahren vertreten hat). Abschnitt 3 geht der Frage der Natur der Sprachfähigkeit aus der Perspektive des Syntaktikers nach. Ich führe das sogenannte optimalitätstheoretische Grammatikmodell ein, bei dem wesentlich ist, dass grammatische Prinzipien sogar im Regelfall zueinander in Konflikt stehen, und für das eine bestimmte Art und Weise der Auflösung von Konflikten charakteristisch ist. In Abschnitt 4 stelle ich erst ein grundlegendes Problem beim Sprachverstehen vor, nämlich das der Lesartenpräferenz bei mehrdeutigen Sätzen. Ich werde dann argumentieren, dass der Mechanismus, der für diese Lesartpräferenzen verantwortlich ist, identisch ist mit dem Konfliktlösemechanismus der Grammatik. Abschnitt 5 bemüht sich schließlich, plausibel zu machen, dass unsere menschlichen Grammatiken diesen Konfliktmechanismus deswegen aufweisen, weil sie nur in einer bestimmten Art und Weise beim Hören verarbeitet werden können, und weil diese Beschränkung in einem Prozess der „sozialen Evolution“ die Natur der Grammatik geformt hat. In dieser Sicht gibt es kein (notwendiges) Primat der Sprache über das Sprechen. Die Bedingungen des Sprechens und Hörens, und die Bedingungen des Lernens des Sprechens und des Hörens legen die Grenzen der Sprache fest. Wie ihr Gebrauch die Sprache prägt* 5 2. Gibt es eine Sprache vor dem Sprechen? Mit großer Verlässlichkeit lassen sich bestimmte Aspekte der menschlichen Sprachfähigkeit bestimmten Hirnarealen zuordnen. Das grundsätzliche Wissen über diesen Zusammenhang ist vielleicht schon 5000 Jahre alt, findet man doch in Fragmenten eines altägyptischen Chirurgielehrbuches die Aussage "Wenn du einen Menschen untersuchst, dessen Schläfe eingedrückt ist ... so antwortet er dir nicht, denn er ist der Sprache nicht mehr mächtig" (Changeux 1984: 14). Der hier berichtete Zusammenhang zwischen der Lokalisation einer Verletzung des Gehirns und dem dann beobachtbaren Ausfall spezifischer kognitiver Fähigkeiten ist durch spätere Forschungen, die man mit Namen wie Paul Broca und Carl Wernicke verbindet, im Grundsatz bestätigt worden, und die modernen bildgebenden Verfahren erlauben es, auch für ein nicht-verletztes Gehirn festzustellen: verschiedene Gehirnregionen spielen für verschiedene Aspekte sprachlichen Wissens und Verhaltens eine unterschiedlich große Rolle. Man muss gar nicht der Versuchung nachgeben, sprachliche Teilfertigkeiten wie „lexikalische Semantik“ (die Bedeutung von Wörtern) oder „Grammatik der Funktionswörter“ (also Grammatik von der, dass, im, weil) in bestimmten Hirnarealen zu lokalisieren, um zu dem Schlusse zu gelangen, dass der systematische Zusammenhang zwischen Teilen der sprachlichen Fähigkeit und bestimmten Hirnregionen darauf hindeutet, dass unsere Sprachfähigkeit partiell angeboren ist. Da beispielsweise das Broca’sche Areal (eine Region im linken Schläfenlappen des Gehirns) eine bedeutende Rolle für die Verarbeitung der Funktionswörter spielt, liegt die Vermutung nahe, dass bestimmte Aspekte dieser Verarbeitung durch die Anatomie und Funktionsweise dieser Hirnregion bedingt sind. Diese Verarbeitungsspezifika werden selbst wiederum einen Einfluss auf die Grammatik der 6 Gisbert Fanselow Funktionswörter ausüben. Insofern schließt sich der Bogen vom genetischen Programm (welches Anatomie und Funktionsweise des Broca’schen Areals mit bestimmt) zur Grammatik recht zwanglos. Zusammenfassende Darstellungen wie Pinker (1994) und Fanselow & Felix (1987) stellen noch weitere Beobachtungen vor, die erstens für eine biologische Fundierung der Sprachfähigkeit sprechen, und zweitens nahezulegen scheinen, dass diese biologische Fundierung „aufgabenspezifisch“ ist, d. h. unabhängig von der „allgemeinen Intelligenz“ oder anderen kognitiven Fertigkeiten. Salopp ausgedrückt: das genetische Programm spezifiziert nach dieser Sicht direkt solche Eigenschaften der menschlichen Kognition, die nur für Grammatik und Sprache relevant sind. Hierfür führen Pinker, Fanselow und Felix beispielsweise die folgenden Tatsachen an: Durch Schlaganfälle oder Verletzungen des Gehirns erworbene kognitive Ausfälle können sprachspezifisch sein (die Aphasien), also die anderen kognitiven Fähigkeiten anscheinend intakt lassen. Ebenso scheint es auf die Grammatikfähigkeit beschränkte Entwicklungsstörungen beim Kind zu geben, aber andererseits auch gravierende Störungen „allgemeiner Intelligenz“, die wohl die Grammatikfähigkeit nicht beeinträchtigen (Williams-Syndrom). Solche Beobachtungen harmonieren mit der in den achtziger Jahren von Chomsky etwas anders hergeleiteten These einer aufgabenspezifisch angeborenen Universalgrammatik (Chomsky 1980, 1981, 1986a). Nach Chomsky genügen die Grammatiken aller natürlichen Sprachen einer Reihe von sehr abstrakten Prinzipien, den Gesetze der Universalgrammatik. Diese Prinzipien sind so komplex und so abstrakt, dass sie von Kindern im Alter von 2 - 6 Jahren (dann ist der Grammatikerwerb für die meisten grammatischen Aspekte abgeschlossen) niemals auf der Basis von „normalen Lernprozessen“ erlernt werden können. Also müssen sie angeboren sein. Weiter sind Wie ihr Gebrauch die Sprache prägt* 7 die Prinzipien der Universalgrammatik aufgabenspezifisch in dem Sinne, dass ihre Basisterme nur im sprachlichen Bereich Anwendung finden. In (1) habe ich versucht, das sogenannte Prinzip A der Bindungstheorie, ein Bestandteil der Theorie der Universalgrammatik von Chomsky (1981), in eine etwas verständlichere Form zu bringen. Offensichtlich treten hier eine Reihe von Konzepten auf (Subjekt, Flexion, Kasus), die nur bei Anwendung auf Sprache Sinn machen. Wenn Prinzip A der Universalgrammatik angeboren ist, dann spezifiziert unser genetisches Programm - so kann man schlussfolgern eine grammatikspezifische Tatsache. (1) Das Bezugswort eines Reflexivpronomens (sich) oder eines Reziprokpronomens (einander) A muss sich in dem kleinsten Satz oder der kleinsten Nominalphrase B befinden, der/die A enthält, das Element, das den Kasus von A bestimmt, und ein von A verschiedenes Subjekt oder Flexionselement, welches für A „zugänglich“ ist. Der eben skizzierte Schluss enthält einen „Reifikationsirrtum“ im Sinne von Rose (1987): Eigenschaften und Entitäten, die in einer funktionalen Beschreibung von X verwendet werden, müssen nicht unbedingt auch Eigenschaften und Aspekte des „materiellen“ Objektes darstellen, das X zugrunde liegt. Man kann sich darüber streiten, ob in der Auseinandersetzung über die Frage, wie aufgabenspezifisch die biologische Grundlage von Sprache ist, so ein Reifikationsirrtum von Chomsky selbst, oder nur von einigen seiner Interpretatoren (z. B. von Fanselow & Felix 1987) begangen wurde. Jedenfalls habe ich in Fanselow (1991) argumentiert, dass Chomsky (1980, 1986a) sich stets mit Vorsicht und Sorgfalt zum Thema Aufgabenspezifik geäußert hat. Einige neuere Erkenntnisse deuten darauf hin, dass Vorsicht bei der Annahme einer aufgabenspezifisch angeborenen Universalgrammatik 8 Gisbert Fanselow nicht allein aus grundsätzlichen Erwägungen geboten ist. Jüngeren Datums sind beispielsweise Simulationsexperimente zur Evolution von Grammatik, siehe etwa Kirby (1999), Hurford (2000). In solchen Untersuchungen in einer virtuellen Welt werden Populationen von kommunizierenden Wesen simuliert, die in einer Folge von Generationen auftreten. Wesen einer neuen Generation „lernen“ auf der Basis ihres Inputs ein Regelsystem zur Kommunikation. Es gibt eine Menge von potentiell komplexen Sachverhalten, die zu kommunizieren sind, und ein Basisvokabular. Zu Beginn des Simulationsexperiments gibt es keine sprachlichen Regeln, d.h., die virtuellen Wesen kommunizieren die Sachverhalte durch arbiträr zugeordnete Basiszeichen oder Kombinationen davon. Unter bestimmten, durchaus realistischen Bedingungen (z.B. der Annahme, dass nicht alle Sachverhalte kommuniziert werden) entsteht nach unterschiedlich vielen Generationszyklen (=Lerndurchläufen) in solchen virtuellen Sprechergemeinschaften in einem Prozess der Selbstorganisation ein Regelsystem, das einige Eigenschaften von Grammatik aufweist. Beispielsweise sind passivähnliche Konstruktionen oder Markierer für Satzgrenzen in einigen Simulationsexperimenten entstanden. Sicherlich kann man bei solchen Simulationen nicht ausschließen, dass das Entstehen „grammatischer“ Strukturen dadurch bedingt oder begünstigt ist, dass vom Experimentator den semantischen Repräsentationen der Sachverhalte eine komplexe Struktur zugrundegelegt wird. Es liegt dann aber die Vermutung nahe, dass eine noch reichere und damit realistischere Strukturierung der Sachverhaltsrepräsentationen zu einer noch reicheren grammatischen Strukturierung führen würde. Damit ist ein Szenario denkbar, in dem auf der Basis reicher biologisch vorgeprägter semantischer Strukturen durch Selbstorganisation eine reiche syntaktische Universalgrammatik entsteht. Wenn unser Gehirn in der Lage ist, diese reiche Universalgrammatik (wie Wie ihr Gebrauch die Sprache prägt* 9 aber potenziell auch anders strukturierte und ebenso reiche formale Systeme) relativ perfekt zu lernen, so werden diese selbstorganisierten formalen Strukturen tradiert, ohne dass sie als solche angeboren sind (das sind ja, ex hypothesi, die reichen semantischen Strukturen). Ist dieses Szenario als Modell der Entstehung und Weiterentwicklung der Universalgrammatik auf der Basis der verfügbaren Evidenz beweisbar? Natürlich nicht, aber für die Einschätzung der Plausibilität einer syntaxspezifisch angeborenen Universalgrammatik ist eher von Belang, dass die verfügbare Evidenz auch nicht ausreicht, dieses Szenario zu widerlegen. Noch eine zweite Überlegung möchte ich anführen. Die These, dass Prinzipien eines bestimmten Teilsystems (eines „Moduls“ im Sinne von Fodor 1984) in aufgabenspezifischer Weise angeboren sind, ist nicht schon dadurch belegt, dass man keine andere „real existierende“ kognitive Fähigkeit identifiziert hat, die mit denselben grundsätzlichen Eigenschaften vom selben Hirnareal bearbeitet wird, und in derselben kritischen Phase auf dieselbe Weise erworben wird. Das absehbare Schicksal des Moduls „Gesichtererkennung“ lässt Vorsicht auch für den sprachlichen Bereich angeraten erscheinen. Seit dem 19. Jahrhundert weiß man, dass Verletzungen in einer bestimmten Hirnregion zum Verlust der Fähigkeit der Gesichtererkennung (Prosopagnosie) führen können. Weiter zeigen viele experimentelle Untersuchungen, dass die Wahrnehmung von Gesichtern Eigenschaften aufweist, die sich in anderen Wahrnehmungsdomänen (normalerweise) nicht zeigen. Drittens kann man bei Säuglingen eine Präferenz für menschliche Gesichter schon im Alter von drei Wochen (und vermutlich auch schon für den Zeitpunkt unmittelbar nach der Geburt) feststellen (siehe die Zusammenfassung solcher Befunde in Landau 1993). All dies deutet auf den ersten Blick darauf hin, dass ein angeborenes Modul ausschließlich für die Aufgabe der Gesichter- 10 Gisbert Fanselow erkennung vorliegt. Aber seit kurzem weiß man, dass die Hirnregion, die für die Gesichtererkennung zuständig ist, bei Experten für Autos oder Vögel auch beim Identifizieren von Autos bzw. Vögeln aktiviert wird. Es ergeben sich dabei dann auch dieselben charakteristischen Wahrnehmungsspezifika wie bei der Gesichtererkennung (Gauthier, Skudlarski, Gore & Anderson 2000). Dieser Befund lehrt, dass unser Gehirn über ein spezifisches Wahrnehmungsmodul mit „holistischen“ Eigenschaften verfügt, das für die Erkennung von vertrauten und relevanten Objekten wie Gesichtern eingesetzt werden kann und wird, dessen Eigenschaften es aber keinesfalls auf diesen Bereich einschränken, wenn Objekte wie Autos oder Vögel vergleichbar relevant und vergleichbar vertraut werden wie Gesichter. Das „Modul Gesichtererkennung“ ist abstrakt, und nicht im chomskyanischen Sinne „aufgabenspezifisch“. Für die Sprachfähigkeit lässt sich daraus zumindest ableiten, wie entscheidende „Experimente“ zur Aufgabenspezifik der Grammatik aussehen müssten. Man müsste zeigen, dass Systeme mit vergleichbarer, aber nicht identischer formaler Struktur und mit dem gleichen Grad an Vertrautheit und Relevanz gerade nicht vom Gehirn auf dieselbe Weise verarbeitet werden wie Grammatik, und auch nicht in den Arealen, die für Sprache und Grammatik zuständig sind. Dieser Nachweis ist keinesfalls erbracht, und er dürfte auch schwer zu erbringen sein, weil man sich nur wenige Objekte mit solchen Eigenschaften vorstellen kann. Immerhin weiß man, dass Vertrautheit mit musikalischer Verarbeitung dazu führt, dass sich die Verarbeitung von Musik partiell von der eher holistischen rechten Hemisphäre in die analytische linke verlagert (etwa: Kapitel 9 von Jourdain 1998). Dass z. B. diese analytische Verarbeitung tonaler Musik bei BrocaAphasiker (die unter einer gravierenden Störung der syntaktischen Fähigkeiten leiden) nicht beeinträchtigt ist, ist m. W. nicht nachge- Wie ihr Gebrauch die Sprache prägt* 11 wiesen. Einige neuere Befunde (Koelsch et al., eingereicht, und Maess et al., eingereicht) deuten darauf hin, dass Verletzungen „musikalischer“ Regeln bei Akkordsequenzen vom Gehirn ähnlich verarbeitet werden wie Verletzungen grammatischer Prinzipien. Die grammatische und musikalische Verarbeitung findet z. B. im Broca’schen Areal und seiner rechtshemisphärischen Entsprechung statt (allein ist bei Sprache die linke, bei Musik aber die rechte Hemisphäre dominant). Die Analogie zur Gesichtererkennung und die Ergebnisse zur Verarbeitung von Musik legen nahe, dass bestimmte Verarbeitungsmodi besonders gut in bestimmten Hirnregionen durchgeführt werden können. Offensichtlich ist beispielsweise das Broca-Gebiet für Grammatikverarbeitung geeignet, so dass Syntax oder Grammatik „in“ dieser und anderen Regionen repräsentiert werden, und der Erwerb der Syntax und Grammatik mit Bezug auf diese Areale erfolgt. Sie sind aber keinesfalls „Sprach- oder Grammatikzentren“, sondern können grundsätzlich alle Aufgaben bearbeiten, die eine zur Sprachverarbeitung analoge Struktur aufweisen. Plausibel ist dann, dass die spezifisch grammatischen Eigenschaften (die konkrete Universalgrammatik) nicht notwendig durch die einschlägigen kognitiven Module festgelegt sein müssen. Grammatiken könnten auch anders strukturiert sein. Natürlich muss man sich der Frage stellen, was dann dafür verantwortlich ist, dass die Grammatiken natürlicher Sprachen nur bestimmte Formen annehmen. Antworten wird man finden, wenn man – ergänzt um eine dritte - sich den „gebrauchsorientierten" Fragen von Chomsky (1986a) zuwendet: 1) Wie wird Grammatik beim Sprechen und Verstehen verwendet? 2) Wie wird Grammatik erworben? 12 Gisbert Fanselow 3) Wie entsteht eine spezifische Grammatik im historischen Prozess? Frage 3) ist oben schon kurz angesprochen worden. Syntaktische Eigenschaften, die in einem Prozess der "Selbstorganisation" von Grammatik im Zuge der Sprachevolution entstanden sind, können im Prozess der weiteren historischen Entwicklung von Sprache zwar verloren gehen, müssen dies aber nicht notwendigerweise. Ob sie das tun oder nicht, hängt von der Natur des Sprachwandels ab. Die Mechanismen des Sprachwandels können umgehrt auch dafür verantwortlich sein, dass aus beliebigen Vorgängerstufen immer nur Sprachen des Typs X entstehen. Wenn die Universalgrammatik dem Primzip X genügt, so liegt das also in diesem Falle nicht daran, dass X als solches angeboren wäre, sondern dass unter den natürlichen Bedingungen der Sprachveränderung immer X resultiert. Bevor dies durch ein Beispiel illustriert werden kann, sind einige grundsätzliche Erwägungen zum Thema Sprach- und Grammatikwandel sinnvoll. Wenn man auf die literatursprachliche Norm fokussiert, kann „Grammatikwandel“ durchaus schnell und abrupt sein, weil der normkonstituierende Dialekt durch politische Umstürze wechseln mag. Den Austausch von Dialekten durch eine Sprechergruppe oder als Norm wollen wir im folgenden aber nicht näher betrachten. Abgesehen von solchen Ereignisse wird der Grammatikwandel als Veränderung innerhalb eines Dialekts ruhiger verlaufen, und er kann verursacht sein durch ‚spontane’ Grammatikveränderungen etwa beim Spracherwerb oder durch Verschiebungen in den Häufigkeiten konkurrierender Konstruktionstypen (Kroch 2001). Der Typ von Sprachwandel, der kein kompletter oder partieller Austausch von Dialekten ist, ist ein gradueller und beschränkter Prozess. Man beachte, dass Sprachen über eine Sequenz von Spracherwerbsprozessen tradiert werden. Die Erwachsenengeneration produziert auf Wie ihr Gebrauch die Sprache prägt* 13 der Basis einer Grammatik G den sprachlichen Input I der Kinder. Die Kinder konstruieren auf der Basis von I eine eigene Grammatik G', die im Kern dieselben Sätze wie in I als wohlgeformt auszeichnen muss, aber sich in der Peripherie von I durchaus unterscheiden mag. Dies kann z. B. dann geschehen, wenn G' bezogen auf den Kern von I einfacher ist als G, oder durch spontane Grammatikveränderung. Da sich die beiden Grammatiken G und G' im Kern von I nicht unterscheiden dürfen, sind dem Sprachwandel zumindest in den einzelnen Schritten erhebliche Grenzen auferlegt. Dramatische „Sprünge“ kommen nicht vor (aber siehe unten), da Kinder für solche dramatischen Sprünge korrigiert würden, und ab (und bis zu) einem bestimmten Alter diese Korrektur annehmen (weil Spezifika des Dialekts ja zentrale sozialpsychologische Identifikationsfaktoren mit den Eltern oder den peers sind). Im Grundsatz folgt aus dieser Beschränkung, dass auch bei Betrachtung eines längeren Zeitraums nicht alle denkbaren Grammatiken G" aus einer Grammatik G entstehen können. Da unsere Grammatiken nicht gottgegeben sind, sondern allesamt in einem historischen Prozess entstanden sind, ist also die Natur der möglichen menschlichen Grammatiken über das neuropsychologisch per se mögliche hinaus eingeschränkt. Alexiadou und Fanselow (2001) haben ein konkretes Beispiel für solche historisch bedingten Beschränkungen analysiert, dass hier nur stark vereinfacht skizziert werden kann. Natürliche Sprachen haben zumindest eine starke Tendenz, die Generalisierung (2) zu erfüllen (wenn diese nicht ohnedies universell beachtet wird): (2) Wenn im Flexionssystem eines Verbs reiche Unterscheidungen gemacht werden, und die Flexion am rechten Rand des Verbs realisiert wird, und wenn in der Sprache das Verb dem Objekt vorangeht, dann geht es auch Adverbien voran, die vor dem Objekt stehen. 14 Gisbert Fanselow Was mit (2) gemeint ist, illustrieren partiell die Sätze in (3) und (4). Im Englischen ist die Flexion (die „Beugung“ eines Verbs zur Kongruenz mit dem Subjekt nach Eigenschaften wie Person und Numerus) 'schwach': nur im Präsens gibt es überhaupt einen Kontrast zwischen eats (3. Person Singular) und eat (alle anderen Formen). Auch stellen wir in (3) fest, dass im Englischen das Verb nicht vor Adverbien gesetzt werden kann, die vor dem Objekt stehen. (3b) ist nämlich ungrammatisch (was entsprechend linguistischer Praxis durch "*" notiert wird). (3) a. That John often eats tomatoes b. *That John eats often tomatoes Die Beispiele in (4) entstammen dem Isländischen, und sind wörtliche Übertragungen der englischen Sätze in (3). Im Isländischen unterscheiden sich die Formen des Verbs (wie im Deutschen) relativ zu Person und Numerus stark voneinander, und wir sehen in (4), dass im Isländischen das Verb vor ein Adverb gesetzt werden muss, das vor dem Objekt steht. (4) a. *Að dass b. Jonas oft borðar tómata John oft isst Tomaten Að Jonas borðar oft tómata Beschränkt man seine Aufmerksamkeit auf Sprachen, bei denen die Flexion am rechten Rande des Verbs erfolgt, so scheint - nach all dem, was wir wissen - das Gesetz in (2) zumindest insofern erfüllt zu sein, dass die Stellung Verb-Adverb-Objekt in Sprachen mit reich differenzierter Flexion möglich ist. Es ist wenig plausibel, dass ein Gesetz wie (2) als solches direkt aus den biologisch bedingten Charakteristika der menschlichen Sprachkognition folgt. Warum ist es dennoch gültig? Alexiadou und Fanselow schlagen vor, (2) aus den Begrenzungen der Sprachveränderung Wie ihr Gebrauch die Sprache prägt* 15 herzuleiten. Sie nehmen dabei (in Harmonie mit einem Grossteil der syntaktischen Literatur) an, dass Sätze auf der Basis eines Strukturschemas wie (5) konstruiert werden. Restringiert ist die Abfolge von Redegegenstand (kann häufig das Subjekt sein) – Subjektposition – Adverbposition und Objektposition, wohingegen das Verb anscheinend je nach Sprache jede Stellung zwischen diesen Elementen einnehmen kann. Auf der Basis manifester, positiver Evidenz (zwischen welchen Elementen kann man das Verb hören?) kann das Kind die Position des Verbs relativ zu den anderen Satzteilen lernen. (5) Redegegenstand (Thema) – (Verb) - Subjekt – (Verb) - Adverb – (Verb) -Objekt –(Verb) Die einfachste Annahme ist, dass die Position des Verbs im Grundsatz in jeder Sprache frei fixiert werden kann. Wenn das Verb nicht (oder kaum) flektiert ist, entspricht dies auch den empirischen Befunden: im Irischen steht das Verb in der Position vor dem Subjekt, im Kronoby - Dialekt des Schwedischen in der Position vor dem Adverb, im Englischen in der Position vor dem Objekt, und im Japanischen in der Position hinter dem Objekt. In Sprachen mit „reicher“ Flexion ist dagegen die Position zwischen Adverb und Objekt dem Verb nicht zugänglich. Nun weiß man, dass die Flexion des Verbs für Numerus und Person des Subjekts dadurch entsteht, dass ein schwachtoniges Subjektspronomen mit einem noch nicht flektierten Verb zu einer Einheit verschmilzt (Corbett 1995). Man braucht sich keine Gedanken darüber machen, welche Bedingungen diese Verschmelzung von Verb und Pronomen zu einem flektierten Verb faktisch auslöst, um folgendes zu beobachten: auf diese Weise kann Flexion am rechten Rand des Verbs nur dann entstehen, wenn sich das Verb in der betreffenden historischen Sprachstufe in der ersten denkbaren Position in (5) befindet, also vor dem Adverb. Mit anderen Worten: zum Zeitpunkt der 16 Gisbert Fanselow Entstehung reicher Flexion am rechten Rand des Verbs muss (2) beachtet werden, weil in einer anderen Position als einer vor dem Adverb Subjekt und Verb nicht in der relevanten Konstellation zueinander stehen. Solche Verschmelzungsprozesse lassen sich synchron an verschiedenen Dialekten des Arabischen, an italienischen Dialekten und durchaus auch im Bairischen beobachten. Flektierte Verben können, wie Alexiadou und Fanselow diskutieren, noch auf eine zweite Weise entstehen, aber auch diese setzt voraus, dass sich das Verb vor dem Adverb befindet, wenn der Verschmelzungsprozesse stattfindet. Das Entstehen „reicher“ Flexion ist mit einer Position des Verbs hinter dem Adverb nicht verträglich. Damit ist (2) natürlich noch nicht vollständig hergeleitet. Man muss auch zeigen, dass in Sprachwandelprozessen ein Verb mit reicher Flexion nur unter sehr seltenen Umständen die mit (2) konformen Position verlassen würde. Exakt dies versuchen Alexiadou & Fanselow (2001) nachzuweisen. Man beachte, dass die Entstehung von Flexion, also die Reinterpretation der Sequenz [Verb + schwachtoniges Subjekt] als [Verb+Flexion] per se nur sehr geringe, schwer wahrnehmbare Veränderungen im System der von der Grammatik erzeugten Sätze mit sich bringt (die phonetischen Ketten verändern sich nicht), obwohl die resultierenden Grammatiken fundamental verschieden sind. Diesem Sprachwandel wirkt also das Bemühen der Kinder, ihren sprachlichen Output dem der Eltern und peers anzupassen, kaum entgegen. Demgegenüber würde der Wechsel von der Abfolge Subjekt Verb Adverb Objekt zur Abfolge Subjekt Adverb Verb Objekt zwar nur eine minimale Veränderung der Grammatik implizieren, aber eine erhebliche und nicht überhörbare Veränderung der Satzgrundstruktur, welche die Kinder im Angesicht des Erwachsenenmodells kaum langfristig ohne Not aufrechterhalten würden. Die Wie ihr Gebrauch die Sprache prägt* 17 Veränderung von Verb – Adverb – Objekt zu Adverb - Verb – Objekt kann nur über mehrere, auch einzeln nicht sehr wahrscheinliche Zwischenschritte ablaufen, die - wie Alexiadou & Fanselow (2001) im Detail zeigen – im Zusammenhang mit einem Verlust der Flexion stehen. Insgesamt scheint also zu gelten: Starke Flexion kann in einem natürlichen Sprachwandelprozess allein in einer Sprache entstehen, die (2) beachtet, und der Verlust einer Stellung des Verbs vor dem Adverb ist an unwahrscheinliche, mit Flexionsabbau verbundene Prozesse gebunden, so dass (2) aus Einsichten in dem Ablauf der Sprachveränderung hergeleitet werden kann. Die Sicht, dass Syntaxwandel stets aus einer Vielzahl oberflächlich kleiner Veränderungsschritten resultiert, mag partiell modifikationsbedürftig sein, aber auch, wenn man mit systembedingten schnellen Grammatikwandelvorgängen rechnen muss, impliziert dies nicht notwendig, dass die Richtung des Grammatikwandel beliebig ist, ganz im Gegenteil. Neben die formende Wirkung des Sprachwandels tritt die formende Wirkung des Spracherwerbs. Auch wenn man der Überzeugung ist, dass nicht alle sprachlichen Regeln vom Kinde im strengen Sinne gelernt werden können, lässt sich angesichts der grammatischen Unterschiede zwischen den Sprachen nicht abstreiten, dass einige Aspekte der Grammatik gelernt werden müssen. Wie schon Wexler & Culicover (1980) nachgewiesen haben, ergeben sich aus der Notwendigkeit des Lernens bestimmter Gesetze fundamentale Einschränkungen dessen, was eine mögliche natürlichsprachliche Grammatik sein kann, und diese Einschränkungen müssen und – sollten - daher nicht als Primitiva den biologischen Grundlagen der Sprachfähigkeit zuge- wiesen werden. Beispielsweise weisen natürliche Sprachen keine oder fast keine Regularitäten auf, die man nur dann erkennen kann, 18 Gisbert Fanselow wenn man Sätze mit mindestens zwei Satzeinbettungen analysiert, also Gebilde wie (6). (6) Hans meinte, dass Gaby dem Josef erzählt hat, dass Senta Fritz ohrfeigte Diese Beschränkung der Ausdruckskraft von Regeln in menschlichen Sprachen illustriert eine Betrachtung von (7) und (8). Wie man an (7) sieht, muss man im Deutschen verschiedene Wörter als Satzobjekt benutzen (einmal ein Reflexivpronomen, das andere mal ein Personalpronomen) um sich semantisch auf das Hauptsatzsubjekt zu beziehen, je nachdem, ob sich das Objekt im selben Satz befindet (7a) oder in einem anderen Satz (7b). Deutsch besitzt also eine Regel, die man nur dann erkennen kann, wenn man Sätze mit einer Satzeinbettung betrachtet. Es gibt aber keine Sprache, in der man wie in (8) angedeutet - bei der ersten Satzeinbettung eine Wort ihm-1 verwenden muss, um sich auf das Hauptsatzsubjekt zu beziehen, und bei der zweiten aber dann ein ganz anderes Wort, etwa „ahm-2s“. (7) a. Hans sieht sich/*ihn im Spiegel b. Hans weiß, dass ich ihn/*sich auf dem Foto sehe (8) a. Hans meinte, dass Gaby ihm-1 erzählt hat, dass Senta Fritz ohrfeigt b. Hans meinte, dass Gaby dem Josef erzählt hat, dass Senta ahm-2 ohrfeigt Soll man diese Einschränkung über mögliche Grammatiken von Personal- und Reflexivpronomina als Bestandteil der angeborenen Universalgrammatik ansehen? Die Antwort ist negativ. Wenn eine Sprechergemeinschaft einer Regel wie für ihm/ahm in (8) folgen würde, so würde die nachfolgende Generation sie mit großer Wahrscheinlichkeit verlieren. Sätze der Komplexität von (8) richtet man selten an Kleinkinder im Alter von 2 oder 4 Jahren, und wenn man es doch Wie ihr Gebrauch die Sprache prägt* 19 tut, so mögen die Kinder sie auf Grund ihrer Komplexität kaum vollständig und korrekt verarbeiten können. Die spracherwerbenden Kinder haben also keinen Zugang zu den Daten, auf deren Basis sie die ihm - ahm Regel lernen könnten: die Daten sind zu komplex. Die Regel kann also grundsätzlich nicht gelernt werden. Allgemeiner formuliert: Wenn es eine kritische Periode für den Grammatikerwerb gibt (und darauf deutet alles hin), dann werden die in der fraglichen Altersspanne bestehenden Beschränkungen der Systeme, die mit der Grammatik interagieren (Arbeitsgedächtnis, semantische Repräsentation, kommunikative Beschränkungen) aus offenkundigen Gründen mit dafür entscheidend sein, welche Grammatiken erlernt werden können. Auch wenn das „eigentlich“ die Grammatik lernende Modul der kindlichen Kognition kaum Restriktionen hinsichtlich der Komplexität der lernbaren Regelsysteme aufweisen würde, ergeben sich erhebliche Komplexitätsrestriktionen aus den erst heranreifenden interagierenden Modulen. Die daraus resultierenden Beschränkungen dessen, was eine mögliche Grammatik sein kann, sind kein Teil einer aufgabenspezifisch angeborenen Universalgrammatik. Der Spracherwerb ist der entscheidende "Flaschenhals" auch für die Überlegung, dass natürlichsprachliche Grammatiken einfach verarbeitbar sein müssen. Offensichtlich gibt es Sätze wie die in (9), die nicht oder nur sehr schwer verstehbar sind, obwohl sie nach den Strukturprinzipien des Deutschen gebaut sind. Für das sprachverarbeitende System sind also nicht alle Sätze gleich gut perzipierbar, und es ist nicht unplausibel, dass langfristig vor allem solche Sprachen verwendet werden, die zu verarbeiten nicht ungeheuer schwer ist (so auch Hawkins 1994). Das Maß aller Dinge ist dabei wiederum die Verarbeitungskapazität des Kindes, das die Grammatik rekonstruiert. 20 Gisbert Fanselow (9) a. dass der Professor, den der Student, der den Dekan, der den Hausmeister lobte, alarmieren wollte, besucht hat, den Rektor beleidigte b. dass er Opernsängerinnen die man anruft vertrauen sollte 3. Die Form der Syntax Im vorangehenden Abschnitt haben wir gesehen, dass die Grammatikfähigkeit zwar eine angeborene Grundlage hat, aber diese nicht notwendigerweise aufgaben-, d. h. grammatikspezifisch sein muss. Wir haben gesehen, dass Beschränkungen von Spracherwerb, Sprachveränderung und Sprachverarbeitung die Detailstruktur der Grammatikfähigkeit prägen. In diesem Kapitel soll nun die Grundlage für die Argumentation in Abschnitt 5 gelegt werden, die den Gedanken von Abschnitt 2 fortführt. In Abschnitt 5 will ich plausibel machen, dass eine recht fundamentale architekturale Eigenschaft natürlichsprachlicher Grammatiken aus Verarbeitungsbeschränkungen folgt. Zunächst soll diese Eigenschaft der Grammatik motiviert werden, in Abschnitt 4 ihr verarbeitungsbezogenes Pendant. Die Argumente für eine angeborene und aufgabenspezifische Universalgrammatik, die bis in die neunziger Jahre oft sehr engagiert vorgetragen wurden (etwa in Fanselow & Felix 1987) basierten auf dem damaligen state of the art der Grammatiktheorie. Anhänger alternativer grammatischer Modelle mögen es mir verzeihen, wenn ich (zu Recht, so scheint mir) die Entwicklung der Rektions- und Bindungstheorie (Chomsky 1981) als entscheidenden Durchbruch in der Syntaxtheorie bezeichnen möchte: zum ersten Male in der Geschichte der modernen Grammatikforschung wurde ein kohärentes und restriktives Modell der Grenzen syntaktischer Variation vorgelegt, und im Detail an Hand der Analyse einer beträchtlichen Zahl sehr ver- Wie ihr Gebrauch die Sprache prägt* 21 schiedener Sprachen (Englisch, Japanisch, Mohawk, um nur ein paar zu nennen) fortentwickelt. Die Anziehungskraft, die das Rektionsund Bindungsmodell aufwies, bestand gerade in den reichen Möglichkeiten der systematischen Suche nach universell gültigen Prinzipien des Sprachbaus, und nach Detaileigenschaften von Regeln in Einzelsprachen. Gerade weil sie aus einem System abstrakter, aber noch hinreichend einfacher, d.h. Erklärungen erlaubender Prinzipien bestand, konnte die Theorie auch die Basis für das Argumentationsmodell aus Abschnitt 2 für eine aufgabenspezifisch angeborene Universalgrammatik abgeben. Die Rektions- und Bindungstheorie bzw. einige der ihr zugrundeliegenden Annahmen führten auch zu einer beträchtlichen Expansion der Spracherwerbsforschung, und befruchteten die Psycholinguistik auch im Bereich Syntaxverarbeitung/ Satzanalyse/Parsing. Warum ein solch erfolgreiches Modell (praktisch) aufgegeben worden ist, mag ein genauso großes Rätsel darstellen wie das plötzliche Verschwinden der Dinosaurier nach einer Erfolgsgeschichte von mehr als 100 Millionen Jahren. Manchmal wird argumentiert, dass dies ein sehr negatives Licht auf die Soziologie des Wissenschaftsbetriebes Syntax werfe. Einerseits aber (und das entspricht der Katastrophe „Meteoreinschläge“ in der Geschichte der Dinosaurier) erwiesen sich die fundamentalen architekturalen Annahmen der Theorie als unhaltbar: die Annahme einer eigenständigen „Tiefenstruktur“ oder die strikte Trennung von „Logischer Form“ und „Oberflächenstruktur“ (Chomsky 1995). Andererseits (und das entspricht der schleichenden Verschlechterung der Umweltbedingungen im Schicksal der Saurier) scheiterten verschiedene Versuche der Unifikation von Teiltheorien (so etwa die in Chomsky 1986b vorgeschlagene, siehe Sternefeld 1991). Ganz im Gegenteil: durch die fortschreitende Erweiterung der 22 Gisbert Fanselow empirischen Basis der Grammatiktheorie auf immer mehr Sprachen wurden die Prinzipienformulierungen immer komplexer, so dass sie sich immer mehr entfernten vom dem, was man als Erklärung bezeichnen kann, und immer mehr zu dem wurden, was nur eine technisch komplexe Reformulierung des zu beschreibenden Problems ist. Auch wenn man die Geschichte damit durch eine verzerrende Brille betrachtet beschreibt: am Ende der Rektions- und Bindungstheorie waren die resultierenden grammatischen Beschreibungen kaum mehr überzeugend. Mindestens zwei Modelle haben die Nachfolge des Dinosauriers Rektions- und Bindungstheorie angetreten. Auf der einen Seite sind das Theorien (denen wir hier wenig Aufmerksamkeit schenken), die versuchen, so wenig an syntaxspezifischen Annahmen wie möglich in der grammatischen Beschreibung zu verwenden. Solche Modelle bauen also im Grunde auf Ideen auf, die schon Koster (1987, 1988) formuliert hat, siehe auch Fanselow (1991), Haider (1993). Prägend für einen großen Teil der Syntaxforschung ist hier das Minimalistische Programm (Chomsky 1995). All diese Systeme sind in Harmonie mit den Schlussfolgerungen des vorangehenden Kapitels, weil sie negieren, dass grammatische Beschreibung syntaxspezifisch ist. Die umfassende breite empirische Analyse ist freilich bislang nicht die Stärke des Minimalismus. Das Alternativmodell, die Optimalitätstheorie (OT) (siehe die einführenden Darstellungen Kager 1999 und Müller 2000) basiert auf einer Einsicht, die so alt ist wie grammatischen Beschreibungen überhaupt, die sich nämlich schon in der altindischen Grammatiktradition bei Panini wiederfindet: Grammatische Regeln können zueinander in Konflikt stehen, und die Lösung des Konflikts geschieht nicht durch eine Komplizierung der Regeln oder Prinzipien, sondern Wie ihr Gebrauch die Sprache prägt* 23 durch die Entwicklung einer separaten Theorie der Lösung von Konflikten. Betrachten wir zunächst ein einfaches Beispiel. Um etwa die Daten in (10) im Englischen zu erfassen, könnten wir ein Beschreibungssystem wie (11) postulieren. (10) a. (when) a man loves a woman b. *(when) a man a woman loves c. *(when) loves a man a woman (11) a. Ein Objekt folgt dem Verb b. Das Subjekt geht dem Verb voran (11) kann aber so nicht korrekt sein, wie man an (12) sieht. Man kann versuchen, die Beschreibungsadäquatheit der Grammatik dadurch sicherzustellen, dass die Regel in (11a) verkompliziert wird, wie in (13a) ausgeführt. (12) a. who does a man love? b. *a man loves who? c. every girl who a man loves d. *every girl a man loves who (13) a. Ein Objekt folgt dem Verb, es sei denn, es wäre ein Frageoder Relativpronomen, in welchem Falle es dem Subjekt und dem Verb vorangeht. b. Das Subjekt geht dem Verb voran. Allerdings ist auch (13a) nicht korrekt, wie man (14) sieht. Das Objekt kann im Fragesatz nur dann von seiner kanonischen Position abweichen, wenn nicht gleichzeitig das Subjekt erfragt wird (14a,b) oder why im Satz vorkommt (14c,d), aber es muss abweichen, wenn das zweite Fragewort im Satz Teil eines Präpositionalausdrucks ist (14e,f). Wenn man will, kann man (13a) wie in (15a) angedeutet weiter verkomplizieren. 24 Gisbert Fanselow (14) a. *who does who love? b. who loves who(m) c. why does she love whom? d. *who does she love why? e. what did she give to whom? f. *who did she give what to (15) a. Ein Objekt folgt dem Verb, es sei denn, es wäre ein Frageoder Relativpronomen, in welchem Falle es dem Subjekt und dem Verb vorangeht. Diese zweite Klausel gilt aber nicht, wenn gleichzeitig das Subjekt erfragt würde, oder how und why an die Satzspitze zu stellen ist. b. Das Subjekt geht dem Verb voran. Die Grammatikalität eines Satzes wie (16) mit drei Fragewörtern mag dann Anlass genug sein, vom Versuch weiterer Verkomplizierungen Abstand zu nehmen: ein Ende der Komplexität scheint nicht in Sicht! (16) who wonders what who bought for Mary? Ganz offensichtlich kann man aber eine viel einfachere Beschreibung der Fakten finden, wenn man erlaubt, dass Prinzipien in Konflikt miteinander geraten können, und sich im Konfliktfalle nur eines der Prinzipien durchsetzt. Die Prinzipien sind dann nicht mehr "oberflächentreu" in dem Sinne, dass sie in jedem Satz erfüllt sind, aber die resultierende Beschreibung ist wesentlich einfacher. Für die Sätze in (10) gibt es keinen Grund, von (11) abzuweichen. Für (12) fügen wir das Prinzip (11c) hinzu: (11) a. Das Objekt folgt dem Verb b. Das Subjekt geht dem Verb voran c. Ein Fragesatz muss mit einem Fragewort beginnen, ein Relativsatz mit einem Relativpronomen Wie ihr Gebrauch die Sprache prägt* 25 Ist in einem Fragesatz nur das Objekt ein Fragewort, dann stellen (11a) und (11c) nicht miteinander vereinbare Forderungen an die Satzstruktur: das Objekt kann nicht gleichzeitig hinter dem Verb und an der Satzspitze stehen. Offensichtlich löst das Englischen diesen Konflikt so, dass (11c) Vorrang von (11a) hat. Mit dieser Beschreibung wird uns (14a,b) schon fast geschenkt. Denn wenn das Subjekt selbst ein Fragewort ist, können wir durch die Anordnung who loves whom einen Satz bilden, der alle Forderungen in (11) erfüllt. Die Ungrammatikalität von (14a) zeigt also, dass Prinzipien nur dann verletzt werden dürfen, wenn dies (wie im Falle von (12)) unvermeidbar ist. Für (14c,d) müssen wir auf der Basis dessen, was wir bislang vorgebracht haben, nichts weiter sagen, denn (14c) verletzt kein Prinzip. Für eine komplette Grammatik wäre dies wohl nicht die korrekte Beschreibung. Für (14e,f) postulieren wir (11d), ein Prinzip, das wir wegen (15) ohnedies benötigen. Dann verletzt (14e) nur ein Prinzip (nämlich (11a) wegen (11c)) und (14f) dagegen zwei ((11a) und (11d)), denn to-Objekte sind Objekte, und scheidet daher aus. (11) d. Ein to-Objekt, und alles was darinnen steht, folgt dem direkten Objekt (15) a. I gave the book to a girl b. *I gave to a girl the book Wir sehen also: wenn man Konflikte zwischen Prinzipien zulässt, und eine Theorie der Konfliktresolution besitzt, dann kann man die Prinzipien der Grammatik erheblich einfacher formulieren. Möglicherweise reflektiert dies die Tatsache, dass an den Satzbau die Einfachheitsforderungen sehr vieler verschiedener Teilaspekte der Sprachfähigkeit herangetragen werden. Diese kommen aus verschiedenen Quellen und müssen daher nicht ohne weiteres kompatibel sein. In jedem Falle deutet sich durch den Konfliktaspekt aber eine 26 Gisbert Fanselow Lösung des Grundproblems der Rektions- und Bindungstheorie an: Wenn die Prinzipien nicht (anders als in Chomsky 1981) oberflächentreu sein müssen, weil sie im konkreten Einzelfalle durch wichtigere Prinzipien außer Kraft gesetzt werden können, dann muss auch die Erweiterung der empirischen Datenbasis nicht ohne weiteres zu einer immer komplexeren Formulierung der Prinzipien führen. Somit ist (genau wie bei Dinosauriern und Vögeln) die Rektions- und Bindungstheorie im Grunde nicht wirklich tot, sondern in die optimalitätstheoretische Syntax überführt worden, die viele - wenn nicht gar alle - Annahmen zur Konfliktlösung ihrem Pendant in der Phonologie, in Prince & Smolensky (1993) entwickelt, entlehnt hat. Spezifisch vertritt sie die folgenden vier Annahmen: 1. Die Grammatik besteht aus einem System sehr einfacher Prinzipien Im besten Falle kann man diese Prinzipien aus Forderungen der Interaktion mit anderen Teildomänen der Sprache bzw. aus Einfachheitsforderungen für die Syntax herleiten. In diesem Falle würde sich die Prinzipienstruktur von der im minimalistischen Programm nicht wesentlich unterscheiden. 2. Diese Prinzipien können in Konflikt zueinander stehen, und sind daher nicht notwendigerweise oberflächentreu. Auch diese Annahme findet sich im Minimalistischen Programm indirekt wieder 3. Die Konfliktresolution geschieht lexikographisch: die Prinzipien sind hierarchisch geordnet. Eine Struktur S ist dann und nur dann grammatisch, wenn gilt: verglichen mit jeder anderen Strukturalternative T verletzt S das höchste Prinzip H, bezüglich dessen sich S und T unterscheiden, weniger oft als T. Wie ihr Gebrauch die Sprache prägt* 27 Konflikte im Minimalistischen Programm werden im Grundsatz auch so gelöst, sie spielen aber eine zu geringe Rolle, als dass man dort (3) als Strategie identifizieren könnte. 4. Sprachen unterscheiden sich nicht in den Prinzipien die sie regieren, sondern allein in der Hierarchie der Prinzipien Diese Annahme wird vom Minimalistischen Programm abgelehnt. Letztlich gibt es also bezüglich 1. bis 3. einen nicht immer erkannten Konsens in der aktuellen Syntaxforschung. Die Annahme 4 ist zwar nicht für die aktuelle Darstellung, aber für das ihr zugrundeliegende System (siehe Fanselow. Schlesewsky, Ćavar & Kliegl, 1999, Fanselow, Schlesewsky & Frisch, 2001) von Bedeutung, so dass sie dennoch kurz illustriert werden soll. Betrachtet man z. B. das Englische, so stellt man fest, dass jeder Satz ein Subjekt aufweist. Im Deutschen trägt jedes Subjekt den Nominativ. Wir können beide Generalisierungen tentativ als Prinzipien im Hierarchiesystem der Grammatik ansetzen (16a,b). (16) a. Jeder Satz hat ein Subjekt b. Jedes Subjekt steht im Nominativ Verben bestimmen ferner den Kasus ihrer Objekte: sehen regiert den Akkusativ, gedenken den Genetiv, und helfen den Dativ. Anders als beim Akkusativ oder beim Genetiv muss ein verbal regierter Dativ auch wirklich immer morphologisch realisiert werden (16c). (16) c. Ein verbal regierter Dativ muss morphologisch realisiert werden Betrachten wir den Satz (17a). Beim Passiv wird das aktive Subjekt (der Polizist) entweder weggelassen oder durch einen Ausdruck wie vom Polizisten ersetzt. Normalerweise wird dann das „alte“ Objekt zum Subjekt (wie in dass der Polizist vom Kind gesehen wurde), damit (16a) erfüllt wird. Es ergibt sich wegen (16b) für das Aktivobjekt 28 Gisbert Fanselow ein Kasuswechsel zum Nominativ (vgl.: dass das Kind den Polizisten sieht). Dass dies beim Passiv von (17a) auch geschieht, dem steht (16c) entgegen: der Kasuswechsel zum Nominativ wird blockiert, so dass die Konstruktion (17b) - unter Verletzung von (16a)- subjektlos ist. (17) a. dass der Polizist dem Kind helfen wird b. dass dem Kind (vom Polizisten) geholfen wird (17b) entsteht genau dann., wenn (16c) das wichtigste Prinzip ist, gefolgt von (16b) und (16a) in dieser Reihenfolge. Sollten sich nun Sprachen dadurch unterscheiden können, dass sie zwar dieselben Prinzipien verwenden, aber diese anders hierarchisieren, dann erwarten wir eine Sprache zu finden, in der die Hierarchie der Prinzipien z. B. (16a) > (16b) > (16c) ist. In dieser Sprache ist es wichtiger, in jedem Satz nominativische Subjekte zu haben, als die Dativrektion eines Verbs zu respektieren. Solch eine Sprache ist Färöisch: (18) Teir hjálpa sie helfen hann honum ihm. DAT varδ hjálptur er. NOM wird geholfen Übrigens erhält man (18) auch dann, wenn (16b) > (16a) die von der Sprache verwendete Hierarchie ist. Ist (16a) das wichtigste Prinzip, aber (16c) > (16b), so hätten die Sätze zwar Subjekte, aber diese würden im Dativ erscheinen. Auch solche Sprachen existieren, wie etwa Isländisch zeigt. Eine ganze Batterie grammatischer Tests weist den Dativ in (19) hier als Subjekt aus. Beispielsweise sind Infinitivkonstruktionen wie in (20) denkbar, ganz anders als im Deutschen. 29 Wie ihr Gebrauch die Sprache prägt* (19) honum ihm. DAT var hjalpað wurde geholfen (20) ég vonast til að ich hoffe verða auf dass (zu) werden hjalpað geholfen *ich hoffe, geholfen zu werden Solche und weitere Beispiele zeigen, dass zwischensprachliche Variation durch Umordnungen einfacher Prinzipien erfasst werden kann. Zentral ist in der Optimalitätstheorie, dies sei betont, die lexikographische Lösung der Konflikte zwischen den Prinzipien: Das höchste unterscheidende Prinzip entscheidet stets den Wettbewerb. Der Begriff „lexikographisch“ erklärt sich wie folgt. Im Lexikon ordnen wir die Wörter so, dass zunächst ihr erster Buchstabe über die Reihenfolge entscheidet (Katze vor Tiger und Zebra). Wo der erste Buchstabe keine Entscheidung erlaubt, erfolgt diese durch den zweiten (Katze vor Kitze), wo auch der zweite keine Ordnung herstellt, betrachtet man den dritten (Katze vor Kauz), u.s.w. Es gibt insbesondere keine "kompensatorischen" Effekte. Von vorne gesehen entscheidet immer der erste Buchstabe, durch den sich zwei Wörter unterscheiden, über deren Reihenfolge. Die weiteren Buchstaben sind irrelevant. Daher finden wir Azur immer vor Esel, obwohl hinsichtlich aller Buchstabenpositionen außer der ersten Esel im Alphabet Azur vorangeht. Analog werden in der Optimalitätstheorie konkurrierende Strukturen S und T hinsichtlich der Hierarchie der Prinzipien betrachtet, die man von oben nach unten abarbeitet. Das oberste der Prinzipien, bezüglich dessen sich S und T unterscheiden, entscheidet auch zwischen S und T. Ist S hier besser, dann kann T nicht grammatisch sein, auch wenn T bezüglich aller tiefer liegenden Prinzipien besser ist als S. Die Verletzung eines Prinzips X kann nur durch Beachtung höhe- 30 Gisbert Fanselow rer Prinzipien gerechtfertigt sein, niemals durch die Beachtung auch vieler weniger wichtiger Prinzipien. Tatsächlich ist die Syntax (wie die Phonologie) in ihrem Kernbereich niemals kompensatorisch. Gelegentlich wird für (schwache) kompensatorische Effekte in der Konfliktresolution argumentiert, so etwa bei der Interaktion des semantischen Bereichs von Quantoren wie jeder, mindestens einer oder bei der Reichweite von Bewegungsprozessen. Die wenigen Beispiele entstammen Bereichen mit unscharfer Datenlage, sind manchmal mit weiteren Problemen verbunden, und betreffen meist die Schnittstelle Syntax-Semantik eher als die Syntax selbst. Man sollte sie also nur mit Vorsicht bei der Theoriebildung interpretieren, In jedem Falle gibt es relativ konservative Verfahren, sie in die Optimalitätstheorie zu integrieren, ohne die Ausdruckskraft der Theorie zu sehr zu erweitern (Fischer, 2001). Wegen der angesprochenen Probleme der Datenbasis scheint der Beweis der Existenz kompensatorischer Konfliktresolution in der Syntax keinesfalls erbracht. 4. Die Grammatik im Sprachverstehen Dass die Lösung von Konflikten einen herausragenden Stellenwert einnehmen kann, ist für die Syntaxtheorie eine Erkenntnis jüngeren Datums. Für die Theorie des menschlichen Sprachverstehens, fokussiert auf den Bereich der Satzanalyse (Parsing), stellt sie quasi das tägliche Brot dar. Syntaktische Strukturen sind manchmal "global mehrdeutig": Wir können einer Kette vor Wörtern nach den Regeln des Deutschen mehrere Analyse zuordnen. Das ist etwa bei (21) so. (21) a. dass der Arzt der Schauspielerin helfen wollte b. dass das Kind auf dem Klavier spielte Wie ihr Gebrauch die Sprache prägt* 31 Solche syntaktischen Mehrdeutigkeiten sind immer dann gut erkennbar, wenn sie zu Bedeutungsunterschieden führen. Sie können mit einer Kasusmehrdeutigkeit verbunden sein (man vergleiche das Verschwinden der Mehrdeutigkeit bei dass der Arzt des Schauspielers helfen wollte vs. dass der Arzt dem Schauspieler helfen wollte). Die Mehrdeutigkeiten lösen sich auf, wenn man die Satzstellung entsprechend verändert, so dass jeweils nur eine einzige grammatische Analyse möglich ist (das Kind spielte auf dem Klavier -- das Kind auf dem Klavier spielte). Eine wesentlich größere Rolle für die Theorie der menschlichen Sprachverarbeitung spielen die "lokalen Mehrdeutigkeiten". Sätze werden ja inkrementell verarbeitet, d. h., wir warten mit der syntaktischen und semantischen Analyse dessen, was wir hören oder lesen, nicht bis der Satz fertig ist, sondern verarbeiten jedes Wort im Inputstrom, sobald wir es wahrgenommen haben. Ein Teil eines Satzes ist nun im strikten Sinne lokal mehrdeutig, wenn dieser Teil des Satzes mehrere Analyse zulässt, aber die Mehrdeutigkeit von späteren Elementen im selben Satz aufgelöst wird. So ist in (22) das Segment der Arzt der Schauspielerin genauso mehrdeutig wie in (21), aber die Mehrdeutigkeit wird -in verschiedener Weise- durch die nachfolgenden Wörter aufgelöst. (22) dass der Arzt der Schauspielerin dem kranken Kind geholfen hat dass der Arzt der Schauspielerin und nicht dem kranken Kind geholfen hat Lokale Mehrdeutigkeiten stellen potenziell ein erhebliches Problem für die menschliche Sprachverarbeitung dar. Wir verarbeiten Sätze inkrementell, also versuchen, jedes Wort zu verarbeiten, sobald wir es wahrgenommen haben. Im Falle einer lokalen (oder globalen) Mehrdeutigkeit ist es aber – grammatisch betrachtet – gar nicht 32 Gisbert Fanselow gerechtfertigt, eine der Optionen bevorzugt zu behandeln. Eigentlich müssten „alle“ Analysen berechnet werden (und hier kann die Zahl der Alternativen sich leicht explosiv vermehren) oder auf die Information gewartet werden, die alle bis auf eine Strukturoptioen ausschließt (das ist aber ggf. zu zeitraubend für effektive Sprachverarbeitung). Wie geht der Mensch mit dieser Mehrdeutigkeit, dem Konflikt von verschiedenen Analysemöglichkeiten um? Schon introspektive Daten geben ersten Aufschluss darüber, wie Menschen Syntax verarbeiten. Manchmal können wir die einzige korrekte Analyse eines Satzes nicht erkennen. Wir verstehen den Satz nicht, und müssen erst auf die richtige Struktur aufmerksam gemacht werden. In (23a) findet sich der erste, von Bever (1970) in die wissenschaftliche Diskussion eingebrachte sogenannte Holzwegsatz. Alle Sätze in (23) sind wohlgeformt, aber kaum analysierbar. Deutsche Entsprechungen sind (aus guten Gründen) etwas schwerer zu finden, aber die Beispiele in (24) sind für viele Muttersprachler nur unter großen Mühen zu verstehen. (23) a. the horse raced past the barn fell down b. cotton shirts are made of grows in Mississippi c. he told the girl that he had kissed the truth (24) dass der Entdecker von Amerika bestimmt erst am Vorabend auf dem Schiff erfahren hatte dass man Frauen die man sehr liebt vertrauen muss dass Maria zugunsten von Fritz bestimmt nichts unternommen wurde Von Holzwegsätzen (garden path sentences) spricht man deswegen, weil man die Verarbeitungsschwierigkeiten wie folgt erklären kann. Ein Satz wird von links nach rechts verarbeitet, und bei einem bestimmten Wort - in (23a) bei raced - tritt eine lokale Mehrdeutigkeit Wie ihr Gebrauch die Sprache prägt* 33 auf. Raced könnte das finite Verb eines Hauptsatzes sein - wie in the horse raced into the woods - , es könnte aber auch das Passivpartizip des transitives Verbs race im Sinne von "hetzen" sein. Das wäre eine Konstruktion wie in the book given to the children was very interesting, oder in This is a symphony composed by Benjamin Britten. Dies wäre für (23a) eine erfolgreiche Hypothese (siehe the horse which was raced past the barn fell down), während die Analyse von raced als Hauptverb uns in die Irre, auf den Holzweg führt. Wenn wir meinen, dass der Satz so anfängt wie das Pferd rannte hinter die Scheune, dann können wir das plötzlich auftretende Verb fell nicht mehr integrieren. Charakteristisch für die Sätze in (23) und (24) ist also: von den zwei Analyseoptionen, die sich zu einem Zeitpunkt stellen, ist die eine so dominant, dass wir uns bei der Satzverarbeitung für sie entscheiden. Der Konflikt wird in eindeutiger Weise aufgelöst. In (23) und (24) ist die Dominanz so stark, dass wir die dominierte Lösung nur unter größten Anstrengungen erkennen. Vom Holzweg kommen wird nicht mehr herunter, man könnte die Strukturen auch Sackgassensätze nennen. Die Sackgasse in (23b) entsteht durch die Analyse von cotton shirt als "Baumwollhemd", welche die Alternative eines Relativsatzes ohne Relativpronomen dominiert ((the) cotton (which) shirts are made of grows in Mississippi). In (23c) dominiert die Analyse von that he has ... als Satzergänzung von tell, und blockiert die korrekte Analyse als Relativsatz (he told the girl who/that he had kissed the truth). Sackgassensätze legen also nahe, dass die Sprachverwender bei der Satzanalyse im Falle einer grammatischen lokalen Mehrdeutigkeit häufig (oder immer) nicht sofort alle möglichen Analysen errechnen (das wäre das sogenannte parallele Parsen), sondern sich unbewusst 34 Gisbert Fanselow für eine der beiden (oder der mehreren) Optionen entscheiden, und zwar in systematischer Weise immer für dieselbe. Die psycholinguistische Forschung ist nun nicht auf Sackgassensätze angewiesen, um die Existenz von systematisch präferierten Lesarten im Falle lokaler Mehrdeutigkeiten nachzuweisen, also um zu zeigen, dass man bei konfligierenden Analysemöglichkeiten in der Regel eine (und zwar jeweils dieselbe) Option vorzieht. Präsentiert man beispielsweise Versuchspersonen auf einem Bildschirm wort- oder satzgliedweise Sätze wie (25), so kann man in (25b) gegenüber (25a) und in (25d) gegenüber (25c) jeweils für das Hilfsverb haben eine Erhöhung der Lesezeit messen. (25) a. welche Frau aus der Vorstadt hat die Männer angerufen? b. welche Frau aus der Vorstand haben die Männer angerufen? c. welche Frauen aus der Vorstadt haben den Mann angerufen d. welche Frauen aus der Vorstadt hat der Mann angerufen Da die erhöhte Lesezeit einmal bei hat, und einmal bei haben auftritt, kann sie nichts mit dem Wortformunterschied per se zu tun haben. Die Erklärung ist dennoch denkbar einfach: offenbar haben wir als Sprecher (Hörer, Leser) des Deutschen die starke Präferenz, welche Frau bzw. welche Frauen in satzinitialer Position als Subjekt zu verstehen. Zeigt das nachfolgende Verb - wie in (25b,d) - auf Grund der mangelnden Kongruenz an, dass diese Analyse falsch ist, so müssen wir die Satzstruktur umbauen (und welche Frau(en) als Objekt deuten), und dieser Umbau kostet anscheinend Zeit - was wir in der Lesezeitveränderung relativ zu (25a,c) feststellen, den Beispielen also, bei denen sich die Subjektanalyse von welche Frau(en) bewährt. Nicht jeder Holzweg führt uns in eine Sackgasse ohne Wendemöglichkeit, aber auch dann können wir oft die strukturelle Präferenz in Lesezeitvergleichen messen. In der aktuellen Forschung setzt man oft aufwendigere Verfahren wie z. B. die Ableitung von Hirn- Wie ihr Gebrauch die Sprache prägt* 35 strömen im EEG (ereigniskorrelierte Potentiale, EKP/ERP) ein, mit denen sich noch mehr Lesartpräferenzen nachweisen lassen. Nach einer sehr bedeutsamen (aber nicht alternativlosen) Sicht des Sprachverarbeitungsprozesses, die vor allem mit dem Namen von Lyn Frazier und Chuck Clifton verbunden wird, wird bei grammatischen Mehrdeutigkeiten in der Syntax (zumindest in ihrem Kernbereich) immer systematisch eine Analyse vorgezogen, und dies geschieht auf der Basis von formal-syntaktischen Strategien. Dieser gut begründeten Sichtweise schließe ich mich hier an. Eine entscheidende Frage ist, ob die Strategien, mit denen wir in der on-line Sprachverarbeitung unbewusst eine Entscheidung zwischen den konkurrierenden Analysen treffen (und manchmal dabei auf den Holzweg geraten) mit den Prinzipien der Grammatik identisch sind oder nicht. Frazier & Clifton (1996) geben eine negative Antwort, dahingegen Pritchett (1993), Phillipps (1996), oder Fanselow et al. (1999, 2001) eine positive. Offensichtlich hat die korrekte Antwort viel damit zu tun, welches Grammatikmodell man verwendet, und nach Sicht von Fanselow, Schlesewsky und Kollegen ergeben sich bei der Optimalitätstheorie besonders positive Ergebnisse. Das kann man am folgenden Beispiel leicht nachvollziehen. Das oben eingeführte Prinzip (16a) "jeder Satz hat ein Subjekt" kann man nur dann in einer deutschen Grammatik postulieren, wenn Sätze dieses Prinzip im Interesse der Beachtung wichtigerer Prinzipien missachten dürfen, wie das in der Optimalitätstheorie möglich ist. Denn in einigen deutschen Sätzen findet sich ja kein Subjekt: (26) dass dem Kind geholfen wurde dass mir schlecht ist dass mich friert dass im Saal gelacht und getanzt wurde 36 Gisbert Fanselow In einer Grammatik, die keine Konflikte zulässt, dürfen wir (16a) nicht annehmen. In einer Grammatik mit Konflikten ist (16a) dagegen hilfreich - und macht darüber hinaus auch Aussagen zur präferierten Struktur in (25)! Der Grundgedanke stammt vom Bruce Tesar (1995), und besagt in etwa folgendes: wenn wir einen Satz von "links nach rechts" analysieren, dann konstruieren wir zu jedem Analysezeitpunkt die Teilstruktur, die lokal die optimalitätstheoretischen Prinzipien am besten erfüllt. Hat man nun z. B. welche Frau wahrgenommen, so konstruiert man für die verschiedenen Optionen eine partielle Satzstruktur. In der Analyse A ist welche Frau das Subjekt des Satzes, in der anderen Analyse B ist welche Frau das Objekt. A und B werden – solange man nur welche Frau gehört hat - eine Vielzahl von sehr wichtigen Satzbauprinzipien des Deutschen verletzen. Sätze ohne Verben oder Hilfsverb sind im Deutschen ja nicht zugelassen, und in den postulierten Satzstrukturen für A und B kann sich noch kein Verb befinden, weil noch keines wahrgenommen wurde. In einer optimalitätstheoretischen Analyse kommt es aber nicht darauf an, ob man überhaupt Prinzipien verletzt (jeder Satz verletzt irgendein Prinzip!), sondern das relative Verletzungsprofil der konkurrierenden Kandidaten ist entscheidend. Weil sowohl die Annahme A: "hier ist ein Satz, in dem welche Frau das Subjekt ist" als auch die Annahme B: "hier ist ein Satz, in dem welche Frau das Objekt ist" das „Problem“ mit dem fehlenden Verb aufweisen, ist dieses Problem für die Akzeptabilität einer Analyse unerheblich. In der Optimalitätstheorie muss der Gewinner nur besser sein, nicht unbedingt auch gut. Es gibt aber durchaus einige Prinzipien, hinsichtlich derer sich die Alternativen A und B unterscheiden. In A haben wir ein Satzsubjekt gefunden, in B hingegen nicht. A erfüllt also (16a), B aber nicht. Da Wie ihr Gebrauch die Sprache prägt* 37 es nun kein höher als (16a) hierarchisiertes Prinzip zu geben scheint, welches A verletzt, aber B nicht, zeichnet die Links-nach-RechtsAnwendung der optimalitätstheoretischen Prinzipien die Alternative A (die Annahme, welche Frau sei ein Subjekt) korrekt als Gewinner aus. Anders formuliert: wenn das menschliche Sprachverarbeitungssystem einfach versucht, bei der Satzverarbeitung von links nach rechts die Prinzipien der Grammatik immer wieder anzuwenden, so führen diese nach Wahrnehmung von welche Frau zu eiuer Strukturanalyse, in der welche Frau als Subjekt des noch zu vervollständigen Satzes interpretiert wird. Dies entspricht, wie gesagt, auch genau dem, was man in der Psycholinguistik durch Lesezeit- oder EEGExperimente festgestellt hat. Hätten wir dagegen welcher Frau wahrgenommen, so würde die Subjektsanalyse zwar durch (16a) favorisiert, aber weil (16b) (also: Subjekte haben den Nominativ) wichtiger als (16a) im Deutschen ist, verwerfen wir als Sprachverarbeiter hier schon im ersten Schritt die inkorrekte Analyse, und erkennen welcher Frau als Objekt. Unsere erste Hypothese, entlehnt aus Fanselow et al (1999), ist also: [I] Parsingpräferenzen lassen sich (von wenigen Ausnahmen abgesehen) erklären durch inkrementelle Anwendung der optimalitätstheoretischen Prinzipien von links nach rechts. Eine Illustration von [I] durch weitere Beispiele findet sich in der eben zitierten Arbeit von Fanselow et al. Dort versuchen wir auch, entgegen der Sicht von Gibson & Broihier (1998) zu zeigen, dass bei Verwendung geeigneter Prinzipienformulierung die Konfliktresolution im grammatisch regierten Bereich lexikographisch erfolgt. Das heißt: wenn sich der menschliche Parser zwischen zwei Strukturanalysen X und Y zu entscheiden hat, und die Cues w 1 ,...,w n für x, und v 1 ,...,v m für Y sprechen, dann entscheidet nur der ranghöchste dieser Cues. Die Cues werden nicht gegeneinander verrechnet, 38 Gisbert Fanselow [II] Wie in der Grammatik ist die Konfliktlösung beim inkrementellen Parsing lexikographisch, folgt also allein der grammatischen Hierarchie der Prinzipien. 5. Das Sprechen in der Sprache Wenn Grammatik und Parser dieselbe Grundstruktur haben, wenn beide mit denselben verletzbaren Prinzipien in derselben Hierarchisierung arbeiten, wenn beide ihre Konflikte lexikographisch lösen, dann stellt sich die Frage, warum diese Übereinstimmung besteht. Zwei naheliegende Antworten sind die in A1 und A2: A1: Das Sprachverarbeitungssystem hat sich der Grammatik optimal angepasst A2: Die Grammatik hat eine lexikographische Konfliktresolutionsarchitektur, weil dies eine optimale Sprachverarbeitung ermöglicht. A1 ist eine Sichtweise, die vom Primat des sprachlichen Wissens ausgeht, und sich dann - wie Chomsky 1986a - die Frage stellt: wie wendet man bei Sprechen und Verstehen diese Wissensstruktur am besten an? Nach A2 hat sich dagegen die „Sprache“ den Bedingungen ihrer Verarbeitung optimal angepasst. Hinweise, die bei einer Entscheidung zwischen A1 und A2 hilfreich sein mögen, erhält man, wenn man nicht-linguistische Fragen in die Betrachtung mit einbezieht. Die Lösung von Konflikten bei verschiedenen Typen von Entscheidungsproblemen ist auch ein Gegenstand der kognitiven und der Motivationspsychologie (vgl. etwa Todd & Gigerenzer 2000 für einen lexikographischen Ansatz). Aus diesem Bereich stammt eine einfache Überlegung zu Vorteilen der lexikographischen Konfliktlösung im Vergleich mit Verfahren, die kompensatorische Effekte berücksichtigen, in dem sie z. B. die Gewichte 39 Wie ihr Gebrauch die Sprache prägt* aller Prinzipien/Kriterien miteinander verrechnen. Bei einer lexikographischen Entscheidung wird man niemals mehr, aber im Regelfalle erheblich weniger Prinzipien/Constraints/Kriterien zu analysieren haben als in den gewichtenden Verfahren. Gewichtende Verfahren berücksichtigen alle Kriterien, lexikographische Konfliktresolution kann dann abbrechen, sobald das höchste Prinzip P analysiert ist, bezüglich dessen ein Kandidat K besser ist als alle (verbleibenden) Mitstreiter. Das entscheidende Prinzip P kann zwar das tiefste sein, muss es aber nicht, und in letzteren Fällen ergibt sich der potentielle Vorteil des lexikographischen Verfahrens. Wenn die Verarbeitung der Cues nicht parallel abläuft, so ergibt sich ein Zeitvorteil des lexikographischen Verfahrens. Wenn die Analyse von Kriterien kognitiv kostenträchtig ist, so ergibt sich ein Kostenvorteil. Experimentell zeigt sich, dass Probanden bei bewussten Entscheidungsaufgaben signifikant häufiger zur lexikographischen Strategie greifen, wenn sie ihre Entscheidung unter Zeitdruck zu treffen haben, oder wenn die Information zur Kriterienauswertung Kosten verursacht (Rieskamp & Hoffrage 1999, Bröder 2000, Bröder & Eichler 2001). Allerdings beeinflussen weitere Faktoren die Auswahl der Konfliktresolutionsstrategie (z.B. die numerische Intelligenz), und allgemein ist die experimentelle Befundlage zu Thema Strategiewahl eher noch unbefriedigend. Dies ändert freilich nichts an der Richtigkeit der grundsätzlichen Überlegung zum Vorteil lexikographischer Strategien bei nicht-parallelen Prozessen. Syntaxverarbeitung findet nun unter Zeitdruck statt, weil Sprecher beim Reden nicht unbegrenzt auf Hörer warten, und weil sich das Problem der Überlastung der phonologischen Schleife des Arbeitsgedächtnis ergeben würde, wenn der menschliche Parser nicht schnell genug für die wahrgenommenen Satzteile eine Interpretation errechnet. Wenn die Parallelität in der Syntaxverarbeitung in der relevanten 40 Gisbert Fanselow Hinsicht (Überprüfung der Erfüllung der verschiedenen Satzaufbauprinzipien) begrenzt ist, so sollte Grammatikverarbeitung in der Konfliktlösung lexikographisch organisiert sein (oder auch dann, wenn es anderweitig energetisch unvorteilhaft wäre, alle Kriterien zu berücksichtigen). Angesichts des erheblichen Vorteils der lexikographischen Strategie kann man sich fragen, warum sie nicht die einzige vom Menschen angewendete ist. Optimal ist eine Strategie aber nur dann, wenn sie schnell und akkurat ist. In der Sprachverarbeitung würde es dem Hörer wenig nützen, wenn er oder sie zwar schnell zu einer Analysehypothese gelangte, diese aber in vielen oder gar den meisten Fällen später wieder zu revidieren hätte. Die lexikographische Konfliktresolution ist also nur dann in der Sprachverarbeitung optimal, wenn sie genügend oft korrekte Vorhersagen über die zu analysierende Satzstruktur machen kann. Das ist verbunden mit der optimalitätstheoretischen Struktur der Grammatik, aber letztere ist keine hinreichende Bedingung für den Erfolg des lexikographischen Parsens mit der Grammatikhierarchie. Wir müssen vielmehr die Hypothese [III] vertreten. [III] Grammatiken sind nicht wirklich hinterhältig. Bezüglich eines Satzes S ist eine Grammatik G unter der folgenden Bedingung "hinterhältig": Prinzip P ist wichtiger als Prinzip Q, und daher muss der Satz global die Analyse K2 aufweisen. Der Anfang des Satzes S enthält keine Information, für die P einschlägig ist. Q favorisiert aber die Analyse K1. Erst am Ende des Satzes taucht Information auf, für P einschlägig ist, und P favorisiert K2. Bei einer Satzverarbeitung von „links nach rechts“ operiert der Sprachverarbeiter also eine ganze Zeit lang mit der inkorrekten Analyse K1, weil die Information für K2 und gegen K1 erst sehr spät kommt. Bezüglich des Satzes dass die Frau gestern abend wahrscheinlich ihre Kin- Wie ihr Gebrauch die Sprache prägt* 41 der angerufen haben ist das Deutsche also hinterhältig, aber nicht etwa bezüglich dass den Mann gestern abend wahrscheinlich seine Kinder angerufen haben. Anders gesagt: die Grammatik ist bei Holzwegsätzen hinterhältig. Eine Grammatik G sei „wirklich hinterhältig“, wenn sie bezogen auf einen genügend großen Anteil des sprachlichen Inputs hinterhältig ist. Das Deutsche ist bezogen auf die Subjektpräferenz nicht hinterhältig. Ungefähr 90 Prozent aller Sätze, die mit einer Nominalphrase beginnen, sind auch subjektsinitial - und unter den 10 Prozent objektsinitialen (etwa 6 Prozent aller Sätze) sind auch viele mit eindeutiger Kasusmarkierung des voranstehenden Objekts, bei denen das Objekt sofort als Objekt erkannt werden kann, so dass der Satz nicht hinterhältig ist. Nur bei was-Fragen scheint Deutsch hinterhältig zu sein. Meistens ist ein was am Satzanfang nämlich ein Objekt. Die auf der Grammatik basierenden Parseprinzipien sagen aber vorher, dass was am Satzanfang ein Subjekt sein sollte. Wirklich zeigen auch unsere Experimente, dass Sprecher des Deutschen für was die Subjektsanalyse bevorzugen (und daher häufig auf dem Holzweg sind!). Bei den meisten Satztypen entspricht aber die vom Parser vorgezogene Analyse auch der in der Sprache häufiger realisierten Struktur. Die bislang unter dieser Perspektive betrachteten Sprachen sind wohl allesamt nicht hinterhältig. Sie könnten es aber sehr wohl sein. Ist Hypothese III korrekt, so kann ein lexikographisch operierender Parser die Grammatik als Prinzipien- und Hierarchiebasis verwenden, ohne zu oft in die Irre zu gehen. Ist er auf Grund seiner lexikographischen Natur auch schneller als seine Alternativen, so wird er auch verwendet werden. Zumindest für bewusste Entscheidungen scheint es ja plausibel, dass Menschen in hervorragender Weise Eigenschaften ihrer Umwelt für eine optimale Entscheidungsfindung nutzen (Todd & Gigerenzer 2000). Es wäre überraschend, wenn dies 42 Gisbert Fanselow für die Verarbeitung von Sprache nicht gelten würde. So könnte die komplette Version von A1 lauten. Was an A1 stört, ist aber der Bezug auf selbst nicht herleitbare Eigenschaften des grammatischen Wissens. A 1 besagt, dass sich das menschliche Sprachverarbeitungssystem effizient den Strukturen der Grammatik angepasst hat. Für die Grammatik nehmen wir eine optimalitätstheoretische Struktur an, und postulieren daneben, dass sie nicht wirklich hinterhältig ist. Warum sollte sie so sein? Darauf gibt A1 keine Antwort. Nun ist vielleicht ein Gott, der nicht würfelt, auch nicht gemein. Er wird uns keine Sprachen geben, die wir nur umständlich verstehen können. Aber eigentlich haben wir Menschen uns die Sprachen uns selbst konstruiert, und daher liegt die Lösung des Problems eher in einer Umkehrung der Blickrichtung. Konflikte zwischen Prinzipien und Regeln sind in der online Sprachverarbeitung unvermeidbar. Aber die Konfliktresolution muss schnell und effizient geschehen. Sofern wir unsere Grammatikprinzipien nicht hochgradig parallel verarbeiten können, lässt sich Effizienz und Schnelligkeit vor allem durch lexikographische Konfliktresolution erreichen, Daher haben wir uns Grammatiken geschaffen, die wir lexikographisch verarbeiten können, die also nicht wirklich hinterhältig sind, und die mit den heuristischen Generalisierungen unseres Parsers auskommen können. Das ist die Sichtweise A2. Erschaffen werden die Sprachen dabei nicht von uns erwachsenen und erfahrenen Sprecher, mit einer vollautomatisierten Syntaxverarbeitung, für die die Differenzen zwischen den einzelnen Analyseoptionen nur noch marginal sein mögen. Erschaffen werden die Grammatik von Kleinkindern, deren Syntaxverarbeitung noch nicht automatisiert ist. Die Notwendigkeit, von Kleinkindern mit begrenztem Arbeitsgedächtnis und nicht-automatisierter Sprachverarbeitung stets 43 Wie ihr Gebrauch die Sprache prägt* auf neue rekonstruiert zu werden, ist der entscheidende Flaschenhals in der Entwicklungsgeschichte der Klasse der Grammatiken. Vielleicht könnten wir Erwachsene mit einer wirklich hinterhältigen Grammatik leben, die wichtungsbasiert verarbeitet wird. Würden wir die hinterhältigen Sätze gegenüber unseren Kindern verwenden? Wohl kaum, aber falls ja, so würden wir kaum verstanden werden, und die hinterhältigen Sätze gingen zunächst in den Aufbau der kindlichen Grammatik gar nicht erst ein. Irgendwann ist die kritische Periode des Grammatikerwerbs vorbei, und Sätze, deren Analyse zu spät kommt, die bestraft bekanntlich das Leben. Die Natur des syntaktischen Regelsystems scheint also in vielen Hinsichten aus den Bedingungen des Gebrauchs der Syntax ableitbar zu sein. Stets auf neue rekonstruiert von Tausenden von Generationen von Kiudern, haben die Grammatiken eine Gestalt angenommen, die sie optimal an die Erfordernisse lexikographischen Parsens anpasst. Sprachen sind keine Umwelt, die wir vorfinden, Sprachen sind eine Umwelt, die wir uns selbst geschaffen haben. 6. Literatur Alexiadou, Artemis und Gisbert Fanselow, “On the correlation between morphology and syntax”, in: Proceedings of the Germanic Syntax Workshop (Arbeitstitel), hg. von J.W. Zwart und W. Abraham, Amsterdam, 2001. Bever, Tom. “The cognitive basis for linguistic structures”, In: Cognition and the Development of Language, hg. von J. R. Hayes, New York, 1970. Bröder, Arndt, 'Take The Best - Ignore The Rest', Untersuchungen zur psychologischen Realität einer Entscheidungsheuristik, Lengerich, 2000. begrenzt rationalen 44 Gisbert Fanselow - und Alexandra Eichler, "Individuelle Unterschiede in bevorzugten Entscheidungsstrategien." Manuskript, Psychologisches Institut der Universität Bonn, 2001. Changeux, Jean-Pierre, Der neuronale Mensch, Reinbek bei Hamburg 1984. Chomsky, Noam, Rules and Representations. New York, 1980. - Lectures on Government and Binding. Dordrecht, 1981 - Knowledge of Language. London, 1986a. - Barriers. Cambridge, Mass., 1986b. - A Minimalist Program for Linguistic Theory, Cambridge, Mass., 1995 Corbett, G., “Agreement”, in: Handbuch Syntax, hg. von J. Jacobs, A.v. Stechow, W. Sternefeld, und T. Vennemann. Berlin, 1995: 235-244. Fanselow, Gisbert, Minimale Syntax, Groningen 1991 (=Groninger Arbeiten zur Germanistischen Linguistik 32), - und Sascha W. Felix, Sprachtheorie, Tübingen, 1987. - Matthias Schlesewsky, Damir Ćavar und Reinhold Kliegl, Optimal Parsing, Rutgers Optimaly Archive ROA 382, 1999. - Matthias Schlesewsky und Stefan Frisch Optimal Parsing, eingereichtes Manuskript, 2001. Fischer, Silke, “On the integration of cumulative effects into Optimality Theory”, in: Competition in Syntax, hg. von Gereon Müller und Wolfgang Sternefeld, Berlin, 2001: 151 - 173. Fodor, Jerry, The Modularity of Mind, Cambridge, Mass.. 1984. Frazier, Lyn und Charles Clifton. 1996, Construal, Cambridge, Mass., 1996. 45 Wie ihr Gebrauch die Sprache prägt* Gauthier, I, P. Skudlarski, J. C. Gore und A. W. Anderson, 2000. "Expertise for cars and birds recruits brain areas involved in face recognition". Nature Neuroscience, Feb. 2000. Gibson, Ted und Kevin Broihier, “Optimality and Human Sentence Processing”, in: Is the Best Good Enough? , hg. von Pilar Barbosa et al. Cambridge, Mass., 1998: 157-196. Haider, Hubert, Deutsche Syntax – generativ, Tübingen, 1993. Hawkins, John, A performance theory of order and constituency. Cambridge, 1994. Hurford, Jim, “Expression/induction models of language evolution: dimensions and issues,” in: Linguistic evolution through language acquisition: formal and computational models, hg. von E. Briscoe Cambridge, 2000. Jourdain, Robert, Das wohltemperierte Gehirn, Heidelberg, 1998. Kager, René, Optimality Theory. Cambridge, 1999. Kirby, Simon, Function, Selection, and Innateness. Oxford & New York, 1999. Koelsch, Stefan, Thomas Gunter, Yves von Cramon, Stefan Zysset, Gabriele Lohmann und Angela Friederici, A cortical ‘languagenetwork’ serves the processing of music. Ms., Max Planck Institut für kognitive Neuropsychologie, Leipzig, zur Veröffentlichung eingereicht. Koster, Jan, Domains and Dynasties, Dordrecht, 1987. - Doelloze Structuren, Dordrecht, 1988. . Kroch, Anthony, 2001, “Syntactic Change”, In: Handbook of Syntax, hg. von M. Baltin und C. Collins. London. Landau, Terry, Von Angesicht zu Angesicht, Heidelberg, 1993. Maess, Burkhard, Stefan Koelsch, Thomas Gunter und Angela Friederici, Musical syntax is processed in the area of Broca. Ms., 46 Gisbert Fanselow Max Planck Institut für kognitive Neuropsychologie, Leipzig, zur Veröffentlichung eingereicht. Müller, Gereon, Elemente der optimalitätstheoretischen Syntax. Tübingen, 2000. Phillips, Colin, Order and Structure, Dissertation, MIT, Cambridge, Mass., 1996. Pinker, Steven, The Language Instinct, London, 1994. Pritchett, Bradley, Grammatical Competence and Parsing Performance, Chicago, 1992 Prince, Alan und Paul Smolensky, Optimality Theory. Constraint Interaction in Generative Grammar. Ms., Rutgers University und University of Colorado at Boulder, 1993. Rieskamp, Jörg und Ullrich Hoffrage, "When do people use simple heuristics, and how can we tell", in: Simple Heuristics that Make us Smart, hg. von Gerd Gigerenzer, Peter Todd und der ABC Research Group, New York, 1999: 141-167. Rose, Stephen, Molecules and Minds, Milton Keynes. 1987. Sternefeld, Wolfgang, Syntaktische Grenzen, Opladen, 1991. Tesar, Bruce, Computational Optimality Theory, Dissertation, University of Colorado, 1995. Todd, Peter & Gerd Gigerenzer. Précis of Simple Heuristics that Make us Smart, Behavioral and Brain Sciences 23, 727 – 780. Wexler, Ken und Peter Culicover, Formal Principles of Language Acquisition, Cambridge, Mass., 1980.