II. Teildisziplinen der Kognitionswissenschaft 3. Linguistik 1. Theoretische Linguistik Peter Bosch: Theoretische Linguistik. to app. in: Achim Stephan & Sven Walter (Hrsg.) Handbuch der Kognitionswissenschaft. J.B.Metzler Eine wissenschaftliche Disziplin ist durch ihre Forschungsfragen und ihre Methoden bestimmt. Die zentrale Forschungsfrage der theoretischen Linguistik ergibt sich aus der Beobachtung, dass Menschen mit endlichen mentalen Ressourcen in der Lage sind, eine potenziell unendliche Vielfalt von sprachlichen Äußerungen hervorzubringen und zu verstehen: Es gilt uns als selbstverständlich, dass Menschen Sätze äußern und auch verstehen können, die sie nie zuvor gehört oder gelesen haben. Diese Fähigkeit bezieht sich nicht nur auf die Phonologie, Morphologie und Syntax, sondern auch auf die Semantik und Pragmatik sprachlicher Äußerungen, d.h. sprachliche Ausdrücke werden unter immer neuen Umständen so verwendet und verstanden, dass Kommunikation allem Anschein nach zuverlässig stattfinden kann. Für diese Beobachtung, man spricht hier von der Produktivität menschlicher Sprache, sucht die theoretische Linguistik nach Erklärungen. Diese Forschungsfrage unterscheidet die theoretische Linguistik von anderen linguistischen Teildisziplinen und macht zugleich verständlich, dass die theoretische Linguistik von Anfang an zusammen mit der Philosophie, der Psychologie und der Künstlichen Intelligenz zu den Kerndisziplinen der Kognitionswissenschaft gehört hat. Von der Methode her ist die theoretische Linguistik auf formale Theorien festgelegt, aus denen empirisch überprüfbare Vorhersagen abgeleitet werden können. Insofern steht die theoretische Linguistik nicht im Gegensatz zu, und ist auch nicht komplementär zu empirischer Linguistik. Mit dem Adjektiv ‚theoretisch‘ wird die theoretische Linguistik lediglich von der angewandten Linguistik unterschieden, deren Fragestellungen von jeweils aktuellen Anwendungsproblemen bestimmt sind, während die theoretische Linguistik sich auf Theorieentwicklung richtet. Die Forschungsfrage. Beobachtungen zur Produktivität menschlicher Sprache finden sich immer wieder in der langen Geschichte der Linguistik und der Sprachphilosophie. Bis in das frühe 20. Jh. hinein fehlten jedoch die Voraussetzungen, um dieses Problembewusstsein in wissenschaftliche Forschung zu überführen. Es standen nicht die Mittel zur Formulierung komplexer Theorien und empirisch testbarer Hypothesen zur Verfügung. Erst mit den Entwicklungen in der Grundlegung der Logik und Mathematik und der Theorie der formalen Sprachen gegen Ende des 19. und in der ersten Hälfte des 20. Jh.s, insbesondere durch Gottlob Frege, Giuseppe Peano, Betrand Russell, Rudolf Carnap, Yehoshua Bar-Hillel, Alan Turing, Claude Shannon, Warren Weaver und Stephen Kleene, begann sich ein Bild der formalen Eigenschaften von Sprachen abzuzeichnen, das die Basis für eine Theorie auch menschlicher Sprache bilden konnte. Aufbauend auf den hier entwickelten Konzepten und auf frühen formalen Ansätzen in der strukturalistischen Linguistik (insbesondere Harris 1951) entwickelte Noam Chomsky in den 1950er Jahren die Grundlagen einer generativen Grammatiktheorie, mit dem Ziel, eben jene Produktivitätseigenschaften natürlicher Sprache zu klären. Grundgedanke war die Überlegung, dass eine menschliche Sprache analog zu formalen Sprachen als die nicht endliche Menge von wohlgeformten Zeichenfolgen betrachtet werden kann, die zu der Sprache gehören. Diese Menge von Sätzen kann durch eine formale Grammatik algebraisch beschrieben werden (Chomsky 1957, 1959, 13). Eine formale Grammatik ist hier als ein 4Tupel <N,Σ,P,S> zu verstehen, wobei N eine endliche Menge nicht-terminaler Symbole ist (also z.B. syntaktische Kategoriensymbole), Σ eine endliche Menge terminaler Symbole (also z.B. Wörter), S∈N das Startsymbol (für die syntaktische Kategorie Satz) und P eine endliche Menge von Produktionsregeln (z.B. die Regel ‚S→NP VP‘, die besagt, dass ein Satz aus einer Nominalphrase gefolgt von einer Verbphrase besteht). Das Ziel der theoretischen Linguistik besteht jedoch nicht in der grammatischen Beschreibung einzelner Sprachen, sondern in einem formalen Modell menschlicher Sprache überhaupt, d.h. einer Charakterisierung der Klasse möglicher Grammatiken menschlicher Sprachen, einer Universalgrammatik. Diese Charakterisierung darf nicht so eng ausfallen, dass mögliche menschliche Sprachen ausgeschlossen werden, aber auch nicht zu weit. Das Ziel ist ja, die formalen Eigenschaften menschlicher Sprachen herauszuarbeiten, die nicht notwendigerweise von Kunstsprachen oder tierischen Kommunikationssystemen geteilt werden. Das einfachste Modell wäre hier dasjenige des endlichen Automaten. Doch das wäre eher zu restriktiv, weil endliche Automaten den Begriff einer syntaktischen Konstituente nur schlecht modellieren können. Sie erlauben nur solche Produktionsregeln, die ein nichtterminales Symbol durch ein terminales Symbol oder durch eine Sequenz aus einem terminalen und einem nicht-terminalen Symbol ersetzen. Mit dieser Beschränkung können Abhängigkeiten zwischen nicht direkt aufeinander folgenden Zeichen einer Zeichenkette nur sehr unelegant dargestellt werden. Die intuitiv einfache Idee, dass z.B. in indoeuropäischen Sprachen ein Verb mit seinem Subjekt in den Merkmalen Person und Numerus übereinstimmen muss, könnte nicht direkt ausgedrückt werden, wenn Subjekt und Verb nicht aus zwei auf einander folgenden Wörtern bestünden, sondern selbst komplexe Ausdrücke wären. Im anderen Extrem könnte man die universelle Turingmaschine als Modell wählen und würde Grammatiken zulassen, die beliebige rekursiv aufzählbare Mengen von Sätzen beschreiben können. Doch diese Charakterisierung ist offensichtlich zu liberal, denn nicht jede rekursiv aufzählbare Menge von Sätzen konstituiert eine menschliche Sprache. Nach gegenwärtiger Auffassung reduziert sich die Suche nach einer Klasse von formalen Grammatiken für natürliche Sprache damit auf Modelle, die weniger mächtig sind als die universelle Turingmaschine, aber mächtiger als endliche Automaten, also auf kontextfreie und kontextsensitive Grammatiken, wie man es unter Bezug auf die Chomsky-Hierarchie ausdrücken würde (Chomsky 1956; Hopcroft/Ullman 1979). Ausgangspunkt für jede Grammatik ist eine empirisch gegebene, also endliche, Menge von Zeichenketten. Grammatiken, die in diesem Sinn empirisch korrekt sind, gelten als beobachtungsadäquat. Sie liefern jedoch insofern nur eine schwache Charakterisierung einer Sprache, als sie die Struktur der Zeichenketten ignorieren; strukturell mehrdeutige Zeichenketten können nicht unterschieden werden, so dass eine Grammatik, die nur die korrekte Satzmenge einer Sprache generiert, aber nicht die Struktur der Sätze beschreibt, als Basis für eine semantische Beschreibung ungeeignet ist (Chomsky 1959). Wenn eine Grammatik zusätzlich jedem Satz die angemessenen Konstituentenstrukturen zuschreibt, gilt sie als beschreibungsadäquat. Methoden. In Syntactic Structures (1957) hat Chomsky eine formale Grammatik nach den oben beschriebenen Grundsätzen beispielhaft für einen Ausschnitt des Englischen entwickelt. Er bricht hierbei mit der damals induktiv und deskriptiv ausgerichteten Arbeitsweise der Linguistik und optiert für ein deduktives Vorgehen, d.h. er verschiebt den Schwerpunkt auf die Validierung von Grammatiken: „One may arrive at a grammar by intuition, guess-work, all sorts of partial methodological hints, reliance on past experience, etc. … Our ultimate aim is to provide an objective, non-intuitive way to evaluate a grammar once presented“ (1957, 56). Zwei Aspekte sind hier zu unterscheiden: (1) die Frage, ob die Grammatik einer Sprache tatsächlich die als empirisch gegeben unterstellte Menge der Sätze mit den dazu gehörigen Strukturen definiert (Beschreibungsadäquatheit), und (2) die Frage, welche der beliebig vielen Grammatiken, die diese Anforderung erfüllen, die ‚richtige‘ ist. Die Parameter einer beschreibungsadäquaten Grammatik machen nicht notwendigerweise schon die allgemeinen Eigenschaften menschlicher Sprache sichtbar. Diese werden in einer allgemeinen Grammatiktheorie, oder Universalgrammatik, formuliert. Die grammatische Beschreibung einer Einzelsprache kann erst dann als erklärungsadäquat gelten, wenn sie in den Parametern der allgemeinen Grammatiktheorie formuliert ist und damit die grammatischen Regelmäßigkeiten der Einzelsprache als eine Instanziierung allgemeiner Eigenschaften menschlicher Sprache darstellt. In der Forschungspraxis bedeutet dies, dass auch empirisch korrekte Beschreibungen für Einzelsprachen korrigiert werden müssen, wenn sich herausstellt, dass ihre Kategorien mit für andere Sprachen erforderlichen Beschreibungskategorien unvereinbar sind. Eine nahe liegende, von Chomsky intendierte, jedoch auch innerhalb der theoretischen Linguistik nicht unkontroverse Interpretation der Universalgrammatik ist, dass es sich um die Theorie eines angeborenen menschlichen Sprachvermögens handelt, d.h. einer genetisch angelegten menschlichen Fähigkeit, wie z.B. der Fähigkeit, visuelle Reize auf Objekte abzubilden, sich im Raum zu orientieren oder aufrecht auf zwei Beinen zu gehen. Ebenso wie andere angeborene Fähigkeiten, und im Gegensatz z.B. zur Arithmetik, muss Muttersprache nicht unterrichtet werden, sondern wird anhand der sprachlichen Reize in der Umgebung und aufgrund einer angeborenen Universalgrammatik erworben. Die wesentliche Argumentation für diese Auffassung zum kindlichen Spracherwerb ist der Hinweis darauf, dass die sprachlichen Reize der Umgebung allein, zumal sie oft spärlich und fehlerhaft sind, den vergleichsweise schnellen und fehlerlosen Erwerb der Muttersprache nicht erklären könnten, wenn nicht bereits der Parameter-Raum für die implizit zu erlernende Grammatik – und genau als solcher wäre die Universalgrammatik zu sehen – angeboren wäre (das sog. poverty of the stimulus argument). Aktuelle Theorien des kindlichen Spracherwerbs sind im Wesentlichen als Weiterentwicklung bzw. Kritik dieser Angeborenheitshypothese entstanden. Die Grammatik einer Einzelsprache wird empirisch an der Menge von Sätzen überprüft, die unabhängig von der jeweiligen Grammatik als zu der Sprache gehörig betrachtetet werden. Die Entscheidung darüber, welche Sätze zu einer Sprache gehören, ist allerdings nicht trivial. Nicht jeder Satz, den ein muttersprachlicher Sprecher äußert, muss dieser Menge zugerechnet werden. Sprachliche Äußerungen können Fehler enthalten, die der Sprecher auch selbst erkennt, die z.B. durch Ablenkung, Müdigkeit, Drogen oder neurologische Störungen hervorgerufen werden können. Solche Fehler, oft auch nur einfache Versprecher, sind zwar Phänomene des Sprachverhaltens und können für viele wissenschaftliche Zwecke relevant sein, z.B. im Rahmen einer neurologischen Diagnose. Wenn jedoch die Grammatik der Sprache und damit das implizite sprachliche Wissen des Sprechers, beschrieben werden soll, schließt man sie vernünftigerweise aus. Chomsky (1965) hat in diesem Zusammenhang den Unterscheid zwischen Sprachkompetenz und Sprachperformanz eingeführt: Die Sprachperformanz können wir direkt im Sprachverhalten beobachten, während die Sprachkompetenz, also das implizite Wissen, das ein idealisierter muttersprachlicher Sprecher von seiner Sprache hat, der eigentliche Gegenstand der grammatischen Beschreibung ist. Die Ausgliederung der Performanz ist einerseits eine notwendige Konsequenz der Festlegung des Forschungsgegenstandes auf sprachliches Wissen, führt andererseits aber zu einem Empiriebegriff, der nicht ohne Probleme ist. Die wesentliche Form empirischer Überprüfung, die Chomsky vorschlug und die auch gegenwärtig die Arbeit in weiten Bereichen der theoretischen Linguistik bestimmt, ist die Überprüfung an Urteilen muttersprachlicher Sprecher: Ein Satz gehört zur Sprache, wenn er für einen muttersprachlichen Sprecher ‚akzeptabel‘ ist. Chomsky orientiert sich hier an dem logischempiristischen Begriff der Explikation oder rationalen Rekonstruktion. Er sieht die grammatische Beschreibung als „a familiar task of explication of some intuitive concept – in this case, the concept ‘grammatical in English’, and more generally, the concept ‘grammatical’ […] A certain number of clear cases, then, will provide us with a criterion of adequacy for any particular grammar“ (1957, 13f). Diese Sichtweise räumt der Empirie zwar einen wichtigen Platz ein, ist aber wesentlich motiviert durch die Entscheidung für ein strikt deduktives Vorgehen und den Wunsch nach einfachen Theorien. Viele theoretische Linguisten sehen gegenwärtig eine Datenerhebung über die Intuitionen muttersprachlicher Sprecher als eher unzureichend und unzuverlässig an (s.u.). Modularität. Die bisher skizzierten Aspekte der theoretischen Linguistik sind auf Syntax fokussiert und erklären noch nicht, wie den Sätzen einer Sprache rekursiv Bedeutungen zugeordnet werden und wie Sätze oder Bedeutungen in Zusammenhänge menschlichen Handelns und Wahrnehmens eingebunden sind. Dass der menschliche Gebrauch der Sprache ohne Bedeutungszuordnung und ohne Anbindung an Wahrnehmen und Handeln nur sehr eingeschränkt modelliert ist, ist unkontrovers. Kontrovers hingegen ist die Architektur einer Theorie des sprachlichen Wissens: (1) Ist sprachliches Wissen in einem engeren oder weiteren Sinn als ein eigenständiges kognitives Modul zu behandeln? und (2) Ist sprachliches Wissen in sich modular aufgebaut? Die Antworten hängen wesentlich davon ab, welche empirische Interpretation dem Modell zugeordnet und was genau unter Modularität verstanden wird. Ausgehend von der anfänglichen Fokussierung auf eine Menge wohlgeformter Sätze und eine postulierte Fähigkeit des muttersprachlichen Sprechers, die Zugehörigkeit von Sätzen zu dieser Menge zu beurteilen, wurde gelegentlich ein autonomes Syntaxmodul postuliert. Dies bringt jedoch gewisse empirische Probleme mit sich, da Wohlgeformtheitsurteile muttersprachlicher Sprecher selbst als kognitive Leistungen betrachtet werden müssen, die von intuitiven Bedeutungszuschreibungen, von vorgestellten Äußerungskontexten und von sprachlicher Erfahrung und sozialen Normen nicht unabhängig sind. Empirische Validierung syntaktischer Hypothesen ist somit letztendlich nicht ohne gewisse Annahmen zur Relation eines postulierten Syntaxmoduls mit anderen kognitiven Modulen möglich. Wenn das Syntaxmodul sehr konkret als ein Modul im menschlichen Sprachverarbeitungsprozess verstanden wird, das unabhängig vom Zugriff auf andere Module bestimmte Input-Output-Relationen definiert (Fodor 1983), ist die Hypothese eines Syntaxmoduls nicht haltbar. Es kann empirisch als gesichert gelten, dass im menschlichen Sprachverarbeitungsprozess syntaktische, semantische und kontextuelle Information interaktiv und nicht im strikten Sinn modular verarbeitet werden (Altmann/Steedman 1988; Marslen-Wilson/Tyler 1980). Nun steht es dem Theoretiker natürlich frei, Modularisierung in einem abstrakteren Sinn auf die Theorie selbst zu beziehen. Modularität der Theorie besteht dann darin, dass eine Teiltheorie unabhängig von anderen Teiltheorien in ihren jeweils eigenen Parametern formuliert werden kann. Die Theorie der Syntax ist dann zu verstehen als eine eigenständig formulierbare abstrakte Menge von Beschränkungen, denen Verarbeitungsprozesse – neben anderen Beschränkungen aus anderen Teiltheorien – unterworfen sind. Eine empirische Validierung eines so konzipierten Syntaxmoduls ist jedoch nur unter Zuhilfenahme von Annahmen über andere kognitive Module möglich. Dem Theoretiker bietet sich insofern die Option, den Begriff ‚sprachliches Wissen‘ um andere Module zu erweitern und damit u.a. eine größere Nähe zu Verarbeitungsprozessen und eine direktere empirische Validierung zu erreichen. Diese Option hat sich insbesondere bezüglich der Semantik und Pragmatik seit den 1980er Jahren in der theoretischen Linguistik etabliert und vielfach zu einer engen Interaktion mit Psycholinguistik und Neurolinguistik geführt. Semantik. Als Bedeutungen von Sätzen nimmt man in der theoretischen Linguistik im Allgemeinen vereinfacht Wahrheitsbedingungen an: „Einen Satz verstehen, heißt, wissen was der Fall ist, wenn er wahr ist“ (Wittgenstein 1921/1960, 4.024). Da es in jeder Sprache bei endlichem Vokabular dennoch unendlich viele verschiedene Sätze gibt, ist eine Erklärung der semantischen Produktivität, also der Fähigkeit, unendlich viele verschiedene Sätze zu verstehen, nur über die Annahme möglich, dass die Wahrheitsbedingungen eines Satzes funktional von den Bedeutungen der Wörter des Satzes und seiner syntaktischen Struktur abhängen. Man spricht hier vom Prinzip der Kompositionalität. Wir nehmen hier etwas vereinfacht an, dass Wörter entweder Dinge (konkreter oder abstrakter Art) oder Begriffe bezeichnen, wobei Begriffe nach Frege als Funktionen vorgestellt werden. So lässt sich erklären, dass die Bedeutung des Satzes ‚Der Bauer tritt den Esel.‘, d.h. ’tritt(ιx(Bauerc(x)), ιy(Eselc(y))÷, einerseits von der Syntax und der Denotation des Verbs, d.h. der Relation ’λx(λy.tritt(y,x))÷, abhängt und andererseits von der Denotation der beiden Nominalausdrücke ‚der Bauer‘, d.h. ’ιx(Bauerc(x))÷, und ‚der Esel‘, d.h. ’ιy(Eselc(y))÷. Deren Denotation wiederum hängt ab von der Denotation des definiten Artikels, ’λPιx(Pc(x))÷ – zu lesen als ‚der einzige Gegenstand x, der im aktuellen Kontext c unter den Begriff P fällt‘– und den Begriffen Bauer ’λx(Bauer (x))÷ bzw. ’λy(Esel (y))÷. Da die Syntax im Fall des ganz ähnlichen Satzes ‚Den Bauern tritt der Esel.‘ die Nominalausdrücke genau umgekehrt auf die Argumentstellen des Verbs abbildet, ergibt sich hier eine andere, aber völlig analoge Satzbedeutung. Auch für ihrer syntaktischen Struktur nach mehrdeutige Sätze wie ‚Hans liebt Maria.‘ (Hans kann Subjekt oder Objekt sein) oder Groucho Marx’ klassischen Spruch ‚I shot an elephant in my pyjamas.‘ (die Präposionalkonstituente ‚in my pyjamas‘ kann entweder das Verb oder das Objekt modifizieren) ist offensichtlich die syntaktische Struktur für den Unterschied in den Wahrheitsbedingungen ausschlaggebend. Sprache und Situation. Generative Syntax und kompositionelle Semantik stellen einen relativ gut ausgearbeiteten Kern einer linguistischen Theorie dar, die in Grundzügen eine Erklärung für syntaktische und semantische Produktivität und somit ein Teilmodell für sprachliches Wissen liefern kann. Zur Erklärung produktiven Sprachgebrauchs muss jedoch eine Interaktion mit zusätzlichem Wissen über die jeweiligen sprachlichen und nicht-sprachlichen Kontexte angenommen werden. Da jedoch Kontexte nicht wie Sätze nach einem rekursiven Algorithmus aus einer endlichen Anzahl von Elementen aufgebaut sind, lassen sich die Grundgedanken der generativen Syntax und kompositionellen Semantik nicht trivial auf Kontextabhängigkeit erweitern. Kontextabhängigkeit tritt in einer offensichtlichen Form u.a. bei der Interpretation von Pronomina auf. Die Wahrheitsbedingungen für den Satz ‚Er arbeitet.‘ müssen Bezug nehmen auf ein bestimmtes vom Sprecher intendiertes Referenzobjekt für das Pronomen, das sich jedoch aus der Semantik des Satzes allein nicht bestimmen lässt. Es muss sich um ein Referenzobjekt handeln, das entweder belebt und männlich ist oder durch ein maskulines Substantiv bezeichnet wird; es muss weiterhin ein Referenzobjekt sein, für das die Denotation des Verbs definiert ist, d.h. einen Gegenstand, von dem man sinnvoll fragen kann, ob er unter ein bestimmtes Konzept des Arbeitens fällt. Die Semantik des Satzes schränkt somit die Interpretation ein, determiniert sie aber nicht. Es bleibt offen, auf welches von beliebig vielen Referenzobjekten sich das Pronomen ‚er‘ bezieht bzw. worauf der Sprecher es beziehen möchte. Die Integration von Äußerungen in einen sprachlichen oder außersprachlichen Kontext verlangt, dass Pronomina einer Reihe weiterer nicht-semantischer Bedingungen genügen; u.a. müssen sie sich auf Referenzobjekte beziehen, die in der Äußerungssituation zugänglich sind (Kamp/Reyle 1993) und zudem in der einen oder anderen Weise prominent sind (Gundel et al. 1993). Zu vergleichbaren Problemen kommt es bei der Interpretation von Ausdrücken, die sich nicht auf Objekte, sondern auf Konzepte beziehen. Auch hier kann die Semantik lediglich Beschränkungen formulieren, keine notwendigen und hinreichenden Bedingungen. Wir haben es hier nicht bloß mit einfacher lexikalischer Ambiguität zu tun, sondern mit sog. Polysemie. ‚Arbeiten‘ kann im Gegensatz stehen zu in Ausbildung oder im Ruhestand befindlich oder zu Arbeitslosigkeit, oder im Gegensatz zu in Urlaub sein oder krank geschrieben sein – beides würde ‚arbeiten‘ im ersten Sinn voraussetzen. Es kann auch bedeuten, aktuell einer Tätigkeit nachzugehen im Gegensatz etwa zu Ausruhen – keines von beiden setzt ein Arbeitsverhältnis voraus oder stünde im Gegensatz zu ‚in Urlaub sein‘ oder ‚krankgeschrieben sein‘. Hier das situativ passende und vom Sprecher intendierte Konzept zu bestimmen, ist offenbar, trotz relativ klarer semantischer Beschränkungen, nicht ausschließlich eine Frage der Semantik, sondern hängt ebenfalls ab von kognitiven Fähigkeiten, die sich auf Kenntnis der Situation, auf plausible Ausdrucksintentionen des Sprechers u.ä. beziehen. Hier handelt es sich, ebenso wie im Falle der pronominalen Referenz, um Parameter, die nicht im strikten Sinn Teil des sprachlichen Wissens sind, wenngleich jede Verwendung sprachlichen Wissens in der Interpretation von sprachlichen Äußerungen nicht ohne sie auskommt. Ob und in welchem Umfang solche kontextuellen Parameter im Rahmen einer kompositionellen Theorie modelliert werden können, ist unklar. Grobe Skizzen hierfür gibt es bei Montague (1968/1974), Kaplan (1977/1989) oder Lewis (1970). Man wird jedoch eher davon ausgehen müssen, dass eine umfassende Behandlung von Kontextabhängigkeiten der genannten Art die Grenzen der Theorie sprachlichen Wissens überschreitet. Hier geht es um Interaktionen zwischen sprachlichem Wissen und anderen kognitiven Modulen – und somit um eine der aktuell größten Herausforderungen an die Kognitionswissenschaft. Literatur Altmann, Gerry/Steedman, Mark (1988): Interaction with context during human sentence processing. In: Cognition 30,191–238. Chomsky, Noam (1956): Three models for the description of language. In: I.R.E .Transactions on Information Theory 2, 113–124. Chomsky, Noam (1957): Syntactic Structures. De Haag. Chomsky, Noam (1959): On certain formal properties of grammars. In: Information & Control 2, 137–167. Chomsky, Noam (1965): Aspects of the Theory of Syntax. Cambridge, MA. Fodor, Jerry (1983): The Modularity of Mind. Cambridge, MA. Gundel, Jeanette/Hedberg, Nancy/Zacharski, Ro (1993): Cognitive status and the form of referring expressions in discourse. In: Language 69, 274–307. Harris, Zellig (1951): Structural Linguistics. Chicago, IL. Hopcroft, John/Jeffrey Ullman (1979): Introduction to Automata Theory, Languages, and Computation. Boston. Kamp, Hans/Reyle, Uwe (1993): From Discourse to Logic. Dordrecht. Kaplan, David (1977/1989): Demonstratives. In: Joseph Almog/Howard Wettstein/John Perry (Hg.): Themes from Kaplan. Oxford 1989, 481–563. Lewis, David (1970): General semantics. In: Synthese 22, 18–67. Marslen-Wilson, William/Tyler, Lorraine (1980): The temporal structure of spoken language understanding. In: Cognition 8, 1–71. Montague, Richard (1968/1974): Pragmatics. In Richmond Thomason (Hg.): Formal Philosophy. Selected papers of Richard Montague. New Haven, CT, 95–118. Wittgenstein, Ludwig (1921/1960): Tractatus logico-philosophicus. In: ders., Schriften, Bd 1. Frankfurt a.M. Peter Bosch