Sprache und Sprachrezeption - Fachschaft Psychologie Freiburg

Werbung
Sprache und Sprachrezeption
Sprache
- Sprache ist wichtigstes Medium zur Kommunikation und (Selbst-)Reflexion
- Ist nicht notwendig zum Denken (Tiere denken auch), aber beim Erwachsenen Menschen sind Denken und Sprache aufs Engste verknüpft
- Bisher gelang noch kein Computersystem, das Sprache annähernd so gut verarbeitet wie Menschen. Gleichzeitig reden Menschen jedoch
eigentlich ziemlich fehlerhaft.
Sprachfähigkeit ist Artspezifikum des Menschen
Von Geburt an sind die Voraussetzungen zum Sprachelernen gegeben. Denn:
- die Muttersprache wird ohne „Beschulung“ d.h. spontan erworben,
- ist nicht durch reine Lernprinzipien erklärbar, insbesondere auch nicht durch Imitation (siehe Phase der Übergeneralisierungen: das Kind
bildet Formen, die es noch nie gehört hat „gehte, gegangt“
Primaten können zwar Sprache im Ansatz lernen (nur durch „Beschulung“!), wie andere Tier“sprache“ hat sie aber immer noch vor allem
- Signalcharakter
- Bezieht sich auf das hier und jetzt
- Ist voller Wiederholungen,
- Dafür aber nahezu frei von Syntax, passenden Wortendungen, Nebensätzen etc.
Zusammengefasst: menschliche Sprache ist komplex, flexibel, wird von Menschen spontan erworben  tataa: artspezifische Fähigkeit! =)
Die Idee der Universalgrammatik:
Stammt von Chomsky und macht die Annahme, dass es grundlegende Gemeinsamkeiten aller Sprachen geben könnte und „nur“ einige Parameter
die verschiedenen Sprachen der Menschen dann unterscheiden. Das ist insofern schlüssig, als sich Sprache und Denken in der Evolution gemeinsam
entwickelt haben (Koevolution) und somit strukturell (in syntaktischen Regularitäten) die Sprachen sich vielleicht ähneln. Klingt gut, konnte bisher
aber nicht belegt werden, obwohl Linguisten Grammatiken aller möglichen Sprachen erstellen und vergleichen.
Sprachzentren im Gehirn:
Fast immer lateralisiert  bei Rechtshändern fast immer linkshemisphärisch, bei Linkshändern unterschiedlich  macht insgesamt bei 90% d.
Menschen linkshemisphärisch
Zwei kortikale Sprachzentren, grob erklärt:
Name
Broca-Areal
Wernicke-Areal
Funktion
Location i.d. sprachdominanten
Hirnhälfte u. wichtige
Verbindungen
Syntax,
Liegt unten hinten am
motorische
Frontallappen, etwa
Aspekte der
Schläfengegend
Sprachproduktion Funktional in die motorischen
Steuerungsareale des Gyrus
präcentralis integriert (logisch –
will ja den Sprachapparat motor.
steuern)
Verstehen,
Liegt hinten oben am
Sprachrezeption Temporallappen, also etwa oben
hinterm Ohr, (dehnt sich
genaugenommen aus bis auf
Parietallappen)
Ist eng mit der Hörrinde
verbunden (logisch – will ja
verstehen)
Bei Läsionen (z.B. durch Schlaganfall)
Ausnahmen
i.d.R. motorische Aphasie: das Sprechen
ist stark beeinträchtigt, mühsam, es
werden sehr kurze Sätze (Telegrammstil)
gebildet, Grammatikalität geht verloren,
aber das Gesagte ist sinnvoll!
Sprachverstehen ist weitestgehend intakt
Kommen vor!
Es kann trotz Läsion
kaum bis keine
Beeinträchtigung
vorkommen, sowie auch
Beeinträchtigung obwohl
Läsion in völlig anderem
Bereich
Zusätzlich zu aphasischen
Stör. Auch nonverbalkognitive Defizite
möglich
 alles ist möglich
i.d.R. sensorischer Aphasie: die Leute
reden flüssig (also kein Problem der
Sprachproduktion), oft unsinnig, das
Verstehen ist stark beeinträchtigt, die
Bedeutung des Gehörten wird nicht
erkannt
Wenn’s so einfach wär – hier sind die Einschränkungen:
Sowohl an Sprachrezeption als auch an Sprachproduktion sind noch auf komplexe (und bei verschiedenen Menschen nicht auf die gleiche) Weise
subkortikale Areale beteiligt, die miteinander auch verschaltet sind. (s. Ausnahmen bei Läsionen – mglw. damit im Zusammenhang)
Fodor (1983) postuliert ein „Input-Output-Modul“ der Sprache und somit, dass Denken und Sprechen nicht so eng zusammenhängen, wie es die
berühmte Sapir-Whorf-Hypothese (linguistische Relativität: Denken hängt von der jeweiligen Sprache ab) behauptet, diese sei damit widerlegt!
Fodor gründet seine These auf die Existenz der oben beschriebenen beiden Sprachzentren, die unterschiedliche Funktionen besitzen.
Charakteristika der sprachl. Kommunikation
Generativität
Systematizität
Sprache ist unendlich produktiv (weiteres
Argument gegen Imitationslernen!)
Neuschöpfungen, Weiterentwicklung
Grundlage je Sprache 25-40 untersch. Phoneme,
werden zu wenige hundert Funktionswörter,
viele tausend Inhaltswörter, unendlich viele
Sätze sind möglich
Sprachliche Regeln sind trotz der
gestalterischen Freiheit von Sprache quasi harte
Restriktionen (man darf nicht machen, was man
will..)
Semantische Restriktion (die Bedeutung
muss/soll Sinn machen):
Der Fels war bewusstlos ist kein sinnvoller
Satz, entspricht somit nicht den
Kommunikationsregeln
Syntaktische Restriktion (Satzbau muss
regelgerecht sein):
Kurt hört die Vorlesung.
Nicht: Vorlesung hört Kurt die.
Weitere: pragmatische und phonologische
Restriktionen (nicht näher ausgeführt)
Situationsunabhängigkeit
Arten der Kommunikation:
Mitteilung
Sprache kann von Dingen handeln, die nicht
gegenwärtig oder gar real sein müssen
(abwesende Personen, Mythen, Fantasiewelt,
Zukunft, Abstraktes,....)
Das wäre mit Gesten oder einfachen Signalen
nicht möglich
Anderen etwas erzählen
Grice’s Regeln:
Zweckorientiert (nur was dem Zweck der
Unterhaltung dient, nicht mit Unwichtigkeiten
nerven)
Aufforderung
Expression
Handlungsvollzug
Indirektes Handeln, indem andere (direkt oder
indirekt) aufgefordert werden, etwas im Sinne
unserer Ziele zu tun
Befindlichkeit, Gefühle
Das Gesprochene ist die Handlung, oft eine
Formel oder Formalität,
man sagt auch performativer Sprechakt
Beachtung des Adressaten und seines
Hintergrundwissens etc. (wem wir etwas sagen,
bestimmt mit, was wir ihm sagen und wie wir es
tun)
wen wir auffordern und in welcher Situation,
bestimmt mit, wie wir es tun
Beeinflusst die emotionale Beziehung zwischen
den Gesprächspartnern
Taufe, Schwur, Sitzungseröffnung usw.
Sprachspezifisches Wissen
Sensitivität für Sprachlaute bei Säuglingen geht auf sprachl. Wahrnehmung schon vor der Geburt zurück. Der Mutterspracherwerb ist mit zwölf
Jahren abgeschlossen, bis dahin hat das Kind auch die zahlreichen Regularitäten erworben, mit denen es aus dem riesigen Wortschatz komplexe
Äußerungen produzieren kann.
Sprachspezifisches Wissen aus dem Langzeitgedächtnis mit eher prozeduralem Charakter:
 lexikalisches Wissen = Wortschatz
 grammatikalisches Wissen (Flexion von Wörtern, Satzbau etc.)
 pragmatisches Wissen (Stil, situationsadäquate Verwendung von Sprache,....)
daneben verwendet man noch Wissen, das eher deklarativ ist:
 begriffliches Wissen (die Bedeutung von Wörtern)
 Weltwissen = Hintergrundwissen (allgemein u. Bereichsspezifisch)
Dass die beiden Arten von Wissen getrennt werden, ist deshalb sinnvoll, weil es möglich ist inhaltlich sinnlose Sätze zu bilden, die aber einen
korrekten Satzbau haben (Chomsky: „green ideas sleep furiously“)
Grammatik im linguistischen Sinn möchte wissenschaftlich beschreiben, wie Muttersprachler Äußerungen aufbauen und für richtig halten (im
Gegensatz zu Schulgrammatik!). Das Wissen darüber (muttersprachlicher Gebrauch) ist grammatikalisches Wissen.
Variabilität innerhalb von Sprachen beschreibt, dass es regionale Unterschiede in derselben Muttersprache gibt (Bayern sagen „das Cola“, jeder
normale Mensch jedoch „die Cola“ =) z.B.)
Kompetenz und Performanz
Kompetenz: zuhören, verstehen, sprechen, unterhalten, erkennen was sprachlich richtig/falsch ist
Performanz: empirische Realität des Sprachgebrauchs, voller Fehler (z.B. unvollständige Sätze etc. gleichzeitig werden die wichtigsten
Regularitäten aber meist befolgt), da das Arbeitsgedächtnis beschränkt ist, richtet sich die Performanz auch daran aus (eher kurze,
nicht sehr verschachtelte Sätze)
Kompetenz: „idealer Sprecher-Hörer“ → Linguistik
Performanz: reales Verhalten v. Personen → Sprachpsychologie
Sprachrezeption
Rezeption sprachlicher Äußerungen
am Anfang: Sprachwahrnehmung →Worterkennung
(← lexikalisches Wissen)
syntaktische Analyse
(← syntaktisches Wissen)
semantische Interpretation (Inhalt erfassen) (← semantisches und Weltwissen)
Inhalt überführen in ein mentales Modell und mit vorhandenem Wissen integrieren
→ inkrementeller Vorgang (Wort für Wort), kann aber auch rückwärts gerichtet werden, wenn Probleme auftauchen (semantischer oder
syntaktischer Art) → Reanalyse
Grundsätzlich: Tendenz zur Ökonomie!
Sowohl syntaktisch als auch semantisch wird nur eine Lesart kognitiv repräsentiert (s. Ambiguität – es wird eine Art gewählt den Satz/die
Konstruktion zu verstehen, wenn das nicht aufgeht, wird reanalysiert und dann erst die Alternative „ausprobiert“)
Sprachrezeption erfolgt weitgehend
mühelos und ist selbstverständlich (man muss nicht „besonders befähigt“ sein),
ist der Introspektion nicht zugänglich und
erst das Resultat wird bewusst (so wie bei visueller Wahrnehmung). Wissenschaftlich gesehen ist es jedoch ein höchst komplexer Prozess
und eigentlich eine schwierige Aufgabe, die unser Gehirn da bewältigt.
Ambiguität
Fast jeder Satz ist stellenweise mehrdeutig (lokal ambig – das würde sich an einer bestimmten Stelle auflösen), manche auch global ambig (also
auch am Ende des Satzes ist nicht eindeutig, welche Bedeutung gemeint ist)
Bsp.: Dass der Doktorand der Professorin Urlaub genommen hat...
Müllers sahen die Störche auf ihrem Flug nach Afrika
Ursache sind häufig Wörter, die in mehreren Funktionen eingesetzt werden können (bspw. mit)
Bsp.: mit dem Flugzeug nach New York fliegen (Art und Weise)
mit der Freundin nach New York fliegen (...zusammen, nicht auf ihr)
mit Lufthansa nach New York fliegen (mit denen macht man da aber nicht Urlaub)
mit dem Flugsimulator nach New York fliegen (dann steigt man nicht in NY aus)
......
→ sehr verschiedene Schlüsse können gezogen werden, sinngemäß wird aber meist die richtige Bedeutung von mit erkannt. =)
Teilprozesse der Rezeption
 Sprachwahrnehmung: aus dem Schallsignal (in höchst verschiedenen Situationen) müssen Einheiten (v.a. Wörter) erkannt werden
 Lexikalischer Zugriff: erkannte Einheiten müssen mit bekannten Einheiten aus dem Gedächtnis (Wortrepräsentationen u. Begriffl.
Repräsentationen) in Verbindung gebracht werden
 Syntaktische Analyse (=Parsing): im Gehörten identifiziert man eine syntakt. Struktur und erhält darüber Information über grammatische
Funktionen (wer mit wem, worüber, etc.)
 semantische Interpretation, Verstehen: das mentale Modell wird konstruiert, und neue Information (z.B. das nächste Wort) in den Kontext des
Schon-Gehörten integriert, dies alles unter Hinzuziehen von Weltwissen und Wissen über die Gesprächssituation etc. Dieses Modell soll es
ermöglichen aus dem Gehörten (oder Gelesenen) Schlüsse zu ziehen.
 siehe hierzu als grafische Darstellung des Modells S. 288 (unklar ist mir, warum unten aus dem Modell „Schrift“
rauskommt...ich hätte eher „Verstehen“ oder „Repräsentation des Gehörten“ erwartet)
[Forschungsfragen auf dem Gebiet befassen sich mit den einzelnen Schritten/Detailprozessen, der Ablaufmodalität (parallel? Nacheinander?
Rückkoppelnd?...) sehr interdisziplinär: Psychologie, Linguistik, Informatik]
Schallsignal und Sprachwahrnehmung
Das physikalisch messbare Schallsignal ist eine sehr komplexe Schwingung. Versuche, durch phonetische Technik aus dem Schallsignal zu
entschlüsseln, was gesagt wurde, gelingen nicht zufriedenstellend – sehr hohe Fehlerrate. (Wer etwas sagt, lässt sich allerdings mit solcher Technik
feststellen, d.h. sie kann verschiedene Sprecher unterscheiden).
Bemerkenswert also, dass unser Wahrnehmungsapparat aus kontinuierlichen Äußerungen Wörter segmentieren kann!
Kategoriale Wahrnehmung
Lautsignale kann man kontinuierlich verändern, bspw. Von /da/ nach /ta/
Der Phonem-Restaurationseffekt von Warren, 1970: schneidet man ein Phonem aus einer (Tonband-)Aufnahme von etwas Gesprochenem heraus
und ersetzt es durch ein anderes Geräusch (bspw. Husten), dann glauben die VP dennoch, das Phonem gehört zu haben.
Samuel (1982) zeigte, dass dies v.a. im Wortkontext geschieht, weniger bei isolierten Silben. „Bei der Sprachwahrnehmung greifen also bottom-up
und top-down getriebene Prozesse ineinander.“ [Ich würde sagen, das „Überhören“ falscher Phoneme und automatische Ergänzen von Wörtern ist
top-down – man hat eine bestimmte/unbewusste Erwartung, was man hören wird (Stichwort: Voraktivierung). Wenn etwas irritierendes eintritt
UND bemerkt wird (wie bei Samuel einzelne verfälschte Silben – an die hat man keine besondere Erwartung, da sinnlos), das wird bottom-up
verarbeitet. ...meine Interpretation]
Eine Anwendung dessen findet sich in der Wiedererkennung eines Sprechers (Täter, wenn’s um Verbrechen geht) durch Ohrenzeugen.
Spricht der Zeuge die gleiche Sprache wie der Täter, gelingt die Identifikation besser, da der Zeuge „geringfügige Idiosynkrasien“ also
individuelle Besonderheiten in der Sprache des Täters nur beurteilen kann, wenn er gute Kenntnis des Bezugssystems (der Sprache samt
Verwendung etc.) hat. [verwirrt?  S. 290 links]
Lesen
 Lernt man nicht spontan, sondern nur durch Unterricht.
 Es bedarf einiger Übung, bis man direkt von der visuellen Mustererkennung auf das mentale Lexikon zugreifen kann (der
Zwischenschritt des Lautwerdenlassens, also Umsetzung von der Schrift in den Klang der Sprache, war bis ins Mittelalter noch üblich – man
las laut, und auch kleine Kinder brauchen das ja zu Anfang noch)
 Die Blickbewegungen erfolgen sakkadisch (in Sprüngen), eine Fixation dauert 100 bis 250 ms, links vom Fixationspunkt werden 2-4
Buchstaben wahrgenommen, rechts vom Fixationspunkt 5-9 Buchstaben (wenn von links nach rechts gelesen wird!  lernabhängig, nicht
biologisch fundiert)

Für sprachpsychologische Forschung ist lesen interessant, weil es die Verarbeitungsgeschwindigkeit abbildet – diese ist bei Höraufgaben
nicht „ausgelastet“, wir sind kognitiv viel schneller als die normale Sprechgeschwindigkeit
Lexikalischer Zugriff
= zu einem wahrgenommenen Schall- oder visuellen Muster die passende mentale Repräsentation zu finden
Mentales Lexikon = Gesamtheit des sprachspezifischen Wissens, soweit es auf Wörter bezogen ist (Wortstamm (=Lemma) + seine
morphologischen Formen)
Lemmata (Sg.: Lemma): Elemente des mentalen Lexikons, enthalten semantische und
grammatische Information (Wortart, Genus)
Morpheme: kleinste bedeutungstragende Sprachbausteine.... Lehrerin hat 3 Morpheme: lehr weist
auf eine spezifische Tätigkeit hin, er weist auf den Akteur der Tätigkeit hin, in auf das weibl.
Geschlecht des Akteurs; Wasserball hat zwei Morpheme
Morpheme sind nicht Silben!! Ein Morphem kann mehrere Silben haben. Und auch Morphem- und
Silbengrenzen unterscheiden sich ggf.: tanzen besteht aus den Morphemen tanz und en, aber
Silbentrennung tan-zen
Worterkennung
Sicherheit und Schnelligkeit der Worterkennung lässt sich experimentell sehr gut mit der shadowing-Technik darstellen: VP hören etwas über
Kopfhörer und sollen es direkt nachsprechen. Die beste VP hatte nur ca. eine Silbe Abstand zum Vorgesprochenen (250ms). Es werden sogar
Fehler der „Vorlage“ beim Shadowing korrigiert  offensichtlich ist die Sprachverarbeitung beteiligt!
Marslen-Wilson (1985) nahm auf dieser Grundlage in seinem Kohortenmodell an, dass die Worterkennung wie ein Ausschlussverfahren
funktioniert: Phonem für Phonem bleiben nur die Wörter des „Lexikons“ im Spiel, die noch möglich sind mit der Phonemkonstellation, solange
bis es eindeutig ein bestimmtes Wort ist oder nur noch sein kann.
Neuere Versionen des Modells gehen aber davon aus, dass nicht Phoneme sondern phonologische Merkmale auf unterspezifizierte Wortformen
abgebildet werden.
Segmentierung
ist die Kunst Wortgrenzen in einem Redeschwall zu erkennen, die sind nämlich nur selten tatsächlich durch Pausen markiert. Kleine Kinder
(2J) entwickeln meist die „Theorie“, dass Wörter prinzipiell maximal zweisilbig sind und auf der ersten Silbe betont (lade für Schokolade; mate für
Tomate). Auch bei englischen Erwachsenen zeigte sich dass ambige Äußerungen bevorzugt als ein Wort wahrgenommen werden, wenn auf der
ersten Silbe betont (lettuce / let us), im Vergleich zu solchen, die auf der zweiten Silbe betont werden (invests / in vests). Solche Strategien sind aber
sehr sprachspezifisch, daher nicht ohne weiteres übertragbar!
Prozessmodelle der Worterkennung
Suchmodell (Forster 1985): aufgrund des Buchstabenmusters wird eine Teilmenge des Lexikons ausgewählt und seriell durchsucht, es wird
überdies angenommen, dass das Lexikon nach Vorkommenshäufigkeit der Wörter sortiert ist (da vielbenutzte Wörter schneller zugänglich sind) ->
neurobiol. nicht plausibel
Weiteres Modell: aktivierende Verbindungen zwischen ähnlichen Wörter und Berücksichtigung ihrer Vorkommenshäufigkeit (neighbourhood
activation model)
Konnektionistische Modelle: bottom-up und top-down spielen zusammen, bottom-up aktiviert durch bestimmte Merkmale, top-down sind schon
einige Wortknoten teilaktiviert, das wirkt zusammen und erklärt den Wortüberlegenheitseffekt (Buchstabe in einem sinnvollen Wort wird leichter
erkannt als in einer sinnlosen Buchstabenkombination)  gibt mittlerweile auch eine gute konnektionistische Modellierung des Kohortenmodells
(s.o.)
Rein datengetriebene Modelle: auch erstaunlich gut, im technischen Bereich der Spracherkennung dominierend: stochastische Modelle
Der Geltungsbereich all dieser Modelle ist unklar, neben Wortlänge und Vorkommenshäufigkeit spielen auch semantische Faktoren
(Konkreta schneller erkannt als Abstrakta) und kontextuelle Aspekte usw. eine Rolle.
[Neuropsychologische Modelle: ...werden an alle möglichen auftretenden Ausfallerscheinungen, Krankheiten und Phänomene angepasst,
sind deshalb zunehmend komplexer und lassen auch am Konzept eines einzigen mentalen Lexikons zweifeln. Für gesunde Erwachsene und unseren
Zweck eines einführenden Kapitels kann man das aber einfach trotzdem annehmen.]
Inhalte des mentalen Lexikons
 Lemmata (Stammwörter)  jedes Lemma hat einen eigenen Eintrag
 Lexikalische Formen (meist Flexionsmorpheme, die aus Lemmata Wortformen bilden, z.B. sing-en, sing-t,.. ohne eigenen Eintrag)
 Derivationen (z.B. –ung, das aus das Lemma bild- modifizieren kann zum Lemma Bild-ung)  eigenständige Einträge
[Wikipedia sagt, Derivation ist eine Form der Wortbildung, ein Teil wird angehängt und ein „neues“, eigenes Wort entsteht. Faustregel:
wenn das neue Wort im (echten) Lexikon einen eigenen Eintrag hätte (Bildung würde extra stehen, nicht unter bilden; oder auch singen und
Sänger) ist es ein eigenes Lemma (und Lexem), bildest würde aber im Eintrag von bilden stehen]
Semantische Information
Verschiedene Annahmen: direkt schon im mentalen Lexikon könnte die Wortbedeutung durch semantische Merkmale repräsentiert sein,  das ist
aber eigentlich nicht so wahrscheinlich, deshalb geht man eher davon aus, dass die Bedeutung eines Wortes im semantischen Gedächtnis ist, und
das mentale Lexikon auf die jeweilige Begriffsrepräsentation im semant. Gedächtnis verweist. Diese „Arbeitsteilung“ scheint insofern schlüssig, als
das mentale Lexikon einzelsprachlichen Charakter hat, die begriffl. Repräsentation im semant. Gedächtnis wiederum für verschiedene Sprachen
dienen kann.
Morphologische Information
Ein Eintrag im mentalen Lexikon kann verschiedene Varianten enthalten (Kasus-/Numerusformen, Konjugationsformen, je nach Wortart). Im
Deutschen kann man sich vorstellen, dass die umfangreiche Flexionsmorphologie in Klassen organisiert ist, die eine Art „Wortsyntax“ vorgeben, so
dass wenigstens z.B. die regelmäßigen Verben nicht alle einen eigenen Eintrag brauchen, sondern die sparsamere Form der Klassenzuordnung
ausreicht. Unregelmäßige Verben bräuchten jedoch wohl einen eigenen Eintrag.
Syntaktische Information
Auch im mentalen Lexikon sind die syntaktischen Eigenschaften eines Wortes, an erster Stelle die Kategorie (Verb, Nomen, etc.), eventuell noch
Subkategorisierung für ggf. notwendige Komplemente (ein Verb braucht eine Nominalphrase, kein Verb ohne Subjekt; falls es ein transitives Verb
ist, muss auch noch ein Objekt her, z.B. man kennt immer jemanden; oder sogar ein ditransitives Verb, dass noch ein indirektes Objekt braucht)
Auch Präpositionen brauchen immer noch ein Komplement in einem bestimmten Kasus. Gibt auch noch optionale Komplemente, die müssen nicht
sein, sind aber erwartbar (z.B. eine Tochter ist immer die Tochter von jemandem, ein Entdecker der Entdecker von etwas)
Kodierung für Rezeption und Produktion
Es muss außerdem die phonologische Struktur (bzw. graphemische Struktur beim Lesen) im mentalen Lexikon verzeichnet sein, sodass bei der
Sprachrezeption über diese phonol. Kodierung der Zugriff auf die lexikalische Information möglich ist.
Andererseits muss für die Sprachproduktion vom begrifflichen Wissen aus ein Zugriff auf die lexikalische Information (und die phonologische)
möglich sein.
Es ist noch nicht geklärt, ob diese beiden Verwendungen unterschiedliche Zugriffsarten auf das gleiche mentale Lexikon sind (wäre naheliegend)
oder ob sogar zwei verschiedene Lexika (eins für Rezeption und eins für Produktion) vorhanden sind (das legen einige neuropsychologische
Befunde nahe). Überdies ist das mentale Lexikon über weite Teile der sprachdominanten Hemisphäre verteilt  ergo: „Mentales Lexikon“ ist ein
sehr nützliches theoretisches Konstrukt der Sprachpsychologie, aber es hat wohl keine einheitliche neuronale Struktur als Entsprechung.
Wortsemantik und semantisches Gedächtnis
Es ist sinnvoll mentales Lexikon und semantisches Gedächtnis anzunehmen, weil bei Zweitspracherwerb zwar zuerst die direkte Verknüpfung von
z.B. dt. zu engl. Wort, bei fortschreitender Kompetenz sind die Wörter aber nur noch indirekt verknüpft, nämlich über die jeweilige semantische
Bedeutung/Repräsentation. Dann existiert ein eigenes mentales Lexikon für die Zweitsprache, beide mentalen Lexika benutzen jedoch das gleiche
semant. Gedächtnis
Wortbedeutung
Schon viele Versuche Semantik von Wörtern zu erfassen.
Extensionale Bedeutung = Referenzsemantik: bezieht sich auf Objekte in der Welt (z.B. alle Tomaten die es so gibt)
Intensionale Bedeutung: das, was wir folgern können, wenn jemand von einer Tomate spricht (meist rot, 2-10cm, essbares Gemüse...)
Andere Unterscheidung:
Denotation: wörtliche Bedeutung (intensional wie extensional)
Konnotation: affektiv getönter Bedeutungs-„Hof“
Außerdem:
...ist ein Begriff möglicherweise durch die hierarchische Anordnung von semantischen Merkmalen charakterisiert  allerdings nicht sehr
überzeugend.
Man kann per statistischer Analyse Ähnlichkeitsbeziehungen zwischen Wörtern „errechnen“, indem man untersucht, welche Wörter in vielen
Textabschnitten oft zusammen vorkommen, hat aber eigentlich nicht richtig viel mit semantischem Gedächtnis zu tun.
LSA=latente semantische Analyse: ist quasi das vorgenannte - semantische Ähnlichkeit, wird angenommen, wenn Wörter mit den gleichen anderen
Wörtern oft vorkommen....komplizierte statistische Analyse=Bahnhof....ist im Endeffekt aber weniger die Bedeutung einzelner Wörter, die
rauskommt, als vielmehr die Bestimmung von Ähnlichkeitsstrukturen in einer Menge von Wörtern. [nix verstanden?  S.295]
Phonologisches und semantisches Priming
Neben dem Wortüberlegenheitseffekt gibt es auch den Effekt, dass Wörter im Kontext anderer Wörter besser erkannt werden: wenn vorher ein
semantisch verwandtes Wort präsentiert wurde, wird das aktuelle Wort schneller erkannt
 Priming-Paradigma!
Mögliche Versuchsaufbauten: naming – schnell das Wort aussprechen (visuelle Darbeitung), shadowing – schnell nachsprechen (akustische
Darbietung), lexical decision – per Tastendruck entscheiden, ob es ein Wort der Muttersprache ist (visuell oder akustisch)
Die Aufgabe bezieht sich immer auf das Zielwort, diesem geht ein Prime-Wort voraus, das entweder Wort oder Pseudo-Wort (aussprechbar,
aber sinnlos) ist  Priming natürlich wie immer sehr kurz davor (100-1200ms – SOA=Stimulus-Onset Asynchrony)
KG (Kontrollgruppe): bekommt Priming-Wörter ohne Beziehung zum Zielwort (Apfel – Buch)
EG (Experimentalgr.): bekommt Wörter, die semantisch ähnlich (Buch – Zeitung), phonetisch ähnlich (Burg - Buch) oder hoch assoziiert (lesen –
Buch) sind  verglichen wird die Reaktionszeit
Priming-Effekt zeigt sich sogar bei polysemen Wörtern wie Bank, und zwar in beide Richtungen (keine Bevorzugung) – sogar im Satzkontext, wenn
die eine Bedeutung manifestiert ist, funktioniert bei kurzer SOA das Priming auch für den anderen Bedeutungsbereich des Wortes (bei längerer
SOA nicht, dann nur kontextangemessen)
Erklärung des Effektes: Wahrnehmung des Prime-Wortes aktiviert die entsprechende Repräsentation im mentalen Lexikon (und schwach
auch phonologische Wortknoten) und die seiner Bedeutung entsprechenden Konzeptknoten im semant. Gedächtnis - die Aktivierung klingt nur
langsam ab und ist deshalb bei Erscheinen des Zielwortes noch teilaktiviert.
Opake (nicht sinnvoll ersetzbare) Wörter wie Himmelsschlüssel (=eine Blume), primen zwar die Wortbestandteile (Himmel und Schlüssel), aber
nicht damit verwandte Wörter (wie Sonne oder Tür).
Anwendungen (mentales Gedächtnis)
Wichtig für Neuropsychologie – fast bei jedem Hirntrauma ist irgendwie Sprachverarbeitung betroffen
Zweitspracherwerb (s.o.: zu Beginn direkte Verknüpfung, später indirekt über semant. Gedächtnis – eigenes mentales Lexikon für Zweitsprache;
insbesondere interessant: Dolmetschen/Übersetzen – oft Besonderheit eines Ausdrucks transportieren)
Syntaktische Verarbeitung (= Parsing)
Nach dem Auseinanderklamüsern einzelner Wörter aus dem Redefluss, müssen diese nun weiterverarbeitet werden. Dies beginnt quasi unmittelbar
nach einer Worterkennung.
2 Hauptaufgaben: Rekonstruktion der Struktur einer Äußerung und Interpretation der Äußerung
Syntaktische Verarbeitung geschieht mit jedem Wort, denn meistens ist die Möglichkeit der folgenden Sätze begrenzt (zumindest die Art des
notwendigerweise folgenden Satzes ist oft klar), zu einem Verb gehört ein Agent, zu einer bestimmten Präposition muss vllt. eine Nominalphrase im
Dativ,.... Man kann das als Phrasenstruktur darstellen in Form einer Formel oder eines Strukturbaumes (s. S. 297/298)
Parsing geschieht automatisch, ist nicht unterdrückbar, und nachweisbar im Experiment, wie z.B. von Flores D’Arcais (1982), der zeigte, dass
unbemerkte syntaktische Fehler in einem Lesetext dennoch zu einer Verzögerung der Verarbeitungszeit führten!
Syntax+Lexikon=Grammatik
Erinnerung: Grammatik bedeutet hier „wissenschaftlicher Versuch, die dem Sprachgefühl und Sprachgebrauch entsprechenden sprachlichen
Regularitäten zu beschreiben, und zwar möglichst sparsam und systematisch (wie jede gute Theorie)“
Hier wird sich auf die Phrasenstrukturgrammatik beschränkt, diese ist als generative Grammatik formuliert, also mit einigen Erzeugungsregeln, wie
Sätze gebildet werden können (z.B. dass ein Satz ein Verb (V) benötigt, dieses eine Nominalphrase (NP), auch eine Präpositionalphrase (PP)
braucht zur Präposition (Prep) eine Nominalphrase (NP).......)  Der Hund jagt die Katze (NP, VP (V, NP))  die wesentlichen syntaktischen
Abhängigkeiten werden von diesen Regeln jedoch nicht erfasst. Das kann HPSG (head-driven phrase structure - andere Methode)
Funktionale Rollen: Grammatisch gesehen (Subjekt, Objekt, diese als Verbkomplemente)
Thematische Rollen: Inhaltlich/semantisch gesehen (Agent, Rezipient, Thema,...)
Sprachtypologische Unterschiede: je nach Sprache verschiedene Restriktionen / verschieden strenge Regeln, verschiedener Umfang (bsp.
Im Deutschen viel umfangreichere Kasusmorphologie als im Englischen)
Um funktionale Rollen der Wörter im Satz festzulegen, kann man allgemein sagen, dass entweder die Wortstellungsregeln oder die
Kasusmorphologie dazu verwendet werden. (Bsp. Türkisch: reiche Kasusmorphologie, Wortstellung aber sehr frei, Englisch: keine Kasusmorph.,
dafür strenge Wortstellungsregeln)
Mentale Repräsentation syntaktischen Wissens: Grammatikalisches Wissen sehr implizit! Wissen höchstens nachträglich in der Schule
erlernt.
Grammatikalität von Äußerungen
Man kann sehr schnell sagen, „ob man etwas so sagen kann“, dabei sprechen wir oft ziemlich ungrammatikalisch, aber an den entscheidenden
Stellen stimmt’s dann doch meistens
Ellipsen: (Satz-)verkürzungen  meist nur im genauen Kontext verständlich, weil so viel Information ausgelassen wird, dass mindestens der Satz
vorher bekannt sein muss, um den Sinn zu erfassen.
Experimentelle Paradigmen zur Analyse der Satzverarbeitung:
Offline-Verfahren: im nachhinein wird erhoben, z.B. über Ratingskala, Fragebogen oder auch Lückentechnik, für Textverstehensforschung wird
auch Behaltensleistung gemessen
Verschiedene Online-Verfahren sind:
Erfassung der Lesezeit:
über Tastendruck (VP kann selber weiterklicken, aber evtl. auch andere Prozesse, als reine Sprachverarbeitung (Varianten:
stationary window – Text erscheint immer an selber Stelle, moving window – Text steht da, wo das nächste Wort stehen
würde, wenn’s als ganzer Satz dastünde)
Blickbewegungsregistrierung (eye-tracker), hier werden Fixationspunkte und –zeiten messbar, so auch Rücksprünge im Text
beim Lesen)
EEG-Technik:
Hirnaktivität messen, hohe zeitliche/schlechte räumliche Auflösung, muss wegen hoher Hintergrundaktivität über die
Methode der evozierten Potentiale erhoben werden (ca. 50 Messungen gemittelt, um dann den Effekt sichtbar zu machen).
Messzeitpunkt muss sehr genau platziert und sonstige Bewegungen weitgehend ausgeschlossen werden
Effekt heißen dann nach ihrem Scheitelpunkt: P600 ist der Zacke nach 600ms etc..
Mgl: fMRI als komplementäre Ergänzung (gute räuml. Auflösung)
Materialkonstruktion:
Muss sehr sorgfältig erfolgen. Testsätze in „Füllsätze“ einbetten, damit nicht zu offensichtlich. Wegen interindividueller
Unterschiede der Lesegeschwindigkeit zw. VP wird die Lesezeit innerhalb einer VP gemessen (Bsp. S. 302)
Hauptergebnisse der Parsing-Forschung:
Inkrementalität: Sprachverarbeitung findet während des Hörens/lesens schon Wort für Wort inkrementell statt
Anbindungs-Ambiguitäten:
In Relativsätzen. Erst an der Disambiguierungsstelle erhöht sich die Lesezeit, beim Holzweg-Effekt (also einer heftigen Verletzung
der Erwartung, die auch bewusst wird) ist diese sehr stark erhöht.
Weitere Ambiguitäten:
Häufig durch freiere Wortstellung im Deutschen und gleichzeitig häufige Ambig. durch Nominativ und Akkusativ
Theoretische Modelle des menschlichen Parsers
Parsing: inkrementell, eine erste syntaktische Analyse wird erstellt noch ohne von inhaltlichen Hinweisen Gebrauch zu machen, hier geht
auch Frequenzinformation (wie häufig kommt ein Wort so vor/in der Lesart), wenn bei dieser ersten Analyse Unstimmigkeiten, dann Reanalyse der
Satzstruktur
 modular, da vorläufig nur syntakt. Analyse; es wird nur eine Analyse (nicht mehrere parallel) durchgeführt
Parsing-Modelle ohne Reanalyse: gehen entweder von multiplen Analysen aus oder von der wait-and-see-Analyse, bei der erst am
Disambiguierungspunkt analysiert wird.
Empirie zeigt:
 Parallele Analyse unwahrscheinlich: kein messbar höherer Aufwand während des Lesens ambiger Stellen
 Aufschub-Theorie: müsste immer zu längerer Zeit am Disambig.-punkt führen, da immer erst da analysiert wird, passiert aber nur, wenn erste
Annahme falsch war!
 Reanalysemodelle entsprechen der Befundlage: manchmal am Disambig.-punkt längere Lesezeiten, wenn die eine erstellte Analyse falsch war
interessante EEG-Effekte und ihre Bedeutung:
 P600 ist ein positiver Ausschlag nach 600ms, der bei Reanalysen am Disambiguierungspunkt auftritt; tritt auch bei syntaktisch inkorrekten
Sätzen auf
 N400 (neg. Ausschlag bei 400ms) tritt bei semantisch inkorrekten Sätzen auf
 ELAN (early left anterior negativity) tritt ganz schnell (deshalb early) bei syntaktischen Inkorrektheiten auf (spricht für die erste rein
syntaktische Analyse
Reanalyse-Modelle – was zur Zeit diskutiert wird
 Late closure/right association: neues Wort wird, wenn’s passt, bevorzugt an die jüngst erstellte Struktur angehängt, also meist unterste
Ebene/innerster Nebensatz
 Modularität des Parsens: besagt, dass wohl tatsächlich erst nur syntakt. Analysiert wird, ABER dass gewisse wortbezogene semantische
Informationen auch schon mit der Syntax im mentalen Lexikon vorhanden ist  Parsing: zunächst nur lexikalische Information (+mini
Semantik-Brocken)
 Frequenzinformationen: die durchschnittliche Häufigkeit lexik. Einträge spielt eine Rolle bei der Wahl der Analyse
Vorsicht: das sind keine Heuristiken!
Rein frequenzbasierte Parsing-Theorien: Wörter, aber auch syntakt. Konstruktionen nach Vorkommenshäufigkeit (empirisch: spielt ne Rolle,
aber nicht grundlegendes Prinzip)
Constraint-satisfaction-Modell: syntaktische, semantische und andere Faktoren wirken gleichzeitig, aber unterschiedlich stark auf ein auf Ausgleich
bedachtes konnektionistisches System  solche Modelle zwar gut in der Vorhersage, aber so komplex, dass schon wieder nicht falsifizierbar
Semantische Interpretation und Textverstehen
Zwei Theorien besonders hoch im Kurs:
 Kintsch (1988,1998) sagt: nach dem Parsing wird eine textnahe Repräsentation erstellt, die propositionale Textbasis, aus dieser wird mit
Vorwissen verbunden ein Situationsmodell erstellt, das den Inhalt repräsentiert:
 Theorie der mentalen Modelle (z.B. Johnson-Laird): nur eine Repräsentation (das mentale Modell), kann auch analog repräsentierte bildhafte
Aspekte beinhalten (das hat Kintsch seinem Modell später aber auch hinzugefügt  sind sich also alles in allem ziemlich ähnlich)
Das Construction-Integration-Modell:
Zweistufig: 1) Konstruktion der Textbasis: Text in Propositionen (= elementare Aussagen) zerlegen, diese sind durch inhaltliche Bezüge
verknüpft  propositionales Netzwerk
2) Integration: Textbasis hat nun gleiche Form wie Wissen im Langzeitgedächtnis, kann also mit Vorwissen integriert werden
bei Ambiguitäten: Widersprüche als hemmende Verbindungen in 1), pendelt sich in dem Netz so ein während 2), dass die passendste
Lesart übrig bleibt/“gewinnt“
Was für dieses Modell spricht: Versuche haben gezeigt, dass der Inhalt hängen bleibt, nicht aber die Formulierung (ist nach Teilsatz schon
vergessen!)
Diskursmodell/Partnermodell: beziehen die Gesprächssituation mit ein, da diese ggf. eine sehr große Rolle spielen kann
Komponenten des Situationsmodells:
 Objekte (Referenzobjekte)
 Eigenschaften /Klassenzugehörigkeit, die Objekten zugeschrieben werden
 Ereignisse (in Formeln/Schemata = Propositionen)
Das Kompositionalitätsprinzip: Die Bedeutung eines komplexen Satzes ergibt sich aus den in ihm enthaltenen einzelnen Aussagen, wobei zu
beachten ist, wie diese miteinander verknüpft sind.
Anaphorische Referenzen und Textkohäsion
Anaphorische Referenzen sind Bezugnahme auf etwas vorher schon Erwähntes (mit Weltwissen ist das einfach zu lösen)
Suche nach dem Antezedenten der Anapher (z.B. was ist mit er gemeint?) durch:
- Diskurs-Information: „Liste“ von möglichen Referenzobjekten von der aktuellen Situation ausgehend, nach Salienz geordnet, wird
durchgearbeitet, bis eins passt
- Syntaktische Information: Restriktionen, wie z.B. dass Genus und Numerus passen müssen (gibt Ausnahmen!)
Anaphern:
- Die Art der Bezugnahme spielt keine Rolle (ob Eigenname, Pronomen oder indirekt)
- Werden bevorzugt auf Hauptperson bezogen
- Hauptmittel zur Textkohäsion (der innere Zusammenhang eines Textes); je mehr Bezugnahmen eine Proposition im Text enthält, desto
zentraler ist ihre Rolle, je zentraler desto länger verweilt sie im KZG, je länger im KZG desto eher geht’s ins LZG
Probleme semantischer Interpretation
- Personen brauchen nicht länger um Metaphern zu erkennen, es wäre aber anzunehmen, dass man zuerst an der wörtl. Interpretation scheitert
- Skopus (Geltungsbereich) von Quantoren und Verneinung – kann sich inhaltlich ziemlich ändern, je nach Anordnung des Satzes, oft auch
nicht in Propositionen abbildbar (lest S. 312/13...was auch immer die Kernaussage ist)
- Deindexierung deiktischer Ausdrücke: meint, dass alles deiktische (bspw. Zeitl./räuml. Bestimmungen) relativ zur Erzählsituation zu
verstehen ist (gestern war heute noch morgen....) und eigentlich in eine explizite Bezugnahme übersetzt werden muss für die Repräsentation
und um kompatibel mit anderem Wissen zu sein
- Unterbestimmtheit und Standardannahmen: Was nicht klar ausgedrückt ist (Zwei Männer sahen drei Boote) wird entweder auch unbestimmt
repräsentiert, oder wir bilden eine Repräsentation einer Situation, die wir unterstellen. Dies ist dann eine Standardannahme, plausibel, aber
nicht unbedingt richtig. Zweiteres ist wahrscheinlich der Fall - wir wählen eine unaufwendige Lesart, diese verfestigt sich in den folgenden
Sätzen sofern sie nicht korrigiert wird
- Analoge Modelle von Raum und Zeit: Der Versuch mit dem Laborgrundriss und der Geschichte dazu, in dem dann nach einem Gegenstand
gefragt wurde  Antwortzeit in Abhängigkeit der Distanz des Gegenstands zur hauptfigur (mental durch die Räume laufen...)
Inferenzen beim Textverstehen:
- nur so viel wie nötig (fauler Leser), v.a. Brückeninferenzen und kausal verbinden, was nacheinander steht
- je nach Aufgabenorientierung (bspw. Lernen) auch Umkehrung: starke Elaboration und elaborative Inferenzen
- Ereignisschemata! Ganz wichtig beim/zum Textverstehen
Herunterladen