1$785*(,67 'DV)256&+81*60$*$=,1GHU-RKDQQHV*XWHQEHUJ8QLYHUVLWlW0DLQ] ,6%13UHLV(XUR -DKUJDQJ Filtration. Separation. Solution. www.pall.com ONE WORLD ONE STANDARD ONE COMPANY Pall GmbH SeitzSchenk Planiger Strasse 137 55543 Bad Kreuznach Tel. 0671 / 88 22-0 Fax 0671 / 88 22-200 EDITORIAL „Forschung schafft Wissen!“ U nter diesem Leitsatz beteiligt die Universität Mainz sich am Wettbewerb um die Einrichtung und Förderung von Exzellenzclustern, neuen Forschungszentren und Graduiertenschulen der Exzellenz im Rahmen des Landeshochschulprogramms „Wissen schafft Zukunft“. Ein halbes Jahr lang haben wir die Forschung in unserer Universität zu diesem Zweck vermessen, sortiert und in Forschungsprogrammen gebündelt, die ihrer Interdisziplinarität und Kohärenz, ihrer wissenschaftlichen Tragkraft und ihrer Originalität wegen gute Aussichten auf Erfolg im Wettbewerb haben. Der Wille, am Wettbewerb teilzunehmen, und der Ehrgeiz, dabei erfolgreich zu sein, haben die Universität in produktive Unruhe versetzt. Der Prozess legte unvermutete Potenziale an Kompetenz und Leistung bloß, regte die konzeptuelle und die organisatorische Fantasie in unvorhersehbarer Weise an und erschloss inter- und transdisziplinäre Kooperationsmöglichkeiten und Kooperationsbereitschaften, von denen sich unsere nur zu leicht fachlich vertäute Forscherweisheit zuvor nicht hatte träumen lassen. Alles dies wird sich in den Hochschulprogramm-Initiativen nicht erschöpfen, sondern weiter wirken. Termingerecht am 1. März 2005 haben wir dem Minister für Wissenschaft, Weiterbildung, Forschung und Kultur gründlich vorbereitete Anträge auf Förderung von drei Exzellenzclustern, zwei (neuen) Forschungszentren und fünf Graduiertenschulen der Exzellenz zur Begutachtung vorgelegt. In einem Forschungszentrum wollen wir mit der Universität Trier, in einer Graduiertenschule mit der Universität Kaiserslautern zusammenarbeiten. Außerdem beteiligen sich Forscher unserer Universität in ansehnlicher Zahl an Exzellenzcluster-Initiativen der Universitäten in Trier und Kaiserslautern. „Konkurrieren“ heißt ja nicht nur gegeneinander laufen, es heißt auch miteinander laufen. Wir freuen uns darüber, dass „Wissen schafft Zukunft“ nicht nur innerhalb der Universität zu neuartigen Forschungskooperationen anregte, sondern dass es außerdem zwischenuniversitäre Forscherfreundschaften stiftete, die es andernfalls nicht gäbe. Unter ihrem eigenen Namen ist die Johannes Gutenberg-Universität mit folgenden Vorschlägen im Rennen: Exzellenzcluster – Struktur und Dynamik inhomogener Materie: Simulation und Experiment – Immunointervention – Geozyklen: Zeit und Raum in den Erdwissenschaften Neue Forschungszentren – Interdisziplinäres Forschungszentrum für Neurowissenschaften (IFZN) – Historisch-kulturwissenschaftliches Forschungszentrum: Räume des Wissens (mit der Universität Trier) Univ.-Prof. Dr. Volker Hentschel Vizepräsident für Forschung Graduiertenschulen der Exzellenz – Polymere in entwickelten Materialien (POLYMAT) – Eng korrelierte Quantensysteme (MATCOR) (mit der Universität Kaiserslautern) – Internationale Graduiertenschule Neurowissenschaften (MINDS) – Interkulturalität: Der Kreislauf der Kulturen – Analyse des Systems Erde Wir erwarten mit begründeter Zuversicht die Voten der Fachgutachter und der ministeriellen Expertenkommission. Im Landeswettbewerb erfolgreiche Cluster und Graduiertenschulen gingen guten Mutes in den inzwischen mehrfach erhofften und mehrfach in Frage gestellten Bundeswettbewerb. Ein ebenso überraschendes wie vielversprechendes Ergebnis des Identifikations- und Mobilisierungsprozesses, der den Vorschlägen vorausging, war die Formierung des Interdisziplinären Forschungszentrums Neurowissenschaften (IFZN), das naturwissenschaftliche, medizinische und geisteswissenschaftliche Forschungen zu neurowissenschaftlichen Fragestellungen nicht nur zu addieren, sondern zu integrieren beabsichtigt. Das Zentrum will Ernst mit der schnell und gefällig artikulierten, aber schwer praktizierten Einsicht machen, dass die Natur- und die Geisteswissenschaften einander brauchen und dass die Gesellschaft ihre gemeinsam erarbeiteten Forschungsergebnisse braucht. Das Zentrum hätte an einer deutschen Universität nicht seinesgleichen. Deshalb erscheint es als angebracht, in einem ersten „Themenheft“ unseres Forschungsmagazins die Vielfalt neurowissenschaftlicher Forschungen zu präsentieren, die in unserer Universität auf hohem Niveau getrieben werden und die es in dem Zentrum aufeinander zu beziehen und ineinander zu verschränken gilt. Es würde mich freuen, wenn Sie sich von der Lektüre anregen und beeindrucken ließen. Ihr FORSCHUNGSMAGAZIN ■ 1/2005 1 ...... DIE EDELSTEINSCHLEIFEREI FÜR IHRE SPEZIELLEN WÜNSCHE Technische Korunde für Industrie, Labore, Institute IMPORT - EXPORT Tiefensteiner Straße 322a 55743 Idar-Oberstein Tel. 06781/9350-0 • Fax 06781/935050 [email protected] • www.groh-ripp.de 2 INHALT ...... INHALT Das Interdisziplinäre Forschungszentrum für Neurowissenschaften (IFZN): Gehirn und Geist gemeinsam auf der Spur Von Christian Behl ______________________________________________________________________ 4 „Was Hänschen nicht lernt, lernt Hans nimmermehr“ Lernprozesse im unreifen und adulten Gehirn Von Heiko J. Luhmann ____________________________________________________________________ 7 Einblicke in die frühe Entwicklung des Zentralen Nervensystems am Drosophila -Modell Von Gerhard Technau und Joachim Urban_____________________________________________________12 Untersuchungen zur Neurobiologie von Alkoholwirkung und Alkoholabhängigkeit mit der Positronen-Emissions-Tomographie (PET) Von Mathias Schreckenberger und Peter Bartenstein_____________________________________________17 Elektrophysiologie und virtuelle Realität als Mittel zur Untersuchung von Wahrnehmungsprozessen Von Heiko Hecht und Stefan Berti___________________________________________________________20 Wortarten im Gehirn? Von Walter Bisang, Jörg Meibauer und Markus Steinbach _________________________________________26 Mentale Repräsentation und kognitive Entwicklung aus der Perspektive der Zwillingssprachforschung Von Mongi Metoui und Walter Bisang _______________________________________________________31 „Arbeit am Bild“ – Plädoyer für eine Bildwissenschaft Von Susanne Marschall und Fabienne Liptay __________________________________________________36 Die „Szenographie“: – ein Schlüsselbegriff der Kultur-, Kognitions- und Bildwissenschaft Von Matthias Bauer _____________________________________________________________________41 Wie ein bewusstes Ich entsteht: Die Selbstmodell-Theorie der Subjektivität Von Thomas Metzinger___________________________________________________________________47 Bildhaftes Vorstellen, Denken und Simulieren Von Verena Gottschling __________________________________________________________________51 Dieser Ausgabe liegt eine Beilage der Firma Hilgenberg GmbH und des VERLAGS PHILIPP VON ZABERN bei. Wir bitten um Beachtung. IMPRESSUM Herausgeber: Der Präsident der Johannes Gutenberg-Universität Mainz, Univ.-Prof. Dr. med. Jörg Michaelis Verantwortlich: Petra Giegerich, Leiterin Bereich Öffentlichkeitsarbeit Redaktion: Bettina Leinauer Kontakt: Telefon: 06131 39-22369, 39-26112 Telefax: 06131 39-24139 E-Mail:[email protected] Auflage: 4.000 Exemplare, die Zeitschrift erscheint zweimal im Jahr Titelbild: Fotodesign Hartmann Titelgestaltung: Tanja Löhr Vertrieb: Bereich Öffentlichkeitsarbeit Gestaltung und Layout: Dinges & Frick, Wiesbaden Druck und Anzeigenverwaltung: Dinges & Frick GmbH Medientechnik, Drucktechnik & Verlag Greifstraße 4 65199 Wiesbaden Telefon: +49 (0)611 9 31 09 41 Telefax: +49 (0)611 9 31 09 43 www.dinges-frick.de FORSCHUNGSMAGAZIN ■ 1/2005 3 ...... IFZN Das Interdisziplinäre Forschungszentrum für Neurowissenschaften (IFZN): Gehirn und Geist gemeinsam auf der Spur Von Christian Behl Mit gebündelter Kompetenz die Geheimnisse von Gehirn und Geist ergründen: Naturwissenschaftler, Kliniker und Geisteswissenschaftler gründen einen interdisziplinären Forschungsverbund. Wie funktioniert unser Gehirn? Was sind die molekularen und zellulären Grundlagen seiner Entwicklung? Wie entstehen Erinnerungen, Bilder, Sprache, Emotionen? Was ist Selbstbewusstsein? Wie beeinflussen Erlebnisse und Umweltfaktoren die Gehirnaktivität? Wie altert unser Gehirn und wie geht bei der Alzheimer-Krankheit die Persönlichkeit verloren? All dies sind drängende Fragen der Neurowissenschaften, deren Aufklärung uns hilft, das Gehirn besser zu verstehen, und neue Erkenntnisse über Funktion und Fehlfunktion unseres Gehirns ergeben wird. Werden diese Fragen häufig jede für sich isoliert in verschiedenen wissenschaftlichen Disziplinen unter- Abb. 1: Informationsfluss zwischen den verschiedenen neurowissenschaftlichen Forschungsebenen zur Klärung höherer Funktionen des menschlichen Gehirns sucht, soll an der Universität Mainz ein neuer Weg beschritten werden. Die Komplexität des Gehirns und neuronaler Netzwerke soll durch Bündelung neurowissenschaftlicher Expertise vor Ort interdisziplinär erforscht werden. Das geplante Interdisziplinäre Forschungszentrum für Neurowissenschaften (IFZN) führt die unterschiedliche neurowissenschaftliche Expertise in Mainz zusammen und wird Synergieeffekte erzielen. Die Funktionen des Gehirns können heute auf unterschiedlichen Ebenen untersucht werden. Die Identifizierung der genetischen Ausstattung einzel- 4 ner Nervenzellen sowie die Aufklärung der molekularen Grundlagen neuronaler Struktur und Funktion bildet eine erste Ebene. Eine zweite beschreibt die Kommunikation und Interaktion von Zellen des Nervensystems im Verband. Auf einer obersten Ebene lassen sich die physiologischen und pathophysiologischen Funktionen größeren Gehirnarealen zuordnen. Der exakte Informationsaustausch zwischen den verschiedenen Organisationsebenen ist noch weitgehend unbekannt und kann nur mit Methoden der interdisziplinären Hirnforschung aufgeklärt werden. Das geordnete Zusammenspiel der verschiedenen Ebenen ermöglicht höhere kognitive Funktionen wie Gedächtnisprozesse, das Verstehen von Bildern und Sprache sowie das persönliche Erleben von Emotionen, Bewusstsein und die Verarbeitung und Einordnung von Erfahrenem. Die Psychologie und Philosophie der Kognition ermöglichen es weitere Fragen an unser Gehirn zu stellen, beispielsweise die Frage nach der Existenz eines freien Willens oder die nach den neuronalen Grundlagen von Selbstbewusstsein und Moralität. Die experimentelle Methodik zur Untersuchung der verschiedenen Organisationsebenen umfasst die klassische biochemische Analytik, die Zell- und Molekularbiologie ebenso wie die klinische Beobachtung und hochauflösende bildgebende Verfahren sowie neuropsychologische Untersuchungen und Verhaltensstudien. Die Untersuchung physikalisch-chemischer Prozesse und neuronaler Netzwerke als Grundlage von Kognition, Geist und Bewusstsein und der Funktion des menschlichen Gehirns ist die zentrale Aufgabe der Neurowissenschaften (Abb. 1). Komplexe Netzwerkstrukturen als Grundlage höherer neuronaler Aktivität unseres Gehirns lassen sich durch die Schaffung interdisziplinärer Netzwerke neurowissenschaftlicher Expertise möglichst an einem Standort aufklären und verstehen. An verschiedenen deutschen Universitäten wurden mittlerweile „Neuroforschungszentren“ eingerichtet, die sich jedoch häufig in der thematischen Ausrichtung entweder auf molekulare Aspekte der Hirnforschung (Molecular & Cellular Neuroscience) oder auf die kognitiven Neurowissenschaften (Cognitive Neuroscience) konzentrieren. Eine Einrichtung wie das Interdisziplinäre Forschungszentrum für Neurowissenschaften, die unter anderem versucht eine Brücke zwischen diesen beiden Forschungsansätzen zu schlagen und gezielt die wissenschaftlichen Schnittmengen der einzelnen Perspektiven neurowissenschaftlicher Forschung fördert, ist glücklicherweise aufgrund der vorhandenen wissenschaftlichen IFZN Abb. 2: Zusammenführung der wissenschaftlichen Expertise aus sechs Sektionen in einem Forschungszentrum Expertise an der Johannes Gutenberg-Universität Mainz möglich. Das Interdisziplinäre Forschungszentrum für Neurowissenschaften (IFZN) fasst bereits bestehende neurowissenschaftlich forschende Arbeitsgruppen, interdisziplinäre Arbeitskreise sowie drittmittelgeförderte Forschungsverbünde der Johannes GutenbergUniversität Mainz zusammen und unterstützt diese. Unter dem Dach des IFZN sollen sechs neurowissenschaftliche Sektionen aus fünf verschiedenen Fachbereichen - den Fachbereichen Sozialwissenschaften, Medien und Sport (FB 02), Medizin (FB 04), Philosophie und Philologie (FB 05), Chemie, Pharmazie und Geowissenschaften (FB 09) und Biologie (FB 10) – vereint und vernetzt werden. Folgende Arbeitsbereiche sind Teil des IFZN (Abb. 2): • Molekulare und zelluläre Neurowissenschaften • Klinische Neurowissenschaften • Kognitionspsychologie • Linguistik • Neurophilosophie • Bildwissenschaft Die Vereinigung der verschiedenen wissenschaftlichen Sektionen im IFZN ermöglicht die interdiszipliAbb. 3: Ziele des Interdisziplinären Forschungszentrums für Neurowissenschaften (IFZN): Bündelung neurowissenschaftlicher Expertise und bereits bestehender Forschungsverbünde, aktive Interaktion und Diskussion, Start neuer interdisziplinärer Initiativen, Projektförderung und Schaffung zentraler Technologieplattformen, Kristallisationskeim für neue drittmittelgeförderte Neuro-Initiativen, Förderung von Nachwuchswissenschaftlern und Anschubfinanzierung FORSCHUNGSMAGAZIN ■ 1/2005 5 ...... ...... IFZN näre und translationale Erforschung von Gehirn, Geist, Bewusststein, neuronale Entwicklung, Funktion und Dysfunktion. Durch das IFZN gefördert werden sollen interdisziplinäre neurowissenschaftliche Forschungsvorhaben sowie die Einrichtung experimenteller Plattformstrukturen (Abb. 3). Die sechs wissenschaftlichen Sektionen des IFZN stellen sich hier mit einigen wenigen Beiträgen vor. Sie sollen einige ausgewählte wissenschaftliche Ansatzpunkte der verschiedenen Disziplinen und zentrale Fragestellungen der Neurowissenschaften beleuchten. Sie stehen beispielhaft für eine große Zahl von Neurowissenschaftlern an der Universität Mainz, die innerhalb des IFZN voneinander lernen und gemeinsam das Gehirn erforschen wollen. ■ Summary The Interdisciplinary Center for Neurosciences is a joint effort of neuroscientists from various disciplines and faculties at the University of Mainz. By creating local experimental plattforms and networks the main goal is to reach synergy in the research towards an understanding of the complex structure, functions and dysfunctions of the human brain, to understand the neuronal basis of brain and mind. In this novel research center expertise from basic, clinical and cognitive neurosciences will be combined and interdisciplinary research projects will be supported. Univ.-Prof. Dr. rer. nat. Christian Behl CHRISTIAN BEHL hat an der Julius-Maximilians-Universität Würzburg Biologie studiert und im Fach Neurobiologie promoviert. Nach Stationen als Postdoktorand in Würzburg und am Salk Institute for Biological Studies in San Diego, USA, übernahm er die Leitung der Arbeitsgruppe Steroidpharmakologie am MaxPlanck-Institut für Psychiatrie in München. Es folgten ein C3-Ruf zur Etablierung einer Selbständigen Nachwuchsgruppe der Max-Planck-Gesellschaft, Habilitation an der Medizinischen Fakultät der LMU München und anschließend Ernennung zum Privatdozenten. Seit 2002 hat Christian Behl eine C4-Professur und die Leitung des Lehrstuhls für Pathobiochemie im Fachbereich Medizin der Johannes GutenbergUniversität Mainz inne. Seit 2003 ist er auch Geschäftsführender Leiter des Instituts für Physiologische Chemie & Pathobiochemie. ■ Kontakt: Univ.-Prof. Dr. rer. nat. Christian Behl Johannes Gutenberg-Universität Mainz Institut für Physiologische Chemie & Pathobiochemie Duesbergweg 6 55099 Mainz Tel. +49 (0) 6131 39-25890 Fax +49 (0) 6131 39-25792 E-Mail: [email protected] http://www.uni-mainz.de/ FB/Medizin/PhysiolChemie/Welcome.html ! s! m ar ic.co ye ctron e 6 el ELC-03M ISO-STIM 01D Optimized for extracellular Stimulus Isolators without loose-patch recordings and Batteries and with Bipolar juxtasomal filling with patch Stimulus Generation electrodes; also suitable for intracellular recordings in bridge or voltage clamp mode pi The “Swiss Army Knife” for Electrophysiology n w. w Electronic Instruments for the Life Sciences SEC-10LX 20 npi w Single Electrode High Speed Voltage / Patch Clamp Amplifiers Other npi electronic Instruments for Electrophysiology í í í í í í í í í í í í í í Two Electrode voltage clamp amplifiers Loose patch clamp amplifiers Temperature control systems Bridge-/Intracellular amplifiers Extracellular amplifiers Stimulus isolators Modular system Low pass Bessel filters Iontophoretic drug application systems Pneumatic drug application systems Data acquisition hard- and software Automatic chlorider ALA Scientific perfusion systems/accessories EXFO-Burleigh micropositioners NEUROPHYSIOLOGIE „Was Hänschen nicht lernt, lernt Hans nimmermehr“ Lernprozesse im unreifen und adulten Gehirn Von Heiko J. Luhmann Das Lesen dieser Zeilen bereitet Ihnen keine Schwierigkeiten, da Sie im Alter von etwa sechs Jahren gelernt haben, dem Wirrwarr aus kleinen vertikalen, horizontalen und gebogenen schwarzen Linien einen Sinn zu geben und komplexe Strichmuster mit spezifischen Inhalten zu verknüpfen. Dieser Lernprozess ist auf molekularer und zellulärer Ebene identisch mit dem Erlernen des Laufens oder Sprechens während unserer frühkindlichen Entwicklung. Das Erlernen spezifischer Fähigkeiten, wie z. B. das Sprechen und das Laufen, fällt uns besonders leicht während so genannter „kritischer Perioden“. Das akzentfreie Erlernen einer (Fremd-)Sprache ist nach dem 10. Lebensjahr jedoch nicht mehr möglich und jeder weiß, wie schwer es einem Erwachsenen fällt, im fortgeschrittenen Alter das Ski- oder Fahrradfahren zu erlernen. Warum lernt das kindliche Gehirn viele Fertigkeiten so viel einfacher und schneller als das erwachsene Gehirn? Warum sind die kritischen Perioden auf bestimmte Zeitfenster begrenzt? Wo findet Lernen statt? Warum und wie verlernen und vergessen wir zuvor Erlerntes? Wie kann uns das Verständnis der molekularen und zellulären Mechanismen von Lernprozessen im klinischen Alltag bei der Behandlung von Patienten mit neurologischen Störungen helfen? Diese Fragen sollen im Folgenden näher beleuchtet werden. Der Ort des Lernens – die Synapse Wenn wir Lernprozesse verstehen wollen, müssen wir zunächst die Struktur betrachten, an der das Lernen stattfindet. Lernen, definiert als veränderte Reaktion einer Nervenzelle, eines neuronalen Netzwerks oder eines Organismus auf einen definierten Reiz, findet an den Kontaktstellen zwischen den Nervenzellen statt, den sog. Synapsen. Eine chemische Synapse ist eine Struktur, an der das elektrische Signal einer (präsynaptischen) Nervenzelle mittels Freisetzung eines chemischen Botenstoffs (Transmitter) an eine nachgeschaltete (postsynaptische) Nervenzelle weitergegeben wird (Abb. 1). Dabei beeinflusst die Stärke des präsynaptischen elektrischen Signals (Frequenz von Aktionspotenzialen) die Menge des freigesetzten Transmitters. Je mehr Transmitter von der Präsynapse ausgeschüttet wird, desto mehr Rezeptoren für diesen Transmitter können an der postsynaptischen Membran aktiviert werden. Die Anzahl aktivierter postsynaptischer Rezeptoren bestimmt wiederum die Stärke des elektrischen Signals an der Postsynapse (postsynapstisches Potenzial). Diese Übertragungseigenschaften an einer Synapse sind jedoch nicht fest fixiert, sondern veränderbar; man spricht von der synaptischen Plastizität. An der Präsynapse kann z. B. mehr Transmitter ausgeschüttet werden oder postsynaptisch kann sich die Affinität oder die Anzahl von Rezeptoren erhöhen. Das Ergebnis ist in diesen Fällen eine verbesserte synaptische Übertragung. Die der synaptischen Plastizität zugrunde liegenden Mechanismen werden seit etwa 50 Jahren in den Neurowissenschaften intensivst untersucht und wurden bereits mit einigen Nobelpreisen belohnt. Wir wissen heute, dass die synaptische Verbindung zwischen zwei Nervenzellen verbessert wird, wenn diese beiden Zellen häufig zeitgleich elektrisch aktiv waren („cells that fire together, wire together“), und dass Lernprozesse mit strukturellen Veränderungen wie dem Auswachsen neuer dendritischer Dornenfortsätze (sog. spines) einhergehen. Wir wissen auch, dass Lernprozesse zwar einerseits auf strukturelle und funktionelle Veränderungen an einzelnen Synapsen zwischen zwei Neuronen zurückzuführen sind, andererseits aber auch, dass Lern- und Gedächtnisinhalte stets in einem komplexen Netzwerk von vielen Neuronen gespeichert werden. Zukünftige Arbeiten zum Verständnis von Hirnfunktionen erfordern daher einen experimentellen Ansatz auf der Ebene eines definierten neuronalen Netzwerks. Da Information im Nervensystem im Millisekundenbereich verarbeitet wird, sind Techniken mit relativ hohen zeitlichen Auflösungen erforderlich, wie sie bisher nur in der Elektrophysiologie erreicht werden. Das kindliche Gehirn ist für das Lernen wie geschaffen. Bestimmte Botenstoffe im Gehirn und Rezeptoren für solche Neurotransmitter begünstigen bei Kindern den Lernprozess. (Fast) nichts bleibt für immer Vieles von dem, was wir während unseres Lebens erlernen, haben wir glücklicherweise wieder vergessen. Wäre das nicht der Fall, würde unser neuronaler Speicher sicherlich schnell an seine Grenzen gelangen. Eine Reduktion der synaptischen Übertragungseigenschaften infolge einer verminderten Transmitterausschüttung oder einer Abnahme postsynaptischer Rezeptoren stellt vermutlich das zelluläre Korrelat des Vergessens dar. Auch strukturelle Veränderungen, wie ein Verlust von spines, wurden an experimentellen Modellen zum Lernen und Vergessen beobachtet. Ein drastischer Verlust von Gedächtnisinhalten ist bei neurodegenerativen Erkrankungen, wie z. B. der Alzheimer-Krankheit, zu beobachten (s. Artikel von C. Behl & A. Clement und F. Fahrenholz in Natur & Geist 2004, Seite 31-35 bzw. 37-41). Hier ist nicht nur eine Dysfunktion der synaptischen Übertragung in einigen Hirnarealen zu beobachten, sondern FORSCHUNGSMAGAZIN ■ 1/2005 7 ...... ...... NEUROPHYSIOLOGIE Abb. 1: Nervenzellen sind miteinander über chemische Synapsen verbunden. Bild A: Lichtmikroskopische Aufnahme von zwei Nervenzellen in der Großhirnrinde einer Ratte. Beide Zellen wurden über eine Mikropipette intrazellulär mit einem Farbstoff markiert und das Gewebe wurde histologisch bearbeitet. Bild B: Die Ausschnittsvergrößerung zeigt die Dendriten und Axone der Pyramidenzelle (blaue Beschriftung) und der oberhalb lokalisierten Bipolarzelle (schwarze Beschriftung). Das Axon der Bipolarzelle projiziert auf einen Dendriten der Pyramidenzelle (Rechteck) und bildet dort eine chemische Synapse. Bild C: Schematische Darstellung einer chemischen Synapse, in der das präsynaptische elektrische Signal (Aktionspotenzial) die Freisetzung von Transmittermolekülen (rote Punkte) bewirkt, die in den präsynaptischen Bläschen (sog. Vesikeln) verpackt sind. Der Neurotransmitter diffundiert über den synaptischen Spalt zur Postsynapse und dockt dort nach dem „Schlüssel-Schloss-Prinzip“ an Rezeptoren an. Diese Rezeptoren können unterschiedliche Eigenschaften aufweisen und bei Aktivierung z. B. einen Einstrom von extrazellulären Natrium-Ionen (schwarze Pünktchen) oder Calcium-Ionen (grün) einleiten. Durch den Einstrom dieser positiv geladenen Ionen entlang dem Konzentrationsgefälle zwischen Extra- und Intrazellulärraum entsteht im postsynaptischen Neuron ein erregendes postsynaptisches Potenzial, das in der Zelle weitergeleitet wird. Bei Lernprozessen kann die präsynaptische Transmitterfreisetzung oder die Anzahl postsynaptischer Rezeptoren erhöht sein. sogar ein Abbau von ganzen Nervenzellpopulationen. Aber warum können wir bestimmte Fakten und Ereignisse besonders gut speichern, selbst wenn sie nur einmalig auftreten? Wir können problemlos Gedächtnisinhalte abrufen, die für uns von großer Relevanz sind oder die uns emotional sehr berührt haben, wie z. B. der Terroranschlag am 11. September 2001. Motivation und Emotion beeinflussen Lernvorgänge, indem zusätzliche synaptische Eingänge über andere Transmittersysteme am postsynaptischen Neuron aktiviert werden. Die Nervenzelle befindet sich unter dem Einfluss dieser modulierenden Eingänge gewissermaßen in einem Zustand erhöhter „Aufmerksamkeit“, sie erreicht gemeinsam mit den gleichzeitig eintreffenden sensorischen Signalen schneller die Schwelle zur Aktivierung und das Lernen wird unter diesen Bedingungen erleichtert. Auf die Frage, warum dieses Wissen zur Bedeutung von Motivation bei Lernprozessen so wenig Einfluss auf den schulpädagogischen Alltag nimmt, können die Neurowissenschaften jedoch keine zufrieden stellende Antwort liefern. Dabei ist gerade das kindliche Gehirn für das Lernen wie geschaffen. Zum Zeitpunkt der Geburt sind beim Menschen fast alle Nervenzellen bereits vorhanden und sie nehmen über ihre vielfach verzweigten Axone Kontakt zu anderen Nervenzellen auf, wobei die Nervenfa8 sern von chemischen Wachstumsstoffen, sog. Nervenwachstumsfaktoren, geleitet werden. Ein Neuron kann einerseits über seine axonalen Verzweigungen mit bis zu 10.000 anderen Nervenzellen verbunden sein und erhält andererseits einen synaptischen Eingang von 10.000 präsynaptischen Neuronen. Viele dieser Verbindungen werden jedoch während der kindlichen Entwicklung wieder abgebaut, da sie nicht gebraucht werden („use it or loose it“ ). Tritt jedoch häufig zeitgleich elektrische Aktivität zwischen der prä- und postsynaptischen Nervenzelle auf, dann wird die Synapse zwischen diesen beiden Neuronen konsolidiert und beide Zellen gehören dem gleichen neuronalen Netzwerk an. Sowohl genetische als auch durch die Umwelt gesteuerte Prozesse begünstigen diesen synaptischen Konsolidierungsprozess während der frühen Entwicklung: (i ) Transmitter, die im erwachsenen Gehirn hemmend wirken, wie GABA und Glyzin, haben im unreifen Gehirn einen erregenden Einfluss. (ii ) Rezeptoren für bestimmte Neurotransmitter, die im adulten Gehirn nur schwer aktiviert werden können, weisen im kindlichen Gehirn andere molekulare und funktionelle Eigenschaften auf, sind leichter aktivierbar und begünstigen daher Lernprozesse. Diese altersabhängige synaptische Plastizität ist besonders gut für den N-Methyl-D-Aspartat (NMDA) Rezeptor des Neurotransmitters Glutamat beschrieben. Vermutlich spielt NEUROPHYSIOLOGIE der NMDA Rezeptor auch eine zentrale Rolle bei entwicklungsabhängigen Lernprozessen während kritischer Perioden. Die synaptischen Verbindungen in den Arealen und Schichten unserer Großhirnrinde, dem cerebralen Kortex, weisen unterschiedliche Zeitverläufe hinsichtlich ihrer Plastizität auf. Im Sehkortex endet die kritische Periode etwa im 6. Lebensjahr. Entwicklungsstörungen der Sehschärfe (Amblyopie), die bei ca. 5 Prozent aller Kinder auftreten, können nur während dieser kritischen Periode durch eine sog. Amblyopietherapie (Abdecken des gut sehenden Auges) erfolgreich behandelt werden. Durch diesen einfachen Trick wird verhindert, dass das weniger gut sehende Auge synaptisch „abgeschaltet“ wird und dass der Sehkortex Verschaltungen verliert, die wir für das räumliche Sehen benötigen. Die kritische Periode für das Erlernen der Primärsprache endet etwa im 10. Lebensjahr. Danach ist es sehr viel schwieriger, eine Sprache zu erlernen. Neben diesen kritischen Perioden für das Sehen und Sprechen existieren auch kritische Perioden für andere sensorische Leistungen (z. B. das Hören), für motorische Fertigkeiten und vermutlich auch für soziale Fähigkeiten. Auf molekularer und zellulärer Ebene sind diese Lernprozesse auf sehr ähnliche Mechanismen zurückzuführen und in der Evolution hoch konservativ erhalten. Daher werden am IFZN auch Studien an unterschiedlichen Modellorganismen durchgeführt, wie dem Wurm C. elegans, der Taufliege Drosophila (s. Artikel von G. Technau & J. Urban in dieser Ausgabe von LN Natur & Geist ) und der Maus. Die an diesen Modellorganismen gewonnenen Erkenntnisse zur Struktur und Funktion von relativ kleinen, gut definierten Neuronenverbänden tragen wiederum zum Verständnis von physiologischen und pathophysiologischen neuronalen Prozessen beim Menschen bei. Klinische Relevanz Im Geweberandbereich von akuten kortikalen Hirnläsionen, wie einem Hirninfarkt, finden spontan synaptische Reorganisationsprozesse statt, die den normalen Lernprozessen sehr ähneln. Nach einem Schlaganfall treten sensorische und motorische Störungen auf, die im Laufe von wenigen Monaten häufig erstaunlich gut kompensiert werden. Dieser Kompensationsprozess geschieht spontan und kann durch begleitende Rehabilitationsmaßnahmen gezielt gefördert werden. Die durch den akuten Gewebeverlust induzierten Defizite in den sensorischen und motorischen Leistungen werden kompensiert, indem diese Funktionen in benachbarte, intakte kortikale Areale verlagert werden. Molekularbiologische und elektrophysiologische Daten deuten darauf hin, dass die neuronalen Netzwerke in den Randbereichen von Hirninfarkten während des Kompensationsprozesses funktionelle Eigenschaften aufweisen, die denen des unreifen Gehirns ähneln. Hemmende synaptische Kontrollmechanismen werden reduziert und der NMDA Rezeptor ist wieder leichter aktivierbar. Diese läsionsinduzierte synaptische Plastizität stellt die Grundlage des kli- Luigs & Neumann - Infrapatch Clamp System Patch Clamp System Microposition Units for all purposes Invitro/ invivo Systems CPZ Microforge PiDiOne contact free microdispense robot The Luigs & Neumann micromanipulation systems and set-ups are reliable, precise, easy to operate, welldesigned and are naturally compa˝tible with any microscope. The ability to provide timely, cost-effective engineering and manufacturing solutions have earned Luigs & Neumann equally the respect from both customers and competitors. Luigs & Neumann Feinmechanik und Elektrotechnik GmbH 40880 Ratingen - Germany tel. +492102947000 fax.: +492102442036 Web.: www.luigs-neumann.com email.: [email protected] FORSCHUNGSMAGAZIN ■ 1/2005 9 ...... ...... NEUROPHYSIOLOGIE nisch relevanten Kompensationsprozesses dar und ist beim Menschen bisher wenig untersucht, da neben ethischen Bedenken auch erhebliche methodische Einschränkungen bestehen. Besonders die nicht-invasiven bildgebenden Verfahren wie PET (s. Artikel von P. Bartenstein & M. Schreckenberger in dieser Ausgabe von Natur & Geist) und andere klinische Methoden werden zu diesem Thema in naher Zukunft wichtige und spannende Erkenntnisse liefern. ■ Summary The molecular and cellular mechanisms underlying learning and memory are not only of general public interest, but are also highly relevant for the understanding of normal and pathological human brain function. Pre- and postsynaptic mechanisms determine the synaptic transfer function and influence the behavior of neuronal networks. Although the rules of synaptic plasticity are identical in widely different tasks such as motor learning or language acquisition, the molecular mechanisms of learning in the young brain show some distinct differences compared to the adult brain. These immature synaptic properties are reestablished in the adult brain after acute brain lesions as in strokes and facilitate lesioninduced synaptic reorganization processes. Literatur Elbert T, Rockstroh B (2004) Reorganization of human cerebral cortex: the range of changes following use and injury. Neuroscientist 10: 129-141. Friederici AD (2002) Wie Sprache auf die Nerven geht. Max-Planck-Forschung 3: 52-57. Gu Q (2002) Neuromodulatory transmitter systems in the cortex and their role in cortical plasticity. Neuroscience 111: 815-835. Hensch TK (2004) Critical period regulation. Annu Rev Neurosci 27: 549-579. Lessmann V, Gottmann K, Malcangio M (2003) Neurotrophin secretion: current facts and future prospects. Prog Neurobiol 69: 341-374. Luhmann HJ (1996) Ischemia and lesion induced imbalances in cortical function. Prog Neurobiol 48: 131-166. Münte TF, Altenmüller E, Jäncke L (2002) The musician’s brain as a model of neuroplasticity. Nat Rev Neurosci 3: 473-478. Waddell S, Quinn WG (2001) Flies, genes, and learning. Annu Rev Neurosci 24: 1283-1309. Univ.- Prof. Dr. rer. nat. Heiko J. Luhmann HEIKO LUHMANN wurde 1958 in Bremerhaven geboren und studierte Biologie an der Universität Bremen. Von 1983 bis 1987 war er am Max-Planck-Institut für Hirnforschung in Frankfurt/M. tätig und promovierte 1987 bei Prof. Wolf Singer. Nach einem dreijährigen Forschungsaufenthalt am Department of Neurology der Stanford University kehrte er 1990 nach Deutschland zurück und arbeitete als Assistent an den Physiologischen Instituten der Universität zu Köln und der Charité in Berlin. 1994 habilitierte er sich für das Fach Physiologie und trat 1995 eine C3-Professur für Neurophysiologie an der Universität Düsseldorf an. In Düsseldorf war Heiko Luhmann von 1991 bis 2002 als Teilprojektleiter an einem SFB beteiligt und leitete dort von 1997 bis 2002 ein neurowissenschaftliches Graduiertenkolleg. Im Juni 2002 folgte er einem Ruf auf den Lehrstuhl für Physiologie im Fachbereich Medizin der Johannes Gutenberg-Universität Mainz. Hier ist er am SFB „Stickstoffmonoxid (NO)“ beteiligt und seit Juli 2004 Sprecher des Graduiertenkollegs „Entwicklungsabhängige und krankheitsinduzierte Modifikationen des Nervensystems“. 10 ■ Kontakt: Univ.-Prof. Dr. rer. nat. Heiko J. Luhmann Johannes Gutenberg-Universität Mainz Institut für Physiologie und Pathophysiologie Duesbergweg 6 55128 Mainz Tel. +49 (0) 6131 39-26070 Fax +49 (0) 6131 39-26071 E-Mail: [email protected] http://physiologie.uni-mainz.de/physio/ luhmann/index.htm Mit dem neuen LSM 5 LIVE werfen Sie jetzt einen exklusiven Blick hinter die Kulissen des Lebens: Bis zu 120 konfokale Bilder pro Sekunde in herausragender Bildqualität sorgen für mehr bewegende Momente in Ihrer Forschung. Sie wollen mehr Action in Ihrem Labor? Dann registrieren Sie sich jetzt unter: www.zeiss.de/moving-moments We make it visible. Tinte oder Toner leer? Wir befüllen Ihre Patronen für teilweise bis zu 60% preiswerter als Originale! jetz t ALLE Hersteller! 06 Umb neu: 131 ach Mit GARANTIE! -90 8 732 Und nettem Service! 50 Mombacher Str. 81 (Nähe Goetheunterführung) 06131-2172250 Fax-2175890 NEU: Umbach 8 (Ecke Gr.Bleiche/Gr.Langgasse) FORSCHUNGSMAGAZIN ■ 1/2005 11 ...... NEUROGENETIK Einblicke in die frühe Entwicklung des Zentralen Nervensystems am Drosophila-Modell Von Gerhard Technau und Joachim Urban Wie es zu den vielfältigen Zelltypen im Zentralen Nervensystem und zu ihrer spezifischen regionalen Verteilung kommt, ist eine zentrale Fragestellung der Neuro-Entwicklungsbiologie. Untersuchungen an der Taufliege helfen Antworten zu finden. Das Zentrale Nervensystem (ZNS) aller höheren Organismen zeigt eine erstaunliche strukturelle und funktionelle Komplexität. Diese basiert auf der spezifischen Vernetzung einer sehr großen Zahl verschiedener neuronaler und glialer Zelltypen in definierter räumlicher Anordnung. Im Gegensatz zu einem Computer kann das ZNS nicht aus fertigen Einzelteilen zusammengesetzt werden, sondern es muss sich im Organismus zusammen mit den anderen Organsystemen letztlich aus einer einzigen Zelle (der befruchteten Eizelle) entwickeln. Dieser Entwicklungsprozess beinhaltet eine Kaskade aufeinander folgender und voneinander abhängiger Teilschritte, die über Raum und Zeit einer äußerst präzisen Kontrolle unterliegen müssen. Dies führt letztlich zu einem funktionsfähigen Nervensystem, das in der Lage ist, normales Verhalten sowie Lern- und Gedächtnisleistungen eines Individuums zu steuern. Die Klärung der Mechanismen, die zu den vielfältigen Zelltypen und ihrer spezifischen regionalen Verteilung (Musterbildung) im ZNS führen, ist eines der zentralen Anliegen der Neuro-Entwicklungsbiologie. Die Taufliege Drosophila melanogaster hat eine über 100-jährige Tradition als genetisches Untersuchungsobjekt. Dadurch existieren sehr effiziente methodische Werkzeuge auf der genetischen, molekularen und zellulären Ebene. Seit wenigen Jahren liegen ebenfalls die vollständigen Sequenzdaten ihres Genoms vor. Aus diesen Gründen ist Drosophila zu einem beliebten Modell-System geworden, um Abb. 1: Morphologie des Zentralen Nervensystems im späten Embryo von Drosophila melanogaster a) Laterale Ansicht eines ca. 16 Stunden alten Embryos (anterior links). Das Zentrale Nervensystem ist braun angefärbt. Hem: Hemisphären, Bm: Bauchmark. b) Ventrale Ansicht von 4 Neuromeren des Bauchmarks. Angefärbt ist das Neuropil, das aus Bündeln von Nervenfortsetzen (Axonen) besteht. Gut zu erkennen ist die „Strickleiterstruktur“ des Neuropils, das aus zwei längsverlaufenden Konnektiven und in jedem Neuromer aus zwei querverlaufenden Kommissuren aufgebaut ist. ac: anteriore Kommissur, pc: posteriore Kommissur, c: Konnektiv. c, d) Nachkommen des Neuroblasten 3-5. Jeder Neuroblast generiert einen für ihn typischen Zellklon, der durch eine frühe Markierung des Neuroblasten sichtbar gemacht werden kann (c). 12 biologische Prozesse wie z. B. die Entwicklung des Nervensystems zu analysieren. Viele der Gene, die an Entwicklungs- und Differenzierungsprozessen beteiligt sind, konnten in Modellorganismen wie Drosophila identifiziert und in ihrer Funktion charakterisiert werden. Dank eines erstaunlich hohen Maßes an evolutionärer Konservierung konnte eine Vielzahl entsprechender Faktoren auch aus anderen Organismen wie Wirbeltieren (Vertebraten), zu denen auch der Mensch gehört, isoliert und in ihrer Funktion verglichen werden. Die in Drosophila gewonnenen Erkenntnisse sind somit nicht nur relevant für ein generelles Verständnis entwicklungsbiologischer Prozesse und ihrer Evolution, sondern auch von praktischer Bedeutung für die biomedizinische Grundlagenforschung. Dies umso mehr, als die Hälfte der bekannten menschlichen Gene, die in mutierter Form Krankheiten verursachen, ebenfalls im DrosophilaGenom zu finden sind. Bezüglich der Entwicklung des Nervensystems (Neurogenese) haben sich die Untersuchungen vieler Arbeitsgruppen auf die frühembryonale Phase konzentriert. In dieser Phase sind die Vorgänge noch relativ gut überschaubar und einer Analyse auf der Ebene einzelner, identifizierbarer Zellen leichter zugänglich. Ferner hat sich gezeigt, dass eine evolutionäre Konservierung molekularer Mechanismen im besonderen Maße in der embryonalen Frühentwicklung ausgeprägt ist. NEUROGENETIK Die ersten Schritte der Neurogenese Das ZNS von Insekten umfasst das Gehirn und das Bauchmark, welches, ähnlich dem Rückenmark der Vertebraten, einen deutlich segmentierten Charakter aufweist (Abb. 1). Beide Anteile des ZNS gehen aus einer bilateral symmetrischen, zweidimensionalen Zellschicht hervor, der sog. neurogenen Region des Ektoderms (auch Neuroektoderm genannt, Abb. 2a). Der erste Schritt zur Entwicklung des ZNS wäre somit die Festlegung der Grenzen dieser neurogenen Region. Im Rumpfbereich des Drosophila-Embryos wird die Grenze zwischen der neurogenen und der nichtneurogenen Region entlang der dorso-ventralen Achse des Ektoderms durch zwei antagonistisch wirkende Proteine, Short gastrulation (Sog) und Decapentaplegic (Dpp), bestimmt. Die homologen Faktoren in Vertebraten, Chordin und Bone Morphogenetic Protein 4 (BMP4), erfüllen prinzipiell dieselbe Funktion. In beiden Systemen wird die Region, in der Sog bzw. Chordin exprimiert wird, als Neuroektoderm determiniert, während in der Region, in der Dpp bzw. BMP4 exprimiert wird, die Neurogenese unterdrückt wird. Das Neuroektoderm des Rumpfes ist in Insekten ventral, in Vertebraten aber dorsal lokalisiert. Dies hat man als Indiz dafür gewertet, dass während der Evolution (nach der Trennung von Protostomiern und Deuterostomiern) eine Inversion der dorsoventralen Körperachse stattgefunden hat.1 Die evolutionäre Konservierung dieser Moleküle wurde auch auf der funktionellen Ebene durch Experimente belegt, in denen die homologen Faktoren zwischen verschiedenen Arten (Drosophila und Frosch) ausgetauscht wurden.2 Im zweiten Schritt der Neurogenese bei Insekten werden die Zellen festgelegt, die sich aus dem Neuroektoderm als neurale Stammzellen (Neuroblasten) nach innen absondern (delaminieren). Die übrigen Zellen des Neuroektoderms verbleiben in der Peripherie und entwickeln sich als Vorläuferzellen der Haut (Epidermoblasten). In Drosophila hat man zeigen können, dass dieser binäre Entscheidungsprozess (Neuroblast versus Epidermoblast) von zwei Gengruppen kontrolliert wird, den proneuralen Genen und den neurogenen Genen. Durch die Expression der proneuralen Gene des sog. AchaeteScute-Komplexes an bestimmten Positionen werden Gruppen neuroektodermaler Zellen, die „proneuralen Cluster“, mit der Fähigkeit ausgestattet, sich als Neuroblasten zu entwickeln (Abb. 3). Zell-Zell-Interaktionen innerhalb dieser Zellgruppen stellen jedoch sicher, dass letztlich nur eine Zelle jeder Gruppe als Neuroblast delaminiert, während alle übrigen davon abgehalten werden, diesem Schicksal zu folgen, um sich stattdessen als Epidermoblasten zu entwickeln. Dieser Zellinteraktionsprozess wird als laterale Inhibition bezeichnet und vom sog. Notch-Signaltransduktionsweg vermittelt, dessen Komponenten von den neurogenen Genen kodiert werden.3 Die Vertebraten-Homologen der proneuralen und neurogenen Gene werden ebenfalls in der Anlage des ZNS (Neu- ralrohr) exprimiert, wo sie die Separierung postmitotischer Neurone von neuroepithelialen Zellen, die sich weiterhin teilen, kontrollieren.4 Inzwischen weiß man, dass der Notch-Signaltransduktionsweg bei einer Vielzahl binärer Entscheidungsprozesse während der Entwicklung verschiedener Gewebe in Mensch und Tier eine wichtige Rolle spielt. Auch viele andere Signaltransduktionswege zeigen eine starke evolutionäre Konservierung und werden offenbar als „molekulare Funktionseinheiten“ zur Kontrolle diverser Entwicklungsschritte herangezogen. Spezifizierung neuraler Stammzellen und ihrer Tochterzellen Ein Schwerpunkt der Forschung am Institut für Genetik der Johannes-Gutenberg Universität Mainz richtet sich auf die Mechanismen, die zur Festlegung (Determination) der Entwicklungsschicksale individueller Neuroblasten führen. Die Delamination der Neuroblasten aus dem Neuroektoderm geschieht im Drosophila-Embryo nach einem definierten räumlichen und zeitlichen Muster. Im Kopf- bzw. Gehirnbereich ist dieses Muster sehr komplex und soll hier nicht weiter vorgestellt werden. Im Bereich des Rumpfes bzw. Bauchmarks delaminiert aus dem Neuroektoderm eines jeden der drei thorakalen und der acht abdominalen Segmente auf jeder Seite (Hemisegment) eine Population von 30 Neuroblasten (Abb. 2b). Im Folgenden führt jede dieser Stammzellen eine Serie von Zellteilungen durch. Bei jeder Teilung schnürt sie eine kleinere Tochterzelle (Ganglienmutterzelle, GMZ) ab und erneuert sich selbst. Die GMZ teilen sich in der Regel ein weiteres Mal in zwei Tochterzellen, die sich schließlich zu bestimmten neuronalen oder glialen Zelltypen differenzieren. Auf diese Weise generiert jede der 30 Stammzellen einen für sie charakteristischen Zell- Abb. 2: Ursprung der Neuroblasten und Spezifizierung ihrer segmentalen Identität a) Anlagenkarte eines ca. 3 Stunden alten Embryos. Anterior ist links. pNR: procephale neurogene Region, vNR: ventrale neurogene Region, dEpi: Anlage der dorsalen Epidermis. b) Alle Hemisegmente des Rumpfes generieren eine identische Population von 30 Neuroblasten. Einige dieser Neuroblasten, wie z. B. NB 6-4 (blau im Thorax, rot im Abdomen), bilden im Thorax etwas andere Zellstammbäume als im Abdomen. c) Die Spezifizierung des thorakalen NB 6-4 benötigt die Aktivität von Cyclin E (Cyc E), dessen Expression im abdominalen NB 6-4 durch das HoxProtein Abdominal A (Abd-A) reprimiert wird. Bei Abwesenheit von Cyc E teilt sich NB 6-4 symmetrisch und generiert zwei Gliazellen (grün). Bei Anwesenheit von Cyc E teilt er sich asymmetrisch und generiert eine gliale Vorläuferzelle und einen neuen NB, der nur neuronale Nachkommen produziert. FORSCHUNGSMAGAZIN ■ 1/2005 13 ...... ...... NEUROGENETIK Abb. 3: Spezifizierung der räumlichen und zeitlichen Neuroblast-Identitäten a) Alle Neuroblasten werden innerhalb eines Hemisegments an einer bestimmten Position geboren. Diese Position wird durch Expression von Genen definiert, die das Neuroektoderm in eine Art „Kartesisches Koordinatensystem“ einteilt. Hierbei wirken vnd, ind und msh in dorsoventraler und die Segmentpolaritätsgene wg, gsb und en in anterior-posteriorer Richtung. Abhängig von der Positionsinformation wird die individuelle Identität der Neuroblasten spezifiziert. Diese Identität bestimmt, aus welchen Zellen der spätere Zellstammbaum jeweils zusammengesetzt sein wird. b) Die Zellen eines jeden NB-Zellstammbaums, die sich untereinander in bestimmten Eigenschaften, wie z.B. dem Projektionsmuster der neuronalen Axone, unterscheiden, werden in einer festen und unveränderlichen Reihenfolge generiert. Der zu dem jeweiligen Zeitpunkt zu produzierende Zelltyp wird von der „zeitlichen Identität“ des jeweiligen Neuroblasten bestimmt. Diese „zeitliche Identität“ wird durch eine Gruppe von Transkriptionsfaktoren festgelegt, die in den Neuroblasten sequenziell in der Reihenfolge Hb, Kr, Pdm, Cas exprimiert werden. 14 stammbaum (Abb. 1c). Somit muss jeder Neuroblast eine individuelle Identität erhalten, die die Zahl und die spezifischen Typen ihrer Tochterzellen festlegt. Die Spezifizierung der individuellen NeuroblastenIdentitäten geschieht bereits im Neuroektoderm über Positionsinformation, zeitliche Signale und die Kombinatorik in der Expression von Entwicklungskontrollgenen.5-7 Positionsinformation wird in jedem thorakalen und abdominalen Hemisegment entlang der anterior-posterioren Achse über die Expression von sog. Segmentpolaritätsgenen, wie z. B. engrailed (en), wingless (wg) und gooseberry (gsb), und entlang der dorso-ventralen Achse durch die Expression von dorso-ventralen Musterbildungsgenen wie ventral nervous system defective (vnd), intermediate neuroblasts defective (ind) und muscle specific homeobox (msh) in Form eines Kartesischen Koordinatensystems niedergelegt (Abb. 3a).8 Ausfall der Funktion (Mutation) eines dieser Gene oder Expression am falschen Ort (ektopische Expression) hat zur Folge, dass ein Neuroblastenschicksal in ein anderes umgewandelt wird.9 Ähnliche Funktionen bei der Festlegung neuraler Zellschicksale findet man für die homologen Gene bei Vertebraten. Neben der oben beschriebenen „räumlichen Identität“ besitzt jeder Neuroblast auch eine veränderliche „zeitliche Identität“. Diese äußert sich dadurch, dass jeder Neuroblast die für ihn typischen Nachkommenzellen in einer festgelegten und unumkehrbaren Reihenfolge generiert. Ähnliches wurde auch für neurale Vorläuferzellen bei Vertebraten beschrieben. Bei Drosophila werden diese zeitlichen Identitäten in den Neuroblasten durch eine aufeinander folgende Expression von Genen festgelegt, die alle für genregulatorische Proteine (Transkriptionsfaktoren) kodieren (Abb. 3b). Besonders gut untersucht ist hierbei hunchback (hb) , ein Gen, das für die erste zeitliche Identität verantwortlich ist. Werden beispielsweise Neuroblasten experimentell dazu veranlasst, hb über sein eigentliches Zeitfenster hinaus zu exprimieren, so unterdrückt es die Generierung der späteren Zelltypen zu Gunsten zusätzlicher „früher Zellen“.10,11 Für viele der „zeitlichen Identitätsgene“ gibt es auch bei Vertebraten Homologe, die eine noch unbekannte Funktion in der Entwicklung des ZNS besitzen. Regionalisierung des ZNS Die oben aufgeführten Mechanismen erklären die Festlegung neuraler Zellidentitäten innerhalb eines segmentalen Abschnittes (Neuromers) des ZNS. Damit das ausgereifte ZNS zu einer adäquaten Verarbeitung der verschiedenen sensorischen Eingänge und der Kontrolle motorischer Leistungen in der Lage ist, müssen in den verschiedenen Neuromeren die strukturellen Voraussetzungen geschaffen werden, d. h. während der Entwicklung des ZNS müssen segment-spezifische Spezialisierungen ausgeprägt werden (Regionalisierung des ZNS). Diese regionalen Spezialisierungen sind naturgemäß im Bereich des Gehirns besonders ausgeprägt und komplex. Im Rumpfbereich sind die miteinander fusionierten Neuromere des embryonalen Bauchmarks dagegen relativ ähnlich strukturiert. Neuroblasten, die aus korrespondierenden Positionen des Neuroektoderms der einzelnen thorakalen und abdominalen Segmente hervorgehen (sog. seriell homologe Neuroblasten), produzieren sehr ähnliche embryonale Zellstammbäume. Einige dieser seriell homologen Neuroblasten bilden jedoch Zellstammbäume, die in ihrer Zusammensetzung deutliche segment-spezifische Unterschiede bereits im Embryo aufweisen.12 So produziert z. B. der Neuroblast „NB6-4a“ in den abdominalen Segmenten nur Gliazellen, während der entsprechende Neuroblast „NB6-4t“ in den thorakalen Segmenten neben den Gliazellen auch Neurone hervorbringt (Abb. 2c). Unsere Untersuchungen haben zeigen können, dass die Ausprägung dieser regionalen Unterschiede zwischen Thorax und Abdomen auf einem direkten Zusammenspiel von Faktoren beruht, welche die Identität der Körpersegmente festlegen (kodiert durch homöotische Gene, auch Hox-Gene genannt), und einem Faktor (Cyclin E), der eine Schlüsselrolle bei der Kontrolle von Zellteilungen spielt. Cyclin E ist notwendig und ausreichend, die thorakale Identität des Neuroblasten NB6-4t (sowie NEUROGENETIK auch anderer Stammzellen) festzulegen. In den abdominalen Segmenten wird die Expression von Cyclin E durch homöotische Gene wie abd-A unterdrückt (Abb. 2c). In diesem Fall wird somit die regionale Diversifizierung von Zelltypen im ZNS durch homöotische Gene über die Regulation von Cyclin E vermittelt. Diese neu entdeckte Funktion von Cyclin E bei der Festlegung von Zellschicksalen scheint unabhängig von seiner bekannten Funktion bei der Kontrolle des Zellzyklus zu sein.13 Man wird nun prüfen können, inwieweit dieser Mechanismus auch in anderen Organismen etabliert ist. ■ Summary The mechanisms controlling the generation of cell diversity and pattern in the central nervous system (CNS) belong to the major unsolved problems in developmental biology. The fly Drosophila melanogaster is a suitable model system for examining these complex mechanisms since it allows to link gene function to individually identifiable cells. Research at the Institute of Genetics has one of its focuses on aspects of early neurogenesis in the Drosophila embryo, for example the specification of individual neural stem cells and their lineages, or the regionalization of the CNS. Literatur (ausgewählte Arbeiten) 1) Arendt, D. and Nübler-Jung, K. (1996) Common ground plans in early brain development in mice and flies. Bioessays 18: 255-259. 2) Holley SA, Jackson PD, Sasai Y, Lu B, De Robertis EM, Hoffmann FM and Ferguson EL. (1995) A conserved system for dorsal-ventral patterning in insects and vertebrates involving sog and chordin. Nature 376: 249-253. 3) Campos-Ortega J.A. (1995) Genetic mechanisms of early neurogenesis in Drosophila melanogaster. Mol. Neurobiol. 10: 75-89. 4) Chitnis A, Henrique D, Lewis J, Ish-Horowicz D, Kintner C. (1995) Primary neurogenesis in Xenopus embryos regulated by a homologue of the Drosophila neurogenic gene Delta. Nature 375: 761-766. 5) Udolph G., Lüer K., Bossing T. and Technau G.M. (1995) Commitment of CNS progenitors along the dorsoventral axis of the Drosophila neuroectoderm. Science 269: 1278-1281 6) Berger C., Urban J. and Technau G.M. (2001) Stage-specific inductive signals in the Drosophila neuroectoderm control the temporal sequence of neuroblast specification. Development 128: 3243-3251 7) Urbach R. and Technau G.M. (2004) Neuroblast formation and patterning during early brain development in Drosophila. BioEssays 26: 739-751 8) Skeath J.B. (1999). At the nexus between pattern formation and cell-type specification: the generation of individual neuroblast fates in the Drosophila embryonic central nervous system. BioEssays 21: 922-931. 9) Deshpande N., Dittrich R., Technau G.M. and Urban J. (2001) Successive specification of Drosophila neuroblasts NB6-4 and NB7-3 depends on interaction of the segment polarity genes wingless, gooseberry and naked cuticle. Development 128: 3253-3261 10) Isshiki, T., Pearson, B., Holbrook, S. and Doe, C.Q. (2001) Drosophila neuroblasts sequentially express transcription factors which specify the temporal identity of their neuronal progeny. Cell 106: 511-521. 11) Novotny T, Eiselt R and Urban J (2002) Hunchback is required for the early sublineage of neuroblast 7-3 in the Drosophila central nervous system. Development 129: 1027-1036 12) Schmidt H., Rickert C., Bossing T., Vef O., Urban J. and Technau G.M. (1997) The embryonic central nervous system lineages of Drosophila melanogaster. II. Neuroblast lineages derived from the dorsal part of the neuroectoderm. Devl Biol 189: 186-204 13) Berger C., Pallavi S.K., Prasad M., Shashidhara L.S. and Technau G.M. (2005) A critical role for Cyclin E in cell fate determination in the central nervous system of Drosophila. Nature Cell Biology 7: 56-62. Mainzer Musikalien Zentrum Ihre Musikalienhandlung mit einer grossen Auswahl an Noten, Songbooks, Büchern und CDs, kompetenter persönlicher Beratung und weltweitem Versand Mainzer Musikalien Zentrum GmbH · Weihergarten 9 · 55116 Mainz · Tel.: (06131) 9 12 99 90 · Fax: (06131) 24 66 43 · e-mail: [email protected] auch im internet: w w w. m m z . d e FORSCHUNGSMAGAZIN ■ 1/2005 15 ...... ...... NEUROGENETIK Univ.-Prof. Dr. rer. nat. Gerhard Technau GERHARD TECHNAU, Jahrgang 1951, studierte Biologie und Chemie an den Universitäten Kiel und Würzburg und promovierte am Institut für Genetik in Würzburg. 1983 bis 1988 war er wissenschaftlicher Mitarbeiter am Institut für Entwicklungsbiologie in Köln, wo er sich 1987 habilitierte. 1988 erhielt er ein Heisenberg-Stipendium und ging für einen Forschungsaufenthalt an die UCSF, USA. 1989 bis 1999 hatte er eine C3-Professur am Institut für Genetik im Fachbereich Biologie der Johannes Gutenberg-Universität Mainz inne. 1995 und 1999 erhielt er Rufe auf C4-Professuren der Universitäten Bonn, Marburg, Kiel und Giessen, die er jedoch nicht annahm. Im Januar 2000 folgte er dem Ruf auf eine C4-Professur am Institut für Genetik der Universität Mainz. Er ist geschäftsführender Leiter des Institutes. HeliMap Digitales Kartensystem Sof t- und Hardware-Entwicklung Produkt Design Die optimale Kombination von Hard- und Software - brilliantes Bild auf einem Tageslicht tauglichen 8.4"-Display - Kartenrechner zum Einbau in die Mittelkonsole - ergonomische und robuste Bedienelemente - einfacher Einbau - zertifiziert nach DO160 - reichhaltiges Kartenmaterial: von der Standard-ICAO-Karte bis zum Stadtplan - praxiserprobtes, intuitives Bedienkonzept - Routenplanung am Schreibtisch, Transfer der Routendaten per USB-Memory-Stick - Optionale HeliComm-Software ermöglicht Kommunikation mit Bodenstation PD Dr. phil. nat. Joachim Urban JOACHIM URBAN, Jahrgang 1960, studierte Biologie an der Universität Frankfurt und promovierte dort 1990 am Institut für Biochemie. Seit 1990 ist er wissenschaftlicher Mitarbeiter am Institut für Genetik der Johannes Gutenberg-Universität Mainz, wo er sich 1999 habilitierte. Seit 2000 ist er als akademischer Rat bzw. Oberrat am Institut für Genetik der Universität Mainz beschäftigt. Er arbeitet über die Mechanismen zeitlicher Spezifizierung neuraler Vorläuferzellen von Drosophila. ■ Kontakt: Univ.-Prof. Dr. rer. nat. Gerhard Technau Johannes Gutenberg-Universität Mainz Institut für Genetik Becherweg 32 55099 Mainz Tel. +49 (0) 6131 39-25341 Fax +49 (0) 6131 39-24584 E-Mail: [email protected] http://www.uni-mainz.de/ FB/Biologie/Genetik/Genet.html Konstr uktion Produktion Kartenrechner mit Bedienelementen zum Einbau im Standard DZUSMaß electronics Tasche zum sicheren Verstauen des Displays. Tageslicht taugliches Display Als Kniebrett oder für Festeinbau Die Software ist für die Benutzung im Flugzeug optimiert und in der Praxis gewachsen. Die gesamte Bedienung kann über einen Doppel-Drehknopf erfolgen. Zusätzlich gibt es noch 12 direkt wirkende Tasten für nützliche Funktionen wie z.B. Zoom. Die Struktur der Software macht sie leicht erweiterbar und damit zukunftssicher. Dafür sorgt auch das eingesetzte Betriebssystem. Standard ICAOKarte Einfache Zielpunktauswahl http://www.eae.de Dekan - Laist - Straße 52 16 Stadtpläne D- 55129 Mainz Tel.: + 49 (6131) 9175-0 Fax: + 49 (6131) 9175-7 5 email:[email protected] http://www.eae.de NEUROIMAGING Untersuchungen zur Neurobiologie von Alkoholwirkung und Alkoholabhängigkeit mit der Positronen-Emissions-Tomographie (PET) Von Mathias Schreckenberger und Peter Bartenstein Die Positronen-Emissions-Tomographie (PET) bietet für die Hirnforschung ein breites methodisches Repertoire zur Erfassung der neuronalen Korrelate kognitiver und emotionaler Prozesse, indem sie eine nicht-invasive Messung von Hirndurchblutung, Hirnstoffwechsel und Hirnrezeptorbesatz ermöglicht. Grundlage hierfür ist der Einsatz von Pharmaka, die mit Positronen-emittierenden Isotopen (z. B. 11C, 18F, 15O) markiert sind. PET-Radiopharmaka wie die 18F-Fluorodeoxyglukose (18F-FDG) zur Messung des cerebralen Glukosemetabolismus bzw. 15O-markiertes Wasser (H215O) zur Messung der cerebralen Durchblutung gestatten Aussagen über die regionale neuronale Aktivität unter Ruhe- und unter Aktivierungsbedingungen, da eine vermehrte neuronale Aktivität mit einer Steigerung sowohl von oxidativem Glukosemetabolismus als auch regionalem Blutfluss einhergeht. Die Verwendung von Rezeptorliganden, also markierten Neurotransmitterderivaten, ermöglicht hingegen einen direkten Einblick in die Prozesse der synaptischen Signalverarbeitung bei Gesunden und Patienten. In den letzten Jahren wurden eine Reihe spezifischer PET-Radiopharmaka für die Charakterisierung verschiedener, vor allem hemmender Transmittersysteme z. B. des GABA-ergen, serotonergen und opioidergen Systems entwickelt. Für das Verständnis von Abhängigkeitserkrankungen ist vor allem das dopaminerge System wichtig. Hier stehen der Arbeitsgruppe in Mainz mehrere Radiopharmaka zur Verfügung, die verschiedene Teilkomponenten des dopaminergen Systems charakterisieren. So lassen sich mit 18F-DOPA Aussagen über die Bereitstellung von Dopamin für die Neurotransmission machen, während die Radiopharmaka 18FDesmethoxyfallyprid (18F-DMFP) und 18F-Fallyprid Aussagen zur Verfügbarkeit von Dopamin-Rezeptoren (D2/3) ermöglichen. Der Einsatz funktioneller Bildgebungsverfahren wie der PET hat in den letzten Jahren einen tieferen Einblick in die Neurobiologie der Alkoholabhängigkeit ermöglicht und stellt auch einen vielversprechenden Ansatz zur Identifizierung von potenziellen Pharmaka zur Minderung des Alkoholverlangens („Anti-Craving“-Pharmaka) dar. Wir wissen heute, dass für die Entstehung einer Alkoholabhängigkeit das so genannte dopaminerge Belohnungssystem eine zentrale Rolle zu spielen scheint. Dieses Belohnungssystem, dessen Schlüsselkomponente im Kerngebiet des ventralen Striatum (insbesondere im Nucleus accumbens) lokalisiert ist, stellt eine phylogenetisch alte Hirnstruktur dar. Ihr „Sinn“ liegt offen- sichtlich darin, Verhaltensweisen zu fördern, die für den Erhalt des Individuums oder der Art von besonderer Relevanz sind, wie etwa Nahrungsaufnahme und Fortpflanzung. Dabei führt die Freisetzung von Dopamin dazu, dass bestimmte Reize als besonders begehrenswert erscheinen und damit das Verhalten des Individuums in Richtung auf den Reiz hin lenken. Vereinfacht ausgedrückt, stellt die Dopaminausschüttung offensichtlich das biochemische Korrelat des Verlangens und der Begierde dar. Der eigentliche Genuss, bzw. die auf den Reiz erfolgende Euphorie, ist dagegen wahrscheinlich nicht unmittelbar dopaminabhängig, sondern wird eher über das opioiderge und serotonerge System vermittelt. Aus dem Zusammenspiel von dopaminergem Belohnungssystem und konsekutiver Freisetzung endogener Opioide bzw. von Serotonin lassen sich wichtige Mechanismen der akuten Alkoholwirkung bzw. des Alkoholverlangens erklären. Der Akuteffekt von Alkohol auf das Belohnungssystem gesunder Probanden konnte in einem Experiment unserer Arbeitsgruppe untersucht werden:1 Verabreicht man den Versuchspersonen 40 Gramm Ethanol intravenös als Schnellinfusion, kann eine sehr schnelle zerebrale Ethanolaufnahme mit den entsprechenden psychophysischen Veränderungen, zum Beispiel Heiterkeit, Euphorie und veränderte Reaktionsbereitschaft, ausgelöst werden. Untersucht man während dieser „Anflutungsphase“ den cerebralen Glukosemetabolismus mittels 18F-FDG PET (Abb. 1), findet sich eine deutliche Aktivitätszunahme im ventralen Striatum als Ausdruck einer Aktivierung Der Konsum von Alkohol führt zur Aktivierung einer bestimmten Region des Gehirns, die als „Belohnungszentrum“ fungiert. Dies kann mit modernen bildgebenden Verfahren gezeigt werden. Abb.1: Änderungen der neuronalen Aktivität unter akutem Alkoholeinfluss [18F - FDG PET]: Deutliche Aktivierung (rot) von Strukturen des Belohnungssystems (ventrales Striatum) und Deaktivierung (blau) der primären und sekundären Sehrinde FORSCHUNGSMAGAZIN ■ 1/2005 17 ...... ...... NEUROIMAGING Abb. 2: Negative Korrelation zwischen Alkoholverlangen („Craving“) und Verfügbarkeit von Dopamin(D2)-Rezeptoren [18F-DMFP PET] und Anteilen (gelb) des ventralen Striatum einschließlich des Nucleus accumbens Abb.3: Erhöhte neuronale Aktivität [18F-FDG PET] bei abstinenten Alkoholikern im ventralen Striatum (orange) 18 des Belohnungssystems. Gleichzeitig kommt es zu einer verminderten Aktivität im visuellen Kortex. Diese verminderte Aktivität ist das metabolische Korrelat eines Phänomens, das typischerweise unter akuter Alkoholwirkung zu beobachten ist: der als „Tunnelblick“ bezeichneten Gesichtsfeldeinengung. So biologisch sinnvoll das Belohnungssystem prinzipiell für den Erhalt von Individuum und Art ist, so scheint eine Fehlregulation dieses Systems eine wichtige Grundlage für die Entstehung einer Alkoholabhängigkeit zu sein. PET-Untersuchungen an entgifteten Alkoholikern mit einem Dopamin-D2Rezeptorliganden zeigen, dass das Verlangen nach Alkohol („Craving“) eng mit einer verminderten Verfügbarkeit von Dopamin(D2/3) Rezeptoren im ventralen Striatum (Abb. 2) korreliert ist, die man als Ausschüttung von endogenem Dopamin interpretieren kann.2 Untersucht man nun die neuronale cerebrale Aktivität abstinenter Alkoholiker ohne Stimulation, findet sich auch unter Ruhebedingungen ein erhöhter Glukoseverbrauch im ventralen Striatum (entsprechend einer erhöhten Aktivität in dieser Struktur: Abb. 3) als Ausdruck einer möglicherweise erhöhten Reaktionsbereitschaft des Belohnungssystems auf bestimmte Reize. Eine entscheidende Eigenschaft des Belohnungssystems scheint dabei wichtig zu sein für das Aufrechterhalten einer Alkoholabhängigkeit: Wiederholter Alkoholkonsum führt zu einer Sensibilisierung des Systems mit überschießender Dopaminfreisetzung auf den Alkohol-assoziierten Reiz hin. So konnte auch gezeigt werden, dass eine verstärkte Dopaminfreisetzung mit einem hohen Rückfallrisiko einhergeht.3 Das Wissen, wie die verschiedenen Transmittersysteme an der Schnittstelle des Belohnungssystems zusammenwirken, stellt heute auch die Grundlage für die Entwicklung neuer Pharmaka zur Therapie der Alkoholabhängigkeit dar. Dabei wird dem Opiatsystem, das mit dem dopaminergen System eng interagiert, zur Zeit besondere Aufmerksamkeit geschenkt. Opiatrezeptorantagonisten wie z. B . Naltrexon werden bereits mit Erfolg bei der Therapie der Alkoholabhängigkeit eingesetzt. Über die klinische Grundlagenforschung hinaus kann hierbei die PositronenEmissions-Tomographie für die Entwicklung von neuen „Anti-Craving“-Substanzen einen wichtigen Beitrag leisten, indem die Veränderungen der neuronalen Aktivität auf Alkohol-assoziierte Reize unter dem Einfluss der verschiedenen Substanzen untersucht werden können und somit ein objektiver Nachweis des Wirkmechanismus möglich wird. ■ Summary Functional brain imaging by means of positron emission tomography (PET) enables the investigation of the neuronal correlates of sensory, cognitive and emotional processes using labeled radiotracers for the non-invasive measurement of cerebral metabolism, blood flow and receptor status, respectively. Recent PET studies on the acute effects of alcohol on the brain metabolism of healthy subjects could demonstrate an activation of the dopaminergic reward system. The craving of detoxified alcoholics is negatively correlated to the dopamine receptor availability in the reward system, which shows an increased activation in alcoholics even under resting conditions. PET seems a promising tool for the investigation and development of new “anticraving” drugs. NEUROIMAGING Literatur 1) Schreckenberger M, Amberg R, Scheurich A, Lochmann M, Tichy W, Klega A, Landvogt C, Stauss J, Siessmeier T, Gründer G, Buchholz HG, Mann K, Bartenstein P, Urban R (2004). Acute alcohol effects on neuronal and attentional processing: striatal reward system and inhibitory sensory interactions under acute ethanol challenge. Neuropsychopharmacology 29: 1527-1537 2) Heinz A, Siessmeier T, Wrase J, Hermann D, Klein S, Grüsser SM, Flor H, Braus DF, Buchholz HG, Gründer G, Schreckenberger M, Smolka M, Rösch F, Mann K, Bartenstein P (2004). Nucleus accumbens dopamine D2 receptors correlate with central processing of alcohol cues and craving. Am J Psychiatry 161:1783-1789 3) Heinz A, Mann K (2001). Neurobiologie der Alkoholabhängigkeit. Deutsches Ärzteblatt 98: A 2279-2283 Univ.-Prof. Dr. med. Mathias Schreckenberger Mathias Schreckenberger hat an der Johannes Gutenberg-Universität Medizin studiert und 1991 hier promoviert. Von 1991 bis 1999 arbeitete er als wissenschaftlicher Assistent an den Universitätskliniken Erlangen-Nürnberg, Mainz und Aachen in den Fachgebieten Augenheilkunde, Neurologie und Nuklearmedizin. 1999 wurde er Facharzt für Nuklearmedizin und Oberarzt an der Klinik für Nuklearmedizin der RWTH Aachen, wo er sich 2000 für das Fach Nuklearmedizin habilitierte. Seit dem Jahr 2000 ist Mathias Schreckenberger Leitender Oberarzt an der Klinik für Nuklearmedizin der Universität Mainz und seit Juli 2003 C3-Professor für Nuklearmedizin. Seine Forschungsschwerpunkte sind die Positronen-Emissions-Tomographie, die neurofunktionelle Bildgebung, die Neurobiologie von Abhängigkeitserkrankungen sowie die Schmerzforschung. Univ.-Prof. Dr. med. Peter Bartenstein Peter Bartenstein, geboren 1959, studierte Medizin in Bochum und Bonn. Nach der Promotion war er als Assistenzart und Arzt an der Klinik und Poliklinik für Nuklearmedizin am Universitätsklinikum Münster tätig. 1990 bis 1991 folgte ein Forschungsaufenthalt in der PET-Gruppe der Medical Research Council Cyclotron Unit des Hammersmith Hospital London. Er kehrte nach Münster zurück und arbeitete dort drei weitere Jahre als Oberarzt für Nuklearmedizin. 1994 erfolgte die Habilitation. Im Anschluss daran arbeitete Peter Bartenstein bis 1999 als Oberarzt in der Nuklearmedizinischen Klinik und Poliklinik der TU München und war Leiter der Arbeitsgruppe Neuroimaging. Seit Februar 1999 ist er Direktor der Klinik und Poliklinik für Nuklearmedizin der Johannes Gutenberg-Universität Mainz. Forschungsschwerpunkte sind die Neuronuklearmedizin, Schmerzforschung und die funktionelle Bildgebung des dopaminergen und des opioidergen Systems. ■ Kontakt: Univ.-Prof. Dr. med. Mathias Schreckenberger Klinik und Poliklinik für Nuklearmedizin Universitätsklinikum Mainz Langenbeckstraße 1 55101 Mainz Tel. +49 (0) 6131 17-2109 Fax +49 (0) 6131 17-2386 E-Mail: [email protected] http://www.uni-mainz.de/FB/Medizin/Nuklearmedizin/ FORSCHUNGSMAGAZIN ■ 1/2005 19 ...... ...... PSYCHOLOGIE Elektrophysiologie und virtuelle Realität als Mittel zur Untersuchung von Wahrnehmungsprozessen Von Heiko Hecht und Stefan Berti Eine Verbindung von Computersimulation mit neurowissenschaftlichen Methoden macht es möglich, dem Gehirn bei der Verarbeitung von visuellen Informationen zuzuschauen. Visuelle Wahrnehmung spielt in unserem Alltag eine entscheidende Rolle, sei es beim Lesen oder im Straßenverkehr. Um die funktionalen und neurophysiologischen Prozesse, die unseren Wahrnehmungsleistungen zugrunde liegen, näher zu erforschen, halten wir einen integrativen Ansatz für notwendig, der Verhaltensdaten mit neurowissenschaftlichen Methoden und Computersimulationen ergänzt. Diese Überzeugung leitet unseren integrativen Forschungsansatz der experimentellen Wahrnehmungsforschung, für den wir hier in Mainz in den letzten beiden Jahren die apparativen und experimentellen Voraussetzungen schaffen konnten. Virtuelle Realität (VR) Einer unserer Forschungsschwerpunkte besteht darin zu untersuchen, welche Bestandteile der komplexen visuellen Information, die unser Auge erreicht, tatsächlich herangezogen werden, wenn wir so ge- Abb. 1: Ein head-mounted display erlaubt es, eine maßgeschneiderte Scheinwelt zu präsentieren. 20 nannte Kontaktzeitschätzungen vornehmen. Will ein Autofahrer etwa entscheiden, ob er noch genug Zeit hat, um auf die Überholspur zu wechseln, so kann er dazu die Größe des Abbildes des herannahenden Hintermannes auf der Überholspur im Außenspiegel heranziehen. Mit der Entscheidungsregel, ab einer bestimmten Abbildgröße im Spiegel nicht mehr zum Ausscheren anzusetzen, kommt der Fahrer vielleicht gut zurecht. Vielleicht nimmt er aber auch Geschwindigkeits- und Abstandsschätzungen vor, wie dies ein computergesteuertes Programm, ein Überholwarnsystem, tun würde. Es sind viele weitere Strategien und Tricks denkbar, die wir benutzen könnten, um zu einer Entscheidung zu kommen. Ein großes Problem, das die Fragestellung gleichzeitig zu einer faszinierenden Herausforderung für den experimentellen Psychologen macht, liegt darin, dass die Prozesse der Informationsverarbeitung und die Anwendung von Entscheidungsregeln ganz oder fast ganz unbewusst vonstatten geht. Oder könnten Sie sagen, nach welchen Kriterien Sie überholen? Das hat man eben im Gefühl. Wir versuchen herauszufinden, wie das visuelle System des Menschen die Kontaktzeitschätzung vornimmt und welche Fehler dabei gemacht werden. Dieses Wissen kann dann den Konstrukteuren von Autospiegeln oder Fahrlehrern zur Verfügung gestellt werden, um die Sicherheit im Straßenverkehr zu verbessern. Da eine Befragung von Verkehrsteilnehmern vollkommen unergiebig ist – die beteiligten Wahrnehmungsprozesse sind der Introspektion nicht zugängig – muss man mit viel Mühe und experimentell sauberen Methoden der Fragestellung nachgehen. Dies tun wir, indem wir etwa herannahende Autos derart manipulieren, dass sich ihre Größe ändert, während ihre Kontaktzeit gleich bleibt. Es stellt sich heraus, dass uns große Autos mehr Respekt einflößen und wir ihre Kontaktzeit in der Regel unterschätzen. Sie werden sich jetzt fragen, wie es uns gelingt, die Größe eines Autos zu verdoppeln und Probanden dazu zu bringen, sich in den Weg eines solchen Ungetüms zu stellen und uns gleichzeitig saubere Kontaktzeitschätzungen zu liefern, bevor sie sich dann mit einem Sprung (als Fußgänger) oder durch ein Ausweichmanöver (als Autofahrer) in Sicherheit bringen. Wir erzeugen virtuelle Autos auf einem PC und präsentieren diese dann entweder auf einem head-mounted display der Firma Nvison (Auflösung 1280 x 1024, Abb. 1) oder einer großen Projektionswand (Power wall und zwei Projektoren mit Polarisationsfiltern, Abb. 2). D. h. wir können eine Probandin in eine nahezu perfekt simulierte Welt versetzen, in der vom Rechner vorgegebene Autos oder andere Objekte direkt auf sie zukommen. Die Probandin teilt uns dann mit einem Knopfdruck oder einer Lenkbewegung an einem Lenkrad mit, wann sie das Ausweichmanöver starten würde, um gerade noch einer Kollision zu entgehen. Oft verwenden wir auch Reize, in denen das herannahende Objekt ausgeblendet wird und der Proband den Kollisionszeitpunkt vorhersagen muss oder später angibt, ob ein Referenz- Unsere Buchhandlung Gutenberg-Buchhandlung Dr. Kohl An der Universität Saarstraße 21 55122 Mainz Tel.: 06131-304790 Fax: 06131-371240 http://www.gutenbergbuchhandlung.de [email protected] Büroeinrichtungen Büroplanung Bürotechnik Büro- und EDV-Bedarf AKTION Aktion „bewegtes und gesundes Sitzen“ Löffler CL 7070 der Bürostuhl mit dem Sitzball-Effekt Machen Sie eine Sitzprobe in unseren umfassenden Ausstellungsräumen! 55120 Mainz-Mombach, Liebigstr. 9 -11 Tel. 0 61 31/ 68 20 11 · www.buero-jung.de Groß- u. Einzelhandel (auch Versand) FORSCHUNGSMAGAZIN ■ 1/2005 21 Anzeige Provider und Entwickler für in vivo Modelle und Testsysteme Für die Zulassungsverfahren von Medikamenten und Therapien werden dem Menschen möglichst ähnliche Tiermodelle benötigt. Maus und Ratte erfüllen die Voraussetzungen dafür in besonderem Maße (> 90% genomische Homologie zum Mensch). Bei ihnen kann man die Wirkung von Genen und deren Produkten in Form definierter Phänomene (z.B. Krankheitssymptome) direkt untersuchen. Die Eignung und Qualität der Modelle wird durch ein hohes Maß an Sicherheit des Auftretens dieser Phänomene zu einem definierten Zeitpunkt bestimmt (Modellcharakterisierung). Nur dann hat das Modell einen Wert. Je höher die Qualität, desto stärker können Entwicklungszeit und -kosten reduziert werden. Notwendig dafür ist einerseits ein hoher Standard dieses Modells (Modellstandardisierung) und andererseits ein systematisches, Modell adaptiertes Analyseverfahren, um das spezifische räumlich-zeitliche Muster dieser Phänomene zu etablieren und zu konservieren (Expressions- und Funktionsprofiling). Die spezifische Charakterisierung, Standardisierung und der spezifische Profilingalgorithmus werden in unserem Unternehmen entwickelt, konserviert (Datenbanken und Zellbanken) und für Studien verwendet. Der zweite Entwicklungsschwerpunkt liegt in der Adaptation (Miniaturisierung, Messoptimierung) der Mess- und Analysetechnologien an die entsprechenden Tiermodelle, womit Plausibilität, Sicherheit und Präzision erhöht werden. Die Firma mfd Diagnostics GmbH tritt als Provider für in vivo Testsysteme auf und entwickelt diese weiter. Ein Schwerpunkt ist die Phänotypisierung dieser Testsysteme. Besonderes Augenmerk gilt hierbei der Identifizierung und Validierung des sogenannten „read out Fensters“. Darunter versteht man den zeitlich und morphologisch determinierten Entwicklungszustand der pathophysiologisch relevanten Veränderungen während des Krankheitsverlaufes. Besonderer Wert wird dabei auf die Veränderungen in der Initial- und Verlaufsphase gelegt. Fragestellungen im klinisch neurologischen Bereich (Themenkomplex Psychoneuroimmunologie, Autoimmunerkrankungen, Tumorerkrankungen, Herz-Kreislauferkrankungen) wurden in dieser Weise erfolgreich bearbeitet. Wirtschaftlicher Nutzen für den Kunden: Von dem Standardisierungsgrad dieser in vivo Modelle und 22 der Testsysteme hängen in entscheidendem Ausmaß sowohl Kosten als auch Dauer von Forschung und Entwicklung ab: • Die Standardisierung, die einen wichtigen Teil unseres Serviceportfolios ausmacht, vermindert das statistische Grundrauschen (Varianzreduktion) wesentlich und gewährleistet dadurch ein hohes Maß an Datenund Produktsicherheit. • Nur durch solche Standards wird ein effektives Controlling gewährleistet. • Das führt zu einer wesentlichen Steigerung des Wirkungsgrades und der Sicherheit z.B. von transgenen Tiermodellen mit ihrer hohen Targetspezifität. Diese Steigerung ist essentiell für die Qualitätssicherung und ermöglicht u.a. eine deutliche Verkürzung der Entwicklungszeit für drug design und drug delivery in der präklinischen Phase.Wir sind damit in der Lage, ein hohes Maß an Reproduzierbarkeit und Daten/Aussagesicherheit zu gewährleisten. Dadurch wird bei der Entwicklung von neuen Therapieformen ein höchst möglicher Grad von Sicherheit erreicht, bevor diese schließlich in die klinische Phase gehen. Über die Verkürzung der Entwicklungszeit und das hohe Maß an erreichter Sicherheit wird ein möglichst frühzeitiger Einsatz für den Patienten realisierbar. mfd Diagnostics GmbH Dr. med. vet. Bernd Lecher Simone Maurer Freiligrathstr. 12 D-55131 Mainz Tel.: +49 (0) 6131 1440 201 +49 (0) 6131 1440 213 Fax: +49 (0) 6131 1440 222 e-mail: b.lecher @MFD-Diagnostics.com [email protected] PSYCHOLOGIE ton vor oder hinter dem Kollisionszeitpunkt erklang. Mit dieser Technik haben wir beispielsweise herausgefunden, dass Menschen keinesfalls die Information auswerten, die physikalisch nahe liegt. Die Kontaktzeitschätzungen basieren gerade nicht auf Distanz und Geschwindigkeit, sondern sie basieren auf der Expansionsrate des Bildes, welches das Objekt auf der Netzhaut unseres Auges hinterlässt. Dies ist aber nur in idealen Umgebungen der Fall. Wenn der Reiz nicht hinreichend detailliert ist, werden oft einfache Bildparameter herangezogen, als würde unser visuelles System Faustregeln benutzen. Zum Beispiel die Faustregel: immer, wenn sich die Objektgrenze schnell an den Rand des Sehfeldes bewegt, steht eine Kollision unmittelbar bevor (zum internationalen Stand dieser Forschung siehe Hecht & Savelsbergh, 2004). Die Technik der virtuellen Realität bietet vielfältige Möglichkeiten, menschliches Verhalten in Umgebungen zu testen, die außerhalb des Labors nicht herstellbar bzw. nicht experimentell manipulierbar sind. Die Technik besteht, kurz gesagt, darin, dass über ein Kamerasystem, das mit unsichtbarem infrarotem Licht arbeitet, die genaue Position des Betrachters erfasst wird. Diese Information wird dann an einen Rechner gesendet, der einen dreidimensionalen Film erzeugt. Im Rechner ist eine dreidimensionale Kunstwelt abgespeichert, etwa bestehend aus einer Strasse und einem Auto. Bei entsprechend guter Rechenleistung wird nun aus der 3-D-Datenbank in einer sechzigstel Sekunde das Bild berechnet, das der Beobachter an seinem Beobachtungspunkt sähe, wenn ein entsprechendes Auto auf ihn zukäme. Der Wirklichkeitseindruck ist stark, hat aber natürlich auch seine Grenzen. Zusammen mit Prof. Schömer (Institut für Informatik, Johannes Gutenberg-Universität Mainz), der maßgeblich an unserem Labor beteiligt ist, haben wir uns zum Ziel gesetzt, diese Grenzen zu erforschen und die VR-Welt zu optimieren. Insbesondere arbeiten wir an einer Verbesserung des dreidimensionalen Sehens, also der stereoskopischen Bilder, die in der VR dargeboten werden. Elektrophysiologie des Gehirns Zudem können wir über die Messung des Elektroenzephalogramms (EEG) bei Versuchspersonen, während sie eine experimentelle Aufgabe bearbeiten, detaillierte Aussagen über Prozesse der visuellen Informationsverarbeitung sowie deren neuronale Grundlagen machen. Dabei werden kurze EEGAbschnitte gemittelt, die mit einem definierten Ereignis, etwa der Präsentation eines bestimmten Bildes, N1 -2 Fp1 F7 -1 100 200 300 ms 400 T7 F3 C3 Fp2 Fz F4 Cz F8 C4 T8 LM 1 RM P7 P3 Pz P4 P8 O1 Oz O2 2 Elektrode: P8 Oz O2 Abb. 3: Ereigniskorrelierte Hirnpotenziale zeigen mit hoher zeitlicher Auflösung Unterschiede in der Verarbeitung veränderter Reize an (links als Differenzkurven und rechts als Potenzialverteilung über dem Schädel). N1 -3 µV -100 Abb. 2: Die Power wall vermittelt visuelle Erlebnisse in Lebensgröße. Der Standpunkt des Beobachters wird auch hier erfasst und in das VR-System eingespeist. 230-260 ms -2.0 µV +2.0 FORSCHUNGSMAGAZIN ■ 1/2005 23 ...... ...... PSYCHOLOGIE verbunden sind. Die so genannten ereigniskorrelierten Potenziale oder EKPs zeichnen sich durch eine charakteristische Wellenform aus, die sich in unterschiedliche Komponenten einteilen lassen (Abb. 3, links). Jede dieser Komponenten wird dabei bestimmten Verarbeitungsschritten im neurokognitiven System zugeordnet, etwa der sensorischen Verarbeitung eines Reizes, der kognitiven Bewertung oder der Initiierung einer motorischen Reaktion auf den Reiz. Damit lassen sich Aussagen machen über bestimmte Prozesse, die an der Informationsverarbeitung beteiligt sind, und ihre zeitliche Abfolge. Mit geeigneten Modellierungsverfahren lassen sich sogar die beteiligten neuronalen Strukturen identifizieren, wenn auch mit geringerer räumlicher Auflösung als in der funktionalen Kernspintomographie (fMRI). Ein großer Vorteil ist jedoch die hohe zeitliche Auflösung des EEGs, die im Millisekundenbereich liegt und hierin dem fMRI überlegen ist. Außerdem ist der apparative Aufwand des EEGs vergleichsweise gering und macht eine Nutzung im VR-Labor möglich. Neuere Ansätze wie die parallele fMRI- und EEG-Aufzeichnung versprechen eine Kombination der hohen zeitlichen Auflösung des EEGs mit der hohen räumlichen Auflösung des fMRI. Mit Hilfe von verschiedenen EKP-Studien konnten wir zeigen, dass ein hoher Anteil der visuellen Informationsverarbeitung automatisch und auf der Ebene sensorischer Verarbeitungsschritte erfolgt. Bereits im sensorischen System wird eine Repräsentation über Invarianten der visuellen Umgebung abgespeichert, auf deren Basis auch zeitlich getrennt präsentierte Reize verglichen und bewertet werden, um schon nach wenigen Millisekunden und ohne Zuwendung von Aufmerksamkeit unerwartete Veränderungen zu detektieren (siehe Berti & Schröger, 2004). In Abb. 3 ist das Ergebnis dieser Studie zusammengefasst: Es zeigt sich, dass bereits nach 200 Millisekunden ein deutlicher Unterschied bei der Verarbeitung der veränderten Reize zu beobachten ist. Diese Verarbeitung ist in dem Sinne automatisch, als dass die Versuchspersonen ihre Aufmerksamkeit auf einen anderen Aspekt der visuellen Stimulation richteten. Die Fähigkeit, möglichst schnell Veränderungen in der visuellen Umwelt zu entdecken, die nicht im Fokus der Aufmerksamkeit liegen, ist etwa im Straßenverkehr von besonderer Bedeutung. Während im Alltag allerdings deutliche Veränderungen wie das plötzliche Erscheinen eines Objektes oder Bewegungs- und Geschwindigkeitsänderungen Aufmerksamkeit anziehen, zeigt sich in unseren Laborexperimenten, dass auch vergleichsweise geringe Veränderungen auf Basis eines sensorischen Gedächtnisvergleichsprozesses erkannt werden. Die Verteilung der EKPs (Abb. 3, rechts) auf der Schädeloberfläche legt die Vermutung nahe, dass die primären, visuellen Areale Quelle dieser Prozesse sind. Dies ist ein weiterer Hinweis darauf, dass dieser Gedächtnisvergleichsprozess tatsächlich eine Leistung des sensorischen Systems ist und in diesem Sinne kognitive Funktionen deutlich früher in der Informationsverarbeitung verankert sind, als man oftmals annimmt. Zur Zeit messen wir EKPs, die bestimmten Phasen der Kontaktzeitschätzung zugeordnet werden können, um der bislang ungeklärten Frage nachzugehen, ob es beim Menschen ein Modul (etwa Kortexareal MT) gibt, das bei jeder Kontaktzeitschätzung aktiv wird, ähnlich wie man es bei Tauben gefunden hat. Ebenso sind wir dabei, Blickbewegungen und EKPs miteinander in Beziehung zu setzen, um Prozessen der Objekterkennung auf die Spur zu kommen. Zusammenfassend lässt sich feststellen, dass die Kombination von VR mit neurowissenschaftlichen Methoden eine weitgehend einmalige Chance darstellt, um die Prozesse zu analysieren, die der visuellen Wahrnehmung zugrunde liegen. Diese Methodenkombination werden wir in Zukunft weiterentwickeln, um die daraus erwachsenden Chancen in Mainz zu nutzen. ■ Summary We explore the processes underlying human visual perception. To do so, during the last two years we have assembled a technology that allows us to simulate complex scenes, as for example vehicles approaching an observer on collision course. It also enables us to relate behavioral measures such as reaction time with electrophysiological parameters such as evoked brain potentials. The integrative approach, set within a virtual reality laboratory, combines computer science, electrophysiology, and cognitive psychology. We report findings that support the advantage of this approach. Literatur Berti, S., Schröger, E. (2004). Distraction effects in vision: behavioral and event-related brain potential indices. Neuroreport 15, 665-669. Hecht, H., Savelsbergh, G. J. P. (Eds.) (2004). Time-to-contact. Amsterdam: Elsevier Science Publishers. 24 PSYCHOLOGIE Univ.-Prof. Dr. phil. Heiko Hecht HEIKO HECHT absolvierte sein Studium an den Universitäten Trier und Virginia, USA. Die Promotion erfolgte 1991 an der Universität von Virginia. Danach war er am Max-Planck-Institut für Psychologische Forschung tätig, an der Ludwig-Maximilians Universität in München, am NASA Ames Research Center, am Zentrum für interdisziplinäre Forschung der Universität Bielefeld sowie am Center for Space Research (Man-Vehicle Laboratory) am Massachusetts Institute of Technology in Cambridge, MA. Seit 2002 ist Heiko Hecht Professor für Allgemeine Psychologie an der Johannes Gutenberg-Universität Mainz. Seine Interessen sind Wahrnehmen und Handeln in extremen Umgebungen, Kontaktzeitschätzung, virtuelle Realität und künstliche Schwerkraft. Prof. Dr. rer. nat. Stefan Berti STEFAN BERTI, geboren 1970 in Frankfurt/Main, studierte in Frankfurt/Main, Gießen und Leipzig Psychologie, Sportwissenschaft und Logik/Wissenschaftstheorie und promovierte 2001 in Leipzig in Psychologie mit einem neuropsychologischen Thema. Seit Juni 2003 ist Stefan Berti am Psychologischen Institut der Johannes Gutenberg-Universität Mainz als Juniorprofessor für Kognitionswissenschaft tätig. Schwerpunkte seiner Arbeit sind die Neurokognition der Aufmerksamkeit, der Wahrnehmung, des Arbeitsgedächtnisses und der Motorik, die mit Mitteln der Deutschen Forschungsgemeinschaft (DFG) und aus dem Forschungsfond der Johannes Gutenberg-Universität gefördert werden. ■ Kontakt: Univ.-Prof. Dr. phil. Heiko Hecht Johannes Gutenberg-Universität Mainz Psychologisches Institut Staudingerweg 9 55099 Mainz Tel. +49 (0) 6131 39-22481 Fax +49 (0) 6131 39-22480 E-Mail: [email protected] http://www.psych.uni-mainz.de/abteil/aep/hecht/ Laseroptik • Entwicklung • Spezialanfertigung ■ ■ ■ Beschichtungen für HR, PR, AR, Metalle Standardoptik Sonderoptik www.lens-optics.de [email protected] Fon +49 (0)8166/99 40 83 Fax +49 (0)8166/99 47 47 FORSCHUNGSMAGAZIN ■ 1/2005 25 ...... ...... SPRACHWISSENSCHAFT Wortarten im Gehirn? Von Walter Bisang, Jörg Meibauer und Markus Steinbach Experimente zeigen, dass Nomen und Verb im Gehirn an verschiedenen Stellen verarbeitet werden. Es stellt sich die Frage, ob Wortarten wie Nomen und Verb universell und angeboren sind. Neurolinguistische Untersuchungen zeigen, dass der sprachlichen Produktion von Nomina und Verben unterschiedliche neuronale Substrate zugrunde liegen. Wie wir im Folgenden zeigen möchten, lässt dieser Befund allerdings noch keinerlei Rückschlüsse auf die Angeborenheit dieser Unterscheidung zu. Empirische Befunde aus so verschiedenen Bereichen der Linguistik wie Sprachtypologie, Gebärdensprache und Spracherwerb zeigen, dass die Unterscheidung von Nomen und Verb keineswegs als notwendige bzw. angeborene Eigenschaft der menschlichen Sprache vorausgesetzt werden kann. Wortarten: Nomen und Verb Bei der Bestimmung von Wortarten wie Nomen und Verb spielen semantische, pragmatische und grammatische Faktoren eine Rolle, die hier für die Unterscheidung von Nomen und Verb kurz vorgestellt seien (vgl. Croft 2000): 1. Der semantisch-kognitive Faktor: Unterscheidung zwischen Objekten und Ereignissen 2. Der Faktor der Sprachhandlung, also die Frage, wozu wird ein sprachliches Zeichen verwendet (Pragmatik): Unterscheidung zwischen Referenz (Verweis auf ein Objekt oder ein Ereignis) und Prädikation (Aussage über Objekte) 3. Markierung durch sprachliche Ausdrucksmittel (Morphologie und Syntax) Wie man relativ schnell sieht, reicht die semantisch-kognitive Unterscheidung zwischen Objekt und Ereignis nicht aus, um Nomina und Verben voneinander zu unterscheiden. So lassen sich Nomina nicht einfach als Wörter bezeichnen, die auf ein Objekt verweisen. Nomina wie Pferd oder Auto verweisen zwar tatsächlich auf Objekte, andere Nomina wie Bewegung oder Betäubung verweisen dagegen auf Ereignisse (X bewegt sich bzw. X betäubt Y). Vielmehr hat es sich bewährt, die beiden ersten Faktoren miteinander zu verknüpfen und zu beobachten, welche sprachlichen Markierungen verwendet werden. Betrachtet man nur die beiden Wortarten Nomen und Verb, ergibt sich daher die folgende vierfeldrige Tabelle: 26 REFERENZ PRÄDIKATION OBJEKT Auto X ist ein Auto. EREIGNIS Beweg-ung beweg- Der ausschlaggebende Faktor für die Zuweisung von Wörtern zu Nomina und Verben sind die Markierungsverhältnisse. Nomina zeichnen sich dadurch aus, dass sie an der Schnittstelle von OBJEKT und REFERENZ unmarkiert sind. Tatsächlich kann man im Deutschen durch die bloße Nennung eines objektbezeichnenden Wortes auf dieses verweisen bzw. referieren (Auto). Soll das Objekt dagegen prädiziert bzw. für eine Aussage verwendet werden, muss es mit der Kopula sein verbunden werden (X ist ein Auto). In diesem Sinne ist Auto tatsächlich bei der Referenz auf das entsprechende Objekt weniger markiert als bei der Prädikation. Genau umgekehrt verhält es sich bei Verben. Diese sind in der Verbindung von EREIGNIS und PRÄDIKATION unmarkiert. So kann man bei sich bewegen allein den Stamm mit den entsprechenden zusätzlichen Angaben zum Tempus und zu Numerus und Person des Subjektes verwenden (Das Auto beweg-t sich.). Sollen Ereignisse für die REFERENZ zugängig gemacht werden, müssen sie einen zusätzlichen Prozess durchlaufen und sind dadurch markierter. Im Falle des Verbs sich bewegen geschieht dies durch Hinzufügung der Endung -ung in Bewegung. Schon nach dieser stark vereinfachten Darstellung ist es also gerechtfertigt, im Deutschen von Nomen und von Verben zu sprechen. Entscheidend ist dabei die Erkenntnis, dass die Frage, welche Wörter genau als Verben und welche als Nomina verwendet werden, stets auf dem rein sprachlichen Kriterium der Markierungsverhältnisse beruht. Damit bestätigt sich die obige Feststellung, dass semantische Kriterien allein nicht ausreichen und grammatische Kriterien hinzugezogen werden müssen. Neurolinguistische Lokalisierung von Wortarten im Gehirn Eine für Neurolinguisten spannende Frage ist nun, ob sich für die im vorherigen Abschnitt skizzierte Unterscheidung zwischen Nomen und Verben neurophysiologische Korrelate finden lassen und falls ja, wie sich dies zeigen lässt? Als Evidenz für oder gegen bestimmte linguistische Hypothesen werden unter anderem neurolinguistische Experimente mit Aphasikern mit sehr spezifischen Defiziten und die Ergebnisse von Neuroimagingstudien mit gesunden Sprechern angeführt. Caramazza und Shapiro (2004) berichten von zwei englischen Patienten, die aufgrund einer Aphasie komplementäre sprachliche Störungen haben. Die Störungen sind bei beiden Patienten außerdem modalitätsspezifisch, so dass sie entweder nur die SPRACHWISSENSCHAFT mündliche oder schriftliche Produktion betreffen. Mit der Produktion von Nomen haben die Patienten keine Probleme. Die Produktion von Verben ist dagegen bei beiden Patienten gestört, wobei beim ersten Patient nur die mündliche Produktion von Verben gestört ist und beim zweiten Patient nur die schriftliche Produktion. Dieser Unterschied zeigte sich unter anderem in folgendem Test. Beide Patienten wurden gebeten, homonyme Nomen und Verben wie zum Beispiel play mündlich und schriftlich zu produzieren. In der ersten Aufgabe sollten sie in Sätzen wie in (1) die unterstrichenen Wörter vorlesen. In der zweiten Aufgabe sollten sie homonyme Wörter in eine unterstrichene Lücke schreiben (vgl. die Beispiele in (2)). (1) a. I liked the b. I liked to (2) a. I liked the b. I liked to play play very much the piano very much the piano In beiden Aufgaben hatten die Patienten keine signifikanten Probleme bei der schriftlichen und mündlichen Produktion von Nomen. Bei der Produktion der homonymen Verben hatten dagegen beide Patienten Schwierigkeiten. Patient 1 hatte zwar fast keine Probleme beim Schreiben der Verben, allerdings hatte er große Probleme beim Sprechen dieser Verben. Patient 2 zeigt ein dazu fast komplementäres Defizit: bei ihm ist nur die schriftliche Produktion der Verben gestört. Die mündliche Produktion ist dagegen fast völlig normal. Die Ergebnisse sind in der folgenden Tabelle zusammengefasst. PATIENT 1 PATIENT 2 mündlich schriftlich mündlich schriftlich NOMEN 88% 98% 100% 100% VERBEN 46% 96% 98% 56% Die Ergebnisse zeigen, dass es sehr spezifische grammatische Störungen gibt, die nur Nomen oder Verben betreffen können und dass diese Störungen mit Läsionen bestimmter Gehirnregionen einhergehen. Dieser Befund wird auch von neurolinguistischen Experimenten mit gesunden Sprechern bestätigt. So zeigen zum Beispiel Neuroimagingstudien, in denen die Verarbeitung von nominaler und verbaler Flexion untersucht wurde, dass bei der Verarbeitung von Nomen vor allem das Brocazentrum aktiviert ist, wohingegen bei der Verarbeitung von Verben vor allem die Regionen vor und über dem Brocazentrum aktiviert sind. Zusammenfassend können wir also festhalten, dass teilweise unterschiedliche neuronale Systeme bei der Produktion und Verarbeitung von Nomen und Verben beteiligt sind, so dass man davon ausgehen kann, dass Nomen und Verben an verschiedenen Stellen im Gehirn repräsentiert sind. Sprachtypologie Wie zu Beginn gesehen, ist die Unterscheidung von Nomen und Verb ein sprachspezifisches Phänomen, das auf dem sprachspezifischen Kriterium der Markierungsverhältnisse beruht. Semantische Kriterien allein reichen nicht aus, um eine Unterscheidung zwischen Nomen und Verben zu treffen. Zudem werden sich kaum zwei Sprachen finden, die die genau gleichen Konzepte als Nomen bzw. als Verben behandeln. Mit dieser Feststellung ist aber noch nichts über den universalen Charakter der Unterscheidung von Nomen und Verb gesagt. In der Tat gibt es eine ganze Reihe von Sprachen, bei denen sich keine Markierungsunterschiede zu zeigen scheinen. So erscheinen im Klassischen Chinesischen (5. – 3. Jh. v. Chr.), das zur Zeit von Konfuzius gesprochen wurde, objektbezeichnende Wörter ohne zusätzliche Markierung in der Prädikation. Sogar ein Eigenname wie im folgenden Beispiel König Wu kann in der für Verben vorgesehenen Position erscheinen: (4) Fürst Ruo sagen du wollen Wu König ich FRAGE ‚Fürst Ruo sagte: „Willst du mich wie König Wu behandeln?“’ ⇒ „Willst du mich töten?“ (Zuo, Ding 10) Will man dies im Deutschen imitieren, ergäbe sich eine Infinitivform wie „König Wuen“. Im Englischen sind solche Bildungen eher möglich. Im Unterschied dazu ist die Bedeutung von Nomina in der Verbposition im Klassischen Chinesisch aber ganz klar vorhersagbar. Im Falle von (4) lautet der Interpretationsrahmen „behandeln wie X“, also „wie König Wu behandeln“. Wenn man dann noch aus der Geschichte weiß, dass König Wu ermordet wurde, ist die Interpretation des Satzes klar. Ein anderes Beispiel ist das Tagalog, eine auf den Philippinen gesprochene austronesische Sprache. In dieser Sprache scheinen, wie dies bereits Wilhelm von Humboldt angedeutet hatte, sowohl objektbezeichnende als auch ereignisbezeichnende Wörter mit Strukturen ausgedrückt zu werden, die an nominale Strukturen in Sprachen erinnern, welche zwischen Nomen und Verb unterscheiden. (5) a. lapis ng bata Bleistift GENITIV Kind ‘der Bleistift des Kindes’ b. kinain ng lapis essen GENITIV Kind ‘das Kind isst’ (bzw. ‘das Essen des Kindes’) Betrachtet man die beiden Äußerungen in (5), wird das Ereignis in (5b) analog zur Genitivkonstruktion in (5a) im Sinne von das Essen des Kindes ausgedrückt. FORSCHUNGSMAGAZIN ■ 1/2005 27 ...... ...... SPRACHWISSENSCHAFT Gebärdensprachen Zu einem ähnlichen Ergebnis kommen typologische Studien von Gebärdensprachen, also von Sprachen, die sich nicht wie Lautsprachen einer akustisch-auditiven, sondern einer gestisch-visuellen Modalität bedienen. Manche Gebärdensprachen verfügen zwar über morphologische Prozesse wie Reduplikation, Bewegungsmodifikation oder (eher selten) Affigierung, um Verben von Nomen und Nomen von Verben abzuleiten (vgl. Supalla und Newport 1978), in sehr vielen Fällen wird allerdings dieselbe Gebärde zur Objekt- und zur Ereignisbezeichnung verwendet. So können beispielsweise die Gebärden FAHRRAD und HELFEN in (6) einerseits das Objekt Fahrrad und das Abstraktum Hilfe, andererseits aber auch die Ereignisse Fahrrad fahren und helfen bezeichnen. (6) 2x FAHRRAD HELFEN Viele Gebärden lassen sich demnach nicht eindeutig als Nomen oder Verb klassifizieren. Trotzdem spielt die Unterscheidung zwischen Nomen und Verben auch in Gebärdensprachen eine wichtige grammatische Rolle, da Gebärdensprachen zwischen verbaler und nominaler Flexion unterscheiden. Ereignisbezogene Gebärden zeigen verbale Flexion, objektbezogene Gebärden zeigen dagegen nominale Flexion und sie werden bestimmten Nominalklassen zugeordnet. Allerdings scheinen anders als im Deutschen die meisten Gebärden keiner der beiden grammatischen Kategorien eindeutig zugeordnet zu sein. Spracherwerb Im frühen Wortschatz dominieren im Wesentlichen zunächst Nomen, bevor dann mehr und mehr Verben erlernt werden. Verschiedene Gründe können dafür genannt werden. Möglicherweise können Nomen leichter erlernt werden als Verben, weil alle klaren Objektbezeichnungen Nomen sind; Verben können niemals Objekte bezeichnen. Nomen sind auch konzeptuell einfacher als Verben. Während es wohl mehr Nomen-Types gibt als Verb-Types, gibt es Hinweise darauf, dass im Input Verb-Tokens häufiger vorkommen als Nomen-Tokens. Dies zeigt, dass die NomenDominanz nicht allein von Häufigkeiten im Input abhängen kann. Wie universal die frühe kindliche 28 Präferenz für Nomen ist, ist umstritten. So wurde beobachtet, dass koreanische Kinder stärker verborientiert seien als etwa englische Kinder. Wenn man in Bezug auf die Kindersprache von Kategorien wie „Nomen“ und „Verb“ spricht, muss man sich immer vor Augen halten, dass nicht klar ist, inwiefern etwa ein 14-monatiges Kind Ausdrücke wie Ball oder Mama als Nomen klassifiziert. Möglicherweise hat es noch keine implizite Kenntnis morphosyntaktischer Kategorien und verlässt sich weitgehend auf semantische und pragmatische Eigenschaften dieser Wörter. Linguistisch interessant ist in dieser Hinsicht das Phänomen der Konversion. Darunter ist die Umkategorisierung eines Worts in eine andere Wortart zu verstehen. So nimmt Rafael im Alter von 22 Monaten das Nomen Hummel und macht daraus das Verb hummeln. Oder er bezeichnet im Alter von 26 Monaten etwas Gebackenes als Back. Diese Möglichkeit der Konversion existiert auch in der Erwachsenensprache. Sie demonstriert eindringlich, dass Kinder in einem bestimmten Alter Beziehungen zwischen Wortarten entdecken. Im Falle der Wortbildung dienen die Neubildungen unter anderem dazu, eventuelle Lücken im kindlichen Lexikon zu füllen. In Bezug auf die Neurokognition der Sprachentwicklung, d.h. den Zusammenhang zwischen Sprachentwicklung und Gehirnentwicklung, weiß man aus Läsions-Verhaltens-Studien bei Kindern mit frühen unilateralen Läsionen, dass bei diesen kaum Unterschiede zwischen jenen mit links-hemisphärischen Läsionen und jenen mit rechts-hemisphärischen Läsionen zu finden sind. Das ist ein durchaus überraschender Befund, denn Aphasien bei Erwachsenen betreffen in der Regel die linke Hemisphäre. Überraschend ist auch, dass gerade die rechte Hemisphäre bis zu einem Alter von 12 Monaten für die Sprachentwicklung der Kinder besonders wichtig ist. Über die Rolle, die Wortarten bei der Neurokognition der Sprachentwicklung spielen, weiß man wenig. Allerdings ist aus der Untersuchung von Mustern bei ereigniskorrelierten Hirnpotenzialen (EKP-Mustern) bei Kindern zwischen 13 und 20 Monaten bekannt, dass ein Zusammenhang zwischen der Bekanntheit versus Unbekanntheit von Wörtern und der neuronalen Entwicklung besteht. Es konnte gezeigt werden, dass jüngere Kinder und ältere Kinder, auch wenn sie ungefähr einen gleich großen Wortschatz hatten, sich hinsichtlich der Aktivierung unterschieden: bei den kleinen Kindern war sie eher bilateral, bei den größeren Kindern eher auf die linke Hemisphäre beschränkt. Wenn es also so ist, dass Nomen und Verben bei Erwachsenen ihren Sitz an unterschiedlichen Orten im Gehirn haben, dann sollte sich der Weg zu diesem Ort auch in der neuronalen Entwicklung von Kindern nachzeichnen lassen. Hinsichtlich solcher Untersuchungen steht man noch ganz am Anfang. SPRACHWISSENSCHAFT Zusammenfassung Betrachten wir die neurolinguistischen Ergebnisse aus den Aphasietests zum Schluss noch einmal. Was beweisen diese an gängigen indogermanischen Sprachen belegten Befunde? Sie belegen lediglich, dass sich die Unterscheidung von Nomen und Verb neurologisch manifestiert. Ob es sich dabei um allgemein gültige und letztlich angeborene Eigenschaften des Gehirns handelt oder ob sich diese Strukturen eben nur bei Sprechern von Sprachen zeigen, in welchen Nomina und Verben unterschieden werden, müsste durch die Einbeziehung einer größeren struk- turellen Vielfalt von Sprachen untersucht werden. Wahrscheinlich stehen wir hier noch vor einer ungeahnten Fülle an Erkenntnissen. ■ Summary Neurolinguistic studies seem to show that the distinction between nouns and verbs is based on a neural substrate. A closer look from empirical findings in linguistic disciplines as diverse as typology, sign language and language acquisition reveals that the innate status of these substrates is far from being granted. Literatur M a un Gri son au itte b l f d ls ni Ge pe ge uns Ma trä zia n T er i nk lit er er e äte ras au n s s d , S e: er ala Re te gi on Caramazza, Alfonso/Shapiro, Kevin (2004): The representation of grammatical konwoledge in the brain. In: Jenkins, Lyle (ed.), Variation and universals in biolinguistics. Amsterdam: Elsevier, 147-170. Croft, William A. (2000): Parts of speech as typological universals and as language particular categories. In: Vogel, Petra Maria/Comrie, Bernard (eds), Approaches to the typology of word classes. Berlin: Mouton de Gruyter, 65-102. Friederici, Angela D./Hahne, Anja (2000): Neurokognitive Aspekte der Sprachentwicklung. In: Grimm, Hannelore (ed.): Sprachentwicklung. Göttingen: Hogrefe, 273-310. Meibauer, Jörg (1999): Über Nomen-Verb-Beziehungen im frühen Wortbildungserwerb. In: Meibauer, Jörg/Rothweiler, Monika (eds.), Das Lexikon im Spracherwerb. Tübingen: Francke, 184-207. Supalla, Ted/Newport, Ellisa L. (1978): How many seats in a chair? The derivation of nouns and verbs in American Sign Language. In: Siple, Patricia (ed.): Understanding language through sign language research. New York: Academic Press, 91-132. Veranstaltungsräume von 5 bis 180 Personen Von der privaten Familienfeier bis zur grossen Firmenpräsentation Unser klimatisiertes Hotel verfügt über Räume bis maximal 330 qm und 121 Komfortzimmer Unser Restaurant »Le Jardin« mit Sommerterrasse ist von 11. 00 bis 22. 00 geöffnet Mainz · Haifa Allee 8 · 55128 Mainz Telefon: 0 61 31 - 72 08-0 · Telefax: 0 61 31 - 72 08-12 50 FORSCHUNGSMAGAZIN ■ 1/2005 29 ...... ...... SPRACHWISSENSCHAFT Univ.-Prof. Dr. phil. Walter Bisang WALTER BISANG, geboren 1959 in Zürich, studierte Allgemeine Sprachwissenschaft, Chinesische Sprache und Literatur und Georgisch an der Universität Zürich. Zwischen 1986 und 1992 war Walter Bisang als Assistent am Seminar für Allgemeine Sprachwissenschaft in Zürich tätig, verbrachte einen Auslandsaufenthalt an der School of Oriental and African Studies in London und promovierte 1990 zum Verb in fünf ost- und südostasiatischen Sprachen. Seit 1992 ist er C4-Professor für Allgemeine Sprachwissenschaft und Vergleichende Sprachwissenschaft (im Sinne der Sprachtypologie) in Mainz. Arbeitsschwerpunkte sind Sprachtypologie, Sprache und Kognitionund sprachwissenschaftliche Theorien. Seit 1999 ist Walter Bisang Sprecher des Sonderforschungsbereiches 295 „Kulturelle und sprachliche Kontakte“. Univ.-Prof. Dr. phil. Jörg Meibauer JÖRG MEIBAUER, geboren 1953 in Reinbek, studierte Deutsch und Philosophie an der Universität zu Köln. 1980 legte er das Staatsexamen ab, 1985 erfolgte die Promotion in germanistischer Linguistik. Er arbeitete als wissenschaftlicher Mitarbeiter an der Universität zu Köln und ab 1989 an der Universität Tübingen, wo er sich 1993 in germanistischer Linguistik habilitierte. Nach Lehrstuhlvertretungen an den Universitäten Dresden und Tübingen ist er seit 1998 Professor für Sprachwissenschaft des Deutschen an der Johannes Gutenberg-Universität. Jörg Meibauer ist Gründungsmitglied des SFB Linguistische Datenstrukturen (Tübingen) und des Graduiertenkollegs Satzarten (Frankfurt/M.). Seine Forschungsschwerpunkte sind u.a. die Grammatik/Pragmatik-Schnittstelle und der kindliche Lexikonerwerb. Dr. phil. Markus Steinbach MARKUS STEINBACH, geboren 1967 in Stuttgart, studierte Germanistik und Philosophie an der Universität Frankfurt/M. und promovierte 1989 in germanistischer Linguistik an der Humboldt-Universität zu Berlin. Er war als wissenschaftlicher Mitarbeiter am Max-Planck-Institut für Psycholinguistik tätig und arbeitete im Sonderforschungsbereich 340 „Sprachtheoretische Grundlagen für die Computerlinguistik“ an der Universität Tübingen und an der Universität Mainz mit. Seit 2002 ist Markus Steinbach Akademischer Rat für Sprachwissenschaft an der Johannes Gutenberg-Universität Mainz. ■ Kontakt: Univ.-Prof. Dr. phil. Walter Bisang Johannes Gutenberg-Universität Mainz Department of English and Linguistics Jakob-Welder-Weg 18 55099 Mainz Tel. +49 (0) 6131 39-22778 Fax +49 (0) 6131 39-23836 E-Mail: [email protected] http://www.linguistik.uni-mainz.de/ 30 URLAUB = FLUGBÖRSE Flüge, Charter, Linie, Studententarife, Hotels, Mietwagen, Pauschalreisen, Studienreisen, Kreuzfahrten, Gruppenreisen, Ticket-Voll-Service für Firmen, Busreisen, Großes last-Minute-Angebot Reiseschutz u.v.m. MEHR ANGEBOTE UNTER: www.flugboerse.de FLUGBÖRSE Mainz Boppstraße 13, 55118 Mainz Tel. (06131) 965440, Fax (06131) 9654-444 E-mail: [email protected] SPRACHWISSENSCHAFT Mentale Repräsentation und kognitive Entwicklung aus der Perspektive der Zwillingssprachforschung Von Mongi Metoui und Walter Bisang Die frühe Sprachentwicklung wird als Fenster für die allgemeine Entwicklungsmöglichkeit des Kindes betrachtet. Hierbei kommt dem Sprachlaut des Kindes eine wichtige Rolle zu; denn Laute sind die zentralen Bausteine der Sprache – quasi das Rohmaterial, aus dem das Kind Wörter und Sätze baut und an dem es seine sprachliche Entwicklung vollzieht. Voraussetzung für den Spracherwerb ist das Bereithalten sprechrelevanter Informationen im Gedächtnis. Darüber hinaus besteht ein Zusammenhang zwischen Sprachentwicklung und der Entwicklung dessen, was Kinder von sich selbst und anderen denken, wissen und glauben - der „Theory of Mind“. Sprachentwicklung, kognitive Entwicklung, phonetisch-phonologisches Arbeitsgedächtnis, mentale Repräsentation und „Theory of Mind“, beeinflussen sich im Laufe der kindlichen Entwicklung gegenseitig und entwickeln sich abhängig voneinander. Fragen der Repräsentation von Wissen stehen gegenwärtig im Zentrum des Forschungsinteresses der Kognitionswissenschaften. Allen gemeinsam ist die Annahme, dass Wissen Struktur hat. Von zentraler Bedeutung in der empirischen Sprachwissenschaft ist die Frage, wie die Fähigkeit zur Spracherzeugung erworben wird. Dabei drängt sich gerade bei komplexen Bewegungsabläufen die Frage auf, wie sich das Kind zurechtfindet, wie es mit dieser Fülle an Informationen umgeht. In diesem Kontext ist es unum- gänglich mit Hilfe mentaler Repräsentationen zu operieren. Der Begriff der mentalen Repräsentation ist ein zentraler Begriff der Kognitionswissenschaften. Es gibt mehrere Theorien, die darüber Aussagen machen, wie mentale Repräsentationen zu verstehen sind. Nicht die Annahme, dass externe Informationen intern repräsentiert werden, ist unter den Wissenschaftlern strittig, sondern wie Informationen repräsentiert werden, welche Eigenschaften sie haben und wie sie verarbeitet werden. Die Entstehung von Strukturen, ihre Beziehung zum Repräsentationssystem und die Generierung von adäquatem Verhalten der Artikulationsorgane durch das Gehirn stellt eine der zentralen Fragen der Phonetik, der digitalen Sprachverarbeitung und der Kognitionswissenschaft dar. Für die Phonetik, die digitale Sprachverarbeitung und die Kognitionswissenschaften stehen Fragen zur Entstehung von Strukturen, ihrer Beziehung zum Repräsentationssystem und zur Generierung von adäquatem Verhalten der Artikulationsorgane durch das Gehirn im Zentrum der Aufmerksamkeit. Ausgangspunkte des Projekts Ausgangspunkt für das Projekt „Zwillingssprachforschung“ war die grundlegende Beobachtung, dass jeder Mensch die Erfahrung gemacht haben dürfte, eine ihm bekannte Person allein anhand ihrer verbalen Äußerungen, bei fehlendem Sichtkontakt, zu erkennen. Diese Erfahrung ist bei eineiigen Zwillingen (EZ) nicht möglich, da sie im Grad ihrer Stimme und Sprache interindividuell derart ähnlich sind, dass sogar ihre Eltern und Geschwister sie nicht voneinanAbb. 1: Starke Ähnlichkeiten bei gleichen Äußerungen der eineiigen Zwillingspaare FORSCHUNGSMAGAZIN ■ 1/2005 31 ...... ...... SPRACHWISSENSCHAFT überhaupt vorhanden sind und ob infolge dessen unterschiedliche Reproduktionsleistungen erbracht werden können. Zu diesem Zweck setzten wir uns die folgenden beiden ersten Analyseschritte als Ziel: Bestimmung von Ähnlichkeiten und Verschiedenheiten der akustischen Parameter und Suche nach Bewegungsmustern der verschiedenen Artikulationsorgane. Darüber hinaus setzt sich die Forschungsarbeit zum Ziel Erb- und Umwelteinflüsse bei der Spracherzeugung zu untersuchen. Bei der Frage nach der Erb- und Umweltbedingtheit der Spracherzeugung steht deshalb das Bemühen im Vordergrund die einzelnen Varianzanteile abzuschätzen, um Anhaltspunkte über die nicht näher spezifizierbaren Einflussgrößen der Erb- bzw. Umweltvarianzen zu erhalten. Abb.2: Bewegungsablauf der Lippen: Ridah 28 Jahre Analysen, Merkmalsextraktion und Ergebnisse Abb. 3: Bewegungsablauf der Lippen und Zunge: Julia 10 Jahre 32 der unterscheiden können. Im deutlichen Gegensatz dazu sind die zweieiigen Zwillinge (ZZ) nur soweit ähnlich, wie sich dies auch bei allen anderen Nichtzwillingsgeschwistern (NZ) beobachten lässt. Als mögliche Erklärung für die oben erwähnte Verwechselbarkeit der EZ wird oftmals die sozial und erzieherisch einwirkende Umwelt während der frühkindlichen Sozialisation angegeben. Diese Erklärung, so plausibel sie auf den ersten Blick sein mag, ist unzutreffend, da ZZ, die unter den gleichen sozialen und erzieherischen Bedingungen aufwachsen, nie die weitgehende Identität der EZ erreichen. Andererseits kann aber angenommen werden, dass Ähnlichkeiten in der Aussprache durch Erbfaktoren erklärt werden können. Im Gegensatz hierzu sind ZZ genetisch verschieden und können deshalb darüber Aufschluss geben, wie sich ähnliche Umwelten auf verschiedene genetische Konstitutionen auswirken. Über die Fragen, warum EZ im Vergleich zu ZZ und NZ häufiger verwechselt werden und inwieweit sich die Sprechbewegungen bei den EZ unterscheiden und in welchem Alter die Sprechmuster erworben werden, gibt die bestehende Fachliteratur keine Antwort. Darüber hinaus gibt es in der Literatur auch keine Antwort auf die Anteile der Erb- und Umwelteinflüsse auf das Sprechen. Im Rahmen eines empirischen Pilotprojektes haben wir den Versuch unternommen, die Frage zu klären, ob Formen der mentalen Repräsentation Die akustischen Parameter wurden sowohl von einem eineiigen und einem zweieiigen Zwillingspaar als auch von einem Nichtzwillingspaar untersucht. Die artikulatorischen Bewegungsmuster wurden von einem 28- bzw. 32-jährigen Nichtzwillingspaar und von einem 10 Jahre alten Kind analysiert. Die Analyse der artikulatorischen Eigenschaften der Zwillinge ließ sich im Rahmen der bisherigen Forschungsarbeiten nicht durchführen. Einen wichtigen Teil der Analysen stellt die akustische und artikulatorische Merkmalsextraktion dar. Wichtige Analyseschritte bestehen in der Bestimmung der Formanten und der Stimmeinsatzzeit. Der Vokaltrakt weist mehrere veränderliche Resonanzräume wie z. B. Mundraum, Nasenraum, Rachen, aber auch nicht veränderliche wie Stirnhöhle und Nasennebenhöhle auf. Als Formanten werden allgemein diejenigen Frequenzbereiche bezeichnet, die durch diese Resonatoren verstärkt werden. Die Formanten werden, beginnend bei demjenigen mit der tiefsten Frequenz, von unten nach oben durchgezählt. F0 ist die Grundfrequenz. Für Sprachlaute sind nicht mehr als fünf relevant. Formanten sind die wesentlichen Elemente der Klangbildung. Sie sind besonders wichtig bei der akustischen Definition der Vokale. Mit Stimmeinsatzzeit bezeichnet man bei einer Lautabfolge Verschlusslaut-Vokal, die Zeit zwischen der Verschlusslösung und dem Beginn der Stimmlippenschwingungen. Der Schwerpunkt der artikulatorischen Untersuchungen liegt bei der computergestützten Bewegungsanalyse, um festzustellen, wie die Artikulatoren ihre Tätigkeit organisieren und koordinieren, sowie der Suche nach stabilen Ähnlichkeiten und Variabilitätskriterien. Die Bewegungsmuster stellen einen Kernbereich der Untersuchung dar. Bei der Sprachproduktion spielen die Bewegungen der Organe und die Länge des Vokaltrakts eine wichtige Rolle. Neben der akustisch sprechertypischen Information gibt es auch artikulatorisch sprechertypische Informationen. Wenn man die Ergebnisse der SPRACHWISSENSCHAFT Spektralanalyse für die Vokale mit den Veränderungen des Vokaltrakts vergleicht, ist es möglich, einige Tendenzen in der Veränderung der Formantenstruktur in Verbindung mit den artikulatorischen Bewegungen zu erkennen. Die Analysen geben einen Eindruck von der Entwicklung der Formantenbewegungen von einem Vokal zu einem Konsonanten und umgekehrt. Die durchgeführten akustischen Untersuchungen bei den ersten EZ zeigen frappierende Ähnlichkeiten der Mittelwerte der Grundfrequenz F0 , der Mittelwerte der Formanten und der Formantenbewegungen der Vokale. Dies gilt auch für die Dauer der Stimmeinsatzzeit. Beim durchgeführten Perzeptionstest, an dem naive Hörer und Mütter von drei EZ-Paaren teilgenommen haben, ergab sich eine bis zu 95-prozentige Verwechselbarkeit. Die im Rahmen der Vorarbeit durchgeführten artikulatorischen Analysen haben die Existenz von elliptischen und schleifenförmigen Bewegungsgrundmustern bei der 10-jährigen Sprecherin nachgewiesen. Dies stimmt mit den Ergebnissen der Untersuchungen überein, in denen die Sprache von 28- bzw. 32-Jährigen untersucht wurde. Die empirischen Befunde deuten darauf hin, dass diese Bewegungsmuster bereits im 10. Lebensjahr gefestigt sind. Falls diese Bewegungen erworben werden, ist davon auszugehen, dass sie bei kleinen Kindern nicht zu finden sind. Dies konnte im Rahmen des Pilotprojekts nicht untersucht werden. Implikationen für die mentale Repräsentation Wenn man zeitliche Sequenzen und die Formen aufeinander folgender Sagittalschnitte desselben Lautes eines Sprechers betrachtet, so fällt ins Auge, dass die organische Bewegung verschiedene Abläufe aufweist. Es stellt sich hier die Frage, warum Abweichungen auftreten. In einigen Arbeiten wird vermutet, dass es sich um stochastische Fluktuationen handelt, ähnlich einer Art von Rauschen, wie es aus der akustischen Physik bekannt ist (Metoui 2001). Diese relative „Einschränkung“ der potenziellen Bewegungsmöglichkeiten, die zum phonetischen Output führen, resultiert aus der Anwendung phonologischer Regeln, die die Stabilisierung des Zusammenspiels der Artikulatoren bewirken. Um das Verhalten der Artikulatoren zu untersuchen, wurde das Iterationsverhalten ihrer Bewegungen mittels Computersimulation verfolgt. Die Iteration (Wiederholung von Vorgängen) erzeugt eine Struktur mit vielen Schichten, der zufolge eine Artikulation in einer Artikulationskette mit zunehmender Entfernung von den Artikulationsbereichen an Identifikationsgehalt verliert. Bei der Lösung der Aufgabe haben die Sprachorgane oft mehrere Alternativen; dabei wirkt der Attraktor als Anziehungspunkt und bildet ein Ablaufschema. Die empirischen Befunde aus der Verformung des Vokaltrakts deuten darauf hin, dass die Bewegungen der Artikulatoren auf der Aktivierung gespeicherter Grundstrukturen beruhen. Es scheint plausibel anzunehmen, dass die Artikulationsprozesse nicht unsystematisch, sondern interindividuell sehr ähnlich sind. Die mentale Repräsentation besitzt die Eigenschaft, die Individuen in die Lage zu versetzen Daten zu produzieren, die durch einen metrischen Raum beschrieben werden können. Das Konzept der Bewegungsmuster und der Attraktorpositionen ist durchaus produktiv für die Erklärung der Existenz von Invarianten. Es bedarf noch weiterer Forschung, um die Attraktorpositionen bei anderen Sprachen zu prüfen. Sollten die Resultate für das Vorhandensein von Bewegungsmustern bei Kleinkindern durch weitere Experimente bestätigt werden, könnten diese für die mentale Repräsentationstheorie von großer Bedeutung sein. An einer Lösung der hier skizzierten Probleme wird an mehreren Instituten weltweit gearbeitet. Wir sind sicher, durch den Vergleich zwischen den Artikulationsbewegungen der Zwillinge einen Schritt weiter zu kommen. Abb.4: Schematische Darstellung des Attraktors: Jede grafische Iteration entspricht einer Bewegung des Apex. Anzeige 3D-Recording of Speech-Movement inside the mouth Carstens Medizinelektronik GmbH www.articulograph.de FORSCHUNGSMAGAZIN ■ 1/2005 33 ...... ...... SPRACHWISSENSCHAFT ■ Summary It is thus surprising that researchers know so little about how children acquire the coordination of articulatory movements to produce speech as well as the phonetical representation in the brain. The voice and speech of monozygotic twins are so similar that we cannot always distinguish between them. The speech and voices of dizygotic twins are different and easy to distinguish between them. Researchers have, up to now, found no explanation for the genetic and environmental influences on the acquisition of coordination and development of articulation skills in infancy and childhood. The goal of our research program is a detailed description of organ behavior of children, in different age groups and of different sexes, particularly in zygosity of twin pairs, as well as speech-disordered speakers. Literatur Ladefoged, P. und I. Maddieson (1996): The Sounds of the World’s Languages. Oxford: Blackwell. Metoui, M. (2002): Varianz, Invarianz und Vergleichbarkeit: In W. Huber, R. Rapp (Hrsg.), Linguistics on the Way into the Third Millennium. Peter Lang, 775-781. Metoui, M. (2001): Strategien der Artikulation: Über die Steuerungsprozesse des Sprechens. Aachen: Shaker. Mooshammer, C., P. Hoole und B. Kühnert (1995): On Loops. Journal of Phonetics 23, 3-21. Sigel, E. (1999): Development of Mental Representation: Theories and Applications. London: Erlbaum. PD Dr. phil. Mongi Metoui MONGI METOUi hat Phonetik, Computer Linguistik, Romanistik und Anglistik an der Universität Trier studiert. Nach der Promotion 1987 und der Habilitation 1999 zum Thema „Strategien der Artikulation: Über die Steuerungsprozesse des Sprechens“ folgte die Ernennung zum Privatdozenten an der Universität Mainz, Institut für Allgemeine und Vergleichende Sprachwissenschaft. Seine Arbeitsgebiete sind Phonetik, digitale und kognitive Sprachverarbeitung, Sprechererkennung, Neurolinguistik und mentale Repräsentation (Sprechen, Denken, Bewusstsein) sowie Zwillingssprachforschung (Angeborenheit, Erwerb und Umwelteinflüsse). ■ Kontakt: PD Dr. phil. Mongi Metoui Johannes Gutenberg-Universität Mainz Department of English and Linguistics Jakob-Welder-Weg 18 55099 Mainz Tel. +49 (0) 6131 39-22541 Fax +49 (0) 6131 39-23836 E-Mail: [email protected] http://www.linguistik.uni-mainz.de/ 34 Univ.-Prof. Dr. phil. Walter Bisang WALTER BISANG, geboren 1959 in Zürich, studierte Allgemeine Sprachwissenschaft, Chinesische Sprache und Literatur und Georgisch an der Universität Zürich. Zwischen 1986 und 1992 war Walter Bisang als Assistent am Seminar für Allgemeine Sprachwissenschaft in Zürich tätig, verbrachte einen Auslandsaufenthalt an der School of Oriental and African Studies in London und promovierte 1990 zum Verb in fünf ost- und südostasiatischen Sprachen. Seit 1992 ist er C4-Professor für Allgemeine Sprachwissenschaft und Vergleichende Sprachwissenschaft (im Sinne der Sprachtypologie) in Mainz. Arbeitsschwerpunkte sind Sprachtypologie, Sprache und Kognitionund sprachwissenschaftliche Theorien. Seit 1999 ist Walter Bisang Sprecher des Sonderforschungsbereiches 295 „Kulturelle und sprachliche Kontakte“. LERNEN UND LEHREN MIT DEN TOP-TOOLS BORLAND EDUCATION PROGRAM IT-KNOW-HOW IST FÜR DIE BERUFLICHE ZUKUNFT UNERLÄSSLICH Borland in der Bildung … Engagement in der schulischen und universitären IT-Ausbildung hat für Borland traditionell eine starke Bedeutung – eine große Zahl der heutigen IT-Spezialisten und Entscheidungsträger hat die ersten Schritte in der IT mit Borland-Programmen gemacht. Durch Bereitstellung professioneller Lösungen für die universitäre IT-Ausbildung will Borland den Austausch von Ideen zwischen Universitäten und Industrie auch weiterhin fördern. Lizenzmodelle … Bildungseinrichtungen, Schülern, Studenten und Lehrern bietet Borland kostengünstige Lizenzlösungen in Form von Akademischen Lizenzen, Netzwerklizenzen, Einzelplatzlizenzen und Softwarepaketen für Schüler, Studenten und Lehrer, den sogenannten SSL-Boxen: ■ Borland Akademische Lizenzen Akademische Lizenzen sind interessant für Bildungseinrichtungen mit sehr hohem Lizenzbedarf (Unis, Fachhochschulen, Berufsbildungszentren etc.). Durch diese Art der Lizenzierung erhalten alle Studenten und Lehrenden für ein Jahr das Recht, mit einem Borland-Produkt zu arbeiten. ■ Borland Netzwerk Edu Lizenz Durch die zentrale Verwaltung der Netzwerk-Lizenzen mit Hilfe eines Lizenzverwalters/Lizenzmanagers, kann eine Bildungseinrichtung, die Gestaltung des Informatikunterrichts unabhängig von einem festen Klassenraum vornehmen und planen. ■ Borland SSL Box Die Borland SSL Box – Software für Schüler, Studenten und Lehrer – ist eine sogenannte „Leerbox“. Der Kunde erwirbt über den Fachhandel eine Borland SSL Box und erhält damit ein Anrecht auf eine aktuelle Einzel-Benutzer-Lizenz für die Professional Edition seiner Produktwahl (Delphi, JBuilder, C++Builder 6, C#Builder oder C++Builder X). Nach der Einsendung eines Formulars erhalten die Kunden innerhalb von 14-21 Tagen ihre gewünschten Produkte. Interessiert??? Bitte setzen Sie sich mit unseren Borland Education Partnern in Verbindung. Die Adressen finden Sie unter http://www.borland.de/partners/directory/academicpartner.html. Oder schreiben Sie uns an [email protected] Turbo Pascal steht heute im Museum der Borland Site zum Download zur Verfügung: http://bdn.borland.com/museum FORSCHUNGSMAGAZIN ■ 1/2005 35 ...... BILDWISSENSCHAFT „Arbeit am Bild“ - Plädoyer für eine Bildwissenschaft Von Susanne Marschall und Fabienne Liptay Von den Höhlenmalereien der Steinzeit zu computergenerierten Bildern im Film: „Arbeit am Bild“ leistet der Mensch schon seit Jahrmillionen. Jetzt ist es Zeit für eine interdisziplinäre Bildwissenschaft. 36 Es kann keinen Zweifel daran geben: Bilder sind einer der quantitativ wie qualitativ stärksten Umweltfaktoren des Menschen. Diese Macht der Bilder ist nicht erst auf ihre massenmediale Verbreitung und damit auf eine technische Ursache zurückzuführen, sondern auf den anthropologischen Tatbestand, dass der Mensch vor allem ein Augen- und Ohrenwesen ist. Wir sehen und hören die Welt, bevor wir sie anfassen, schmecken oder riechen. Das Bild – geht man von einer grundlegenden Definition des Bildforschers Hans Belting aus – hat seinen Ort im Menschen, besetzt seinen Geist und seinen Körper wie ein Medium, ein Medium allerdings, das nicht passiv wie eine Leinwand Bilder transportiert und reflektiert, sondern sie ohne Unterbrechung aktiv schöpft.1 „Arbeit am Bild“ – eine Variation des berühmten Buchtitels Arbeit am Mythos (1979) von Hans Blumenberg – leisten der Mensch und seine Vorfahren seit Jahrmillionen. Ohne diese „Arbeit am Bild“ gäbe es weder Kultur noch technischen Fortschritt. Werfen wir einen Blick auf unsere Gegenwart und zwar im engeren Sinne auf die Naturwissenschaften. Wie viele wissenschaftliche Erkenntnisse werden über die „Arbeit am Bild“ gewonnen, überprüft und wieder verworfen? Immer, auch bei der Lösung vollkommen abstrakter Aufgaben, ist unsere Vorstellungskraft, die Anschauung, mit von der Partie. Ohne Bilder gibt es kein Denken, und da ist es zunächst völlig unbedeutend, ob es sich um technische Bilder, künstlerische Bilder oder Selbstbilder handelt. Bilder produzieren, konfigurieren und speichern Wissen. Aber auch in mindestens gleichem Maße beherbergen und stiften Bilder Emotionen, bewältigte und unbewältigte, vertraute und fremde Gefühle. Bilder werden von Menschen und für Menschen gemacht, um zu erfreuen, den Schönheitssinn anzusprechen, zu bilden, zu verführen, zu trösten, Erinnerung zu bewahren, aber auch um zu ängstigen, zu schockieren, abzuschrecken, zu täuschen oder zu quälen. „Die Bilder“, das hat der Kunsthistoriker Horst Bredekamp anlässlich der Verleihung des Aby M. Warburg-Preises jüngst in einem Interview betont, „gehören nicht der Kunstgeschichte. Sie gehören jedem.“2 Bredekamp fordert eine Erforschung der politischen, psychischen und kulturellen Bildenergien. Dazu gehört unbedingt eine unmittelbare und differenzierte Auseinandersetzung mit dem Gegenstand: dem Bild. Bildwissenschaftliche Ansätze, die Bilder oder filmische Bildfolgen in ihrer komplexen Geschichte und ihren komplizierten Wirkungen übergehen, um sich einer Theorie ohne Anschauung hinzugeben – diese ist dann weder überprüfbar, noch bringt sie wirklichen Erkenntnisgewinn –, verlaufen sich derzeit im Nichts einer sich kryptisch gebenden Banalität. Bredekamp hat unbedingt Recht, dies zu bemängeln. Die neue, eigentlich noch in den Kinderschuhen steckende Bildwissenschaft muss vor allem eines leisten: „Arbeit am Bild“. Wie kann, wie soll eine transdisziplinäre und integrative Bildwissenschaft aussehen? Erster Vorschlag: Bildwissenschaftliche Forschungen sollen Theoreme des Bildes aufgrund von neurowissenschaftlicher und psychologischer Grundlagenforschung, durch eine dezidierte kunst-, medien- und kulturwissenschaftliche Auseinandersetzung mit den ästhetischen und gestalterischen Grundlagen der Bildproduktion sowie unter Berücksichtigung von bildhistorischen und soziologischen Quellen gewinnen. Die Theorie des Bildes steht am Schluss, nicht am Anfang der Auseinandersetzung. Zweiter Vorschlag: Eine Theorie des Bildes muss für die Dynamik der Bildgeschichte sowie für die Spezifik medialer Repräsentationen offen gehalten werden. Es ist vielleicht zu hoch gegriffen, Bildwissenschaft als eine neue Universalwissenschaft zu feiern, die sich zutraut, ein ganzes Spektrum an Fächern zu integrieren – angefangen von den im engeren Sinn mit Bildern befassten Disziplinen der Kunstgeschichte, Film- und Medienwissenschaft über die Philosophie, Psychologie und Soziologie bis hin zu Informatik, Medizin, Kognitions- und Neurowissenschaften. Die Entwicklung interdisziplinärer Fragestellungen und Methoden gehört unstrittig zu den größten Herausforderungen einer Bildwissenschaft, die die Tiefe bildkompetenter Analyse nicht der Breite der involvierten Disziplinen opfern will. In diesem Sinne ist es auch zu verstehen, wenn Bredekamp eine Erdung jeglicher bildwissenschaftlicher Betätigung in den zuständigen Disziplinen der Kunstgeschichte und Archäologie fordert. Bildwissenschaft kann nur auf bereits erworbenem Bildwissen aufbauen; sie ist Professionalisierung, nicht Grundlegung von Bildkompetenz. Die der Bildwissenschaft vorausgehende Rede vom „iconic turn“ 3, vom neuerlichen Schub der Bilder seit dem 20. Jahrhundert, benennt indes nicht bloß eine Erweiterung des Forschungsfeldes, sondern vielmehr eine Wende im Verständnis des Bildes an sich. Zum einen wurde die – im Zeitalter der technischen Reproduzierbarkeit ohnehin zunehmend verwischende – Grenze zwischen Bildern aus Kunst, Medien, Wissenschaft und Alltag aufgelöst und damit eine interdisziplinäre Perspektive eröffnet. Zum anderen haben gerade die technisch reproduzierbaren Bilder der Fotografie und des Films als Gegenstandsbereiche der Kunst deutlich werden lassen, dass man ihnen mit der traditionellen Idee vom Abbild nicht gerecht wird. Viele Bilder sind weder mimetisch noch kausal zu erklären und funktionieren als Bilder von nur im Rahmen bestimmter Verwen- BILDWISSENSCHAFT dungssituationen und Zeichensysteme. Ihre Trägermedien können ebenso wechseln wie die Art und Weise ihrer Reproduktion. Offenbar hängt die Beantwortung der Frage, ob etwas als Bild von aufgefasst wird, stets von Interpretationsakten ab, die ihrerseits sozial, kulturell und technisch vermittelt sind. Folgerichtig rücken die Verfahren der Bilderzeugung und -gestaltung sowie der Bildwahrnehmung und -deutung in den Vordergrund der Betrachtung. Das Bild ist in seiner Bindung an einen materiellen Bildträger, an eine Leinwand, ein Papier, ein formbares Material, einen Bildschirm, ins Wanken geraten. Verstärkte Beachtung haben demnach rezeptionsästhetische Forschungsansätze gefunden, denen zufolge sich ein Bild erst im Betrachter vollendet, wenn nicht sogar dort überhaupt erst konstituiert. Paradigmatisch kommt dies in Wolfgang Isers literaturwissenschaftlichem Konzept der „Leerstelle“ zur Geltung 4, das von Wolfgang Kemp auf die Bildenden Künste übertragen wurde, um den Blick auf das zu lenken, was im Bild eben nicht gezeigt und vom Betrachter doch gesehen wird5. In der Filmtheorie ist die Interaktion von Bild und Betrachter auch mit dem Begriff „suture“ (dt. chirurgische Naht) umschrieben worden, in dem zugleich die physischen und affektiven Qualitäten des Zusammennähens von Film und Zuschauer metaphorisch zum Ausdruck kommen.6 Bildbetrachtung ist ein aktiver Prozess, der unter die Haut geht und in einem Netzwerk komplexer Interaktionen und Strukturkopplungen stattfindet. Daran beteiligt ist längst nicht nur die sinnesphysiologische Wahrnehmung des Bildes, die Verarbeitung optischer Informationen durch Auge und Gehirn. Bilder entstehen in einem polyphonen Zusammenspiel kognitiver und emotionaler Komponenten, die nicht nur die Sinne des Betrachters involvieren, sondern auch sein enzyklopädisches und historisches Wissen, Gedächtnisleistungen und Gefühle, Denkprozesse, Erinnerungen und Imaginationen. Als dritten Knotenpunkt im Netzwerk der Bildwahrnehmung wären neben Bild und Betrachter ferner das Milieu, der historische, politische, kulturelle, soziale und räumliche Kontext der Produktions- und Rezeptionssituation zu bedenken, wenngleich dies ein Bereich ist, den eine neurowissenschaftlich orientierte Bildforschung weitgehend ausklammert. Ein Beispiel: eine Schwarzweiß-Fotografie, die die Biologin Karla Levi 1957 von ihren Forschungsarbeiten aus Chile zurück nach Deutschland mitgebracht hat. Das Bild zeigt einen hoch aufgetürmten Berg von Gehölz aus der Pflanzenfamilie der Rosen, daneben ein Steinhaus. Vor dem Hintergrund des persönlichen Schicksals der Wissenschaftlerin erhält die Fotografie eine vollkommen neue Bedeutung: Nach dem Zweiten Weltkrieg war Karla Levi nach Chile emigriert, um dort Pflanzen zu untersuchen, die in Extremsituationen durch Anpassung überleben. Als Halbjüdin hatte sie selbst den Holocaust überlebt, während der Großteil der Familie in Deutschland ausgelöscht wurde. Im Wissen um die Umstände der Bildentstehung können wir die Fotografie nicht betrachten, ohne darin die Berge ausgemergelter Leichen aus den Vernichtungslagern zu sehen – seinerseits ein vielfach reproduziertes Bild, das von den Bild 1: Steven Spielberg: Schindlers Liste (USA 1993) Mit dieser halbnahen Einstellung auf den Protagonisten Schindler (Liam Neeson) setzt die Schlüsselszene des Holocaust-Dramas ein. Von einem Hügel herab, hoch zu Ross, beobachtet Schindler die Räumung des jüdischen Ghettos. Immer wieder kehrt die Montage während der nun folgenden Szene zu dem entsetzten Beobachter zurück. Sein Blick ist mit unserem Blick als Zuschauer identisch, zumal Schindler in der Szene nur Schauender und noch kein Handelnder ist. Bild 2: Schindlers subjektiver Blick: Während Schindler das grausame Treiben beobachtet, löst sich aus der Menge ein kleines Mädchen in einem roten Mäntelchen. Der Film Schindlers Liste ist ein Schwarzweißfilm. Das plötzliche Aufkommen von roter Farbe, wenn auch mit zaghaftem Gestus, verleiht der kleinen Figur visuelles Gewicht. Eine ambivalente Szene: Die Farbe erinnert daran, dass die Menschen auf dieser Straße Zielscheiben für skrupellose Mörder sind. Zugleich hebt sie das Kind aus der Menge heraus und individualisiert das kollektive Leid. Das Mädchen mit dem Engelshaar wird durch die filmische Inszenierung aber auch zu einer Symbolfigur der Hoffnung. FORSCHUNGSMAGAZIN ■ 1/2005 37 ...... ...... BILDWISSENSCHAFT Bild 3: Obwohl die Montage der Szene daran festhält, dass wir immer noch mit den Augen Schindlers sehen, überwindet die Kamera – im Gegensatz zu dem Protagonisten – plötzlich die räumliche Distanz zu den fliehenden Menschen. Die Bilderzählung ist ungeheuer dicht: Das kleine Mädchen in Rot, ein Rotkäppchen, das zielsicher, langsam und konzentriert auf dem Weg zu seinem Versteck bleibt, ist als einzige Figur komplett zu sehen und noch nicht durch die Armbinde mit dem Judenstern stigmatisiert. Dagegen bleibt die Gruppe der Erwachsenen anonym, mit abgeschnittenen Köpfen. Von großer Bedeutung für die Sequenz sind Art und Weise sowie die Richtung, in der sich das kleine Mädchen bewegt. Medien längst in ein kollektives Bildgedächtnis übergegangen ist, um dort an den Schnittstellen vom Materiellen zum Immateriellen ein „imaginäres Museum“ (André Malraux) erinnerter Geschichte zu formen. Die Bilddokumente zu Karla Levis Forschungsarbeiten – von ihrer Tochter Angelika Levi in dem persönlichen Dokumentarfilm Mein Leben Teil 2 (Deutschland 2003) zusammengetragen – reflektieren als Erinnerungsträger das erlittene Trauma der Mutter und erzählen gleichzeitig davon, „wie auf Makro- und Mikroebenen permanent Geschichte produziert, archiviert, in einen Diskurs gebracht und eingeordnet wird“ (Angelika Levi). Die Komplexität des Zusammenspiels von kognitiven und emotionalen Faktoren der Bildbetrachtung soll ein weiteres Beispiel aus dem Bereich des Films verdeutlichen: In Steven Spielbergs in Schwarzweiß gedrehtem Holocaust-Film Schindlers Liste (USA 1993) gibt es eine Schlüsselszene, die nur wenige Minuten umfasst. Schindler beobachtet von einem Hügel aus die Räumung eines jüdischen Ghettos. Aus der Menge der fliehenden Menschen löst sich plötzlich ein schwach rot schimmernder Fleck. Ein kleines Mädchen läuft tapfer, die Hände in den Taschen seines roten Mäntelchens vergraben, langsam und zielsicher zu einem Versteck. Schindler beobachtet das Kind und verliert es schließlich aus den Augen. Die filmische Inszenierung und der historische Kontext – das Vorwissen des Zuschauers – eröffnen ein ebenso dichtes wie brüchiges Assoziationsgefüge und komprimieren sich zu genuiner Symbolkraft. Wir sehen einen Mann, der ein Kind beobachtet. Die filmische Inszenierung verweist in ihrem Subtext auf das Sehen und die Sichtbarkeit, wobei die Reduktion des Beobachters auf seinen passiven Augensinn – dies gilt für Schindler und für den Zuschauer des Films – die Handlungsunfähigkeit angesichts des unvorstellbaren Grauens schmerzhaft spürbar macht. Ohne das historische Wissen des Publikums käme diese emotionale Wirkung nicht zustande. Dazu kommt die ambivalente Symbolik des Roten in Kombination mit dem kleinen Mädchen, das als lebende Zielscheibe 38 vor den Augen seiner Mörder auftaucht. Rot ist warm, aber auch aggressiv, schön, aber auch gefährlich. Das Kind wird durch den Qualitätskontrast zwischen unbunten Grautönen und der bunten Signalfarbe auf mehrfache Weise hervorgehoben: Es ist Opfer und Hoffnungsträger. Aber es steht auch für den Einzelnen, dessen Individualität in den Massenvernichtungslagern ausgerottet werden soll. Als das Kind zum ersten Mal im Bild sichtbar wird, kommt es in der Logik der Montage unmittelbar auf die Hauptfigur zu, deren subjektiver Blick und emotionales Entsetzen die filmische Inszenierung zum Gestus des Erzählens erhebt. Bilder beginnen zu leben, sobald sie sich mit dem Betrachter verbinden. Sie werden zu noch weitgehend unerforschten Inhalten von Hirn und Geist und formen eine Schnittstelle, an der ein intensiver Dialog zwischen Bild- und Neurowissenschaft ansetzen kann und muss. Über die phänomenologischen Betrachtungen der Rezeptionsästhetik hinaus sind hier in empirischer und experimenteller Hinsicht fundierte Erkenntnisse über die neurobiologischen, psychologischen und sinnesphysiologischen Mechanismen der Bildwahrnehmung zu erhoffen, durch deren Wirkung der Betrachter nicht nur Sichtbares aus dem Bild herausholt, sondern vielmehr etwas in das Bild hineinsieht. Das Wechselspiel von Erinnerung und Imagination, zumal bei der Wahrnehmung von Bildern, die sich wie beim Film auch in zeitlicher Dimension entfalten, stellt hierbei ein reizvolles Feld interdisziplinärer Bildforschung dar ebenso wie der große Bereich der Emotion, die – in einem männlichen Wissenschaftsdiskurs – in Abgrenzung von den so genannten höheren kognitiven Fähigkeiten des Vorstellens und Denkens als niedere Fähigkeit diskriminiert und in ihrer Bedeutung für die Bildwahrnehmung deshalb nur unzureichend untersucht wurde. In der neuerlichen Beachtung der Gefühle sieht Bredekamp den spezifischen Wandel der Perspektive, den die Bildwissenschaft infolge des „iconic turn“ eingeleitet hat: „Es gibt ein wunderbares Buch von James Elkins: Warum auf Bildern geweint wird und BILDWISSENSCHAFT warum Bilder zum Weinen bringen. Wer das Phänomen unterschätzt, dass Bilder emotionale, körperliche Reaktionen hervorrufen können, wird sich der Problemtiefe, die von visuellen Phänomenen ausgeht, überhaupt nicht nähern können.“7 In einem 2004 publizierten Manifest von elf führenden Neurowissenschaftlern wurde gefordert, dass Geisteswissenschaften und Neurowissenschaften „in einen intensiven Dialog treten müssen, um gemeinsam ein neues Menschenbild zu entwerfen“.8 Vielleicht mag der Beitrag, den eine Bildwissenschaft im Rahmen der Forschungsinitiative „Hirn und Geist“ hierzu leisten kann, gerade in der beharrlichen Ergründung der (visuellen) Sinnlichkeit sowie der historischen und ästhetischen Dimension des Menschen- und Weltbildes liegen. Denn der Mensch ist ein ganzheitlich funktionierendes, fühlendes und denkendes Wesen. Die interdisziplinäre Auseinandersetzung mit neurowissenschaftlichen, philosophischen, sprach- und bildwissenschaftlichen Forschungsthemen in Mainz belegt, dass sich die nach der Erkenntnis verifizierbarer Gesetze strebenden Naturwissenschaften auf Fragestellungen eingelas- sen haben, in denen kaum Antworten zu erwarten sind, die einem allgemein gültigen Erklärungsprinzip gehorchen. Sie demonstriert umgekehrt aber auch, dass die Projekte der Neurowissenschaft kulturwissenschaftliche Relevanz besitzen und von jenen nachgefragt und aufgegriffen werden, die sich der Eigenart ihrer Gegenstände gleichsam vom anderen Ende des Spektrums her nähern. ■ Summary Pictures are becoming an ever more important means of experiencing and understanding our environment. The growing importance of pictures, which is expressed in the formula “iconic turn”, has pushed a demand for their scientific study beyond the realm of fine arts and the more modern media such as film and television. The authors draw an initial outline of visual studies and build an interface between the study of pictures and neuroscience focussing on the picture’s ability to activate cognitive and emotional processes, as well as the complex mechanisms behind the perception and interpretation of pictures. Bild 4: Das Kind im Versteck: Die Farbe ist nun gewichen. Der Blick des potentiellen Retters hat das Mädchen, dessen Tod wenig später im Film angedeutet wird, verloren. Die Großaufnahme im Versteck – eigentlich ein „unsichtbares“ Bild – richtet sich ab diesem Moment ausschließlich an das Publikum im Kino. Die symbolische Bildinszenierung der Schlüsselszene aus Schindlers Liste erzählt – pars pro toto – wie die jüdische Bevölkerung aus dem öffentlichen Raum verdrängt wird: in die „Unsichtbarkeit“, den sicheren Tod getrieben. Literatur 1) Hans Belting: Bild-Anthropologie. Entwürfe für eine Bildwissenschaft. München 2001. 2) Horst Bredekamp: Im Königsbett der Kunstgeschichte. Ein Gespräch mit Horst Bredekamp, dem Kunsthistoriker und Träger des Aby M. Warburg-Preises, über den Papst in und vor dem Fernseher, die komplexe Macht der Bilder und das Fußballspiel als Gesamtkunstwerk. In: Die Zeit Nr. 15, 6. April 2005, S. 47. 3) Gottfried Boehm: Die Wiederkehr der Bilder. In: ders. (Hrsg.): Was ist ein Bild? München 1994, S. 11-38; siehe auch: Christa Maar / Hubert Burda (Hrsg.): Iconic Turn. Die neue Macht der Bilder. Köln 2004. 4) Wolfgang Iser: Der Akt des Lesens. 4. Aufl. München 1994; ders.: Die Appellstruktur der Texte. In: Rainer Warning (Hrsg.): Rezeptionsästhetik. 4. Aufl. München 1994, S. 228-252. 5) Wolfgang Kemp: Der Anteil des Betrachters. Rezeptionsästhetische Studien zur Malerei des 19. Jahrhunderts. München 1983; ders.: Verständlichkeit und Spannung. Über Leerstellen in der Malerei des 19. Jahrhunderts. In: ders. (Hrsg.): Der Betrachter ist im Bild. Kunstwissenschaft und Rezeptionsästhetik. Berlin 1992, S. 307-332; ders.: Kunstwerk und Betrachter: Der rezeptionsästhetische Ansatz. In: Hans Belting / Heinrich Dilly / Wolfgang Kemp / Willibald Sauerländer / Martin Warnke (Hrsg.): Kunstgeschichte. Eine Einführung. 6., überarb. u. erw. Aufl. Berlin 2003, S. 247-265. 6) Stephen Heath: Questions of Cinema. London / Basingstoke 1981, S. 76ff. 7) Bredekamp: Im Königsbett der Kunstgeschichte, S. 47. 8) Gehirn & Geist 6/2004, S. 37 FORSCHUNGSMAGAZIN ■ 1/2005 39 ...... ...... BILDWISSENSCHAFT HD Dr. phil. Susanne Marschall Dr. phil. Fabienne Liptay SUSANNE MARSCHALL, 1963 geboren, ist Akademische Rätin am Institut für Filmwissenschaft der Johannes Gutenberg-Universität in Mainz. Nach einem Studium der Deutschen Philologie, Philosophie und Komparatistik promovierte Susanne Marschall 1995 zu einem fachübergreifenden tanz- und literaturwissenschaftlichen Thema. Die Habilitation erfolgte 2005 zum Thema „Farbe im Kino“. Sie war maßgeblich an der Konzeption und Realisation des Medienhauses der Universität beteiligt, ist Sprecherin des IAK Medienwissenschaften und Mitbegründerin von Campus-TV. Aktuelle Forschungsinteressen sind der Aufbau eines bildwissenschaftlichen Forschungsschwerpunktes in Mainz, Farbwahrnehmung und Farbgestaltung, Farb-Klang-Beziehungen, Materialästhetik im Film und in der Malerei, Bildsymbolik sowie Raum und Zeit im Kino. FABIENNE LIPTAY, geboren 1974, ist wissenschaftliche Mitarbeiterin am Seminar für Filmwissenschaft an der Johannes Gutenberg-Universität Mainz. Nach dem Studium der Filmwissenschaft, Theaterwissenschaft und Anglistik war sie von 1999 bis 2001 als freie Mitarbeiterin in der Fernsehredaktion 3sat Kulturzeit tätig. 2002 erfolgte die Promotion mit der Studie „WunderWelten – Märchen im Film“, zur Zeit arbeitet sie an der Habilitation zum Thema „Komposition im bewegten Filmbild“. Fabienne Liptay ist Mitglied einer Initiatorengruppe zum Aufbau eines bildwissenschaftlichen Forschungsschwerpunkts in Mainz. Forschungsinteressen im Rahmen des IFZN sind Strategien und Techniken emotionaler Bildgestaltung, neuro- und kognitionswissenschaftliche Aspekte visueller (Bewegungs-)Wahrnehmung, Wahrnehmung von Bildraum und Bildzeit und Rezeptionsästhetik des Films. ■ Kontakt: HD Dr. phil. Susanne Marschall Johannes Gutenberg-Universität Mainz Institut für Filmwissenschaft Wallstrasse 11 55122 Mainz Tel. +49 (0) 6131 39-31729 Fax +49 (0) 6131 39-31719 E-Mail: [email protected] http://www.uni-mainz.de/film Christoph Sticht - Geigenbaumeister - Bilhildisstraße 15 55116 Mainz Tel. 0 61 31 - 22 71 95 Fax 0 61 31 - 22 04 68 E-mail: [email protected] www.sticht-geigenbau.de 40 BILDWISSENSCHAFT Die „Szenographie“: ein Schlüsselbegriff der Kultur-, Kognitions- und Bildwissenschaft Von Matthias Bauer „Szenographie“ ist ein vielschichtiger Begriff, der in unterschiedlichen Zusammenhängen auftaucht. Für den immer dringlicher werdenden Versuch, die Verständigung zwischen verschiedenen Fächern zu erleichtern, dürfte dies eher ein Vor- als ein Nachteil sein, gibt es doch bereits im vorwissenschaftlichen Bereich eine Schnittmenge gemeinsamer Bedeutungen, auf die ein solcher Versuch aufbauen kann. Geht man zunächst vom klassischen Begriffsverständnis aus, so wie es Vitruv in seinem Traktat De Architectura überliefert hat, kann „Szenographie“ die Kulisse sowie den zuweilen als „Bild“ bezeichneten Akt in der schriftlichen Spielvorlage oder auf der Bühne meinen. Aber auch wenn ein Text – es muss kein Drama sein – einfach nur gelesen wird und im Kopftheater eines einzelnen Menschen zur Aufführung gelangt, folgt die Vorstellung einem szenographischen Diskurs. Perspektivische Mimesis In all diesen Fällen – beim Blick auf das (illusionistische) Bühnenbild, bei der Inszenierung eines Theaterstücks oder bei der Buchlektüre – geht es um eine perspektivische Mimesis, bei der sich ein Beobachter in die Wahrnehmungslage anderer Menschen versetzt, die bestimmte Zeichen so angeordnet haben, dass er ihrer Blickrichtung folgen kann. In diesem Sinne entwirft jeder Mensch, der eine sprachliche Äußerung von sich gibt, eine funktionale, nach Relevanzkriterien gestaffelte Satz- und Deutungsperspektive. Eine Äußerung zu verstehen, heißt mithin, sich – zumindest vorübergehend – auf diese sprachlich vermittelte Sicht der Dinge einzulassen. Im Anschluss an Lucien Tesnière, der die Dependenzielle Satzgrammatik begründet hat, und Algirdas Greimas, der eine Aktanten-Semantik entworfen hat, behaupten Sprach- und Kulturwissenschaftler daher, dass jeder Satz ein kleines Drama bildet, in dem das Verb die Rollen verteilt, die vom Subjekt, vom Objekt usw. gespielt werden, während die adverbialen Bestimmungen zum Raum, zur Zeit und zu den Umständen der Handlung das Bühnenbild ergeben. Da oft ein einziges Stichwort genügt, um mit dem Schauplatz auch die Drehbücher oder „Skripts“ der Dramen aufzurufen, die vor dieser Kulisse spielen könnten, hat Umberto Eco die Szenographie als einen virtuellen Text bezeichnet, in dem der Keim zu einer Geschichte steckt, die sich tatsächlichen ereignen kann oder nur imaginär entfaltet wird. Ein anschauliches Beispiel für diese Art der Szenographie ist der so genannte „establishing shot“, der im Fernsehen oder im Kino als „key visual“ fungiert. Sobald wir in einer Totalen das Monument Valley sehen, antizipieren wir auch schon die Postkutsche, die gleich ins Bild rollen wird, und stellen uns auf die Genrekonventionen des Western ein. In der Filmwissenschaft wird die genrespezifische Szenographie mit dem terminus technicus der Standardsituation erfasst und auf die von Erving Goffman entwickelte Idee bezogen, dass es zu jeder Szene oder Situation einen primären Verständnisrahmen gibt, der sie sinnvoll erscheinen lässt. Die eigentliche Kunst besteht natürlich darin, den primären Verständnisrahmen abzuwandeln und seine Bedeutung so zu modulieren, dass der szenographische Diskurs nicht langweilig wird. Aufschlussreich ist, dass die meisten Standardsituationen mit Hilfe eines substantivierten Verbs bezeichnet werden – der „Überfall“ auf die Postkutsche im Western, der „show down“ usw. Dies ist ein deutlicher Hinweis darauf, dass man auch filmische Standardsituationen, ausgehend von der Verbvalenz, analysieren und zu diesem Zweck eine methodische Synthese von Dramaturgie, Satzgrammatik und Aktanten-Semantik, von Bild- und Situationsanalyse vornehmen kann. Bühnenbild, Kulisse, intellektueller Schauraum und vieles mehr: Szenographie hilft Fächer zu verbinden. Metapher, Mythos und Anschauungsmodell Der szenographische Diskurs funktioniert also wie eine Regieanweisung für die von Empathie grundierte Imagination und Kognition des Menschen. Im Prinzip hatte dies bereits Aristoteles erkannt, für den die Metapher der Inbegriff der menschlichen Kreativität und Konstruktivität war, weil sie die Dinge, wie es in seiner Rhetorik heißt, in ihrer Wirksamkeit vor Augen führt und Analogieschlüsse von einer Szene auf eine andere Situation erlaubt. Sieht man in der folgerichtigen Entwicklung jenes dramatischen Geschehens, das Aristoteles in seiner Poetik als „mythus“ bezeichnet, eine komplexe Metapher, wird klar, dass es in der kleinen wie in der großen Szenographie, beim einzelnen Sprachbild wie im Welttheater, darauf ankommt, Anschauungs- oder Verlaufsmodelle von Handlungsketten für Beobachter zu entwerfen, die selbst nicht unmittelbar in das Geschehen verstrickt sind, gerade deshalb aber mittelbar vom Modell auf ihre eigene Lebenswirklichkeit schließen können. Man kann somit sagen: Der szenographische Diskurs erhält einen pragmatischen Wert, indem er jenen intellektuellen „Schauraum“ eröffnet, den das Wort „theoria“ ursprünglich meint. Um beim Theater in seiner traditionellen Form zu bleiben: An diesem Ort werden der Gesellschaft die Folgen ihrer VerhaltensFORSCHUNGSMAGAZIN ■ 1/2005 41 ...... ...... BILDWISSENSCHAFT Szenographie und Diagrammatik Bis ins 19. Jh. galt die camera obscura als Modell der menschlichen Wahrnehmung. und Denkmuster nach Maßgabe der Wahrscheinlichkeit so vor Augen geführt, dass der Wirkungszusammenhang deutlich wird, für den ihre Mitglieder im Alltag gleichsam betriebsblind sind. Dabei kommt das Verfahren der perspektivischen Mimesis nicht nur zur Anwendung, wenn es um die kognitive, sondern auch, wenn es um die affektive Funktion der Kunst geht – etwa um die von Aristoteles als „katharsis“ bezeichnete Erregung, Übertragung und Abfuhr heftiger Gefühle, die noch für Freud das Vorbild des Psychodramas war, das in der Redekur inszeniert wird. In seinem Brief an die Pisonen hat der römische Dichter Horaz – wiederum in einer Art Regieanweisung – dargelegt, wie die rhetorische Affektenlehre und das poetische Prinzip der perspektivischen Mimesis zusammenhängen: „Mit den Lachenden lacht, mit den Weinenden weint das Antlitz des Menschen. Willst Du, dass ich weine, so traure erst einmal selbst; dann wird dein Unglück mich treffen. [...] Denn die Natur formt zuerst unser Innres je nach der äußeren Lage; beglückt uns, treibt uns zur Wut, zieht uns durch schweren Kummer zu Boden, bedrückt uns; dann lässt sie die Regungen der Seele sich äußern durch die Übersetzung der Zunge.“ 42 Angesichts des offenbar für alle Darstellungs- und Vorstellungsprozesse grundlegenden Zusammenspiels von Perzeption und Imagination, von Kognition und Affektion empfiehlt sich die „Szenographie“ als Schlüsselbegriff der Kultur-, Medien- und Kognitionswissenschaften, zu deren gemeinsamen Aufgaben das interdisziplinäre Projekt der Bilderforschung gehört. Dabei muss die „Szenographie“ auf den Komplementärbegriff der „Diagrammatik“ bezogen werden: Szenen sind in der Regel dicht und konkret – Diagramme veranschaulichen eher abstrakte Relationen. Eine Szene wird mehr oder weniger emphatisch erlebt – die Ermittlung ihrer Bedeutung hängt jedoch wesentlich davon ab, dass diese Szene oder jene Diskurssituation auf eine Rekurssituation bezogen wird, für die es bereits einen primären Verständnisrahmen gibt. So jedenfalls stellt sich der Sachverhalt in der Relationalen Semantik von John Barwise und Jon Perry sowie in der Metaphorologie dar, die George Lakoff und Mark Johnson vertreten. Um den weiterführenden Ansatz der „Diagrammatik“ zu verstehen, muss man freilich über die Bedeutung des Grundworts hinausgehen: Diagramme sind Schaubilder, Landkarten etwa oder Fieberkurven, aber auch Schaltpläne oder Grundrisszeichnungen. Denkt man an die bunten Balken- oder Kuchendiagramme, die in der Wahlberichterstattung eingeblendet werden, leuchtet ein, dass diese schematischen Gestalten besonders gut zur Veranschaulichung von (statistischen) Proportionen und Relationen geeignet sind – also den Logos der Zahl mit dem Logos des Bildes verbinden. In diesem Sinne erfüllen sie in etwa die gleiche Aufgabe, die Immanuel Kant in seiner Architektonik des Geistes dem Schema aufgetragen hatte, das dem Begriff zur Anschauung verhilft. Ein Schema ist ein Hilfsmittel, um verschiedene Dinge und unterschiedliche mentale Formate aufeinander zu beziehen. Wenn man nun mit Kants Zeitgenossen Johann Heinrich Lambert das Zeichen als ein Mittel der Verständigung und Erkenntnis ansieht, das, um seinen Zweck zu erfüllen, zugleich in die Sinne fallen und als principium cognoscendi taugen muss, wird eine funktionale Äquivalenz zwischen dem Schema als Mittel der Veranschaulichung und dem Zeichen als Mittel der Verständigung und Erkenntnis offenkundig. Folgerichtig entstand die moderne Semiotik als Versuch, Ästhetik und Logik, Sinnlichkeit und Verstand neu zu konfigurieren. Für ihren Begründer, den amerikanischen Philosophen Charles Sanders Peirce, gilt, dass sich der Mensch mittels Zeichen ein Bild von der Welt (und von sich selbst) macht und dass er sich und anderen die Bedeutung dieser Bilder vermitteln kann, weil Zeichen an der Schnittstelle von Perzeption und Imagination Beziehungsverhältnisse und Blickpunkte schaffen, die eine perspektivische Mimesis erlauben. Daher steht ein Zeichen für einen bestimmten Bezugsgegenstand immer nur in einer bestimmten Hinsicht für denjenigen, der seine Perspektive nachvollzieht. BILDWISSENSCHAFT Tatsächlich kann man wiederum am Modell der Metapher demonstrieren, inwiefern die Zeichenkonfiguration und Schemabildung diagrammatisch verfährt. Nehmen wir die längst lexikalisierte Metapher vom „Staatsschiff“: Wir verstehen dieses Sprachbild, indem wir sehr konkrete Elemente, die unsere Vorstellung von einem Schiff umfasst, auf bestimmte, vergleichsweise abstrakte Elemente unserer Idee vom Staat beziehen. So denken wir an den Steuermann und setzen ihn mit dem Regierungschef gleich, so assoziieren wir die Wendung „Kurs halten“ und übertragen sie auf die Herausforderung, das „Staatsschiff“ durch die politischen Gezeiten zu lenken usw. Kurzum: Das Schiff wird erst zum Anschauungsmodell und dann zum allegorischen Auslegungsschema, zum Diagramm der Staatsidee. Wie jeder weiß, der schon einmal versucht hat, eine originelle, noch nicht lexikalisierte Metapher zu bilden oder zu entschlüsseln, hat die Diagrammatik eine heuristische Pointe, besteht die Schwierigkeit doch darin, Analogien herzustellen (oder zu entdecken), die ebenso überraschend und aufschlussreich sind. Schaubilder können diesen Vorstellungsprozess leiten und eignen sich hervorragend für Gedankenexperimente und andere Simulationen. Wichtig ist dabei stets die Versuchsanordnung, also das Beziehungsgefüge der Elemente und Faktoren, die systematisch variiert, also diagrammatisch behandelt werden. Hat man aber erst einmal erkannt, dass die Worte im Satzverband, die Sätze in einem Text oder die Abfolge der Einstellungen in einem Film, die „panels“ im comic strip, im story board oder in irgendeinem anderen Medium der Veranschaulichung Beziehungsgefüge bilden, die konjektural erfasst werden, wird klar‚ warum und inwiefern „Szenographie“ und „Diagrammatik“ Komplementärbegriffe bilden. Verständlich wird so auch die enge Verwandtschaft zwischen der konkreten Szenerie (eines Bühnenbildes oder eines Landschaftsgemäldes) und dem vergleichsweise abstrakten Szenario, in dem unsere Annahmen über die Zukunft Gestalt annehmen und durchgespielt werden. Imagination und Kognition Besonders aufschlussreich ist in diesem Zusammenhang ein Befund der modernen Gehirnforschung, der zufolge die meisten Areale, die im Isokortex mit der visuellen Wahrnehmung zu tun haben, auch an der Erzeugung von Vorstellungen beteiligt sind. Wahrscheinlich erklärt dieser Befund, warum es uns so leicht fällt, Schaubilder in der Imagination zu entwerfen, umzugestalten und kognitiv zu verarbeiten, und warum Zeichen, die unsere Sinnlichkeit affizieren und die Vorstellungskraft erregen, auch dem Verstand auf die Sprünge helfen können. Zu beachten ist dabei stets die Komplementarität von Szenographie und Diagrammatik: Denn so wie der Entwurf von Bildern oder Bildfolgen – also der szenographische Akt – eine diagrammatische Operation darstellt, können jene Vorstellungen, die Dia- ...... Schichtenmodell des Gehirns nach J. Dryander 1537 gramme vermitteln, plastisch inszeniert werden. Zu denken wäre etwa an die 3-D-Animationen der Computer-Spiele oder an den Flugsimulator. Voraussetzung dafür, dass man sich mit ihrer Hilfe in realistischen (oder völlig unrealistischen) Situationen gefahrlos ausprobieren kann, ist, dass die einzelnen Spiel- und Handlungszüge zunächst diagrammatisch erfasst und dann entsprechend inszeniert oder animiert werden. Ein wissenschaftliches Gedankenexperiment, ein Essay oder ein Roman mögen zwar weniger plastisch anmuten, auch sie führen jedoch im Rahmen einer heuristischen Fiktion modellhaft vor Augen, was unter bestimmten Umständen geschieht. Einerseits kann man also die gesamte menschliche Verständigung als eine mehr oder weniger dramatische „Szenographie“ verstehen, da es in jedem kommunikativen Akt darauf ankommt, dass sich die Gesprächspartner auf bestimmte „Szenen gemeinsamer Aufmerksamkeit“ (Michael Tomasello) einstellen und analoge Auffassungsperspektiven entwickeln. Andererseits geht es dabei stets um die diagrammatische Vermittlung von Bedeutungen im Rahmen einer situationsspezifischen Zeichenkonfiguration sowie um die Übertragung dieser Bedeutungen auf andere Situationen, so dass mit der Zeit ein dynamisches Netzwerk von Relationen entsteht, das der Welt Gestalt verleiht. Die naheliegende Annahme, dieses dynamische Netzwerk sei der synaptischen, ebenfalls dynamischen Architektur des zentralen Nervensystems strukturell ähnlich oder isomorph, war zweifellos ein nachhaltiger Antrieb der Kognitionswissenschaft und Gehirnforschung. FORSCHUNGSMAGAZIN ■ 1/2005 43 ...... BILDWISSENSCHAFT Bei sprachlichen Leistungen wie dem Generieren von Verben werden bestimmte Areale des Gehirns aktiviert (Darstellung durch Positronen-EmissionsTomographie). 44 Weltbild und Bewusstseinsszene Auffällig ist jedenfalls, dass wir die Begriffe der „Szene“ und des „Diagramms“ sowohl auf Bilder oder Zeichenkonfigurationen anwenden, die uns materialiter vor Augen stehen, wie auch auf Konzepte, die wir nur idealiter, „im Geiste“ haben. Gerade die beiden Metaphern vom „Weltbild“ und von der „Bewusstseinsszene“ belegen, dass der eigentliche Clou der diagrammatischen Operationen darin besteht, die Kluft zwischen dem „Innen“ und dem „Außen“ zu überbrücken, die sich aus der unspezifischen Codierung aller Sinnesreize an der Peripherie des zentralen Nervensystems ergibt. Einerseits wissen wir, dass „Weltbilder“ und „Bewusstseinsszenen“ mentale Konstrukte oder Modelle sind, andererseits vergessen wir bei der eigenen Verhaltenssteuerung anhand dieser Modelle, dass es nur Konstrukte sind, solange es keinen triftigen Grund gibt, an ihrer Verlässlichkeit zu zweifeln. Die Lösung dieses Rätsels, die von moderaten Konstruktivisten wie Gerhard Roth und anderen erwogen wird, liegt ganz auf der Linie jener Argumentation, die zunächst von C. S. Peirce und dann von Ludwig Wittgenstein und Alfred Korzybski entwickelt worden war: Die kognitive Landkarte ist nicht das Territorium, das sie im doppelten Sinn des Wortes „ver-zeichnet“, sie ist jedoch an Projektionsregeln gekoppelt, die sich immer wieder von neuem empirisch bewähren müssen, da die Karte den Menschen sonst in die Irre führen und ihren Zweck verfehlen würde. Selbstverständlich gilt dies auch für die Anschauungsmodelle vom Gehirn, die Wissenschaftler entworfen haben. Spätestens seit der Schädel von außen vermessen und inwendig kartographiert worden ist, kann man die Erforschung des menschlichen Geistes als einen szenographischen Diskurs betrachten, der metaphorologisch interpretiert werden muss. Ob man sich dabei wie im 17. und 18. Jahrhundert die „camera obscura“ zum Vorbild der Wahrnehmung nahm oder im 19. und 20. Jahrhundert dazu überging, physiologische Erregungsmuster aufzuzeichnen und diese Schemata mit elektronischen Schaltplänen zu vergleichen, bis man auf das Computer-Modell verfiel, das inzwischen auch nur noch als Übergangsobjekt der Begriffsbildung erscheint – im Vordergrund all dieser Bemühungen stand stets die plastische, szenisch-konkrete Veranschaulichung hochkomplizierter und abstrakter Vorgänge, dahinter aber die Hoffnung, dem Denken und seiner Tiefengrammatik mittels diagrammatischer Operationen der Veranschaulichung auf die Spur zu kommen. Und natürlich sind auch die Verfahren der Elektroenzephalographie, der Positronen-Emissions-Tomographie (PET) und der funktionalen Magnetresonanz-Tomographie (f-MRT) szenographische Versuche der Diagrammatisierung von Erregungs- und Verarbeitungsmustern, bei denen man, wie bei allen Bildern, nicht unmittelbar auf ihre kognitive Funktion oder auf ihre kulturelle Bedeutung schließen kann. Wie jede Karte braucht auch das „neuro-image“ eine Legende, die uns vor physikalistischen Kurzschlüssen bewahrt. Das Verhältnis zwischen der kulturwissenschaftlich orientierten Bildforschung und der kognitionswissenschaftlich relevanten Hirnforschung ist also dialogisch: Die eine klärt uns über den szenographischen Charakter der bildgebenden Verfahren auf, die andere versucht, den Hiatus zwischen der semiotischen Beschreibung diagrammatischer Operationen und der biologischen Erforschung neuronaler Prozesse zu überbrücken. Gute Chancen zur Intensivierung dieses Dialogs bestehen im Interdisziplinären Forschungszentrum für Neurowissenschaft an der Johannes Gutenberg-Universität und in der Mainzer Graduiertenschule MINDS. BILDWISSENSCHAFT ■ Summary “Scenography” is a key term in the comparative study of pictorial, spoken or written discourse. The basic operation is the establishing of a perspective which shapes the perception, imagination, cognition and emotion of the person in front of a certain configuration of signs. The references and inferences based on this operation can be regarded as functions of dia- grammatoidal reasoning – which is the main topic of many different but complementary investigations (i.e. cognitive poetics, relational semantics and heuristics). Therefore, scenography and diagramatics can be regarded as central concepts in the field of interdisciplinary research, especially in the field of visual and cultural studies. Literatur Aristoteles (1991). Poetik. Stuttgart Aristoteles (1993). Rhetorik. München Azara, P.; Hart, C. G. (2000). Bühnen- und Ausstellungsarchitektur. Stuttgart München Barwise, J.; Perry, J. (1987). Situationen und Einstellungen. Grundlagen der Situationssemantik. Berlin New York Eco, U. (1987). Lector in fabula. Die Mitarbeit der Interpretation in erzählenden Texten. München Wien Goffman, E. (1980). Rahmen-Analyse. Ein Versuch über die Organisation von Alltagserfahrungen. Frankfurt am Main Goodman, N. (1984). Weisen der Welterzeugung. Frankfurt am Main Greimas, A. J. (1972). Sémantique structurale. Recherche du méthode. Paris Horatius, Q. F. (1984). Ars Poetica / Die Dichtkunst. Stuttgart Kant, I. (1993). Kritik der reinen Vernunft. Hamburg Korzybski, A. (1941). Science and Sanity. New York Lakoff, G.; Johnson, M. (1990) Metaphors We Live By. Chicago London Lambert, J. H. (1771). Anlage zur Archictectonic oder Theorie des Ersten und des Einfachen in der philosophischen Erkenntnis. Riga Neumann, G.; Pross, C.; Wildgruber, G. (Hg.) (2000). Szenographien. Theatralität als Kategorie der Literaturwissenschaft. Freiburg im Breisgau Peirce, Ch. S. (1931-58). Collected Papers. Cambridge London (Zur Definition des Zeichens vgl. CP 2.228) Von Polenz, P. (1985). Deutsche Satzsemantik. Grundbegriffe des Zwischen-den-Zeilen-Lesens. Berlin New York Roth, G. (1995). Das Gehirn und seine Wirklichkeit. Kognitive Neurobiologie und ihre philosophischen Konsequenzen. Frankfurt am Main Stockwell, P. (2002). Cognitive Poetics. An introduction. London New York Tesnière, L. (1980). Grundzüge der strukturalen Syntax. Stuttgart Tomasello, M. (2002). Die kulturelle Entwicklung des menschlichen Denkens. Zur Evolution der Kognition. Frankfurt am Main Vitruvius, A. P. (1987). Zehn Bücher über Architektur. Baden-Baden Wittgenstein, L. (1975). Philosophische Untersuchungen. Frankfurt am Main PD Dr. phil. Matthias Bauer ■ Kontakt: PD Dr. phil. Matthias Bauer Johannes Gutenberg-Universität Mainz Deutsches Institut Jakob-Welder-Weg 18 55128 Mainz Tel. +49 (0) 6131 39-23246 E-Mail: [email protected] MATTHIAS BAUER, Jahrgang 1962, hat Germanistik, Publizistik und Geschichte studiert. Die Promotion erfolgte 1992, die Habilitation 2002. Er ist Privatdozent am Deutschen Institut der Johannes GutenbergUniversität und Lehrbeauftragter am Institut für Filmwissenschaft. FORSCHUNGSMAGAZIN ■ 1/2005 45 ...... Anzeige 46 PHILOSOPHIE Wie ein bewusstes Ich entsteht: Die Selbstmodell-Theorie der Subjektivität Von Thomas Metzinger Die „Selbstmodell-Theorie der Subjektivität“ (SMT) ist ein interdisziplinäres Forschungsprogramm, das seit vielen Jahren am Arbeitsbereich Theoretische Philosophie verfolgt wird. SMT ist eine philosophische Theorie darüber, was ein bewusstes Selbst ist, eine Theorie darüber, was es eigentlich bedeutet, dass geistige Zustände „subjektive“ Zustände sind und auch darüber, was es heißt, dass ein bestimmtes System eine „phänomenale Erste-Person-Perspektive“ besitzt.1-5 Eine der Kernaussagen dieser Theorie ist, dass es so etwas wie Selbste in der Welt nicht gibt: Selbste gehören nicht zu den irreduziblen Grundbestandteilen der Wirklichkeit. Was es gibt, ist das erlebte Ichgefühl und die verschiedenen, ständig wechselnden Inhalte unseres Selbstbewusstseins – das, was Philosophen das „phänomenale Selbst“ nennen. Dieses bewusste Erleben eines Selbst wird als Resultat von Informationsverarbeitungs- und Darstellungsvorgängen im zentralen Nervensystem analysiert. Natürlich gibt es auch höherstufige, begrifflich vermittelte Formen des phänomenalen Selbstbewusstseins, die nicht nur neuronale, sondern auch soziale Korrelate besitzen. Der Fokus der Theorie liegt jedoch zunächst auf der Frage nach den minimalen repräsentationalen und funktionalen Eigenschaften, die ein informationsverarbeitendes System wie der Mensch besitzen muss, um die Möglichkeitsbedingungen für diese höherstufigen Varianten des Selbstbewusstseins zu realisieren. Die erste Frage lautet: Was sind minimal hinreichende Bedingungen dafür, dass überhaupt ein bewusstes Selbst entsteht? Integration Taina Litwak Illustration Studio Eine Grundidee besagt, dass Selbstbewusstsein in wesentlichen Aspekten eine vorbegriffliche Integrati- onsleistung ist: Alle repräsentationalen Zustände, die in das gegenwärtig aktive Selbstmodell eingebettet werden, gewinnen die höherstufige Eigenschaft der phänomenalen „Meinigkeit“ hinzu, sie werden als eigene erlebt. Wenn dieser Einbettungsprozess gestört wird oder hypertrophiert, resultieren verschiedene neuropsychologische Syndrome oder veränderte Bewusstseinszustände. Werfen wir einen Blick auf einige Beispiele, bei denen die phänomenale Meinigkeit verloren geht: Wie wir uns selbst erkennen und ein grundlegendes Ichgefühl entwickeln, erläutert eine philosophische Theorie über das Wesen des bewussten Selbst. • Floride Schizophrenie: Bewusst erlebte Gedanken sind nicht mehr meine Gedanken. • Unilateraler Hemi-Neglekt: Mein Bein ist nicht mehr mein Bein. • Alien Hand Syndrome: Mein Arm führt zielgerichtete Handlungen ohne meine Kontrolle aus. • Depersonalisationssyndrome: Ich bin ein Roboter, verwandele mich in eine Marionette, volitionale Akte sind nicht mehr meine volitionalen Akte. (Was hier selektiv verloren geht, ist also das, was der Philosoph und Psychiater Karl Jaspers „Vollzugsbewusstsein“ genannt hat.) Subjektiv erlebte „Meinigkeit“ ist also eine Eigenschaft einzelner Formen phänomenalen Gehalts, zum Beispiel der mentalen Repräsentation eines Beins, eines Gedankens oder eines Willensaktes. Diese Eigenschaft ist nicht notwendig mit ihnen verbunden, denn sie ist keine intrinsische, sondern eine relationale Eigenschaft. Ihre Verteilung über die Elemente eines bewussten Weltmodells besitzt eine Varianz. Sie kann selektiv verloren gehen, und zwar genau dann, wenn dem System die Integration bestimmter einzelner repräsentationaler Inhalte ins Selbstmodell nicht mehr gelingt. Wenn das richtig ist, dann könnte Abb. 1: Die Gummihand-Illusion: Gesunde Versuchspersonen erleben ein künstliches Glied als einen Teil ihres eigenen Körpers. Die Versuchsperson beobachtet die Nachbildung einer menschlichen Hand, während eine ihrer eigenen Hände verdeckt ist (graues Rechteck). Sowohl die künstliche Gummihand wie auch die unsichtbare Hand werden wiederholt und gleichzeitig mit einem Stäbchen gestreichelt. Die grünen und gelben Bereiche stellen die jeweiligen taktilen und visuellen rezeptiven Felder für Neuronen im prämotorischen Kortex dar. Im rechten Bild sieht man die Illusion der Versuchsperson, bei der die gefühlte Berührung (in Grün) in Einklang mit der gesehenen Berührung gebracht wird (die phänomenal erlebte, illusorische Armstellung ist in Blau dargestellt). Die entsprechende Aktivierung von Neuronen im prämotorischen Kortex lässt sich experimentell sehr genau nachweisen.6,7 FORSCHUNGSMAGAZIN ■ 1/2005 47 ...... ...... PHILOSOPHIE man diese Eigenschaft zumindest prinzipiell operationalisieren, und zwar indem man nach einer empirisch überprüfbaren Metrik für die Kohärenz des Selbstmodells in den fraglichen Bereichen sucht. Man könnte auch empirisch untersuchen, wie und durch welche Teile des Gehirns ein bestimmter repräsentationaler Inhalt ins Selbstmodell eingebunden wird – und man kann diese Eigenschaft auch absichtlich konstruieren, indem man dem Gehirn ungewöhnliche statistische Korrelationen anbietet Hier ist ein konkretes Beispiel für das, was ich mit „Meinigkeit“ meine: Bei der Gummihand-Illusion werden eine gefühlte und eine gesehene Berührung vom Gehirn so mit einander verschmolzen, dass nicht nur eine propriozeptive Karte vorübergehend mit einer visuellen Karte in Übereinstimmung gebracht wird - also die Eigenwahrnehmung des Körpers mit dem, was man sieht -, sondern so, dass damit auch das Gefühl des „Besitzens“, die phänomenale „Meinigkeit“ auf die Gummihand übergeht. Die Versuchsperson erlebt die Gummihand als ihre eigene Hand und fühlt die Berührung in dieser Hand. Wenn man sie bittet, auf ihre verdeckte linke Hand zu zeigen, unterläuft ihr ein Fehler in Form einer Abweichung in Richtung auf die Gummihand. „Verletzt“ man einen Finger der Gummi-Hand durch eine Biegung nach hinten in eine physiologisch unmögliche Position, dann wird auch der phänomenal erlebte Finger als wesentlich weiter zurück gebogen erlebt, als er es in Wirklichkeit ist, zusätzlich zeigt sich eine deutlich messbare Hautwiderstandreaktion. Zwar berichteten nur 2 von 120 Versuchspersonen tatsächlich von einem echten Schmerzerlebnis, aber viele zogen ihre reale Hand zurück, rissen die Augen auf oder lachten nervös. Wenn man mit einem Hammer auf die Gummihand schlägt, zeigt die Person ebenfalls eine sehr deutliche Reaktion. Wieder zeigt sich, wie die phänomenale Zieleigenschaft direkt von Vorgängen im Gehirn determiniert wird. Was wir als Teil unseres Selbst erleben, hängt also vom jeweiligen Kontext ab und davon, welche Information vom Gehirn jeweils in unser Selbstmodell eingebettet wird. Naturalismus Die Selbstmodell-Theorie geht davon aus, dass die gesuchten Eigenschaften repräsentationale und funktionale Eigenschaften des Gehirns sind. Diejenige psychologische Eigenschaft, die uns überhaupt erst zu Personen macht, wird also mit den begrifflichen Mitteln subpersonaler Beschreibungsebenen analysiert. In der Philosophie des Geistes nennt man ein solches Verfahren manchmal auch eine „Naturalisierungsstrategie“: Ein schwer verständliches Phänomen – etwa das Entstehen von phänomenalem Bewusstsein mit einer subjektiven Innenperspektive – wird begrifflich auf eine Weise analysiert, die es empirisch behandelbar machen soll. Naturalistische Philosophen versuchen, über eine interdisziplinäre Öffnung klassische Probleme ihrer eigenen Disziplin 48 für die Naturwissenschaften traktabel zu machen, zum Beispiel für die Neuro- und Kognitionswissenschaften. Naturalismus und Reduktionismus sind für solche Philosophen aber keine szientistische Ideologie, sondern einfach eine rationale Forschungsheuristik: Wenn es sich zum Beispiel zeigen sollte, dass es – wie viele glauben - etwas am menschlichen Selbstbewusstsein gibt, das sich dem naturwissenschaftlichen Zugriff aus prinzipiellen Gründen entzieht, dann werden sie auch damit zufrieden sein. Sie haben dann das erreicht, was von Anfang an ihr Ziel war: Philosophen nennen es gerne einen „epistemischen Fortschritt“. Ein Erkenntnisfortschritt könnte nämlich auch darin bestehen, dass man hinterher auf wesentlich präzisere und gehaltvollere Weise beschreiben kann, warum es auf bestimmte Fragen prinzipiell keine befriedigende wissenschaftliche Antwort geben kann. Seriöse philosophische AntiNaturalisten und Anti-Reduktionisten kann man deshalb immer daran erkennen, dass gerade sie es sind, die ein besonders großes Interesse an neuen empirischen Erkenntnissen und an ernsthaften interdisziplinären Dialogen haben. Simulation Was wir im Grunde brauchen, ist also eine umfassende Theorie des Selbstmodells von Homo sapiens. Empirische Daten zeigen, dass es ein virtuelles Modell ist, das interessanterweise eine Möglichkeit (die beste Hypothese, die das System momentan über seinen eigenen Zustand hat) als eine Wirklichkeit darstellt. Ein zweites Beispiel soll deshalb verdeutlichen, was ich – unter vielem anderen – mit dem Begriff „Selbstmodell“ meine. Was ein phänomenales Selbstmodell ist, hat der indische Neuropsychologe Vilayanur Ramachandran in einer Serie von faszinierenden Experimenten gezeigt, bei denen er mit Hilfe von einfachen Spiegeln Synästhesien und Bewegungsillusionen in Phantomgliedern auslöste.8,9 Phantomglieder sind subjektiv erlebte Gliedmaßen, die typischerweise nach dem Verlust eines Arms oder einer Hand oder nach chirurgisch durchgeführten Amputationen auftreten. In manchen Fällen, zum Beispiel nach einer nicht-traumatischen Amputation durch einen Chirurgen, sind die Patienten subjektiv in der Lage, ihr Phantomglied willentlich zu kontrollieren und zu bewegen. Das neurofunktionale Korrelat dieser phänomenalen Konfiguration könnte darin bestehen, dass – da es keine widersprechende Rückmeldung aus dem amputierten Arm gibt – Motorbefehle, die im motorischen Kortex entstehen, immer noch kontinuierlich durch Teile des Parietallappens überwacht und dabei in denjenigen Teil des Selbstmodells integriert werden, der als ein Motoremulator dient. In anderen Situationen dagegen kann die subjektiv erlebte Beweglichkeit und Kontrolle über das Phantomglied verloren gehen. Solche alternativen Konfigurationen könnten etwa durch eine präamputationale Lähmung als Folge peripherer Nervenschädigungen oder durch das längere Fehlen einer die PHILOSOPHIE Beweglichkeit bestätigenden „Rückmeldung“ durch propriozeptives und kinästhetisches Feedback entstehen. Das Resultat auf der phänomenalen Darstellungsebene ist dann ein paralysiertes Phantomglied. Ramachandran und seine Kollegen konstruierten nun eine „virtuelle Realitätskiste“, indem sie einen Spiegel vertikal in einen Pappkarton ohne Abdeckung einsetzten. Zwei Löcher in der Vorderseite des Kartons ermöglichten es dem Patienten, sowohl seinen echten als auch seinen Phantomarm hinein zu schieben. Ein Patient, der seit vielen Jahren unter einem paralysierten Phantomglied litt, wurde dann gebeten, das Bild seiner normalen Hand im Spiegel zu betrachten, um so – auf der Ebene des visuellen Inputs – die Illusion zu erzeugen, dass er zwei Hände sieht, obwohl er in Wirklichkeit nur das im Spiegel reflektierte Bild seiner intakten Hand sehen konnte. Die Fragestellung: Was geschieht mit dem Inhalt des phänomenalen Selbstmodells, wenn man jetzt die Versuchsperson bittet, auf beiden Seiten symmetrische Handbewegungen auszuführen? Ramachandran beschreibt ein typisches Resultat dieses Experiments: ...... Ich hoffe, dass bereits deutlich geworden ist, wie solche neuen Daten den von mir eingeführten Begriff eines „Selbstmodells“ illustrieren: Was sich in diesem Experiment bewegt, ist das phänomenale Selbstmodell. Das plötzliche Auftreten von kinästhetischen Empfindungsqualitäten in der verlorenen Subregion des Selbstmodells wurde durch die Installation einer zweiten Quelle von „virtueller Information“ möglich gemacht. Sie machte den visuellen Modus der Selbstrepräsentation sozusagen wieder zugänglich und damit auch die betreffende Information wieder volitional verfügbar. Die willentliche Kontrolle wurde nun wieder möglich. Was das Experiment ebenfalls zeigt, ist wie phänomenale Eigenschaften durch komputationale und repräsentationale Eigenschaften im Gehirn determiniert werden. Transparenz Ein genuines, bewusst erlebtes Selbst entsteht immer genau dann, wenn das System das von ihm selbst aktivierte Selbstmodell auf der Ebene des bewussten Erlebens nicht mehr als Modell erkennt. Der entschei- Ich bat Philip, seine rechte Hand innerhalb der Kiste rechts vom Spiegel zu platzieren und sich vorzustellen, dass seine linke Hand (das Phantom) sich auf der linken Seite befindet. Dann gab ich die Instruktion: „Ich möchte, dass Sie gleichzeitig ihren rechten und ihren linken Arm bewegen“. Courtesy of Vilayanur Ramachandran „Oh, das kann ich nicht“, sagte Philip. „Ich kann meinen rechten Arm bewegen, aber mein linker Arm ist eingefroren. Jeden Morgen beim Aufstehen versuche ich, mein Phantom zu bewegen, weil es sich immer in dieser seltsamen Stellung befindet und weil ich das Gefühl habe, dass Bewegungen den Schmerz lindern könnten. Aber“, sagte er, während sein Blick abwärts an seinem unsichtbaren Arm entlang glitt, „ich war niemals in der Lage, auch nur den Funken einer Bewegung in ihm zu erzeugen.“ „Okay Philip – versuchen Sie es trotzdem.“ Philip drehte seinen Körper und bewegte seine Schulter in die richtige Stellung, um sein lebloses Phantomglied in die Kiste „hinein zu schieben“. Dann hielt er seine rechte Hand neben die andere Seite des Spiegels und versuchte, synchrone Bewegungen zu machen. Als er in den Spiegel schaute, rang er plötzlich um Atem und rief dann aus: „Oh mein Gott! Oh mein Gott, Doktor! Das ist unglaublich. Ich glaube, ich werde verrückt!” Er sprang auf und ab wie ein Kind. „Mein linker Arm ist wieder angeschlossen. Es ist, als ob ich in der Vergangenheit bin. Ganz viele Erinnerungen aus der Vergangenheit überfluten mein Bewusstsein. Ich kann meinen Arm wieder bewegen! Ich kann die Bewegung meines Ellenbogens spüren, auch die meines Handgelenks. Alles ist wieder beweglich.” Nachdem er sich etwas beruhigt hatte, sagte ich: „Okay Philip – schließen Sie jetzt Ihre Augen.” „Oh je,” sagte er, und die Enttäuschung in seiner Stimme war deutlich zu hören, „es ist wieder eingefroren. Ich fühle wie meine rechte Hand sich bewegt, aber es gibt keinerlei Bewegungsempfindung im Phantom.” „Öffnen Sie Ihre Augen.” „Oh ja – jetzt bewegt es sich wieder.”8 dende theoretische Punkt ist das, was Philosophen manchmal „phänomenale Transparenz“ nennen.10 Die vom System eingesetzten repräsentationalen Zustände sind transparent, d. h. sie stellen die Tatsache, dass sie Modelle sind, nicht mehr auf der Ebene ihres Gehalts dar. Deshalb schaut das System durch seine eigenen repräsentationalen Strukturen „hindurch“, als ob es sich in direktem und unmittelbarem Kontakt mit ihrem Inhalt befände. Transparenz in dem hier definierten Sinne ist ausschließlich eine Eigenschaft bewusster Zustände, unbewusste Repräsentationen sind also weder transparent noch opak. Ich vertrete zwei kausale Hypothesen bezüglich der Entstehungsgeschichte transparenter phänomenaler Zustände. Erstens: Die fraglichen Datenstrukturen werden so schnell und zuverlässig aktiviert, dass das System sie introspektiv nicht mehr als solche erkennen kann, z. B. wegen des mangelnden zeitlichen Auflösungsvermögens metarepräsentationaler Funktionen. Außerdem hat es – zweitens - allem Anschein Abb. 2: Die „virtuelle Realitätskiste“ spiegelt dem Probanden eine zweite Hand an der Stelle des Phantomglieds vor. FORSCHUNGSMAGAZIN ■ 1/2005 49 ...... PHILOSOPHIE nach keinen evolutionären Selektionsdruck auf die entsprechenden Teile der funktionalen Architektur gegeben. Der naive Realismus ist für biologische Systeme wie uns selbst eine funktional adäquate Hintergrundannahme gewesen. Diesen Gedanken muss man nun im letzten Schritt wieder auf das Selbstmodell anwenden: Wir selbst sind Systeme, die erlebnismäßig nicht in der Lage sind, ihr eigenes subsymbolisches Selbstmodell als Selbstmodell zu erkennen. Deshalb operieren wir unter den Bedingungen eines „naiv-realistischen Selbstmissverständnisses“: Wir erleben uns selbst, als wären wir in direktem und unmittelbarem epistemischen Kontakt mit uns selbst. Und auf diese Weise entsteht – das ist der Kern der Selbstmodelltheorie – erstmals ein basales „Ichgefühl“, ein für das betreffende System unhintergehbares phänomenales Selbst. ■ Summary The self-model theory of subjectivity (SMT) is an interdisciplinary research program developing a representationalist and functionalist analysis of high-level phenomenal properties like self-consciousness and the emergence of a first-person perspective. This takes place in combination with a search for the neural correlates implementing these properties in humans. The central working hypothesis is that a phenomenal self emerges if a conscious information-processing system operates under an integrated and transparent internal model of itself as a whole. Literatur 1) Metzinger, T. (2003a;2 2004). Being No One. The Self-Model Theory of Subjectivity. Cambridge, MA: MIT Press. 2) Metzinger, T. (2005b). Précis of „Being No One“. In PSYCHE - An Interdisciplinary Journal of Research on Consciousness. URL: http://psyche.cs.monash.edu.au/ Auch unter http://www.philosophie.uni-mainz.de/metzinger/ 3) Metzinger, T. (2000c). Neural Correlates of Consciousness: Empirical and Conceptual Questions. Cambridge, MA: MIT Press. 4) Metzinger, T. (1995b; 5., erweiterte Auflage 2005)[Hrsg.]. Bewusstsein - Beiträge aus der Gegenwartsphilosophie. Paderborn: mentis. 5) Metzinger, T. (2005). Die Selbstmodell-Theorie der Subjektivität: Eine Kurzdarstellung in sechs Schritten. In C. Herrmann, M. Pauen, J. Rieger und S. Schicktanz (Hrsg.), Bewusstsein: Philosophie und Neurowissenschaften im Dialog. Stuttgart: UTB/Fink. 6) Botvinick, M. & Cohen, J. (1998). Rubber hand “feels” touch that eyes see. Nature, 391: 756. 7) Ehrsson, H.H., Spence, C. & Passingham, R.E. (2004). That’s my hand! Activity in premotor cortex reflects feeling of ownership of a limb. Science, 305: 875-7. 8) Ramachandran, V.S. & Blakeslee, S. (1998). Phantoms in the Brain. New York: William Morrow and Company, Inc. 9) Ramachandran, V.S. & Rogers-Ramachandran, D. (1996). Synaesthesia in phantom limbs induced with mirrors. Proceedings of the Royal Society London, B: 377-86. 10) Metzinger, T. (2003d). Phenomenal transparency and cognitive self-reference. Phenomenology and the Cognitive Sciences, 2: 353-393. doi:10.1023/B:PHEN.0000007366.42918.eb Univ.-Prof. Dr. phil. Thomas Metzinger THOMAS METZINGER, Jahrgang 1958, studierte Philosophie an der Universität Frankfurt und habilitierte sich 1993 in Giessen. Er war der erste Fellow des Hanse-Wissenschaftskollegs in Bremen-Delmenhorst und kehrte 1999 nach einem einjährigen Forschungsaufenthalt an der University of California at San Diego an die Universität Osnabrück zurück, wo er eine Professur für Philosophie der Kognitionswissenschaft innehatte. Metzinger wird der nächste Präsident der Deutschen Gesellschaft für Kognitionswissenschaft 50 sein, er ist Vorstandsmitglied der Association for the Scientific Study of Consciousness, Senior Member des McDonnell Project in Philosophy and the Neurosciences und Adjunct Fellow am Frankfurt Institute for Advanced Study. Im Jahr 2000 nahm er einen Ruf auf eine C4-Professur an der Johannes GutenbergUniversität Mainz an. ■ Kontakt: Univ.-Prof. Dr. phil. Thomas Metzinger Johannes Gutenberg-Universität Mainz Philosophisches Seminar Jakob-Welder-Weg 18 55099 Mainz Tel. +49 (0) 6131 39-23279 Fax +49 (0) 6131 39-25141 E-Mail: [email protected] http://www.philosophie.uni-mainz.de/metzinger PHILOSOPHIE Bildhaftes Vorstellen, Denken und Simulieren Von Verena Gottschling Die Idee von bildhaftem Denken wird seit der Antike diskutiert. Schon Aristoteles billigte Bildern in der Kognition eine zentrale Rolle zu. Die Konzentration auf die Sprachphilosophie und die Entstehung der Psychologie als eigene Disziplin führten Anfang des letzten Jahrhunderts dazu, dass Denken vor allem als sprachliches Denken verstanden und die Frage anschaulichen Denkens vernachlässigt wurde. In frühen psychologischen Versuchen wurden Personen zunächst lediglich nach ihren introspektiven Eindrücken befragt und direkt auf Realisierungen im menschlichen Gehirn geschlossen. Gaben die Personen also an, die Aufgaben mittels bildhafter Vorstellungen zu lösen, ging man von der Existenz von Bildern im Gehirn aus. Aus heutiger Sicht ist dieser Schluss nicht zulässig. Die Auseinandersetzung um bildhaftes Denken wurde dann einige Zeit in der Literatur kaum weiterentwickelt. In modernem kognitions- und neurowissenschaftlichem Gewand hat diese Debatte unter dem Schlagwort „Imagery Debatte“ eine Renaissance erlebt. Ausgelöst wurde dies durch Experimente kognitiver Psychologen, die Hinweise auf ein – bildartiges – internes Repräsentationsformat zu geben scheinen. Allerdings unterscheidet sich die klassische philosophische Debatte von der Imagery Debatte. In der modernen Debatte wird zugestanden, dass bildhaftes Vorstellen mit der subjektiven Erfahrung einhergeht, die der des Wahrnehmens sehr ähnlich ist; kurz, dass es sich „so anfühlt“, als würden wir Bilder betrachten. Der strittige Punkt ist, was für Arten mentaler Repräsentationen während dieser Prozesse verwendet werden. Erzwingen die empirischen Ergebnisse von Psychologen und Neurowissenschaftlern das Zugeständnis, mentale bildhafte Repräsentationen - kurz „Images“ - zu postulieren – oder legitimieren sie deren Postulierung zumindest? Und wenn dies zugestanden wird, was genau sind die Eigenschaften dieser Repräsentationen, die es erlauben, sie als „bildhaft“ zu bezeichnen? Seit etwa Mitte der 80er Jahre ist es mit den neuen bildgebenden Verfahren möglich geworden, die Gehirnaktivitäten direkt zu messen. Philosophisch ist vor allem interessant, was sich aus diesen Ergebnissen darüber, wie bildhaft menschliches Denken funktioniert, tatsächlich ableiten lässt. Zentral für die Diskussion der Möglichkeit bildhaften Denkens sind zwei Aspekte: Erstens die Formatfrage, also die Frage nach der Bildartigkeit der internen Repräsentationen, die wir beim Denken benutzen; zweitens die Frage, ob und wie sehr die Repräsentationen im Denken identisch mit den entsprechenden perzeptuellen Repräsentationen sind oder ob die beim Vorstellen zugrunde liegenden Reprä- sentation „post-perzeptuelle“ Repräsentationen sind. Sind in einer imaginierten Situation und ihrer visuell wahrgenommenen Entsprechung dieselben internen perzeptuellen Repräsentationen beteiligt? Beide Fragestellungen sind im Prinzip unabhängig voneinander. Es wäre möglich, dass die zugrunde liegenden Repräsentationen perzeptuell sind, aber dass nicht „bildhaft“ repräsentiert wird. Tatsächlich aber hat sich herausgestellt, dass beide Fragestellungen eng miteinander verwandt sind, da sich zeigen ließ, dass die topographische Organisation eine wichtige Rolle in bestimmten Ebenen visueller Areale spielt. Insofern lässt sich die zweite Frage inzwischen insoweit bejahen, als von Psychologen und Neuropsychologen nachgewiesen wurde, das tatsächlich Aktivierungen in diesen topographischen Arealen des visuellen Systems aktiv sind, wenn Menschen sich etwas vorstellen oder etwas sehen. Es wäre jedoch verfrüht, hieraus zu schlussfolgern, man habe die fraglichen Bilder im Geiste gefunden und die philosophische Debatte sei beendet. Mit neuen bildgebenden Verfahren können Gehirnaktivitäten direkt gemessen werden. Philosophisch ist vor allem interessant, was sich aus den Ergebnissen dieser Messungen tatsächlich über menschliches Denken ableiten lässt. Die Imagery Debatte In der Imagery Debatte geht es darum, ob es notwendig ist, neben den sprachartigen oder symbolischen Repräsentationen eine andere Art mentaler Repräsentationen zu postulieren, bildhafte Repräsentationen oder Images. „Piktorialisten“ und ihr führender Vertreter Stephen Kosslyn behaupten, dass unsere subjektive Erfahrung in die richtige Richtung weist. Es gibt gute Gründe anzunehmen, dass es bildhafte mentale Repräsentationen gibt. Zenon Pylyshyn und mit ihm die meisten Philosophen glauben, dieses Zugeständnis sei unnötig; diese „Deskriptionalisten“ argumentieren, die Ergebnisse ließen sich auch mit den ohnehin postulierten symbolischen Repräsentationen erklären. Mehr noch, der Piktorialismus sei inkonsistent. Auch viele Gegenwartsphilosophen beurteilen die modernen „Bildertheorien“ des Geistes negativ. Bilder scheinen nicht die richtigen Entitäten zu sein, die wir für Theorien des Geistes benötigen. Dafür gibt es viele Gründe. Der Gehalt mentaler Repräsentationen wird als begrifflich und kompositional verstanden. Bilder scheinen einen solchen Gehalt nicht zu besitzen. Dabei ist wichtig, zwei Arten von Bildertheorien zu unterscheiden. In gleichberechtigten Theorien werden zwei gleichstufige Repräsentationsformate angenommen. Die schwächere Behauptung wird in hierarchischen Theorien vertreten; hier wird behauptet, ein Format – üblicherweise das bildhafte – sei dem anderen untergeordnet. Hierarchische Bildertheorien müssen als erfolgversprechender gelten. FORSCHUNGSMAGAZIN ■ 1/2005 51 ...... ...... PHILOSOPHIE Doch auch für diese Arten von Bildertheorien scheint sich automatisch das Homunkulusproblem zu ergeben: Externe Bilder müssen interpretiert werden. Wer interpretiert und analysiert mentale Bilder? Ein kleiner Homunkulus im Kopf? Wer interpretiert dessen Images? Das zugrunde liegende Bild wurde sehr anschaulich als „Cartesisches Theater“ bezeichnet. Vertreter einer erfolgreichen Bildertheorie können nicht einfach behaupten, dass es eine interne Bühne gibt, auf der Information präsentiert und uns bewusst wird. Diese übervereinfachte Auffassung ist in jedem Fall zu vermeiden. Begriffliche Mehrdeutigkeit in den Bildertheorien Bei genauerer Analyse zeigt sich allerdings, dass die so gegensätzliche Bewertung der Bildertheorien in verschiedenen Missverständnissen begründet ist. Der zentrale Begriff „Image“ wird in den verschiedenen Disziplinen, aber auch von verschiedenen Wissenschaftlern und in verschiedenen Ansätzen unterschiedlich und zudem miteinander unverträglich verwendet (Abb. 1). Insbesondere müssen die Postulierung lediglich funktionaler Images (funktionale Lesart, FLA) und die von „echten“ bildhaften Repräsentationen („real picture“-Lesart, RPLA) unterschieden werden. Die zweite Behauptung ist stärker und identifiziert das Medium bildhafter Repräsentation mit retinotop repräsentierenden Arealen im primären visuellen Kortex oder in höheren visuellen Arealen. Die schwächere Lesart des Piktorialismus besagt nur, dass die entsprechenden Repräsentationen in ihrer Funktion in den Prozessen Bildern in gewisser Weise ähneln, sie seien jedoch nicht wirklich „bildhaft“ oder „räumlich“. Beide Lesarten des Piktorialismus haben unterschiedliche Schwachpunkte. Die funktionale Lesart muss eine Erklärung liefern, was „funktionale Bilder“ und „funktional räumliche Repräsentationen“ sind. Ein Piktorialismus in der stärkeren Lesart scheint unweigerlich in das Homunkulusproblem zu geraten. Tatsächlich sind beide Strategien nicht aussichtslos. Michael Tye hat einen vielversprechenden Ansatz vorgeschlagen, der von der Künstlichen Intelligenz (KI) inspiriert ist, allerdings ebenfalls sehr unterschiedlich verstanden werden kann (vgl. FLA in Abb. 1). Die Kernidee ist die, dass räumliche Entfernungen implizit repräsentiert werden, indem mehrfach jeweils die Nachbarzellen der Ausgangszelle bestimmt werden. Andere bildhafte Eigenschaften werden symbolisch repräsentiert, d. h. es liegen hybride Repräsentationen vor. Meiner Meinung nach kann diese Grundidee ohne weiteres verbessert und erweitert werden. Diese funktionale Interpretation des Piktorialismus hat allerdings ein wichtiges Zugeständnis zur Folge: Beim bildhaften Vorstellen handelt es sich nicht wirklich um Bilder; das Reden über interne Bilder ist eine weit gefasste Analogie. Die zweite und stärkere Lesart ist die interessante: Bilder wie auch perzeptuelle Repräsentationen wer52 den durch topographische Abbildungen im menschlichen visuellen Kortex identifiziert. Dennoch ist diese Lesart nicht auf eine reduktionistische Position bezüglich des Leib-Seele-Problems festgelegt, anders als vielfach von Philosophen angenommen wird (vgl. Lesarten der RPLA in Abb. 1). Man ist nicht verpflichtet, die Images und ihre neuronale Realisierung im Sinne einer Typ-Identität zu identifizieren. Auch wird hier nicht einfach die Erklärungsebene von der funktional charakterisierten Ebene mentaler Repräsentation hin zu Eigenschaften des Gehirns gewechselt. Die Position des Psychofunktionalismus eröffnet eine andere Möglichkeit. Im Psychofunktionalismus wird die funktionale Analyse als wissenschaftliche Hypothese verstanden. Hierbei wird davon ausgegangen, dass Images als mentale phänomenale Zustände mit bestimmten funktionalen Rollen identifiziert werden können. Die empirische Wissenschaft ist das Werkzeug, das wir nutzen können, um diese Zustände mit bestimmten funktionalen Rollen zu korrelieren. Das ist deswegen möglich, so die Annahme, weil die funktionalen Komponenten anatomisch unterscheidbar sind. Deswegen spiegelt sich die funktionale Organisation in der Organisation unseres Nervensystems wider. Damit wird angenommen, dass mentale Zustände eine bestimmte funktionale Rolle spielen und dass sie Informationen tragen. Um mehr über diese Rolle und ihre Realisierung zu erfahren, sollten wir das Gehirn erforschen. Dennoch werden mentale Zustände nicht einfach mit Gehirnzuständen identifiziert. Hieraus folgt, dass die topographische Organisation in bestimmten Ebenen visueller Areale nicht ausreicht, um den Schluss auf vorliegende „Bildartigkeit“ zu rechtfertigen. Zusätzlich muss gezeigt werden, dass diese Organisation eine Rolle für die ablaufenden Informationsverarbeitungsprozesse spielt. Wenn benachbarte Neuronen nicht auf die richtige Art miteinander verschaltet sind oder etwa gezeigt werden kann, dass sie nicht adäquat Information verarbeiten, spielt das spezielle räumliche Layout nicht die geeignete funktionale Rolle. Bildhaftes Vorstellen und Ebenen der Wahrnehmung Doch es gibt noch weitere Mehrdeutigkeiten in der Verwendung von „Image“. Auch innerhalb der stärkeren Lesart werden als Images Repräsentationen auf sehr unterschiedlichen Analyseebenen bezeichnet je nachdem, in welchen topographisch organisierten visuellen Arealen die Images vermutet werden. Visuelle Wahrnehmung wird als mehrstufiger Prozess verstanden, der in drei relativ gut abgrenzbaren hierarchischen Ebenen stattfindet, die eng miteinander vernetzt sind. Der visuelle Kortex besteht aus dem primären visuellen Kortex und einer Anzahl weiterer kortikaler Areale, die unterschiedliche Arten von Information analysieren, mehrere dieser Areale sind topographisch organisiert. Der Favorit unter Wissenschaftlern ist die Identifizierung der gesuchten Images mit Repräsentationen Tatort Greifstraße Printmedien und mehr . . . Neueste Technologie und Know-How. Spannend. Medientechnik, Drucktechnik & Verlag GmbH Greifstraße 4 · 65199 Wiesbaden Tel.: (0611) 39699-0 · Fax (0611) 3969930 alle ISDN-Protokolle (0611) 932079 E-mail: [email protected] www.dinges-frick.de FORSCHUNGSMAGAZIN ■ 1/2005 53 ...... PHILOSOPHIE Gibt es mentale Repräsentationen? Ablehnung des Repräsentationalismus‘ Repräsentationalismus Piktoralismus Ja Nein Abb. 1: Moderne Bildertheorien: Piktorialismus im Überblick 1 Manchmal werden auch zusätzlich Areale im präfrontalen Kortex (PFC) erwähnt. 54 W-RPLA RPLA FLA(4‘) FLA(3‘) FLA(2) FLA(1) Pylyshyns Deskriptionalismus FLA im primären visuellen Kortex (V1). Andere Wissenschaftler gehen davon aus, dass es sich um eine in der Mitte gelegene Analyseebene (Areale in V2, V3, V3A, V4) handelt, gelegentlich wurde auch die höchste Analyseebene in der Wahrnehmung als die fragliche Region (inferior-temporales Kortex (IT) im ventralen System) identifiziert.1 Doch es gibt theoretische und empirische Gründe dafür, Images auf der mittleren Ebene anzusiedeln. Repräsentationen auf dieser Ebene sind intern strukturiert, wie auch unser bewusstes Erleben haben sie einen intrinsisch visuellen Charakter, sie sind subjektzentriert. Gleichzeitig ist ein ständiger Abgleich mit Information über räumliche Zusammenhänge notwendig. Diese Information findet sich auf Ebenen der höheren Analyse und der Objekterkennung. Für eine möglichst erfolgreiche Bildertheorie sollten Images als intern strukturierte räumliche Repräsentationen verstanden werden, die dennoch modalitätsspezifisch sind, da sie aus einer Untermenge neuronaler Aktivität bestehen, die mit der korrespondierenden visuellen Wahrnehmung assoziiert ist. Zudem sind Images hybride Repräsentationen, sie können symbolische Elemente enthalten. Auf diese Weise besteht die Möglichkeit, mit einer untergeordneten Theorie den philosophischen Problemen zu entgehen, die sich für Bildertheorien stellen. Beim bildhaften Vorstellen sind mittlere Repräsentationen notwendig involviert, aber Vermittlung von höheren Ebenen spielt ebenfalls eine Rolle. Thomas‘ „Radikaler Piktoralismus“ Deskriptionalismus Werden bildhafte mentale Repräsentationen nur in funktionalem Sinn postuliert? Ja Nein ... Bildertheorien und Kognition Bildhaftes Vorstellen wird als wichtige Fähigkeit verstanden, die beim Lernen, Simulieren von Ereignissen, für die Handlungsplanung und Kreativität, aber auch für das Verstehen anderer eine wichtige Rolle spielen soll. Wir schreiben anderen tagtäglich Emotionen, Überzeugungen und Wünsche zu und auf dieser Basis erklären und prognostizieren wir ihr Verhalten. Doch wie genau gelangen wir zu diesen Zuschreibungen? Welche Rolle spielen dabei „simulierte Bilder“? Es gibt in der Philosophie des Geistes zwei konkurrierende Ansätze: die „Theorie-Theorie“ und die Simulationstheorie. Erstere geht davon aus, dass wir eine alltagspsychologische Theorie darüber haben, wie Menschen sich verhalten. Diese Theorie haben wir uns allmählich angeeignet; sie ist zumindest ausreichend mächtig, um Alltagsverhalten zu erklären. Der konkurrierende Ansatz der Simulationstheorie besagt, dass wir an uns simulieren, wie es für den anderen sein muss, sich in besagtem Zustand zu befinden. Wir lassen die entsprechenden neuronalen Zustände „offline“ – also ohne Verursachung von außen – ablaufen. Wir empfinden Mitleid mit einer geschundenen Kreatur, weil wir uns in sie hineinversetzen und uns vorstellen, selbst geschlagen zu werden, nicht, weil wir eine abstrakte Theorie befragen, wann man Mitleid mit anderen haben muss. Neurowissenschaftler untersuchen hierzu, ob sich die glei- Quelle: Verena Gottschling, Bilder im Geiste. Die Imagery Debatte, Paderborn, mentis 2003, S. 308. Nein S-RPLA Gibt es bildhafte mentale Repräsentationen? Ja PHILOSOPHIE chen Gehirnaktivierungsmuster in der Wahrnehmungs- und der entsprechenden offline-Aktivierung ergeben. Mit einer Bildertheorie der beschriebenen Art ist man nicht auf einen der beiden Ansätze festgelegt, wenn auch die Simulationstheorie zu vertreten nahe liegt. Doch selbst innerhalb der Gruppe der Simulationstheoretiker wird die Rolle perzeptueller Simulationen als lediglich untergeordnet betrachtet. Doch diese Einschätzung beruht auf einem Missverständnis, das sich einem veralteten Verständnis dessen verdankt, was Images eigentlich sind. Denn Images sind nicht einfach „simulierte Bilder“, sondern hybride Repräsentationen mit komplexer Funktion. Deshalb ist die Rolle, die perzeptuelle Repräsentationen in der Kognition – etwa beim Verstehen anderer Menschen und der Simulation von Situationen – spielen können, bedeutsamer als zumeist angenommen wird. Die Missverständnisse um das, was in Bildertheorien behauptet wird, haben auch hier ihre Spuren hinterlassen. Dr. phil. Verena Gottschling VERENA GOTTSCHLING hat Philosophie, Linguistik und Informatik an den Universitäten Tübingen und München studiert. Sie war Mitglied und Stipendiatin des Graduiertenkollegs Kognitionswissenschaft (Philosophie, Psychologie, Informatik) an der Universität des Saarlandes und Austauschwissenschaftlerin am Philosophy-Neuroscience-Psychology Program an der Washington University in St. Louis (USA). 2002 promovierte sie an der Johannes Gutenberg-Universität Mainz. Seit Juni 2003 ist Verena Gottschling Wissenschaftliche Mitarbeiterin im Arbeitsbereich Logik und Wissenschaftstheorie im Philosophischen Seminar der Universität Mainz und seit April 2005 zudem „Visiting Fellow“ am King’s College in London. Sie arbeitet im Bereich Philosophie des Geistes, insbesondere im Bereich der Philosophie der Psychologie und der Neurowissenschaften, sowie zur Philosophie der Biologie. ■ Summary The idea of pictures in cognition has been around since antiquity. Recently, we have witnessed a revival of this debate in Cognitive Science and Neuroscience, i.e. the modern imagery debate. In the literature, however, the concept of mental image is an umbrella term used to describe a variety of different kinds of representations. In fact, what we are talking about is mainly a special kind of spatial representation, which can also contain symbols, i.e. the mental image is a mixed concept. Secondly, we must clearly distinguish functionally represented spatial relations from stronger reading, which interprets spatial relations as represented by physical isomorphism. I argue for a view that sees the neural correlate of images at an intermediate level, but maintains in addition the claim that high-level activation is necessary. This characterization gives us the most promising version of a philosophical picture theory. ■ Kontakt: Dr. phil. Verena Gottschling Johannes Gutenberg-Universität Mainz Philosophisches Seminar Jakob-Welder-Weg 18 55099 Mainz Tel. +49 (0) 6131 39-22788 Fax +49 (0) 6131 39-25141 E-Mail: [email protected] Tra nsfus io nsze ntrale Mainz Klinikum der Johannes Gutenberg-Univ ersit ät Hoch hau s Aug ust usp la tz 55 101 M ainz - Tel. 0 613 1-173 216 Montag, Mittwoch Dienstag, Donnerstag Freitag Samstag 8.00 8.00 8.00 8.00 - 16.00 18.00 15.00 11.00 Uhr Uhr Uhr Uhr Alle, die 18 bis 65 Jahre alt sind und mind. 50 Kilogramm wiegen FORSCHUNGSMAGAZIN ■ 1/2005 55 ...... ...... WEITERE PARTNER DER UNI Günstig, komfortabel und umweltfreundlich. Das ist Fernwärme. Das Heizkraftwerk Mainz liefert sie in weite Teile des Stadtgebiets – und das seit über 40 Jahren. Heizkraftwerk GmbH Mainz Gaßnerallee 33 55120 Mainz Telefon 06131/976-470 www.fernwaerme-fuer-mainz.de - Naturarzneimittel - Impfstoffe - Gesundheitsberatung - Bluttests - Kosmetik - Internationale Arzneimittel Freunde der Universität Mainz e.V. Freunde der Universität Mainz e.V. Die Vereinigung ” fördert Forschung und Lehre ” hilft bei der Finanzierung von Forschungsprojekten, wissenschaftlichen Veranstaltungen und bei der Anschaffung von Geräten und Büchern ” gewährt Promotionsstipendien und verleiht Forschungspreise ” ist bemüht, für die im Jahre 2000 eingerichtete Stiftungsprofessur Persönlichkeiten von internationalem Renommee jeweils im Sommersemester zu einer Vorlesungsreihe zu gewinnen ” pflegt die Verbundenheit zwischen der Hochschule, der Stadt Mainz und dem Land ” ist Träger des Kinderhauses „Villa Nees“, das Kinder von Angestellten des Klinikums betreut. Werden Sie Mitglied! 1. Vorsitzender: Dr. Hans Friderichs, Bundesminister a.D. 2. Vorsitzender und Geschäftsführer: Kurt Roeske, Oberstudiendirektor i.R. Freunde der Universität Mainz e.V. Ludwigstraße 8-10 · D-55116 Mainz Tel.: +49 (0) 6131 – 203339 Fax: +49 (0) 6131 – 203536 56 Klavier- und Flügelstimmungen Reparaturen E. BREITMANN Orgel- und Klavierbau GmbH Nieder-Olm Backhausstraße 11 · Tel. 0 61 36 / 81 42 99 Mein Garten – ein Ort, der Quelle des Lebens ist. Büro: Schildweg 8 · 55271 Stadecken-Elsheim Telefon: (06136) 13 26 · Telefax: (06136) 33 26 Pflanzenverkauf: Mo-Fr 9-19 Uhr, Sa 9-16 Uhr Fasanenstraße 2 · 55271 Stadecken-Elsheim · Tel.: (06136) 92 44 16 „G LOKALISIERUNG : H EIMVORTEIL PLUS W ELTOFFENHEIT.“ Die Kundenbetreuer der LRP Das Zusammenwachsen der Märkte im weltweiten Maßstab birgt Chancen und Risiken gleichermaßen. Maßgeblich für den Erfolg: das feste Standbein im heimischen Markt. Know-how und Erfahrung vor Ort überregional zu nutzen ist ein Geschäftsprinzip, das die LRP Landesbank Rheinland-Pfalz gemeinsam mit den Sparkassen verfolgt. Global und lokal zugleich, kurz: glokal. Eine Eigenschaft, die dem typischen Mainzer seit Gutenbergs Zeiten zu Eigen ist und damit auch unseren Marktauftritt erfolgreich prägt. Sprechen Sie mit uns. Telefon (0 61 31) 13 - 01 oder www.lrp.de