Was Hänschen nicht lernt, lernt Hans nimmermehr

Werbung
1$785*(,67
'DV)256&+81*60$*$=,1GHU-RKDQQHV*XWHQEHUJ8QLYHUVLWlW0DLQ]
,6%13UHLV(XUR
-DKUJDQJ
Filtration. Separation. Solution.
www.pall.com
ONE WORLD
ONE STANDARD
ONE COMPANY
Pall GmbH SeitzSchenk
Planiger Strasse 137
55543 Bad Kreuznach
Tel. 0671 / 88 22-0
Fax 0671 / 88 22-200
EDITORIAL
„Forschung schafft Wissen!“
U
nter diesem Leitsatz beteiligt die Universität Mainz sich am Wettbewerb um die Einrichtung
und Förderung von Exzellenzclustern, neuen Forschungszentren und Graduiertenschulen der Exzellenz im Rahmen des Landeshochschulprogramms
„Wissen schafft Zukunft“.
Ein halbes Jahr lang haben wir die Forschung in
unserer Universität zu diesem Zweck vermessen, sortiert und in Forschungsprogrammen gebündelt, die
ihrer Interdisziplinarität und Kohärenz, ihrer wissenschaftlichen Tragkraft und ihrer Originalität wegen
gute Aussichten auf Erfolg im Wettbewerb haben.
Der Wille, am Wettbewerb teilzunehmen, und der
Ehrgeiz, dabei erfolgreich zu sein, haben die Universität in produktive Unruhe versetzt. Der Prozess legte
unvermutete Potenziale an Kompetenz und Leistung
bloß, regte die konzeptuelle und die organisatorische
Fantasie in unvorhersehbarer Weise an und erschloss
inter- und transdisziplinäre Kooperationsmöglichkeiten und Kooperationsbereitschaften, von denen sich
unsere nur zu leicht fachlich vertäute Forscherweisheit zuvor nicht hatte träumen lassen. Alles dies wird
sich in den Hochschulprogramm-Initiativen nicht
erschöpfen, sondern weiter wirken.
Termingerecht am 1. März 2005 haben wir dem
Minister für Wissenschaft, Weiterbildung, Forschung
und Kultur gründlich vorbereitete Anträge auf Förderung von drei Exzellenzclustern, zwei (neuen) Forschungszentren und fünf Graduiertenschulen der
Exzellenz zur Begutachtung vorgelegt. In einem Forschungszentrum wollen wir mit der Universität Trier,
in einer Graduiertenschule mit der Universität Kaiserslautern zusammenarbeiten. Außerdem beteiligen
sich Forscher unserer Universität in ansehnlicher Zahl
an Exzellenzcluster-Initiativen der Universitäten in
Trier und Kaiserslautern. „Konkurrieren“ heißt ja nicht
nur gegeneinander laufen, es heißt auch miteinander
laufen. Wir freuen uns darüber, dass „Wissen schafft
Zukunft“ nicht nur innerhalb der Universität zu neuartigen Forschungskooperationen anregte, sondern dass
es außerdem zwischenuniversitäre Forscherfreundschaften stiftete, die es andernfalls nicht gäbe.
Unter ihrem eigenen Namen ist die Johannes
Gutenberg-Universität mit folgenden Vorschlägen im
Rennen:
Exzellenzcluster
– Struktur und Dynamik inhomogener Materie:
Simulation und Experiment
– Immunointervention
– Geozyklen: Zeit und Raum in den Erdwissenschaften
Neue Forschungszentren
– Interdisziplinäres Forschungszentrum für Neurowissenschaften (IFZN)
– Historisch-kulturwissenschaftliches Forschungszentrum: Räume des Wissens (mit der Universität
Trier)
Univ.-Prof. Dr. Volker Hentschel
Vizepräsident für Forschung
Graduiertenschulen der Exzellenz
– Polymere in entwickelten Materialien (POLYMAT)
– Eng korrelierte Quantensysteme (MATCOR)
(mit der Universität Kaiserslautern)
– Internationale Graduiertenschule Neurowissenschaften (MINDS)
– Interkulturalität: Der Kreislauf der Kulturen
– Analyse des Systems Erde
Wir erwarten mit begründeter Zuversicht die Voten
der Fachgutachter und der ministeriellen Expertenkommission. Im Landeswettbewerb erfolgreiche
Cluster und Graduiertenschulen gingen guten Mutes
in den inzwischen mehrfach erhofften und mehrfach
in Frage gestellten Bundeswettbewerb.
Ein ebenso überraschendes wie vielversprechendes Ergebnis des Identifikations- und Mobilisierungsprozesses, der den Vorschlägen vorausging, war die
Formierung des Interdisziplinären Forschungszentrums Neurowissenschaften (IFZN), das naturwissenschaftliche, medizinische und geisteswissenschaftliche Forschungen zu neurowissenschaftlichen Fragestellungen nicht nur zu addieren, sondern zu integrieren beabsichtigt. Das Zentrum will Ernst mit der
schnell und gefällig artikulierten, aber schwer praktizierten Einsicht machen, dass die Natur- und die
Geisteswissenschaften einander brauchen und dass
die Gesellschaft ihre gemeinsam erarbeiteten Forschungsergebnisse braucht.
Das Zentrum hätte an einer deutschen Universität
nicht seinesgleichen. Deshalb erscheint es als angebracht, in einem ersten „Themenheft“ unseres Forschungsmagazins die Vielfalt neurowissenschaftlicher Forschungen zu präsentieren, die in unserer Universität auf hohem Niveau getrieben werden und die
es in dem Zentrum aufeinander zu beziehen und ineinander zu verschränken gilt.
Es würde mich freuen, wenn Sie sich von der Lektüre anregen und beeindrucken ließen.
Ihr
FORSCHUNGSMAGAZIN ■ 1/2005
1
......
DIE EDELSTEINSCHLEIFEREI FÜR IHRE SPEZIELLEN WÜNSCHE
Technische Korunde
für Industrie, Labore, Institute
IMPORT - EXPORT
Tiefensteiner Straße 322a
55743 Idar-Oberstein
Tel. 06781/9350-0 • Fax 06781/935050
[email protected] • www.groh-ripp.de
2
INHALT
......
INHALT
Das Interdisziplinäre Forschungszentrum für Neurowissenschaften (IFZN):
Gehirn und Geist gemeinsam auf der Spur
Von Christian Behl ______________________________________________________________________ 4
„Was Hänschen nicht lernt, lernt Hans nimmermehr“
Lernprozesse im unreifen und adulten Gehirn
Von Heiko J. Luhmann ____________________________________________________________________ 7
Einblicke in die frühe Entwicklung des Zentralen Nervensystems am Drosophila -Modell
Von Gerhard Technau und Joachim Urban_____________________________________________________12
Untersuchungen zur Neurobiologie von Alkoholwirkung und Alkoholabhängigkeit
mit der Positronen-Emissions-Tomographie (PET)
Von Mathias Schreckenberger und Peter Bartenstein_____________________________________________17
Elektrophysiologie und virtuelle Realität als Mittel zur Untersuchung von
Wahrnehmungsprozessen
Von Heiko Hecht und Stefan Berti___________________________________________________________20
Wortarten im Gehirn?
Von Walter Bisang, Jörg Meibauer und Markus Steinbach _________________________________________26
Mentale Repräsentation und kognitive Entwicklung aus der Perspektive
der Zwillingssprachforschung
Von Mongi Metoui und Walter Bisang _______________________________________________________31
„Arbeit am Bild“ – Plädoyer für eine Bildwissenschaft
Von Susanne Marschall und Fabienne Liptay __________________________________________________36
Die „Szenographie“: – ein Schlüsselbegriff der Kultur-, Kognitions- und Bildwissenschaft
Von Matthias Bauer _____________________________________________________________________41
Wie ein bewusstes Ich entsteht: Die Selbstmodell-Theorie der Subjektivität
Von Thomas Metzinger___________________________________________________________________47
Bildhaftes Vorstellen, Denken und Simulieren
Von Verena Gottschling __________________________________________________________________51
Dieser Ausgabe liegt eine Beilage der Firma Hilgenberg GmbH und des VERLAGS PHILIPP VON ZABERN bei.
Wir bitten um Beachtung.
IMPRESSUM
Herausgeber:
Der Präsident der Johannes Gutenberg-Universität
Mainz, Univ.-Prof. Dr. med. Jörg Michaelis
Verantwortlich:
Petra Giegerich, Leiterin Bereich Öffentlichkeitsarbeit
Redaktion:
Bettina Leinauer
Kontakt:
Telefon: 06131 39-22369, 39-26112
Telefax: 06131 39-24139
E-Mail:[email protected]
Auflage:
4.000 Exemplare, die Zeitschrift erscheint
zweimal im Jahr
Titelbild:
Fotodesign Hartmann
Titelgestaltung:
Tanja Löhr
Vertrieb:
Bereich Öffentlichkeitsarbeit
Gestaltung und Layout:
Dinges & Frick, Wiesbaden
Druck und Anzeigenverwaltung:
Dinges & Frick GmbH
Medientechnik, Drucktechnik & Verlag
Greifstraße 4
65199 Wiesbaden
Telefon: +49 (0)611 9 31 09 41
Telefax: +49 (0)611 9 31 09 43 www.dinges-frick.de
FORSCHUNGSMAGAZIN ■ 1/2005
3
...... IFZN
Das Interdisziplinäre Forschungszentrum für Neurowissenschaften (IFZN): Gehirn und Geist gemeinsam auf der Spur
Von Christian Behl
Mit gebündelter Kompetenz
die Geheimnisse von Gehirn
und Geist ergründen: Naturwissenschaftler, Kliniker und
Geisteswissenschaftler
gründen einen interdisziplinären Forschungsverbund.
Wie funktioniert unser Gehirn? Was sind die molekularen und zellulären Grundlagen seiner Entwicklung? Wie entstehen Erinnerungen, Bilder, Sprache,
Emotionen? Was ist Selbstbewusstsein? Wie beeinflussen Erlebnisse und Umweltfaktoren die Gehirnaktivität? Wie altert unser Gehirn und wie geht bei
der Alzheimer-Krankheit die Persönlichkeit verloren?
All dies sind drängende Fragen der Neurowissenschaften, deren Aufklärung uns hilft, das Gehirn besser zu verstehen, und neue Erkenntnisse über Funktion und Fehlfunktion unseres Gehirns ergeben wird.
Werden diese Fragen häufig jede für sich isoliert in
verschiedenen wissenschaftlichen Disziplinen unter-
Abb. 1: Informationsfluss zwischen
den verschiedenen neurowissenschaftlichen Forschungsebenen zur
Klärung höherer Funktionen des
menschlichen Gehirns
sucht, soll an der Universität Mainz ein neuer Weg
beschritten werden. Die Komplexität des Gehirns
und neuronaler Netzwerke soll durch Bündelung
neurowissenschaftlicher Expertise vor Ort interdisziplinär erforscht werden. Das geplante Interdisziplinäre Forschungszentrum für Neurowissenschaften
(IFZN) führt die unterschiedliche neurowissenschaftliche Expertise in Mainz zusammen und wird Synergieeffekte erzielen.
Die Funktionen des Gehirns können heute auf
unterschiedlichen Ebenen untersucht werden. Die
Identifizierung der genetischen Ausstattung einzel-
4
ner Nervenzellen sowie die Aufklärung der molekularen Grundlagen neuronaler Struktur und Funktion
bildet eine erste Ebene. Eine zweite beschreibt die
Kommunikation und Interaktion von Zellen des Nervensystems im Verband. Auf einer obersten Ebene
lassen sich die physiologischen und pathophysiologischen Funktionen größeren Gehirnarealen zuordnen.
Der exakte Informationsaustausch zwischen den verschiedenen Organisationsebenen ist noch weitgehend unbekannt und kann nur mit Methoden der
interdisziplinären Hirnforschung aufgeklärt werden.
Das geordnete Zusammenspiel der verschiedenen
Ebenen ermöglicht höhere kognitive Funktionen wie
Gedächtnisprozesse, das Verstehen von Bildern und
Sprache sowie das persönliche Erleben von Emotionen, Bewusstsein und die Verarbeitung und Einordnung von Erfahrenem. Die Psychologie und Philosophie der Kognition ermöglichen es weitere Fragen an
unser Gehirn zu stellen, beispielsweise die Frage
nach der Existenz eines freien Willens oder die nach
den neuronalen Grundlagen von Selbstbewusstsein
und Moralität. Die experimentelle Methodik zur
Untersuchung der verschiedenen Organisationsebenen umfasst die klassische biochemische Analytik,
die Zell- und Molekularbiologie ebenso wie die klinische Beobachtung und hochauflösende bildgebende
Verfahren sowie neuropsychologische Untersuchungen und Verhaltensstudien. Die Untersuchung physikalisch-chemischer Prozesse und neuronaler Netzwerke als Grundlage von Kognition, Geist und
Bewusstsein und der Funktion des menschlichen
Gehirns ist die zentrale Aufgabe der Neurowissenschaften (Abb. 1).
Komplexe Netzwerkstrukturen als Grundlage
höherer neuronaler Aktivität unseres Gehirns lassen
sich durch die Schaffung interdisziplinärer Netzwerke
neurowissenschaftlicher Expertise möglichst an
einem Standort aufklären und verstehen. An verschiedenen deutschen Universitäten wurden mittlerweile „Neuroforschungszentren“ eingerichtet, die
sich jedoch häufig in der thematischen Ausrichtung
entweder auf molekulare Aspekte der Hirnforschung
(Molecular & Cellular Neuroscience) oder auf die
kognitiven Neurowissenschaften (Cognitive Neuroscience) konzentrieren. Eine Einrichtung wie das Interdisziplinäre Forschungszentrum für Neurowissenschaften, die unter anderem versucht eine Brücke
zwischen diesen beiden Forschungsansätzen zu
schlagen und gezielt die wissenschaftlichen Schnittmengen der einzelnen Perspektiven neurowissenschaftlicher Forschung fördert, ist glücklicherweise
aufgrund der vorhandenen wissenschaftlichen
IFZN
Abb. 2: Zusammenführung der wissenschaftlichen
Expertise aus sechs Sektionen in einem Forschungszentrum
Expertise an der Johannes Gutenberg-Universität
Mainz möglich.
Das Interdisziplinäre Forschungszentrum für Neurowissenschaften (IFZN) fasst bereits bestehende
neurowissenschaftlich forschende Arbeitsgruppen,
interdisziplinäre Arbeitskreise sowie drittmittelgeförderte Forschungsverbünde der Johannes GutenbergUniversität Mainz zusammen und unterstützt diese.
Unter dem Dach des IFZN sollen sechs neurowissenschaftliche Sektionen aus fünf verschiedenen Fachbereichen - den Fachbereichen Sozialwissenschaften,
Medien und Sport (FB 02), Medizin (FB 04), Philosophie und Philologie (FB 05), Chemie, Pharmazie
und Geowissenschaften (FB 09) und Biologie (FB 10)
– vereint und vernetzt werden. Folgende Arbeitsbereiche sind Teil des IFZN (Abb. 2):
• Molekulare und zelluläre Neurowissenschaften
• Klinische Neurowissenschaften
• Kognitionspsychologie
• Linguistik
• Neurophilosophie
• Bildwissenschaft
Die Vereinigung der verschiedenen wissenschaftlichen Sektionen im IFZN ermöglicht die interdiszipliAbb. 3: Ziele des Interdisziplinären
Forschungszentrums
für Neurowissenschaften (IFZN):
Bündelung neurowissenschaftlicher Expertise
und bereits bestehender Forschungsverbünde,
aktive Interaktion und Diskussion, Start neuer
interdisziplinärer Initiativen, Projektförderung
und Schaffung zentraler Technologieplattformen, Kristallisationskeim für neue drittmittelgeförderte Neuro-Initiativen, Förderung von
Nachwuchswissenschaftlern und Anschubfinanzierung
FORSCHUNGSMAGAZIN ■ 1/2005
5
......
...... IFZN
näre und translationale Erforschung von Gehirn,
Geist, Bewusststein, neuronale Entwicklung, Funktion und Dysfunktion. Durch das IFZN gefördert werden sollen interdisziplinäre neurowissenschaftliche
Forschungsvorhaben sowie die Einrichtung experimenteller Plattformstrukturen (Abb. 3).
Die sechs wissenschaftlichen Sektionen des IFZN
stellen sich hier mit einigen wenigen Beiträgen vor.
Sie sollen einige ausgewählte wissenschaftliche
Ansatzpunkte der verschiedenen Disziplinen und
zentrale Fragestellungen der Neurowissenschaften
beleuchten. Sie stehen beispielhaft für eine große
Zahl von Neurowissenschaftlern an der Universität
Mainz, die innerhalb des IFZN voneinander lernen
und gemeinsam das Gehirn erforschen wollen.
■ Summary
The Interdisciplinary Center for Neurosciences is a
joint effort of neuroscientists from various disciplines
and faculties at the University of Mainz. By creating
local experimental plattforms and networks the
main goal is to reach synergy in the research
towards an understanding of the complex structure,
functions and dysfunctions of the human brain, to
understand the neuronal basis of brain and mind. In
this novel research center expertise from basic, clinical and cognitive neurosciences will be combined
and interdisciplinary research projects will be supported.
Univ.-Prof. Dr. rer. nat.
Christian Behl
CHRISTIAN BEHL hat an der Julius-Maximilians-Universität Würzburg Biologie studiert und im Fach Neurobiologie promoviert. Nach Stationen als Postdoktorand in Würzburg und am Salk Institute for Biological
Studies in San Diego, USA, übernahm er die Leitung
der Arbeitsgruppe Steroidpharmakologie am MaxPlanck-Institut für Psychiatrie in München. Es folgten
ein C3-Ruf zur Etablierung einer Selbständigen Nachwuchsgruppe der Max-Planck-Gesellschaft, Habilitation an der Medizinischen Fakultät der LMU München und anschließend Ernennung zum Privatdozenten. Seit 2002 hat Christian Behl eine C4-Professur
und die Leitung des Lehrstuhls für Pathobiochemie
im Fachbereich Medizin der Johannes GutenbergUniversität Mainz inne. Seit 2003 ist er auch Geschäftsführender Leiter des Instituts für Physiologische Chemie & Pathobiochemie.
■ Kontakt:
Univ.-Prof. Dr. rer. nat. Christian Behl
Johannes Gutenberg-Universität Mainz
Institut für Physiologische Chemie & Pathobiochemie
Duesbergweg 6
55099 Mainz
Tel. +49 (0) 6131 39-25890
Fax +49 (0) 6131 39-25792
E-Mail: [email protected]
http://www.uni-mainz.de/
FB/Medizin/PhysiolChemie/Welcome.html
!
s! m
ar ic.co
ye ctron
e
6
el
ELC-03M
ISO-STIM 01D
Optimized for extracellular
Stimulus Isolators without
loose-patch recordings and
Batteries and with Bipolar
juxtasomal filling with patch
Stimulus Generation
electrodes; also suitable for
intracellular recordings in
bridge or voltage clamp mode
pi
The “Swiss Army Knife”
for Electrophysiology
n
w.
w
Electronic Instruments
for the Life Sciences
SEC-10LX
20
npi
w
Single Electrode High Speed
Voltage / Patch Clamp Amplifiers
Other npi electronic
Instruments for Electrophysiology
í
í
í
í
í
í
í
í
í
í
í
í
í
í
Two Electrode voltage clamp amplifiers
Loose patch clamp amplifiers
Temperature control systems
Bridge-/Intracellular amplifiers
Extracellular amplifiers
Stimulus isolators
Modular system
Low pass Bessel filters
Iontophoretic drug application systems
Pneumatic drug application systems
Data acquisition hard- and software
Automatic chlorider
ALA Scientific perfusion systems/accessories
EXFO-Burleigh micropositioners
NEUROPHYSIOLOGIE
„Was Hänschen nicht lernt, lernt Hans nimmermehr“
Lernprozesse im unreifen und adulten Gehirn
Von Heiko J. Luhmann
Das Lesen dieser Zeilen bereitet Ihnen keine Schwierigkeiten, da Sie im Alter von etwa sechs Jahren
gelernt haben, dem Wirrwarr aus kleinen vertikalen,
horizontalen und gebogenen schwarzen Linien einen
Sinn zu geben und komplexe Strichmuster mit spezifischen Inhalten zu verknüpfen. Dieser Lernprozess
ist auf molekularer und zellulärer Ebene identisch mit
dem Erlernen des Laufens oder Sprechens während
unserer frühkindlichen Entwicklung. Das Erlernen
spezifischer Fähigkeiten, wie z. B. das Sprechen und
das Laufen, fällt uns besonders leicht während so
genannter „kritischer Perioden“. Das akzentfreie
Erlernen einer (Fremd-)Sprache ist nach dem 10.
Lebensjahr jedoch nicht mehr möglich und jeder
weiß, wie schwer es einem Erwachsenen fällt, im
fortgeschrittenen Alter das Ski- oder Fahrradfahren
zu erlernen. Warum lernt das kindliche Gehirn viele
Fertigkeiten so viel einfacher und schneller als das
erwachsene Gehirn? Warum sind die kritischen Perioden auf bestimmte Zeitfenster begrenzt? Wo findet
Lernen statt? Warum und wie verlernen und vergessen wir zuvor Erlerntes? Wie kann uns das Verständnis der molekularen und zellulären Mechanismen
von Lernprozessen im klinischen Alltag bei der Behandlung von Patienten mit neurologischen Störungen helfen? Diese Fragen sollen im Folgenden näher
beleuchtet werden.
Der Ort des Lernens – die Synapse
Wenn wir Lernprozesse verstehen wollen, müssen
wir zunächst die Struktur betrachten, an der das Lernen stattfindet. Lernen, definiert als veränderte
Reaktion einer Nervenzelle, eines neuronalen Netzwerks oder eines Organismus auf einen definierten
Reiz, findet an den Kontaktstellen zwischen den Nervenzellen statt, den sog. Synapsen. Eine chemische
Synapse ist eine Struktur, an der das elektrische Signal einer (präsynaptischen) Nervenzelle mittels Freisetzung eines chemischen Botenstoffs (Transmitter)
an eine nachgeschaltete (postsynaptische) Nervenzelle weitergegeben wird (Abb. 1). Dabei beeinflusst
die Stärke des präsynaptischen elektrischen Signals
(Frequenz von Aktionspotenzialen) die Menge des
freigesetzten Transmitters. Je mehr Transmitter von
der Präsynapse ausgeschüttet wird, desto mehr
Rezeptoren für diesen Transmitter können an der
postsynaptischen Membran aktiviert werden. Die
Anzahl aktivierter postsynaptischer Rezeptoren
bestimmt wiederum die Stärke des elektrischen Signals an der Postsynapse (postsynapstisches Potenzial). Diese Übertragungseigenschaften an einer
Synapse sind jedoch nicht fest fixiert, sondern veränderbar; man spricht von der synaptischen Plastizität.
An der Präsynapse kann z. B. mehr Transmitter ausgeschüttet werden oder postsynaptisch kann sich die
Affinität oder die Anzahl von Rezeptoren erhöhen.
Das Ergebnis ist in diesen Fällen eine verbesserte
synaptische Übertragung. Die der synaptischen Plastizität zugrunde liegenden Mechanismen werden seit
etwa 50 Jahren in den Neurowissenschaften intensivst untersucht und wurden bereits mit einigen
Nobelpreisen belohnt. Wir wissen heute, dass die
synaptische Verbindung zwischen zwei Nervenzellen
verbessert wird, wenn diese beiden Zellen häufig
zeitgleich elektrisch aktiv waren („cells that fire
together, wire together“), und dass Lernprozesse mit
strukturellen Veränderungen wie dem Auswachsen
neuer dendritischer Dornenfortsätze (sog. spines)
einhergehen. Wir wissen auch, dass Lernprozesse
zwar einerseits auf strukturelle und funktionelle Veränderungen an einzelnen Synapsen zwischen zwei
Neuronen zurückzuführen sind, andererseits aber
auch, dass Lern- und Gedächtnisinhalte stets in
einem komplexen Netzwerk von vielen Neuronen
gespeichert werden. Zukünftige Arbeiten zum Verständnis von Hirnfunktionen erfordern daher einen
experimentellen Ansatz auf der Ebene eines definierten neuronalen Netzwerks. Da Information im Nervensystem im Millisekundenbereich verarbeitet wird,
sind Techniken mit relativ hohen zeitlichen Auflösungen erforderlich, wie sie bisher nur in der Elektrophysiologie erreicht werden.
Das kindliche Gehirn ist für
das Lernen wie geschaffen.
Bestimmte Botenstoffe im
Gehirn und Rezeptoren für
solche Neurotransmitter
begünstigen bei Kindern den
Lernprozess.
(Fast) nichts bleibt für immer
Vieles von dem, was wir während unseres Lebens
erlernen, haben wir glücklicherweise wieder vergessen. Wäre das nicht der Fall, würde unser neuronaler
Speicher sicherlich schnell an seine Grenzen gelangen. Eine Reduktion der synaptischen Übertragungseigenschaften infolge einer verminderten Transmitterausschüttung oder einer Abnahme postsynaptischer Rezeptoren stellt vermutlich das zelluläre Korrelat des Vergessens dar. Auch strukturelle Veränderungen, wie ein Verlust von spines, wurden an experimentellen Modellen zum Lernen und Vergessen
beobachtet. Ein drastischer Verlust von Gedächtnisinhalten ist bei neurodegenerativen Erkrankungen,
wie z. B. der Alzheimer-Krankheit, zu beobachten (s.
Artikel von C. Behl & A. Clement und F. Fahrenholz in
Natur & Geist 2004, Seite 31-35 bzw. 37-41). Hier ist
nicht nur eine Dysfunktion der synaptischen Übertragung in einigen Hirnarealen zu beobachten, sondern
FORSCHUNGSMAGAZIN ■ 1/2005
7
......
...... NEUROPHYSIOLOGIE
Abb. 1: Nervenzellen sind miteinander über chemische Synapsen verbunden.
Bild A: Lichtmikroskopische Aufnahme von zwei Nervenzellen in der Großhirnrinde einer Ratte. Beide Zellen wurden über eine Mikropipette intrazellulär mit einem
Farbstoff markiert und das Gewebe wurde histologisch bearbeitet. Bild B: Die Ausschnittsvergrößerung zeigt die Dendriten und Axone der Pyramidenzelle (blaue
Beschriftung) und der oberhalb lokalisierten Bipolarzelle (schwarze Beschriftung). Das Axon der Bipolarzelle projiziert auf einen Dendriten der Pyramidenzelle (Rechteck) und bildet dort eine chemische Synapse. Bild C: Schematische Darstellung einer chemischen Synapse, in der das präsynaptische elektrische Signal (Aktionspotenzial) die Freisetzung von Transmittermolekülen (rote Punkte) bewirkt, die in den präsynaptischen Bläschen (sog. Vesikeln) verpackt sind. Der Neurotransmitter diffundiert über den synaptischen Spalt zur Postsynapse und dockt dort nach dem „Schlüssel-Schloss-Prinzip“ an Rezeptoren an. Diese Rezeptoren können unterschiedliche
Eigenschaften aufweisen und bei Aktivierung z. B. einen Einstrom von extrazellulären Natrium-Ionen (schwarze Pünktchen) oder Calcium-Ionen (grün) einleiten.
Durch den Einstrom dieser positiv geladenen Ionen entlang dem Konzentrationsgefälle zwischen Extra- und Intrazellulärraum entsteht im postsynaptischen Neuron
ein erregendes postsynaptisches Potenzial, das in der Zelle weitergeleitet wird. Bei Lernprozessen kann die präsynaptische Transmitterfreisetzung oder die Anzahl
postsynaptischer Rezeptoren erhöht sein.
sogar ein Abbau von ganzen Nervenzellpopulationen.
Aber warum können wir bestimmte Fakten und
Ereignisse besonders gut speichern, selbst wenn sie
nur einmalig auftreten? Wir können problemlos
Gedächtnisinhalte abrufen, die für uns von großer
Relevanz sind oder die uns emotional sehr berührt
haben, wie z. B. der Terroranschlag am 11. September
2001. Motivation und Emotion beeinflussen Lernvorgänge, indem zusätzliche synaptische Eingänge über
andere Transmittersysteme am postsynaptischen
Neuron aktiviert werden. Die Nervenzelle befindet
sich unter dem Einfluss dieser modulierenden Eingänge gewissermaßen in einem Zustand erhöhter
„Aufmerksamkeit“, sie erreicht gemeinsam mit den
gleichzeitig eintreffenden sensorischen Signalen
schneller die Schwelle zur Aktivierung und das Lernen wird unter diesen Bedingungen erleichtert. Auf
die Frage, warum dieses Wissen zur Bedeutung von
Motivation bei Lernprozessen so wenig Einfluss auf
den schulpädagogischen Alltag nimmt, können die
Neurowissenschaften jedoch keine zufrieden stellende Antwort liefern. Dabei ist gerade das kindliche
Gehirn für das Lernen wie geschaffen.
Zum Zeitpunkt der Geburt sind beim Menschen
fast alle Nervenzellen bereits vorhanden und sie nehmen über ihre vielfach verzweigten Axone Kontakt
zu anderen Nervenzellen auf, wobei die Nervenfa8
sern von chemischen Wachstumsstoffen, sog. Nervenwachstumsfaktoren, geleitet werden. Ein Neuron
kann einerseits über seine axonalen Verzweigungen
mit bis zu 10.000 anderen Nervenzellen verbunden
sein und erhält andererseits einen synaptischen Eingang von 10.000 präsynaptischen Neuronen. Viele
dieser Verbindungen werden jedoch während der
kindlichen Entwicklung wieder abgebaut, da sie
nicht gebraucht werden („use it or loose it“ ). Tritt
jedoch häufig zeitgleich elektrische Aktivität zwischen der prä- und postsynaptischen Nervenzelle
auf, dann wird die Synapse zwischen diesen beiden
Neuronen konsolidiert und beide Zellen gehören
dem gleichen neuronalen Netzwerk an. Sowohl
genetische als auch durch die Umwelt gesteuerte
Prozesse begünstigen diesen synaptischen Konsolidierungsprozess während der frühen Entwicklung:
(i ) Transmitter, die im erwachsenen Gehirn hemmend
wirken, wie GABA und Glyzin, haben im unreifen
Gehirn einen erregenden Einfluss. (ii ) Rezeptoren für
bestimmte Neurotransmitter, die im adulten Gehirn
nur schwer aktiviert werden können, weisen im kindlichen Gehirn andere molekulare und funktionelle
Eigenschaften auf, sind leichter aktivierbar und
begünstigen daher Lernprozesse. Diese altersabhängige synaptische Plastizität ist besonders gut für den
N-Methyl-D-Aspartat (NMDA) Rezeptor des Neurotransmitters Glutamat beschrieben. Vermutlich spielt
NEUROPHYSIOLOGIE
der NMDA Rezeptor auch eine zentrale Rolle bei entwicklungsabhängigen Lernprozessen während kritischer Perioden.
Die synaptischen Verbindungen in den Arealen und
Schichten unserer Großhirnrinde, dem cerebralen
Kortex, weisen unterschiedliche Zeitverläufe hinsichtlich ihrer Plastizität auf. Im Sehkortex endet die
kritische Periode etwa im 6. Lebensjahr. Entwicklungsstörungen der Sehschärfe (Amblyopie), die bei
ca. 5 Prozent aller Kinder auftreten, können nur während dieser kritischen Periode durch eine sog.
Amblyopietherapie (Abdecken des gut sehenden
Auges) erfolgreich behandelt werden. Durch diesen
einfachen Trick wird verhindert, dass das weniger gut
sehende Auge synaptisch „abgeschaltet“ wird und
dass der Sehkortex Verschaltungen verliert, die wir
für das räumliche Sehen benötigen. Die kritische
Periode für das Erlernen der Primärsprache endet
etwa im 10. Lebensjahr. Danach ist es sehr viel
schwieriger, eine Sprache zu erlernen. Neben diesen
kritischen Perioden für das Sehen und Sprechen existieren auch kritische Perioden für andere sensorische
Leistungen (z. B. das Hören), für motorische Fertigkeiten und vermutlich auch für soziale Fähigkeiten. Auf
molekularer und zellulärer Ebene sind diese Lernprozesse auf sehr ähnliche Mechanismen zurückzuführen und in der Evolution hoch konservativ erhalten.
Daher werden am IFZN auch Studien an unterschiedlichen Modellorganismen durchgeführt, wie dem
Wurm C. elegans, der Taufliege Drosophila (s. Artikel
von G. Technau & J. Urban in dieser Ausgabe von
LN
Natur & Geist ) und der Maus. Die an diesen Modellorganismen gewonnenen Erkenntnisse zur Struktur
und Funktion von relativ kleinen, gut definierten
Neuronenverbänden tragen wiederum zum Verständnis von physiologischen und pathophysiologischen neuronalen Prozessen beim Menschen bei.
Klinische Relevanz
Im Geweberandbereich von akuten kortikalen Hirnläsionen, wie einem Hirninfarkt, finden spontan synaptische Reorganisationsprozesse statt, die den normalen Lernprozessen sehr ähneln. Nach einem Schlaganfall treten sensorische und motorische Störungen auf,
die im Laufe von wenigen Monaten häufig erstaunlich gut kompensiert werden. Dieser Kompensationsprozess geschieht spontan und kann durch begleitende Rehabilitationsmaßnahmen gezielt gefördert werden. Die durch den akuten Gewebeverlust induzierten
Defizite in den sensorischen und motorischen Leistungen werden kompensiert, indem diese Funktionen in
benachbarte, intakte kortikale Areale verlagert werden. Molekularbiologische und elektrophysiologische
Daten deuten darauf hin, dass die neuronalen Netzwerke in den Randbereichen von Hirninfarkten während des Kompensationsprozesses funktionelle Eigenschaften aufweisen, die denen des unreifen Gehirns
ähneln. Hemmende synaptische Kontrollmechanismen werden reduziert und der NMDA Rezeptor ist
wieder leichter aktivierbar. Diese läsionsinduzierte
synaptische Plastizität stellt die Grundlage des kli-
Luigs &
Neumann
-
Infrapatch Clamp System
Patch Clamp System
Microposition Units for all purposes
Invitro/ invivo Systems
CPZ Microforge
PiDiOne contact free microdispense robot
The Luigs & Neumann micromanipulation systems and set-ups are
reliable, precise, easy to operate, welldesigned and are naturally compa˝tible
with any microscope. The ability to
provide timely, cost-effective
engineering and manufacturing
solutions have earned Luigs & Neumann
equally the respect from both
customers and competitors.
Luigs & Neumann Feinmechanik und Elektrotechnik GmbH
40880 Ratingen - Germany
tel. +492102947000
fax.: +492102442036
Web.: www.luigs-neumann.com
email.: [email protected]
FORSCHUNGSMAGAZIN ■ 1/2005
9
......
...... NEUROPHYSIOLOGIE
nisch relevanten Kompensationsprozesses dar und ist
beim Menschen bisher wenig untersucht, da neben
ethischen Bedenken auch erhebliche methodische
Einschränkungen bestehen. Besonders die nicht-invasiven bildgebenden Verfahren wie PET (s. Artikel von
P. Bartenstein & M. Schreckenberger in dieser Ausgabe von Natur & Geist) und andere klinische Methoden
werden zu diesem Thema in naher Zukunft wichtige
und spannende Erkenntnisse liefern.
■ Summary
The molecular and cellular mechanisms underlying
learning and memory are not only of general public
interest, but are also highly relevant for the understanding of normal and pathological human brain
function. Pre- and postsynaptic mechanisms determine the synaptic transfer function and influence the
behavior of neuronal networks. Although the rules of
synaptic plasticity are identical in widely different
tasks such as motor learning or language acquisition, the molecular mechanisms of learning in the
young brain show some distinct differences compared to the adult brain. These immature synaptic properties are reestablished in the adult brain after acute brain lesions as in strokes and facilitate lesioninduced synaptic reorganization processes.
Literatur
Elbert T, Rockstroh B (2004) Reorganization of human cerebral cortex: the range of changes following use and injury. Neuroscientist 10: 129-141.
Friederici AD (2002) Wie Sprache auf die Nerven geht. Max-Planck-Forschung 3: 52-57.
Gu Q (2002) Neuromodulatory transmitter systems in the cortex and their role in cortical plasticity. Neuroscience 111:
815-835.
Hensch TK (2004) Critical period regulation. Annu Rev Neurosci 27: 549-579.
Lessmann V, Gottmann K, Malcangio M (2003) Neurotrophin secretion: current facts and future prospects. Prog Neurobiol
69: 341-374.
Luhmann HJ (1996) Ischemia and lesion induced imbalances in cortical function. Prog Neurobiol 48: 131-166.
Münte TF, Altenmüller E, Jäncke L (2002) The musician’s brain as a model of neuroplasticity. Nat Rev Neurosci 3: 473-478.
Waddell S, Quinn WG (2001) Flies, genes, and learning. Annu Rev Neurosci 24: 1283-1309.
Univ.- Prof. Dr. rer. nat.
Heiko J. Luhmann
HEIKO LUHMANN wurde 1958 in Bremerhaven geboren und studierte Biologie an der Universität Bremen.
Von 1983 bis 1987 war er am Max-Planck-Institut für
Hirnforschung in Frankfurt/M. tätig und promovierte
1987 bei Prof. Wolf Singer. Nach einem dreijährigen
Forschungsaufenthalt am Department of Neurology
der Stanford University kehrte er 1990 nach Deutschland zurück und arbeitete als Assistent an den Physiologischen Instituten der Universität zu Köln und der
Charité in Berlin. 1994 habilitierte er sich für das Fach
Physiologie und trat 1995 eine C3-Professur für Neurophysiologie an der Universität Düsseldorf an. In
Düsseldorf war Heiko Luhmann von 1991 bis 2002 als
Teilprojektleiter an einem SFB beteiligt und leitete
dort von 1997 bis 2002 ein neurowissenschaftliches
Graduiertenkolleg. Im Juni 2002 folgte er einem Ruf
auf den Lehrstuhl für Physiologie im Fachbereich
Medizin der Johannes Gutenberg-Universität Mainz.
Hier ist er am SFB „Stickstoffmonoxid (NO)“ beteiligt
und seit Juli 2004 Sprecher des Graduiertenkollegs
„Entwicklungsabhängige und krankheitsinduzierte
Modifikationen des Nervensystems“.
10
■ Kontakt:
Univ.-Prof. Dr. rer. nat. Heiko J. Luhmann
Johannes Gutenberg-Universität Mainz
Institut für Physiologie und Pathophysiologie
Duesbergweg 6
55128 Mainz
Tel. +49 (0) 6131 39-26070
Fax +49 (0) 6131 39-26071
E-Mail: [email protected]
http://physiologie.uni-mainz.de/physio/
luhmann/index.htm
Mit dem neuen LSM 5 LIVE werfen Sie jetzt einen exklusiven Blick hinter die Kulissen
des Lebens: Bis zu 120 konfokale Bilder pro Sekunde in herausragender Bildqualität sorgen
für mehr bewegende Momente in Ihrer Forschung. Sie wollen mehr Action in Ihrem Labor?
Dann registrieren Sie sich jetzt unter: www.zeiss.de/moving-moments
We make it visible.
Tinte oder
Toner leer?
Wir befüllen Ihre Patronen für
teilweise bis zu 60%
preiswerter als Originale! jetz
t
ALLE Hersteller! 06 Umb neu:
131 ach
Mit GARANTIE!
-90 8
732
Und nettem Service!
50
Mombacher Str. 81 (Nähe Goetheunterführung)
06131-2172250 Fax-2175890
NEU: Umbach 8 (Ecke Gr.Bleiche/Gr.Langgasse)
FORSCHUNGSMAGAZIN ■ 1/2005
11
...... NEUROGENETIK
Einblicke in die frühe Entwicklung des Zentralen Nervensystems
am Drosophila-Modell
Von Gerhard Technau und Joachim Urban
Wie es zu den vielfältigen
Zelltypen im Zentralen
Nervensystem und zu ihrer
spezifischen regionalen
Verteilung kommt, ist eine
zentrale Fragestellung der
Neuro-Entwicklungsbiologie. Untersuchungen an der
Taufliege helfen Antworten
zu finden.
Das Zentrale Nervensystem (ZNS) aller höheren
Organismen zeigt eine erstaunliche strukturelle und
funktionelle Komplexität. Diese basiert auf der spezifischen Vernetzung einer sehr großen Zahl verschiedener neuronaler und glialer Zelltypen in definierter
räumlicher Anordnung. Im Gegensatz zu einem Computer kann das ZNS nicht aus fertigen Einzelteilen
zusammengesetzt werden, sondern es muss sich im
Organismus zusammen mit den anderen Organsystemen letztlich aus einer einzigen Zelle (der befruchteten Eizelle) entwickeln. Dieser Entwicklungsprozess
beinhaltet eine Kaskade aufeinander folgender und
voneinander abhängiger Teilschritte, die über Raum
und Zeit einer äußerst präzisen Kontrolle unterliegen
müssen. Dies führt letztlich zu einem funktionsfähigen Nervensystem, das in der Lage ist, normales Verhalten sowie Lern- und Gedächtnisleistungen eines
Individuums zu steuern. Die Klärung der Mechanismen, die zu den vielfältigen Zelltypen und ihrer spezifischen regionalen Verteilung (Musterbildung) im
ZNS führen, ist eines der zentralen Anliegen der Neuro-Entwicklungsbiologie.
Die Taufliege Drosophila melanogaster hat eine
über 100-jährige Tradition als genetisches Untersuchungsobjekt. Dadurch existieren sehr effiziente
methodische Werkzeuge auf der genetischen, molekularen und zellulären Ebene. Seit wenigen Jahren
liegen ebenfalls die vollständigen Sequenzdaten
ihres Genoms vor. Aus diesen Gründen ist Drosophila
zu einem beliebten Modell-System geworden, um
Abb. 1: Morphologie des Zentralen Nervensystems im
späten Embryo von Drosophila melanogaster
a) Laterale Ansicht eines ca. 16 Stunden alten Embryos
(anterior links). Das Zentrale Nervensystem ist braun angefärbt. Hem: Hemisphären, Bm: Bauchmark.
b) Ventrale Ansicht von 4 Neuromeren des Bauchmarks.
Angefärbt ist das Neuropil, das aus Bündeln von Nervenfortsetzen (Axonen) besteht. Gut zu erkennen ist die
„Strickleiterstruktur“ des Neuropils, das aus zwei längsverlaufenden Konnektiven und in jedem Neuromer aus zwei
querverlaufenden Kommissuren aufgebaut ist. ac: anteriore Kommissur, pc: posteriore Kommissur, c: Konnektiv.
c, d) Nachkommen des Neuroblasten 3-5. Jeder Neuroblast
generiert einen für ihn typischen Zellklon, der durch eine
frühe Markierung des Neuroblasten sichtbar gemacht werden kann (c).
12
biologische Prozesse wie z. B. die Entwicklung des
Nervensystems zu analysieren. Viele der Gene, die an
Entwicklungs- und Differenzierungsprozessen beteiligt sind, konnten in Modellorganismen wie Drosophila identifiziert und in ihrer Funktion charakterisiert werden. Dank eines erstaunlich hohen Maßes
an evolutionärer Konservierung konnte eine Vielzahl
entsprechender Faktoren auch aus anderen Organismen wie Wirbeltieren (Vertebraten), zu denen auch
der Mensch gehört, isoliert und in ihrer Funktion verglichen werden. Die in Drosophila gewonnenen
Erkenntnisse sind somit nicht nur relevant für ein
generelles Verständnis entwicklungsbiologischer
Prozesse und ihrer Evolution, sondern auch von praktischer Bedeutung für die biomedizinische Grundlagenforschung. Dies umso mehr, als die Hälfte der
bekannten menschlichen Gene, die in mutierter Form
Krankheiten verursachen, ebenfalls im DrosophilaGenom zu finden sind.
Bezüglich der Entwicklung des Nervensystems
(Neurogenese) haben sich die Untersuchungen vieler
Arbeitsgruppen auf die frühembryonale Phase konzentriert. In dieser Phase sind die Vorgänge noch
relativ gut überschaubar und einer Analyse auf der
Ebene einzelner, identifizierbarer Zellen leichter
zugänglich. Ferner hat sich gezeigt, dass eine evolutionäre Konservierung molekularer Mechanismen im
besonderen Maße in der embryonalen Frühentwicklung ausgeprägt ist.
NEUROGENETIK
Die ersten Schritte der Neurogenese
Das ZNS von Insekten umfasst das Gehirn und das
Bauchmark, welches, ähnlich dem Rückenmark der
Vertebraten, einen deutlich segmentierten Charakter
aufweist (Abb. 1). Beide Anteile des ZNS gehen aus
einer bilateral symmetrischen, zweidimensionalen
Zellschicht hervor, der sog. neurogenen Region des
Ektoderms (auch Neuroektoderm genannt, Abb. 2a).
Der erste Schritt zur Entwicklung des ZNS wäre somit
die Festlegung der Grenzen dieser neurogenen Region. Im Rumpfbereich des Drosophila-Embryos wird
die Grenze zwischen der neurogenen und der nichtneurogenen Region entlang der dorso-ventralen
Achse des Ektoderms durch zwei antagonistisch wirkende Proteine, Short gastrulation (Sog) und Decapentaplegic (Dpp), bestimmt. Die homologen Faktoren in Vertebraten, Chordin und Bone Morphogenetic
Protein 4 (BMP4), erfüllen prinzipiell dieselbe Funktion. In beiden Systemen wird die Region, in der Sog
bzw. Chordin exprimiert wird, als Neuroektoderm
determiniert, während in der Region, in der Dpp bzw.
BMP4 exprimiert wird, die Neurogenese unterdrückt
wird. Das Neuroektoderm des Rumpfes ist in Insekten ventral, in Vertebraten aber dorsal lokalisiert.
Dies hat man als Indiz dafür gewertet, dass während
der Evolution (nach der Trennung von Protostomiern
und Deuterostomiern) eine Inversion der dorsoventralen Körperachse stattgefunden hat.1 Die evolutionäre Konservierung dieser Moleküle wurde auch auf
der funktionellen Ebene durch Experimente belegt, in
denen die homologen Faktoren zwischen verschiedenen Arten (Drosophila und Frosch) ausgetauscht wurden.2
Im zweiten Schritt der Neurogenese bei Insekten
werden die Zellen festgelegt, die sich aus dem Neuroektoderm als neurale Stammzellen (Neuroblasten)
nach innen absondern (delaminieren). Die übrigen
Zellen des Neuroektoderms verbleiben in der Peripherie und entwickeln sich als Vorläuferzellen der
Haut (Epidermoblasten). In Drosophila hat man zeigen können, dass dieser binäre Entscheidungsprozess (Neuroblast versus Epidermoblast) von zwei
Gengruppen kontrolliert wird, den proneuralen
Genen und den neurogenen Genen. Durch die
Expression der proneuralen Gene des sog. AchaeteScute-Komplexes an bestimmten Positionen werden
Gruppen neuroektodermaler Zellen, die „proneuralen Cluster“, mit der Fähigkeit ausgestattet, sich als
Neuroblasten zu entwickeln (Abb. 3). Zell-Zell-Interaktionen innerhalb dieser Zellgruppen stellen jedoch
sicher, dass letztlich nur eine Zelle jeder Gruppe als
Neuroblast delaminiert, während alle übrigen davon
abgehalten werden, diesem Schicksal zu folgen, um
sich stattdessen als Epidermoblasten zu entwickeln.
Dieser Zellinteraktionsprozess wird als laterale Inhibition bezeichnet und vom sog. Notch-Signaltransduktionsweg vermittelt, dessen Komponenten von
den neurogenen Genen kodiert werden.3 Die Vertebraten-Homologen der proneuralen und neurogenen
Gene werden ebenfalls in der Anlage des ZNS (Neu-
ralrohr) exprimiert, wo sie die Separierung postmitotischer Neurone von neuroepithelialen Zellen, die
sich weiterhin teilen, kontrollieren.4 Inzwischen weiß
man, dass der Notch-Signaltransduktionsweg bei
einer Vielzahl binärer Entscheidungsprozesse während der Entwicklung verschiedener Gewebe in
Mensch und Tier eine wichtige Rolle spielt. Auch viele andere Signaltransduktionswege zeigen eine starke evolutionäre Konservierung und werden offenbar
als „molekulare Funktionseinheiten“ zur Kontrolle
diverser Entwicklungsschritte herangezogen.
Spezifizierung neuraler Stammzellen
und ihrer Tochterzellen
Ein Schwerpunkt der Forschung am Institut für Genetik der Johannes-Gutenberg Universität Mainz richtet sich auf die Mechanismen, die zur Festlegung
(Determination) der Entwicklungsschicksale individueller Neuroblasten führen.
Die Delamination der Neuroblasten aus dem Neuroektoderm geschieht im Drosophila-Embryo nach
einem definierten räumlichen und zeitlichen Muster.
Im Kopf- bzw. Gehirnbereich ist dieses Muster sehr
komplex und soll hier nicht weiter vorgestellt werden. Im Bereich des Rumpfes bzw. Bauchmarks delaminiert aus dem Neuroektoderm eines jeden der drei
thorakalen und der acht abdominalen Segmente auf
jeder Seite (Hemisegment) eine Population von 30
Neuroblasten (Abb. 2b). Im Folgenden führt jede dieser Stammzellen eine Serie von Zellteilungen durch.
Bei jeder Teilung schnürt sie eine kleinere Tochterzelle (Ganglienmutterzelle, GMZ) ab und erneuert sich
selbst. Die GMZ teilen sich in der Regel ein weiteres
Mal in zwei Tochterzellen, die sich schließlich zu
bestimmten neuronalen oder glialen Zelltypen differenzieren. Auf diese Weise generiert jede der 30
Stammzellen einen für sie charakteristischen Zell-
Abb. 2: Ursprung der Neuroblasten
und Spezifizierung ihrer segmentalen
Identität
a) Anlagenkarte eines ca. 3 Stunden
alten Embryos. Anterior ist links. pNR:
procephale neurogene Region, vNR:
ventrale neurogene Region, dEpi: Anlage der dorsalen Epidermis.
b) Alle Hemisegmente des Rumpfes
generieren eine identische Population
von 30 Neuroblasten. Einige dieser
Neuroblasten, wie z. B. NB 6-4 (blau im
Thorax, rot im Abdomen), bilden im
Thorax etwas andere Zellstammbäume
als im Abdomen.
c) Die Spezifizierung des thorakalen
NB 6-4 benötigt die Aktivität von
Cyclin E (Cyc E), dessen Expression im
abdominalen NB 6-4 durch das HoxProtein Abdominal A (Abd-A) reprimiert wird. Bei Abwesenheit von Cyc E
teilt sich NB 6-4 symmetrisch und generiert zwei Gliazellen (grün). Bei Anwesenheit von Cyc E teilt er sich asymmetrisch und generiert eine gliale Vorläuferzelle und einen neuen NB, der nur
neuronale Nachkommen produziert.
FORSCHUNGSMAGAZIN ■ 1/2005
13
......
...... NEUROGENETIK
Abb. 3: Spezifizierung der räumlichen
und zeitlichen Neuroblast-Identitäten
a) Alle Neuroblasten werden innerhalb
eines Hemisegments an einer bestimmten Position geboren. Diese Position
wird durch Expression von Genen definiert, die das Neuroektoderm in eine
Art „Kartesisches Koordinatensystem“
einteilt. Hierbei wirken vnd, ind und
msh in dorsoventraler und die Segmentpolaritätsgene wg, gsb und en in
anterior-posteriorer Richtung. Abhängig von der Positionsinformation wird
die individuelle Identität der Neuroblasten spezifiziert. Diese Identität
bestimmt, aus welchen Zellen der spätere Zellstammbaum jeweils zusammengesetzt sein wird.
b) Die Zellen eines jeden NB-Zellstammbaums, die sich untereinander
in bestimmten Eigenschaften, wie z.B.
dem Projektionsmuster der neuronalen Axone, unterscheiden, werden in
einer festen und unveränderlichen Reihenfolge generiert. Der zu dem jeweiligen Zeitpunkt zu produzierende Zelltyp wird von der „zeitlichen Identität“
des jeweiligen Neuroblasten bestimmt.
Diese „zeitliche Identität“ wird durch
eine Gruppe von Transkriptionsfaktoren festgelegt, die in den Neuroblasten sequenziell in der Reihenfolge Hb,
Kr, Pdm, Cas exprimiert werden.
14
stammbaum (Abb. 1c). Somit muss jeder Neuroblast
eine individuelle Identität erhalten, die die Zahl und
die spezifischen Typen ihrer Tochterzellen festlegt.
Die Spezifizierung der individuellen NeuroblastenIdentitäten geschieht bereits im Neuroektoderm über
Positionsinformation, zeitliche Signale und die Kombinatorik in der Expression von Entwicklungskontrollgenen.5-7 Positionsinformation wird in jedem
thorakalen und abdominalen Hemisegment entlang
der anterior-posterioren Achse über die Expression
von sog. Segmentpolaritätsgenen, wie z. B. engrailed
(en), wingless (wg) und gooseberry (gsb), und entlang der dorso-ventralen Achse durch die Expression
von dorso-ventralen Musterbildungsgenen wie ventral nervous system defective (vnd), intermediate
neuroblasts defective (ind) und muscle specific
homeobox (msh) in Form eines Kartesischen Koordinatensystems niedergelegt (Abb. 3a).8 Ausfall der
Funktion (Mutation) eines dieser Gene oder Expression am falschen Ort (ektopische Expression) hat zur
Folge, dass ein Neuroblastenschicksal in ein anderes
umgewandelt wird.9 Ähnliche Funktionen bei der
Festlegung neuraler Zellschicksale findet man für die
homologen Gene bei Vertebraten.
Neben der oben beschriebenen „räumlichen Identität“ besitzt jeder Neuroblast auch eine veränderliche „zeitliche Identität“. Diese äußert sich dadurch,
dass jeder Neuroblast die für ihn typischen Nachkommenzellen in einer festgelegten und unumkehrbaren Reihenfolge generiert. Ähnliches wurde auch
für neurale Vorläuferzellen bei Vertebraten beschrieben. Bei Drosophila werden diese zeitlichen Identitäten in den Neuroblasten durch eine aufeinander folgende Expression von Genen festgelegt, die alle für
genregulatorische Proteine (Transkriptionsfaktoren)
kodieren (Abb. 3b). Besonders gut untersucht ist hierbei hunchback (hb) , ein Gen, das für die erste zeitliche Identität verantwortlich ist. Werden beispielsweise Neuroblasten experimentell dazu veranlasst, hb
über sein eigentliches Zeitfenster hinaus zu exprimieren, so unterdrückt es die Generierung der späteren
Zelltypen zu Gunsten zusätzlicher „früher Zellen“.10,11 Für viele der „zeitlichen Identitätsgene“
gibt es auch bei Vertebraten Homologe, die eine noch
unbekannte Funktion in der Entwicklung des ZNS
besitzen.
Regionalisierung des ZNS
Die oben aufgeführten Mechanismen erklären die
Festlegung neuraler Zellidentitäten innerhalb eines
segmentalen Abschnittes (Neuromers) des ZNS.
Damit das ausgereifte ZNS zu einer adäquaten Verarbeitung der verschiedenen sensorischen Eingänge
und der Kontrolle motorischer Leistungen in der Lage
ist, müssen in den verschiedenen Neuromeren die
strukturellen Voraussetzungen geschaffen werden,
d. h. während der Entwicklung des ZNS müssen segment-spezifische Spezialisierungen ausgeprägt werden (Regionalisierung des ZNS). Diese regionalen
Spezialisierungen sind naturgemäß im Bereich des
Gehirns besonders ausgeprägt und komplex. Im
Rumpfbereich sind die miteinander fusionierten Neuromere des embryonalen Bauchmarks dagegen relativ ähnlich strukturiert. Neuroblasten, die aus korrespondierenden Positionen des Neuroektoderms der
einzelnen thorakalen und abdominalen Segmente
hervorgehen (sog. seriell homologe Neuroblasten),
produzieren sehr ähnliche embryonale Zellstammbäume.
Einige dieser seriell homologen Neuroblasten bilden jedoch Zellstammbäume, die in ihrer Zusammensetzung deutliche segment-spezifische Unterschiede
bereits im Embryo aufweisen.12 So produziert z. B.
der Neuroblast „NB6-4a“ in den abdominalen Segmenten nur Gliazellen, während der entsprechende
Neuroblast „NB6-4t“ in den thorakalen Segmenten
neben den Gliazellen auch Neurone hervorbringt
(Abb. 2c). Unsere Untersuchungen haben zeigen können, dass die Ausprägung dieser regionalen Unterschiede zwischen Thorax und Abdomen auf einem
direkten Zusammenspiel von Faktoren beruht, welche die Identität der Körpersegmente festlegen
(kodiert durch homöotische Gene, auch Hox-Gene
genannt), und einem Faktor (Cyclin E), der eine
Schlüsselrolle bei der Kontrolle von Zellteilungen
spielt. Cyclin E ist notwendig und ausreichend, die
thorakale Identität des Neuroblasten NB6-4t (sowie
NEUROGENETIK
auch anderer Stammzellen) festzulegen. In den
abdominalen Segmenten wird die Expression von
Cyclin E durch homöotische Gene wie abd-A unterdrückt (Abb. 2c). In diesem Fall wird somit die regionale Diversifizierung von Zelltypen im ZNS durch
homöotische Gene über die Regulation von Cyclin E
vermittelt. Diese neu entdeckte Funktion von Cyclin E
bei der Festlegung von Zellschicksalen scheint unabhängig von seiner bekannten Funktion bei der Kontrolle des Zellzyklus zu sein.13 Man wird nun prüfen
können, inwieweit dieser Mechanismus auch in
anderen Organismen etabliert ist.
■ Summary
The mechanisms controlling the generation of cell
diversity and pattern in the central nervous system
(CNS) belong to the major unsolved problems in
developmental biology. The fly Drosophila melanogaster is a suitable model system for examining these complex mechanisms since it allows to link gene
function to individually identifiable cells. Research at
the Institute of Genetics has one of its focuses on
aspects of early neurogenesis in the Drosophila
embryo, for example the specification of individual
neural stem cells and their lineages, or the regionalization of the CNS.
Literatur (ausgewählte Arbeiten)
1) Arendt, D. and Nübler-Jung, K. (1996) Common ground plans in early brain development in mice and flies. Bioessays 18:
255-259.
2) Holley SA, Jackson PD, Sasai Y, Lu B, De Robertis EM, Hoffmann FM and Ferguson EL. (1995) A conserved system for
dorsal-ventral patterning in insects and vertebrates involving sog and chordin. Nature 376: 249-253.
3) Campos-Ortega J.A. (1995) Genetic mechanisms of early neurogenesis in Drosophila melanogaster. Mol. Neurobiol. 10:
75-89.
4) Chitnis A, Henrique D, Lewis J, Ish-Horowicz D, Kintner C. (1995) Primary neurogenesis in Xenopus embryos regulated
by a homologue of the Drosophila neurogenic gene Delta. Nature 375: 761-766.
5) Udolph G., Lüer K., Bossing T. and Technau G.M. (1995) Commitment of CNS progenitors along the dorsoventral axis of
the Drosophila neuroectoderm. Science 269: 1278-1281
6) Berger C., Urban J. and Technau G.M. (2001) Stage-specific inductive signals in the Drosophila neuroectoderm control
the temporal sequence of neuroblast specification. Development 128: 3243-3251
7) Urbach R. and Technau G.M. (2004) Neuroblast formation and patterning during early brain development in Drosophila.
BioEssays 26: 739-751
8) Skeath J.B. (1999). At the nexus between pattern formation and cell-type specification: the generation of individual
neuroblast fates in the Drosophila embryonic central nervous system. BioEssays 21: 922-931.
9) Deshpande N., Dittrich R., Technau G.M. and Urban J. (2001) Successive specification of Drosophila neuroblasts NB6-4
and NB7-3 depends on interaction of the segment polarity genes wingless, gooseberry and naked cuticle. Development 128: 3253-3261
10) Isshiki, T., Pearson, B., Holbrook, S. and Doe, C.Q. (2001) Drosophila neuroblasts sequentially express transcription
factors which specify the temporal identity of their neuronal progeny. Cell 106: 511-521.
11) Novotny T, Eiselt R and Urban J (2002) Hunchback is required for the early sublineage of neuroblast 7-3 in the Drosophila central nervous system. Development 129: 1027-1036
12) Schmidt H., Rickert C., Bossing T., Vef O., Urban J. and Technau G.M. (1997) The embryonic central nervous system
lineages of Drosophila melanogaster. II. Neuroblast lineages derived from the dorsal part of the neuroectoderm.
Devl Biol 189: 186-204
13) Berger C., Pallavi S.K., Prasad M., Shashidhara L.S. and Technau G.M. (2005) A critical role for Cyclin E in cell fate
determination in the central nervous system of Drosophila. Nature Cell Biology 7: 56-62.
Mainzer Musikalien Zentrum
Ihre Musikalienhandlung
mit einer grossen Auswahl
an Noten, Songbooks,
Büchern und CDs,
kompetenter persönlicher Beratung
und weltweitem Versand
Mainzer Musikalien Zentrum GmbH · Weihergarten 9 · 55116 Mainz · Tel.: (06131) 9 12 99 90 · Fax: (06131) 24 66 43 · e-mail: [email protected]
auch im internet: w w w. m m z . d e
FORSCHUNGSMAGAZIN ■ 1/2005
15
......
...... NEUROGENETIK
Univ.-Prof. Dr. rer. nat.
Gerhard Technau
GERHARD TECHNAU, Jahrgang 1951, studierte Biologie und Chemie an den Universitäten Kiel und Würzburg und promovierte am Institut für Genetik in
Würzburg. 1983 bis 1988 war er wissenschaftlicher
Mitarbeiter am Institut für Entwicklungsbiologie in
Köln, wo er sich 1987 habilitierte. 1988 erhielt er ein
Heisenberg-Stipendium und ging für einen Forschungsaufenthalt an die UCSF, USA. 1989 bis 1999
hatte er eine C3-Professur am Institut für Genetik im
Fachbereich Biologie der Johannes Gutenberg-Universität Mainz inne. 1995 und 1999 erhielt er Rufe
auf C4-Professuren der Universitäten Bonn, Marburg,
Kiel und Giessen, die er jedoch nicht annahm. Im
Januar 2000 folgte er dem Ruf auf eine C4-Professur
am Institut für Genetik der Universität Mainz. Er ist
geschäftsführender Leiter des Institutes.
HeliMap Digitales Kartensystem
Sof t- und Hardware-Entwicklung
Produkt Design
Die optimale Kombination von Hard- und Software
- brilliantes Bild auf einem Tageslicht tauglichen 8.4"-Display
- Kartenrechner zum Einbau in die Mittelkonsole
- ergonomische und robuste Bedienelemente
- einfacher Einbau
- zertifiziert nach DO160
- reichhaltiges Kartenmaterial: von der Standard-ICAO-Karte bis
zum Stadtplan
- praxiserprobtes, intuitives Bedienkonzept
- Routenplanung am Schreibtisch, Transfer der Routendaten per
USB-Memory-Stick
- Optionale HeliComm-Software ermöglicht Kommunikation mit
Bodenstation
PD Dr. phil. nat.
Joachim Urban
JOACHIM URBAN, Jahrgang 1960, studierte Biologie
an der Universität Frankfurt und promovierte dort
1990 am Institut für Biochemie. Seit 1990 ist er wissenschaftlicher Mitarbeiter am Institut für Genetik
der Johannes Gutenberg-Universität Mainz, wo er
sich 1999 habilitierte. Seit 2000 ist er als akademischer Rat bzw. Oberrat am Institut für Genetik der
Universität Mainz beschäftigt. Er arbeitet über die
Mechanismen zeitlicher Spezifizierung neuraler Vorläuferzellen von Drosophila.
■ Kontakt:
Univ.-Prof. Dr. rer. nat. Gerhard Technau
Johannes Gutenberg-Universität Mainz
Institut für Genetik
Becherweg 32
55099 Mainz
Tel. +49 (0) 6131 39-25341
Fax +49 (0) 6131 39-24584
E-Mail: [email protected]
http://www.uni-mainz.de/
FB/Biologie/Genetik/Genet.html
Konstr uktion
Produktion
Kartenrechner mit
Bedienelementen zum
Einbau im Standard DZUSMaß
electronics
Tasche zum
sicheren
Verstauen des
Displays.
Tageslicht taugliches Display
Als Kniebrett oder für Festeinbau
Die Software ist für die Benutzung im Flugzeug optimiert und in
der Praxis gewachsen.
Die gesamte Bedienung kann über einen Doppel-Drehknopf
erfolgen. Zusätzlich gibt es noch 12 direkt wirkende Tasten für
nützliche Funktionen wie z.B. Zoom.
Die Struktur der Software macht sie leicht erweiterbar und damit
zukunftssicher. Dafür sorgt auch das eingesetzte
Betriebssystem.
Standard ICAOKarte
Einfache
Zielpunktauswahl
http://www.eae.de
Dekan - Laist - Straße 52
16
Stadtpläne
D- 55129 Mainz Tel.: + 49 (6131) 9175-0 Fax: + 49 (6131) 9175-7 5
email:[email protected] http://www.eae.de
NEUROIMAGING
Untersuchungen zur Neurobiologie von Alkoholwirkung und
Alkoholabhängigkeit mit der Positronen-Emissions-Tomographie (PET)
Von Mathias Schreckenberger und Peter Bartenstein
Die Positronen-Emissions-Tomographie (PET) bietet
für die Hirnforschung ein breites methodisches
Repertoire zur Erfassung der neuronalen Korrelate
kognitiver und emotionaler Prozesse, indem sie eine
nicht-invasive Messung von Hirndurchblutung, Hirnstoffwechsel und Hirnrezeptorbesatz ermöglicht.
Grundlage hierfür ist der Einsatz von Pharmaka, die
mit Positronen-emittierenden Isotopen (z. B. 11C, 18F,
15O) markiert sind.
PET-Radiopharmaka wie die 18F-Fluorodeoxyglukose (18F-FDG) zur Messung des cerebralen Glukosemetabolismus bzw. 15O-markiertes Wasser (H215O)
zur Messung der cerebralen Durchblutung gestatten
Aussagen über die regionale neuronale Aktivität
unter Ruhe- und unter Aktivierungsbedingungen, da
eine vermehrte neuronale Aktivität mit einer Steigerung sowohl von oxidativem Glukosemetabolismus
als auch regionalem Blutfluss einhergeht. Die Verwendung von Rezeptorliganden, also markierten
Neurotransmitterderivaten, ermöglicht hingegen
einen direkten Einblick in die Prozesse der synaptischen Signalverarbeitung bei Gesunden und Patienten. In den letzten Jahren wurden eine Reihe spezifischer PET-Radiopharmaka für die Charakterisierung
verschiedener, vor allem hemmender Transmittersysteme z. B. des GABA-ergen, serotonergen und opioidergen Systems entwickelt.
Für das Verständnis von Abhängigkeitserkrankungen ist vor allem das dopaminerge System wichtig.
Hier stehen der Arbeitsgruppe in Mainz mehrere
Radiopharmaka zur Verfügung, die verschiedene Teilkomponenten des dopaminergen Systems charakterisieren. So lassen sich mit 18F-DOPA Aussagen über
die Bereitstellung von Dopamin für die Neurotransmission machen, während die Radiopharmaka 18FDesmethoxyfallyprid (18F-DMFP) und 18F-Fallyprid
Aussagen zur Verfügbarkeit von Dopamin-Rezeptoren (D2/3) ermöglichen.
Der Einsatz funktioneller Bildgebungsverfahren
wie der PET hat in den letzten Jahren einen tieferen
Einblick in die Neurobiologie der Alkoholabhängigkeit ermöglicht und stellt auch einen vielversprechenden Ansatz zur Identifizierung von potenziellen
Pharmaka zur Minderung des Alkoholverlangens
(„Anti-Craving“-Pharmaka) dar. Wir wissen heute,
dass für die Entstehung einer Alkoholabhängigkeit
das so genannte dopaminerge Belohnungssystem
eine zentrale Rolle zu spielen scheint. Dieses Belohnungssystem, dessen Schlüsselkomponente im Kerngebiet des ventralen Striatum (insbesondere im
Nucleus accumbens) lokalisiert ist, stellt eine phylogenetisch alte Hirnstruktur dar. Ihr „Sinn“ liegt offen-
sichtlich darin, Verhaltensweisen zu fördern, die für
den Erhalt des Individuums oder der Art von besonderer Relevanz sind, wie etwa Nahrungsaufnahme
und Fortpflanzung. Dabei führt die Freisetzung von
Dopamin dazu, dass bestimmte Reize als besonders
begehrenswert erscheinen und damit das Verhalten
des Individuums in Richtung auf den Reiz hin lenken.
Vereinfacht ausgedrückt, stellt die Dopaminausschüttung offensichtlich das biochemische Korrelat
des Verlangens und der Begierde dar. Der eigentliche
Genuss, bzw. die auf den Reiz erfolgende Euphorie,
ist dagegen wahrscheinlich nicht unmittelbar dopaminabhängig, sondern wird eher über das opioiderge
und serotonerge System vermittelt. Aus dem Zusammenspiel von dopaminergem Belohnungssystem und
konsekutiver Freisetzung endogener Opioide bzw.
von Serotonin lassen sich wichtige Mechanismen der
akuten Alkoholwirkung bzw. des Alkoholverlangens
erklären.
Der Akuteffekt von Alkohol auf das Belohnungssystem gesunder Probanden konnte in einem Experiment unserer Arbeitsgruppe untersucht werden:1
Verabreicht man den Versuchspersonen 40 Gramm
Ethanol intravenös als Schnellinfusion, kann eine
sehr schnelle zerebrale Ethanolaufnahme mit den
entsprechenden psychophysischen Veränderungen,
zum Beispiel Heiterkeit, Euphorie und veränderte
Reaktionsbereitschaft, ausgelöst werden. Untersucht
man während dieser „Anflutungsphase“ den cerebralen Glukosemetabolismus mittels 18F-FDG PET
(Abb. 1), findet sich eine deutliche Aktivitätszunahme
im ventralen Striatum als Ausdruck einer Aktivierung
Der Konsum von Alkohol führt
zur Aktivierung einer bestimmten Region des Gehirns, die als
„Belohnungszentrum“ fungiert.
Dies kann mit modernen bildgebenden Verfahren gezeigt
werden.
Abb.1: Änderungen der
neuronalen Aktivität
unter akutem Alkoholeinfluss [18F - FDG PET]:
Deutliche Aktivierung
(rot) von Strukturen des
Belohnungssystems (ventrales Striatum) und
Deaktivierung (blau) der
primären und sekundären Sehrinde
FORSCHUNGSMAGAZIN ■ 1/2005
17
......
...... NEUROIMAGING
Abb. 2: Negative Korrelation zwischen Alkoholverlangen („Craving“)
und Verfügbarkeit von Dopamin(D2)-Rezeptoren [18F-DMFP PET]
und Anteilen (gelb) des ventralen
Striatum einschließlich des Nucleus
accumbens
Abb.3:
Erhöhte neuronale
Aktivität [18F-FDG PET] bei
abstinenten Alkoholikern
im ventralen Striatum
(orange)
18
des Belohnungssystems. Gleichzeitig kommt es zu
einer verminderten Aktivität im visuellen Kortex. Diese verminderte Aktivität ist das metabolische Korrelat eines Phänomens, das typischerweise unter akuter Alkoholwirkung zu beobachten ist: der als „Tunnelblick“ bezeichneten Gesichtsfeldeinengung.
So biologisch sinnvoll das Belohnungssystem prinzipiell für den Erhalt von Individuum und Art ist, so
scheint eine Fehlregulation dieses Systems eine
wichtige Grundlage für die Entstehung einer Alkoholabhängigkeit zu sein. PET-Untersuchungen an
entgifteten Alkoholikern mit einem Dopamin-D2Rezeptorliganden zeigen, dass das Verlangen nach
Alkohol („Craving“) eng mit einer verminderten Verfügbarkeit von Dopamin(D2/3) Rezeptoren im ventralen Striatum (Abb. 2) korreliert ist, die man als
Ausschüttung von endogenem Dopamin interpretieren kann.2 Untersucht man nun die neuronale cerebrale Aktivität abstinenter Alkoholiker ohne Stimulation, findet sich auch unter Ruhebedingungen ein
erhöhter Glukoseverbrauch im ventralen Striatum
(entsprechend einer erhöhten Aktivität in dieser
Struktur: Abb. 3) als Ausdruck einer möglicherweise
erhöhten Reaktionsbereitschaft des Belohnungssystems auf bestimmte Reize. Eine entscheidende
Eigenschaft des Belohnungssystems scheint dabei
wichtig zu sein für das Aufrechterhalten einer Alkoholabhängigkeit: Wiederholter Alkoholkonsum führt
zu einer Sensibilisierung des Systems mit überschießender Dopaminfreisetzung auf den Alkohol-assoziierten Reiz hin. So konnte auch gezeigt werden, dass
eine verstärkte Dopaminfreisetzung mit einem
hohen Rückfallrisiko einhergeht.3
Das Wissen, wie die verschiedenen Transmittersysteme an der Schnittstelle des Belohnungssystems
zusammenwirken, stellt heute auch die Grundlage
für die Entwicklung neuer Pharmaka zur Therapie der
Alkoholabhängigkeit dar. Dabei wird dem Opiatsystem, das mit dem dopaminergen System eng interagiert, zur Zeit besondere Aufmerksamkeit geschenkt.
Opiatrezeptorantagonisten wie z. B . Naltrexon werden bereits mit Erfolg bei der Therapie der Alkoholabhängigkeit eingesetzt. Über die klinische Grundlagenforschung hinaus kann hierbei die PositronenEmissions-Tomographie für die Entwicklung von
neuen „Anti-Craving“-Substanzen einen wichtigen
Beitrag leisten, indem die Veränderungen der neuronalen Aktivität auf Alkohol-assoziierte Reize unter
dem Einfluss der verschiedenen Substanzen untersucht werden können und somit ein objektiver Nachweis des Wirkmechanismus möglich wird.
■ Summary
Functional brain imaging by means of positron emission tomography (PET) enables the investigation of
the neuronal correlates of sensory, cognitive and
emotional processes using
labeled radiotracers for the
non-invasive measurement
of cerebral metabolism,
blood flow and receptor
status, respectively. Recent
PET studies on the acute
effects of alcohol on the
brain metabolism of healthy subjects could demonstrate an activation of the
dopaminergic reward system. The craving of detoxified alcoholics is negatively
correlated to the dopamine
receptor availability in the
reward system, which
shows an increased activation in alcoholics even
under resting conditions.
PET seems a promising tool
for the investigation and
development of new “anticraving” drugs.
NEUROIMAGING
Literatur
1) Schreckenberger M, Amberg R, Scheurich A, Lochmann M, Tichy W, Klega A, Landvogt C, Stauss J, Siessmeier T, Gründer
G, Buchholz HG, Mann K, Bartenstein P, Urban R (2004). Acute alcohol effects on neuronal and attentional processing: striatal reward system and inhibitory sensory interactions under acute ethanol challenge. Neuropsychopharmacology 29: 1527-1537
2) Heinz A, Siessmeier T, Wrase J, Hermann D, Klein S, Grüsser SM, Flor H, Braus DF, Buchholz HG, Gründer G, Schreckenberger M, Smolka M, Rösch F, Mann K, Bartenstein P (2004). Nucleus accumbens dopamine D2 receptors correlate with central processing of alcohol cues and craving. Am J Psychiatry 161:1783-1789
3) Heinz A, Mann K (2001). Neurobiologie der Alkoholabhängigkeit. Deutsches Ärzteblatt 98: A 2279-2283
Univ.-Prof. Dr. med.
Mathias
Schreckenberger
Mathias Schreckenberger hat an der Johannes
Gutenberg-Universität Medizin studiert und 1991
hier promoviert. Von 1991 bis 1999 arbeitete er als
wissenschaftlicher Assistent an den Universitätskliniken Erlangen-Nürnberg, Mainz und Aachen in den
Fachgebieten Augenheilkunde, Neurologie und
Nuklearmedizin. 1999 wurde er Facharzt für Nuklearmedizin und Oberarzt an der Klinik für Nuklearmedizin der RWTH Aachen, wo er sich 2000 für das Fach
Nuklearmedizin habilitierte. Seit dem Jahr 2000 ist
Mathias Schreckenberger Leitender Oberarzt an der
Klinik für Nuklearmedizin der Universität Mainz und
seit Juli 2003 C3-Professor für Nuklearmedizin. Seine
Forschungsschwerpunkte sind die Positronen-Emissions-Tomographie, die neurofunktionelle Bildgebung,
die Neurobiologie von Abhängigkeitserkrankungen
sowie die Schmerzforschung.
Univ.-Prof. Dr. med.
Peter Bartenstein
Peter Bartenstein, geboren 1959, studierte Medizin
in Bochum und Bonn. Nach der Promotion war er als
Assistenzart und Arzt an der Klinik und Poliklinik für
Nuklearmedizin am Universitätsklinikum Münster
tätig. 1990 bis 1991 folgte ein Forschungsaufenthalt
in der PET-Gruppe der Medical Research Council
Cyclotron Unit des Hammersmith Hospital London. Er
kehrte nach Münster zurück und arbeitete dort drei
weitere Jahre als Oberarzt für Nuklearmedizin. 1994
erfolgte die Habilitation. Im Anschluss daran arbeitete Peter Bartenstein bis 1999 als Oberarzt in der
Nuklearmedizinischen Klinik und Poliklinik der TU
München und war Leiter der Arbeitsgruppe Neuroimaging. Seit Februar 1999 ist er Direktor der Klinik
und Poliklinik für Nuklearmedizin der Johannes
Gutenberg-Universität Mainz. Forschungsschwerpunkte sind die Neuronuklearmedizin, Schmerzforschung und die funktionelle Bildgebung des dopaminergen und des opioidergen Systems.
■ Kontakt:
Univ.-Prof. Dr. med. Mathias Schreckenberger
Klinik und Poliklinik für Nuklearmedizin
Universitätsklinikum Mainz
Langenbeckstraße 1
55101 Mainz
Tel. +49 (0) 6131 17-2109
Fax +49 (0) 6131 17-2386
E-Mail: [email protected]
http://www.uni-mainz.de/FB/Medizin/Nuklearmedizin/
FORSCHUNGSMAGAZIN ■ 1/2005
19
......
...... PSYCHOLOGIE
Elektrophysiologie und virtuelle Realität
als Mittel zur Untersuchung von Wahrnehmungsprozessen
Von Heiko Hecht und Stefan Berti
Eine Verbindung von
Computersimulation mit neurowissenschaftlichen
Methoden macht es möglich,
dem Gehirn bei der
Verarbeitung von visuellen
Informationen zuzuschauen.
Visuelle Wahrnehmung spielt in unserem Alltag eine
entscheidende Rolle, sei es beim Lesen oder im Straßenverkehr. Um die funktionalen und neurophysiologischen Prozesse, die unseren Wahrnehmungsleistungen zugrunde liegen, näher zu erforschen, halten
wir einen integrativen Ansatz für notwendig, der Verhaltensdaten mit neurowissenschaftlichen Methoden und Computersimulationen ergänzt. Diese Überzeugung leitet unseren integrativen Forschungsansatz der experimentellen Wahrnehmungsforschung,
für den wir hier in Mainz in den letzten beiden Jahren die apparativen und experimentellen Voraussetzungen schaffen konnten.
Virtuelle Realität (VR)
Einer unserer Forschungsschwerpunkte besteht darin
zu untersuchen, welche Bestandteile der komplexen
visuellen Information, die unser Auge erreicht, tatsächlich herangezogen werden, wenn wir so ge-
Abb. 1: Ein head-mounted display
erlaubt es, eine maßgeschneiderte
Scheinwelt zu präsentieren.
20
nannte Kontaktzeitschätzungen vornehmen. Will ein
Autofahrer etwa entscheiden, ob er noch genug Zeit
hat, um auf die Überholspur zu wechseln, so kann er
dazu die Größe des Abbildes des herannahenden
Hintermannes auf der Überholspur im Außenspiegel
heranziehen. Mit der Entscheidungsregel, ab einer
bestimmten Abbildgröße im Spiegel nicht mehr zum
Ausscheren anzusetzen, kommt der Fahrer vielleicht
gut zurecht. Vielleicht nimmt er aber auch Geschwindigkeits- und Abstandsschätzungen vor, wie dies ein
computergesteuertes Programm, ein Überholwarnsystem, tun würde. Es sind viele weitere Strategien
und Tricks denkbar, die wir benutzen könnten, um zu
einer Entscheidung zu kommen. Ein großes Problem,
das die Fragestellung gleichzeitig zu einer faszinierenden Herausforderung für den experimentellen
Psychologen macht, liegt darin, dass die Prozesse der
Informationsverarbeitung und die Anwendung von
Entscheidungsregeln ganz oder fast ganz unbewusst
vonstatten geht. Oder könnten Sie sagen, nach welchen Kriterien Sie überholen? Das hat man eben im
Gefühl. Wir versuchen herauszufinden, wie das visuelle System des Menschen die Kontaktzeitschätzung
vornimmt und welche Fehler dabei gemacht werden.
Dieses Wissen kann dann den Konstrukteuren von
Autospiegeln oder Fahrlehrern zur Verfügung gestellt
werden, um die Sicherheit im Straßenverkehr zu verbessern.
Da eine Befragung von Verkehrsteilnehmern vollkommen unergiebig ist – die beteiligten Wahrnehmungsprozesse sind der Introspektion nicht zugängig – muss man mit viel Mühe und experimentell
sauberen Methoden der Fragestellung nachgehen.
Dies tun wir, indem wir etwa herannahende Autos
derart manipulieren, dass sich ihre Größe ändert,
während ihre Kontaktzeit gleich bleibt. Es stellt sich
heraus, dass uns große Autos mehr Respekt einflößen und wir ihre Kontaktzeit in der Regel unterschätzen. Sie werden sich jetzt fragen, wie es uns gelingt,
die Größe eines Autos zu verdoppeln und Probanden
dazu zu bringen, sich in den Weg eines solchen
Ungetüms zu stellen und uns gleichzeitig saubere
Kontaktzeitschätzungen zu liefern, bevor sie sich
dann mit einem Sprung (als Fußgänger) oder durch
ein Ausweichmanöver (als Autofahrer) in Sicherheit
bringen. Wir erzeugen virtuelle Autos auf einem PC
und präsentieren diese dann entweder auf einem
head-mounted display der Firma Nvison (Auflösung
1280 x 1024, Abb. 1) oder einer großen Projektionswand (Power wall und zwei Projektoren mit Polarisationsfiltern, Abb. 2). D. h. wir können eine Probandin
in eine nahezu perfekt simulierte Welt versetzen, in
der vom Rechner vorgegebene Autos oder andere
Objekte direkt auf sie zukommen. Die Probandin teilt
uns dann mit einem Knopfdruck oder einer Lenkbewegung an einem Lenkrad mit, wann sie das Ausweichmanöver starten würde, um gerade noch einer
Kollision zu entgehen. Oft verwenden wir auch Reize,
in denen das herannahende Objekt ausgeblendet
wird und der Proband den Kollisionszeitpunkt vorhersagen muss oder später angibt, ob ein Referenz-
Unsere Buchhandlung
Gutenberg-Buchhandlung
Dr. Kohl
An der Universität
Saarstraße 21
55122 Mainz
Tel.: 06131-304790 Fax: 06131-371240
http://www.gutenbergbuchhandlung.de
[email protected]
Büroeinrichtungen
Büroplanung
Bürotechnik
Büro- und EDV-Bedarf
AKTION
Aktion „bewegtes und
gesundes Sitzen“
Löffler CL 7070
der Bürostuhl mit dem
Sitzball-Effekt
Machen Sie eine Sitzprobe
in unseren umfassenden
Ausstellungsräumen!
55120 Mainz-Mombach, Liebigstr. 9 -11
Tel. 0 61 31/ 68 20 11 · www.buero-jung.de
Groß- u. Einzelhandel (auch Versand)
FORSCHUNGSMAGAZIN ■ 1/2005
21
Anzeige
Provider und Entwickler für
in vivo Modelle und Testsysteme
Für die Zulassungsverfahren von Medikamenten und
Therapien werden dem Menschen möglichst ähnliche
Tiermodelle benötigt. Maus und Ratte erfüllen die
Voraussetzungen dafür in besonderem Maße (> 90%
genomische Homologie zum Mensch). Bei ihnen kann
man die Wirkung von Genen und deren Produkten in
Form definierter Phänomene (z.B. Krankheitssymptome) direkt untersuchen. Die Eignung und Qualität der
Modelle wird durch ein hohes Maß an Sicherheit des
Auftretens dieser Phänomene zu einem definierten
Zeitpunkt bestimmt (Modellcharakterisierung). Nur
dann hat das Modell einen Wert. Je höher die Qualität,
desto stärker können Entwicklungszeit und -kosten
reduziert werden. Notwendig dafür ist einerseits ein
hoher Standard dieses Modells (Modellstandardisierung)
und andererseits ein systematisches, Modell adaptiertes
Analyseverfahren, um das spezifische räumlich-zeitliche
Muster dieser Phänomene zu etablieren und zu konservieren (Expressions- und Funktionsprofiling).
Die spezifische Charakterisierung, Standardisierung
und der spezifische Profilingalgorithmus werden in unserem Unternehmen entwickelt, konserviert (Datenbanken und Zellbanken) und für Studien verwendet. Der
zweite Entwicklungsschwerpunkt liegt in der Adaptation
(Miniaturisierung, Messoptimierung) der Mess- und Analysetechnologien an die entsprechenden Tiermodelle,
womit Plausibilität, Sicherheit und Präzision erhöht werden.
Die Firma mfd Diagnostics GmbH tritt als Provider
für in vivo Testsysteme auf und entwickelt diese weiter.
Ein Schwerpunkt ist die Phänotypisierung dieser Testsysteme. Besonderes Augenmerk gilt hierbei der Identifizierung und Validierung des sogenannten „read out Fensters“. Darunter versteht man den zeitlich und morphologisch determinierten Entwicklungszustand der pathophysiologisch relevanten Veränderungen während des
Krankheitsverlaufes. Besonderer Wert wird dabei auf die
Veränderungen in der Initial- und Verlaufsphase gelegt.
Fragestellungen im klinisch neurologischen Bereich
(Themenkomplex Psychoneuroimmunologie, Autoimmunerkrankungen, Tumorerkrankungen, Herz-Kreislauferkrankungen) wurden in dieser Weise erfolgreich bearbeitet.
Wirtschaftlicher Nutzen für den Kunden: Von
dem Standardisierungsgrad dieser in vivo Modelle und
22
der Testsysteme hängen in entscheidendem Ausmaß
sowohl Kosten als auch Dauer von Forschung und Entwicklung ab:
• Die Standardisierung, die einen wichtigen Teil unseres
Serviceportfolios ausmacht, vermindert das statistische Grundrauschen (Varianzreduktion) wesentlich
und gewährleistet dadurch ein hohes Maß an Datenund Produktsicherheit.
• Nur durch solche Standards wird ein effektives Controlling gewährleistet.
• Das führt zu einer wesentlichen Steigerung des Wirkungsgrades und der Sicherheit z.B. von transgenen
Tiermodellen mit ihrer hohen Targetspezifität.
Diese Steigerung ist essentiell für die Qualitätssicherung und ermöglicht u.a. eine deutliche Verkürzung der
Entwicklungszeit für drug design und drug delivery in
der präklinischen Phase.Wir sind damit in der Lage, ein
hohes Maß an Reproduzierbarkeit und Daten/Aussagesicherheit zu gewährleisten. Dadurch wird bei der Entwicklung von neuen Therapieformen ein höchst möglicher Grad von Sicherheit erreicht, bevor diese schließlich in die klinische Phase gehen. Über die Verkürzung
der Entwicklungszeit und das hohe Maß an erreichter
Sicherheit wird ein möglichst frühzeitiger Einsatz für den
Patienten realisierbar.
mfd Diagnostics GmbH
Dr. med. vet. Bernd Lecher
Simone Maurer
Freiligrathstr. 12
D-55131 Mainz
Tel.: +49 (0) 6131 1440 201
+49 (0) 6131 1440 213
Fax: +49 (0) 6131 1440 222
e-mail: b.lecher @MFD-Diagnostics.com
[email protected]
PSYCHOLOGIE
ton vor oder hinter dem Kollisionszeitpunkt erklang.
Mit dieser Technik haben wir beispielsweise herausgefunden, dass Menschen keinesfalls die Information
auswerten, die physikalisch nahe liegt. Die Kontaktzeitschätzungen basieren gerade nicht auf Distanz
und Geschwindigkeit, sondern sie basieren auf der
Expansionsrate des Bildes, welches das Objekt auf
der Netzhaut unseres Auges hinterlässt. Dies ist aber
nur in idealen Umgebungen der Fall. Wenn der Reiz
nicht hinreichend detailliert ist, werden oft einfache
Bildparameter herangezogen, als würde unser visuelles System Faustregeln benutzen. Zum Beispiel die
Faustregel: immer, wenn sich die Objektgrenze
schnell an den Rand des Sehfeldes bewegt, steht
eine Kollision unmittelbar bevor (zum internationalen Stand dieser Forschung siehe Hecht & Savelsbergh, 2004).
Die Technik der virtuellen Realität bietet vielfältige
Möglichkeiten, menschliches Verhalten in Umgebungen zu testen, die außerhalb des Labors nicht herstellbar bzw. nicht experimentell manipulierbar sind.
Die Technik besteht, kurz gesagt, darin, dass über ein
Kamerasystem, das mit unsichtbarem infrarotem
Licht arbeitet, die genaue Position des Betrachters
erfasst wird. Diese Information wird dann an einen
Rechner gesendet, der einen dreidimensionalen Film
erzeugt. Im Rechner ist eine dreidimensionale Kunstwelt abgespeichert, etwa bestehend aus einer Strasse und einem Auto. Bei entsprechend guter Rechenleistung wird nun aus der 3-D-Datenbank in einer
sechzigstel Sekunde das Bild berechnet, das der
Beobachter an seinem Beobachtungspunkt sähe,
wenn ein entsprechendes Auto auf ihn zukäme. Der
Wirklichkeitseindruck ist stark, hat aber natürlich
auch seine Grenzen. Zusammen mit Prof. Schömer
(Institut für Informatik, Johannes Gutenberg-Universität Mainz), der maßgeblich an unserem Labor
beteiligt ist, haben wir uns zum Ziel gesetzt, diese
Grenzen zu erforschen und die VR-Welt zu optimieren. Insbesondere arbeiten wir an einer Verbesserung
des dreidimensionalen Sehens, also der stereoskopischen Bilder, die in der VR dargeboten werden.
Elektrophysiologie des Gehirns
Zudem können wir über die Messung des Elektroenzephalogramms (EEG) bei Versuchspersonen, während sie eine experimentelle Aufgabe bearbeiten,
detaillierte Aussagen über Prozesse der visuellen
Informationsverarbeitung sowie deren neuronale
Grundlagen machen. Dabei werden kurze EEGAbschnitte gemittelt, die mit einem definierten Ereignis, etwa der Präsentation eines bestimmten Bildes,
N1
-2
Fp1
F7
-1
100
200
300
ms
400
T7
F3
C3
Fp2
Fz
F4
Cz
F8
C4
T8
LM
1
RM
P7
P3
Pz
P4
P8
O1 Oz O2
2
Elektrode:
P8
Oz
O2
Abb. 3: Ereigniskorrelierte Hirnpotenziale zeigen mit
hoher zeitlicher Auflösung Unterschiede in
der Verarbeitung
veränderter Reize an
(links als Differenzkurven und rechts als
Potenzialverteilung über
dem Schädel).
N1
-3 µV
-100
Abb. 2: Die Power wall vermittelt visuelle Erlebnisse in Lebensgröße. Der
Standpunkt des Beobachters wird
auch hier erfasst und in das VR-System
eingespeist.
230-260 ms
-2.0
µV
+2.0
FORSCHUNGSMAGAZIN ■ 1/2005
23
......
...... PSYCHOLOGIE
verbunden sind. Die so genannten ereigniskorrelierten Potenziale oder EKPs zeichnen sich durch eine
charakteristische Wellenform aus, die sich in unterschiedliche Komponenten einteilen lassen (Abb. 3,
links). Jede dieser Komponenten wird dabei bestimmten Verarbeitungsschritten im neurokognitiven
System zugeordnet, etwa der sensorischen Verarbeitung eines Reizes, der kognitiven Bewertung oder
der Initiierung einer motorischen Reaktion auf den
Reiz. Damit lassen sich Aussagen machen über
bestimmte Prozesse, die an der Informationsverarbeitung beteiligt sind, und ihre zeitliche Abfolge. Mit
geeigneten Modellierungsverfahren lassen sich
sogar die beteiligten neuronalen Strukturen identifizieren, wenn auch mit geringerer räumlicher Auflösung als in der funktionalen Kernspintomographie
(fMRI). Ein großer Vorteil ist jedoch die hohe zeitliche
Auflösung des EEGs, die im Millisekundenbereich
liegt und hierin dem fMRI überlegen ist. Außerdem
ist der apparative Aufwand des EEGs vergleichsweise
gering und macht eine Nutzung im VR-Labor möglich. Neuere Ansätze wie die parallele fMRI- und
EEG-Aufzeichnung versprechen eine Kombination
der hohen zeitlichen Auflösung des EEGs mit der
hohen räumlichen Auflösung des fMRI.
Mit Hilfe von verschiedenen EKP-Studien konnten
wir zeigen, dass ein hoher Anteil der visuellen Informationsverarbeitung automatisch und auf der Ebene
sensorischer Verarbeitungsschritte erfolgt. Bereits im
sensorischen System wird eine Repräsentation über
Invarianten der visuellen Umgebung abgespeichert,
auf deren Basis auch zeitlich getrennt präsentierte
Reize verglichen und bewertet werden, um schon
nach wenigen Millisekunden und ohne Zuwendung
von Aufmerksamkeit unerwartete Veränderungen zu
detektieren (siehe Berti & Schröger, 2004). In Abb. 3
ist das Ergebnis dieser Studie zusammengefasst: Es
zeigt sich, dass bereits nach 200 Millisekunden ein
deutlicher Unterschied bei der Verarbeitung der veränderten Reize zu beobachten ist. Diese Verarbeitung ist in dem Sinne automatisch, als dass die Versuchspersonen ihre Aufmerksamkeit auf einen anderen Aspekt der visuellen Stimulation richteten. Die
Fähigkeit, möglichst schnell Veränderungen in der
visuellen Umwelt zu entdecken, die nicht im Fokus
der Aufmerksamkeit liegen, ist etwa im Straßenverkehr von besonderer Bedeutung. Während im Alltag
allerdings deutliche Veränderungen wie das plötzliche Erscheinen eines Objektes oder Bewegungs- und
Geschwindigkeitsänderungen Aufmerksamkeit anziehen, zeigt sich in unseren Laborexperimenten,
dass auch vergleichsweise geringe Veränderungen
auf Basis eines sensorischen Gedächtnisvergleichsprozesses erkannt werden. Die Verteilung der EKPs
(Abb. 3, rechts) auf der Schädeloberfläche legt die
Vermutung nahe, dass die primären, visuellen Areale
Quelle dieser Prozesse sind. Dies ist ein weiterer Hinweis darauf, dass dieser Gedächtnisvergleichsprozess tatsächlich eine Leistung des sensorischen Systems ist und in diesem Sinne kognitive Funktionen
deutlich früher in der Informationsverarbeitung verankert sind, als man oftmals annimmt.
Zur Zeit messen wir EKPs, die bestimmten Phasen
der Kontaktzeitschätzung zugeordnet werden können, um der bislang ungeklärten Frage nachzugehen,
ob es beim Menschen ein Modul (etwa Kortexareal
MT) gibt, das bei jeder Kontaktzeitschätzung aktiv
wird, ähnlich wie man es bei Tauben gefunden hat.
Ebenso sind wir dabei, Blickbewegungen und EKPs
miteinander in Beziehung zu setzen, um Prozessen
der Objekterkennung auf die Spur zu kommen.
Zusammenfassend lässt sich feststellen, dass die
Kombination von VR mit neurowissenschaftlichen
Methoden eine weitgehend einmalige Chance darstellt, um die Prozesse zu analysieren, die der visuellen Wahrnehmung zugrunde liegen. Diese Methodenkombination werden wir in Zukunft weiterentwickeln, um die daraus erwachsenden Chancen in
Mainz zu nutzen.
■ Summary
We explore the processes underlying human visual
perception. To do so, during the last two years we
have assembled a technology that allows us to simulate complex scenes, as for example vehicles approaching an observer on collision course. It also enables
us to relate behavioral measures such as reaction
time with electrophysiological parameters such as
evoked brain potentials. The integrative approach,
set within a virtual reality laboratory, combines computer science, electrophysiology, and cognitive psychology. We report findings that support the advantage of this approach.
Literatur
Berti, S., Schröger, E. (2004). Distraction effects in vision: behavioral and event-related brain potential indices. Neuroreport
15, 665-669.
Hecht, H., Savelsbergh, G. J. P. (Eds.) (2004). Time-to-contact. Amsterdam: Elsevier Science Publishers.
24
PSYCHOLOGIE
Univ.-Prof. Dr. phil.
Heiko Hecht
HEIKO HECHT absolvierte sein Studium an den Universitäten Trier und Virginia, USA. Die Promotion
erfolgte 1991 an der Universität von Virginia. Danach
war er am Max-Planck-Institut für Psychologische
Forschung tätig, an der Ludwig-Maximilians Universität in München, am NASA Ames Research Center,
am Zentrum für interdisziplinäre Forschung der Universität Bielefeld sowie am Center for Space Research (Man-Vehicle Laboratory) am Massachusetts
Institute of Technology in Cambridge, MA. Seit 2002
ist Heiko Hecht Professor für Allgemeine Psychologie
an der Johannes Gutenberg-Universität Mainz. Seine
Interessen sind Wahrnehmen und Handeln in extremen Umgebungen, Kontaktzeitschätzung, virtuelle
Realität und künstliche Schwerkraft.
Prof. Dr. rer. nat.
Stefan Berti
STEFAN BERTI, geboren 1970 in Frankfurt/Main, studierte in Frankfurt/Main, Gießen und Leipzig Psychologie, Sportwissenschaft und Logik/Wissenschaftstheorie und promovierte 2001 in Leipzig in Psychologie mit einem neuropsychologischen Thema. Seit Juni
2003 ist Stefan Berti am Psychologischen Institut der
Johannes Gutenberg-Universität Mainz als Juniorprofessor für Kognitionswissenschaft tätig. Schwerpunkte seiner Arbeit sind die Neurokognition der
Aufmerksamkeit, der Wahrnehmung, des Arbeitsgedächtnisses und der Motorik, die mit Mitteln der
Deutschen Forschungsgemeinschaft (DFG) und aus
dem Forschungsfond der Johannes Gutenberg-Universität gefördert werden.
■ Kontakt:
Univ.-Prof. Dr. phil. Heiko Hecht
Johannes Gutenberg-Universität Mainz
Psychologisches Institut
Staudingerweg 9
55099 Mainz
Tel. +49 (0) 6131 39-22481
Fax +49 (0) 6131 39-22480
E-Mail: [email protected]
http://www.psych.uni-mainz.de/abteil/aep/hecht/
Laseroptik • Entwicklung •
Spezialanfertigung
■
■
■
Beschichtungen
für HR, PR, AR, Metalle
Standardoptik
Sonderoptik
www.lens-optics.de
[email protected]
Fon +49 (0)8166/99 40 83
Fax +49 (0)8166/99 47 47
FORSCHUNGSMAGAZIN ■ 1/2005
25
......
...... SPRACHWISSENSCHAFT
Wortarten im Gehirn?
Von Walter Bisang, Jörg Meibauer und Markus Steinbach
Experimente zeigen, dass
Nomen und Verb im Gehirn an
verschiedenen Stellen
verarbeitet werden. Es stellt
sich die Frage, ob Wortarten
wie Nomen und Verb
universell und angeboren
sind.
Neurolinguistische Untersuchungen zeigen, dass der
sprachlichen Produktion von Nomina und Verben
unterschiedliche neuronale Substrate zugrunde liegen. Wie wir im Folgenden zeigen möchten, lässt dieser Befund allerdings noch keinerlei Rückschlüsse auf
die Angeborenheit dieser Unterscheidung zu. Empirische Befunde aus so verschiedenen Bereichen der
Linguistik wie Sprachtypologie, Gebärdensprache
und Spracherwerb zeigen, dass die Unterscheidung
von Nomen und Verb keineswegs als notwendige
bzw. angeborene Eigenschaft der menschlichen Sprache vorausgesetzt werden kann.
Wortarten: Nomen und Verb
Bei der Bestimmung von Wortarten wie Nomen und
Verb spielen semantische, pragmatische und grammatische Faktoren eine Rolle, die hier für die Unterscheidung von Nomen und Verb kurz vorgestellt seien (vgl. Croft 2000):
1. Der semantisch-kognitive Faktor: Unterscheidung
zwischen Objekten und Ereignissen
2. Der Faktor der Sprachhandlung, also die Frage,
wozu wird ein sprachliches Zeichen verwendet
(Pragmatik): Unterscheidung zwischen Referenz
(Verweis auf ein Objekt oder ein Ereignis) und
Prädikation (Aussage über Objekte)
3. Markierung durch sprachliche Ausdrucksmittel
(Morphologie und Syntax)
Wie man relativ schnell sieht, reicht die semantisch-kognitive Unterscheidung zwischen Objekt und
Ereignis nicht aus, um Nomina und Verben voneinander zu unterscheiden. So lassen sich Nomina nicht
einfach als Wörter bezeichnen, die auf ein Objekt
verweisen. Nomina wie Pferd oder Auto verweisen
zwar tatsächlich auf Objekte, andere Nomina wie
Bewegung oder Betäubung verweisen dagegen auf
Ereignisse (X bewegt sich bzw. X betäubt Y). Vielmehr hat es sich bewährt, die beiden ersten Faktoren
miteinander zu verknüpfen und zu beobachten, welche sprachlichen Markierungen verwendet werden.
Betrachtet man nur die beiden Wortarten Nomen
und Verb, ergibt sich daher die folgende vierfeldrige
Tabelle:
26
REFERENZ
PRÄDIKATION
OBJEKT
Auto
X ist ein Auto.
EREIGNIS
Beweg-ung
beweg-
Der ausschlaggebende Faktor für die Zuweisung
von Wörtern zu Nomina und Verben sind die Markierungsverhältnisse. Nomina zeichnen sich dadurch
aus, dass sie an der Schnittstelle von OBJEKT und
REFERENZ unmarkiert sind. Tatsächlich kann man im
Deutschen durch die bloße Nennung eines objektbezeichnenden Wortes auf dieses verweisen bzw. referieren (Auto). Soll das Objekt dagegen prädiziert
bzw. für eine Aussage verwendet werden, muss es
mit der Kopula sein verbunden werden (X ist ein
Auto). In diesem Sinne ist Auto tatsächlich bei der
Referenz auf das entsprechende Objekt weniger markiert als bei der Prädikation. Genau umgekehrt verhält es sich bei Verben. Diese sind in der Verbindung
von EREIGNIS und PRÄDIKATION unmarkiert. So
kann man bei sich bewegen allein den Stamm mit
den entsprechenden zusätzlichen Angaben zum Tempus und zu Numerus und Person des Subjektes verwenden (Das Auto beweg-t sich.). Sollen Ereignisse
für die REFERENZ zugängig gemacht werden, müssen sie einen zusätzlichen Prozess durchlaufen und
sind dadurch markierter. Im Falle des Verbs sich
bewegen geschieht dies durch Hinzufügung der
Endung -ung in Bewegung. Schon nach dieser stark
vereinfachten Darstellung ist es also gerechtfertigt,
im Deutschen von Nomen und von Verben zu sprechen. Entscheidend ist dabei die Erkenntnis, dass die
Frage, welche Wörter genau als Verben und welche
als Nomina verwendet werden, stets auf dem rein
sprachlichen Kriterium der Markierungsverhältnisse
beruht. Damit bestätigt sich die obige Feststellung,
dass semantische Kriterien allein nicht ausreichen
und grammatische Kriterien hinzugezogen werden
müssen.
Neurolinguistische Lokalisierung
von Wortarten im Gehirn
Eine für Neurolinguisten spannende Frage ist nun, ob
sich für die im vorherigen Abschnitt skizzierte Unterscheidung zwischen Nomen und Verben neurophysiologische Korrelate finden lassen und falls ja, wie
sich dies zeigen lässt? Als Evidenz für oder gegen
bestimmte linguistische Hypothesen werden unter
anderem neurolinguistische Experimente mit Aphasikern mit sehr spezifischen Defiziten und die Ergebnisse von Neuroimagingstudien mit gesunden Sprechern angeführt.
Caramazza und Shapiro (2004) berichten von zwei
englischen Patienten, die aufgrund einer Aphasie
komplementäre sprachliche Störungen haben. Die
Störungen sind bei beiden Patienten außerdem
modalitätsspezifisch, so dass sie entweder nur die
SPRACHWISSENSCHAFT
mündliche oder schriftliche Produktion betreffen. Mit
der Produktion von Nomen haben die Patienten keine Probleme. Die Produktion von Verben ist dagegen
bei beiden Patienten gestört, wobei beim ersten
Patient nur die mündliche Produktion von Verben
gestört ist und beim zweiten Patient nur die schriftliche Produktion. Dieser Unterschied zeigte sich unter
anderem in folgendem Test. Beide Patienten wurden
gebeten, homonyme Nomen und Verben wie zum
Beispiel play mündlich und schriftlich zu produzieren.
In der ersten Aufgabe sollten sie in Sätzen wie in (1)
die unterstrichenen Wörter vorlesen. In der zweiten
Aufgabe sollten sie homonyme Wörter in eine unterstrichene Lücke schreiben (vgl. die Beispiele in (2)).
(1)
a. I liked the
b. I liked to
(2)
a. I liked the
b. I liked to
play
play
very much
the piano
very much
the piano
In beiden Aufgaben hatten die Patienten keine signifikanten Probleme bei der schriftlichen und mündlichen Produktion von Nomen. Bei der Produktion der
homonymen Verben hatten dagegen beide Patienten
Schwierigkeiten. Patient 1 hatte zwar fast keine Probleme beim Schreiben der Verben, allerdings hatte er
große Probleme beim Sprechen dieser Verben.
Patient 2 zeigt ein dazu fast komplementäres Defizit:
bei ihm ist nur die schriftliche Produktion der Verben
gestört. Die mündliche Produktion ist dagegen fast
völlig normal. Die Ergebnisse sind in der folgenden
Tabelle zusammengefasst.
PATIENT 1
PATIENT 2
mündlich schriftlich mündlich schriftlich
NOMEN
88%
98%
100%
100%
VERBEN
46%
96%
98%
56%
Die Ergebnisse zeigen, dass es sehr spezifische
grammatische Störungen gibt, die nur Nomen oder
Verben betreffen können und dass diese Störungen
mit Läsionen bestimmter Gehirnregionen einhergehen. Dieser Befund wird auch von neurolinguistischen Experimenten mit gesunden Sprechern bestätigt. So zeigen zum Beispiel Neuroimagingstudien, in
denen die Verarbeitung von nominaler und verbaler
Flexion untersucht wurde, dass bei der Verarbeitung
von Nomen vor allem das Brocazentrum aktiviert ist,
wohingegen bei der Verarbeitung von Verben vor
allem die Regionen vor und über dem Brocazentrum
aktiviert sind. Zusammenfassend können wir also
festhalten, dass teilweise unterschiedliche neuronale
Systeme bei der Produktion und Verarbeitung von
Nomen und Verben beteiligt sind, so dass man davon
ausgehen kann, dass Nomen und Verben an verschiedenen Stellen im Gehirn repräsentiert sind.
Sprachtypologie
Wie zu Beginn gesehen, ist die Unterscheidung von
Nomen und Verb ein sprachspezifisches Phänomen,
das auf dem sprachspezifischen Kriterium der Markierungsverhältnisse beruht. Semantische Kriterien
allein reichen nicht aus, um eine Unterscheidung zwischen Nomen und Verben zu treffen. Zudem werden
sich kaum zwei Sprachen finden, die die genau gleichen Konzepte als Nomen bzw. als Verben behandeln. Mit dieser Feststellung ist aber noch nichts über
den universalen Charakter der Unterscheidung von
Nomen und Verb gesagt. In der Tat gibt es eine ganze
Reihe von Sprachen, bei denen sich keine Markierungsunterschiede zu zeigen scheinen. So erscheinen
im Klassischen Chinesischen (5. – 3. Jh. v. Chr.), das
zur Zeit von Konfuzius gesprochen wurde, objektbezeichnende Wörter ohne zusätzliche Markierung in
der Prädikation. Sogar ein Eigenname wie im folgenden Beispiel König Wu kann in der für Verben vorgesehenen Position erscheinen:
(4)
Fürst Ruo sagen du wollen Wu König ich FRAGE
‚Fürst Ruo sagte: „Willst du mich wie König Wu behandeln?“’
⇒ „Willst du mich töten?“ (Zuo, Ding 10)
Will man dies im Deutschen imitieren, ergäbe sich
eine Infinitivform wie „König Wuen“. Im Englischen
sind solche Bildungen eher möglich. Im Unterschied
dazu ist die Bedeutung von Nomina in der Verbposition im Klassischen Chinesisch aber ganz klar vorhersagbar. Im Falle von (4) lautet der Interpretationsrahmen „behandeln wie X“, also „wie König Wu
behandeln“. Wenn man dann noch aus der Geschichte weiß, dass König Wu ermordet wurde, ist die Interpretation des Satzes klar.
Ein anderes Beispiel ist das Tagalog, eine auf den
Philippinen gesprochene austronesische Sprache. In
dieser Sprache scheinen, wie dies bereits Wilhelm
von Humboldt angedeutet hatte, sowohl objektbezeichnende als auch ereignisbezeichnende Wörter
mit Strukturen ausgedrückt zu werden, die an nominale Strukturen in Sprachen erinnern, welche zwischen Nomen und Verb unterscheiden.
(5) a. lapis
ng
bata
Bleistift
GENITIV
Kind
‘der Bleistift des Kindes’
b. kinain
ng
lapis
essen
GENITIV
Kind
‘das Kind isst’ (bzw. ‘das Essen des Kindes’)
Betrachtet man die beiden Äußerungen in (5), wird
das Ereignis in (5b) analog zur Genitivkonstruktion in
(5a) im Sinne von das Essen des Kindes ausgedrückt.
FORSCHUNGSMAGAZIN ■ 1/2005
27
......
...... SPRACHWISSENSCHAFT
Gebärdensprachen
Zu einem ähnlichen Ergebnis kommen typologische
Studien von Gebärdensprachen, also von Sprachen,
die sich nicht wie Lautsprachen einer akustisch-auditiven, sondern einer gestisch-visuellen Modalität
bedienen. Manche Gebärdensprachen verfügen zwar
über morphologische Prozesse wie Reduplikation,
Bewegungsmodifikation oder (eher selten) Affigierung, um Verben von Nomen und Nomen von Verben
abzuleiten (vgl. Supalla und Newport 1978), in sehr
vielen Fällen wird allerdings dieselbe Gebärde zur
Objekt- und zur Ereignisbezeichnung verwendet. So
können beispielsweise die Gebärden FAHRRAD und
HELFEN in (6) einerseits das Objekt Fahrrad und das
Abstraktum Hilfe, andererseits aber auch die Ereignisse Fahrrad fahren und helfen bezeichnen.
(6)
2x
FAHRRAD
HELFEN
Viele Gebärden lassen sich demnach nicht eindeutig
als Nomen oder Verb klassifizieren. Trotzdem spielt
die Unterscheidung zwischen Nomen und Verben
auch in Gebärdensprachen eine wichtige grammatische Rolle, da Gebärdensprachen zwischen verbaler
und nominaler Flexion unterscheiden. Ereignisbezogene Gebärden zeigen verbale Flexion, objektbezogene Gebärden zeigen dagegen nominale Flexion
und sie werden bestimmten Nominalklassen zugeordnet. Allerdings scheinen anders als im Deutschen
die meisten Gebärden keiner der beiden grammatischen Kategorien eindeutig zugeordnet zu sein.
Spracherwerb
Im frühen Wortschatz dominieren im Wesentlichen
zunächst Nomen, bevor dann mehr und mehr Verben
erlernt werden. Verschiedene Gründe können dafür
genannt werden. Möglicherweise können Nomen
leichter erlernt werden als Verben, weil alle klaren
Objektbezeichnungen Nomen sind; Verben können
niemals Objekte bezeichnen. Nomen sind auch konzeptuell einfacher als Verben. Während es wohl mehr
Nomen-Types gibt als Verb-Types, gibt es Hinweise
darauf, dass im Input Verb-Tokens häufiger vorkommen als Nomen-Tokens. Dies zeigt, dass die NomenDominanz nicht allein von Häufigkeiten im Input
abhängen kann. Wie universal die frühe kindliche
28
Präferenz für Nomen ist, ist umstritten. So wurde
beobachtet, dass koreanische Kinder stärker verborientiert seien als etwa englische Kinder.
Wenn man in Bezug auf die Kindersprache von
Kategorien wie „Nomen“ und „Verb“ spricht, muss
man sich immer vor Augen halten, dass nicht klar ist,
inwiefern etwa ein 14-monatiges Kind Ausdrücke
wie Ball oder Mama als Nomen klassifiziert. Möglicherweise hat es noch keine implizite Kenntnis morphosyntaktischer Kategorien und verlässt sich weitgehend auf semantische und pragmatische Eigenschaften dieser Wörter. Linguistisch interessant ist in
dieser Hinsicht das Phänomen der Konversion.
Darunter ist die Umkategorisierung eines Worts in
eine andere Wortart zu verstehen. So nimmt Rafael
im Alter von 22 Monaten das Nomen Hummel und
macht daraus das Verb hummeln. Oder er bezeichnet
im Alter von 26 Monaten etwas Gebackenes als
Back. Diese Möglichkeit der Konversion existiert auch
in der Erwachsenensprache. Sie demonstriert eindringlich, dass Kinder in einem bestimmten Alter
Beziehungen zwischen Wortarten entdecken. Im Falle der Wortbildung dienen die Neubildungen unter
anderem dazu, eventuelle Lücken im kindlichen Lexikon zu füllen.
In Bezug auf die Neurokognition der Sprachentwicklung, d.h. den Zusammenhang zwischen Sprachentwicklung und Gehirnentwicklung, weiß man aus
Läsions-Verhaltens-Studien bei Kindern mit frühen
unilateralen Läsionen, dass bei diesen kaum Unterschiede zwischen jenen mit links-hemisphärischen
Läsionen und jenen mit rechts-hemisphärischen
Läsionen zu finden sind. Das ist ein durchaus überraschender Befund, denn Aphasien bei Erwachsenen
betreffen in der Regel die linke Hemisphäre. Überraschend ist auch, dass gerade die rechte Hemisphäre
bis zu einem Alter von 12 Monaten für die Sprachentwicklung der Kinder besonders wichtig ist.
Über die Rolle, die Wortarten bei der Neurokognition der Sprachentwicklung spielen, weiß man wenig.
Allerdings ist aus der Untersuchung von Mustern bei
ereigniskorrelierten Hirnpotenzialen (EKP-Mustern)
bei Kindern zwischen 13 und 20 Monaten bekannt,
dass ein Zusammenhang zwischen der Bekanntheit
versus Unbekanntheit von Wörtern und der neuronalen Entwicklung besteht. Es konnte gezeigt werden,
dass jüngere Kinder und ältere Kinder, auch wenn sie
ungefähr einen gleich großen Wortschatz hatten,
sich hinsichtlich der Aktivierung unterschieden: bei
den kleinen Kindern war sie eher bilateral, bei den
größeren Kindern eher auf die linke Hemisphäre
beschränkt. Wenn es also so ist, dass Nomen und
Verben bei Erwachsenen ihren Sitz an unterschiedlichen Orten im Gehirn haben, dann sollte sich der
Weg zu diesem Ort auch in der neuronalen Entwicklung von Kindern nachzeichnen lassen. Hinsichtlich
solcher Untersuchungen steht man noch ganz am
Anfang.
SPRACHWISSENSCHAFT
Zusammenfassung
Betrachten wir die neurolinguistischen Ergebnisse
aus den Aphasietests zum Schluss noch einmal. Was
beweisen diese an gängigen indogermanischen
Sprachen belegten Befunde? Sie belegen lediglich,
dass sich die Unterscheidung von Nomen und Verb
neurologisch manifestiert. Ob es sich dabei um allgemein gültige und letztlich angeborene Eigenschaften
des Gehirns handelt oder ob sich diese Strukturen
eben nur bei Sprechern von Sprachen zeigen, in welchen Nomina und Verben unterschieden werden,
müsste durch die Einbeziehung einer größeren struk-
turellen Vielfalt von Sprachen untersucht werden.
Wahrscheinlich stehen wir hier noch vor einer ungeahnten Fülle an Erkenntnissen.
■ Summary
Neurolinguistic studies seem to show that the
distinction between nouns and verbs is based on a
neural substrate. A closer look from empirical findings in linguistic disciplines as diverse as typology,
sign language and language acquisition reveals that
the innate status of these substrates is far from being
granted.
Literatur
M a
un Gri son au itte b
l
f
d ls ni
Ge pe ge uns Ma
trä zia n T er i
nk lit er er
e äte ras
au n s
s d , S e:
er ala
Re te
gi
on
Caramazza, Alfonso/Shapiro, Kevin (2004): The representation of grammatical konwoledge in the brain. In: Jenkins, Lyle
(ed.), Variation and universals in biolinguistics. Amsterdam: Elsevier, 147-170.
Croft, William A. (2000): Parts of speech as typological universals and as language particular categories. In: Vogel, Petra
Maria/Comrie, Bernard (eds), Approaches to the typology of word classes. Berlin: Mouton de Gruyter, 65-102.
Friederici, Angela D./Hahne, Anja (2000): Neurokognitive Aspekte der Sprachentwicklung. In: Grimm, Hannelore (ed.):
Sprachentwicklung. Göttingen: Hogrefe, 273-310.
Meibauer, Jörg (1999): Über Nomen-Verb-Beziehungen im frühen Wortbildungserwerb. In: Meibauer, Jörg/Rothweiler,
Monika (eds.), Das Lexikon im Spracherwerb. Tübingen: Francke, 184-207.
Supalla, Ted/Newport, Ellisa L. (1978): How many seats in a chair? The derivation of nouns and verbs in American Sign
Language. In: Siple, Patricia (ed.): Understanding language through sign language research. New York: Academic
Press, 91-132.
Veranstaltungsräume von 5 bis 180 Personen
Von der privaten Familienfeier bis zur grossen Firmenpräsentation
Unser klimatisiertes Hotel verfügt über Räume bis maximal 330 qm
und 121 Komfortzimmer
Unser Restaurant »Le Jardin« mit Sommerterrasse
ist von 11. 00 bis 22. 00 geöffnet
Mainz · Haifa Allee 8 · 55128 Mainz
Telefon: 0 61 31 - 72 08-0 · Telefax: 0 61 31 - 72 08-12 50
FORSCHUNGSMAGAZIN ■ 1/2005
29
......
...... SPRACHWISSENSCHAFT
Univ.-Prof. Dr. phil.
Walter Bisang
WALTER BISANG, geboren 1959 in Zürich, studierte
Allgemeine Sprachwissenschaft, Chinesische Sprache
und Literatur und Georgisch an der Universität
Zürich. Zwischen 1986 und 1992 war Walter Bisang
als Assistent am Seminar für Allgemeine Sprachwissenschaft in Zürich tätig, verbrachte einen Auslandsaufenthalt an der School of Oriental and African Studies in London und promovierte 1990 zum Verb in
fünf ost- und südostasiatischen Sprachen. Seit 1992
ist er C4-Professor für Allgemeine Sprachwissenschaft und Vergleichende Sprachwissenschaft (im
Sinne der Sprachtypologie) in Mainz. Arbeitsschwerpunkte sind Sprachtypologie, Sprache und Kognitionund sprachwissenschaftliche Theorien. Seit 1999 ist
Walter Bisang Sprecher des Sonderforschungsbereiches 295 „Kulturelle und sprachliche Kontakte“.
Univ.-Prof. Dr. phil.
Jörg Meibauer
JÖRG MEIBAUER, geboren 1953 in Reinbek, studierte Deutsch und Philosophie an der Universität zu
Köln. 1980 legte er das Staatsexamen ab, 1985
erfolgte die Promotion in germanistischer Linguistik.
Er arbeitete als wissenschaftlicher Mitarbeiter an der
Universität zu Köln und ab 1989 an der Universität
Tübingen, wo er sich 1993 in germanistischer Linguistik habilitierte. Nach Lehrstuhlvertretungen an
den Universitäten Dresden und Tübingen ist er seit
1998 Professor für Sprachwissenschaft des Deutschen an der Johannes Gutenberg-Universität. Jörg
Meibauer ist Gründungsmitglied des SFB Linguistische Datenstrukturen (Tübingen) und des Graduiertenkollegs Satzarten (Frankfurt/M.). Seine Forschungsschwerpunkte sind u.a. die Grammatik/Pragmatik-Schnittstelle und der kindliche Lexikonerwerb.
Dr. phil.
Markus Steinbach
MARKUS STEINBACH, geboren 1967 in Stuttgart,
studierte Germanistik und Philosophie an der Universität Frankfurt/M. und promovierte 1989 in germanistischer Linguistik an der Humboldt-Universität zu
Berlin. Er war als wissenschaftlicher Mitarbeiter am
Max-Planck-Institut für Psycholinguistik tätig und
arbeitete im Sonderforschungsbereich 340 „Sprachtheoretische Grundlagen für die Computerlinguistik“
an der Universität Tübingen und an der Universität
Mainz mit. Seit 2002 ist Markus Steinbach Akademischer Rat für Sprachwissenschaft an der Johannes
Gutenberg-Universität Mainz.
■ Kontakt:
Univ.-Prof. Dr. phil. Walter Bisang
Johannes Gutenberg-Universität Mainz
Department of English and Linguistics
Jakob-Welder-Weg 18
55099 Mainz
Tel. +49 (0) 6131 39-22778
Fax +49 (0) 6131 39-23836
E-Mail: [email protected]
http://www.linguistik.uni-mainz.de/
30
URLAUB = FLUGBÖRSE
Flüge, Charter, Linie,
Studententarife,
Hotels, Mietwagen,
Pauschalreisen,
Studienreisen,
Kreuzfahrten,
Gruppenreisen,
Ticket-Voll-Service
für Firmen, Busreisen,
Großes last-Minute-Angebot
Reiseschutz u.v.m.
MEHR ANGEBOTE UNTER:
www.flugboerse.de
FLUGBÖRSE Mainz
Boppstraße 13, 55118 Mainz
Tel. (06131) 965440, Fax (06131) 9654-444
E-mail: [email protected]
SPRACHWISSENSCHAFT
Mentale Repräsentation und kognitive Entwicklung aus
der Perspektive der Zwillingssprachforschung
Von Mongi Metoui und Walter Bisang
Die frühe Sprachentwicklung wird als Fenster für die
allgemeine Entwicklungsmöglichkeit des Kindes
betrachtet. Hierbei kommt dem Sprachlaut des Kindes eine wichtige Rolle zu; denn Laute sind die zentralen Bausteine der Sprache – quasi das Rohmaterial, aus dem das Kind Wörter und Sätze baut und an
dem es seine sprachliche Entwicklung vollzieht.
Voraussetzung für den Spracherwerb ist das Bereithalten sprechrelevanter Informationen im Gedächtnis. Darüber hinaus besteht ein Zusammenhang zwischen Sprachentwicklung und der Entwicklung dessen, was Kinder von sich selbst und anderen denken,
wissen und glauben - der „Theory of Mind“. Sprachentwicklung, kognitive Entwicklung, phonetisch-phonologisches Arbeitsgedächtnis, mentale Repräsentation und „Theory of Mind“, beeinflussen sich im Laufe der kindlichen Entwicklung gegenseitig und entwickeln sich abhängig voneinander.
Fragen der Repräsentation von Wissen stehen
gegenwärtig im Zentrum des Forschungsinteresses
der Kognitionswissenschaften. Allen gemeinsam ist
die Annahme, dass Wissen Struktur hat. Von zentraler
Bedeutung in der empirischen Sprachwissenschaft ist
die Frage, wie die Fähigkeit zur Spracherzeugung
erworben wird. Dabei drängt sich gerade bei komplexen Bewegungsabläufen die Frage auf, wie sich das
Kind zurechtfindet, wie es mit dieser Fülle an Informationen umgeht. In diesem Kontext ist es unum-
gänglich mit Hilfe mentaler Repräsentationen zu
operieren. Der Begriff der mentalen Repräsentation
ist ein zentraler Begriff der Kognitionswissenschaften. Es gibt mehrere Theorien, die darüber Aussagen
machen, wie mentale Repräsentationen zu verstehen
sind. Nicht die Annahme, dass externe Informationen
intern repräsentiert werden, ist unter den Wissenschaftlern strittig, sondern wie Informationen repräsentiert werden, welche Eigenschaften sie haben und
wie sie verarbeitet werden.
Die Entstehung von Strukturen, ihre Beziehung
zum Repräsentationssystem und die Generierung
von adäquatem Verhalten der Artikulationsorgane
durch das Gehirn stellt eine der zentralen Fragen der
Phonetik, der digitalen Sprachverarbeitung und der
Kognitionswissenschaft dar.
Für die Phonetik, die digitale
Sprachverarbeitung und die
Kognitionswissenschaften
stehen Fragen zur Entstehung
von Strukturen, ihrer Beziehung zum Repräsentationssystem und zur Generierung
von adäquatem Verhalten der
Artikulationsorgane durch das
Gehirn im Zentrum der
Aufmerksamkeit.
Ausgangspunkte des Projekts
Ausgangspunkt für das Projekt „Zwillingssprachforschung“ war die grundlegende Beobachtung, dass
jeder Mensch die Erfahrung gemacht haben dürfte,
eine ihm bekannte Person allein anhand ihrer verbalen Äußerungen, bei fehlendem Sichtkontakt, zu
erkennen. Diese Erfahrung ist bei eineiigen Zwillingen (EZ) nicht möglich, da sie im Grad ihrer Stimme
und Sprache interindividuell derart ähnlich sind, dass
sogar ihre Eltern und Geschwister sie nicht voneinanAbb. 1: Starke Ähnlichkeiten bei gleichen
Äußerungen der eineiigen
Zwillingspaare
FORSCHUNGSMAGAZIN ■ 1/2005
31
......
...... SPRACHWISSENSCHAFT
überhaupt vorhanden sind und ob infolge dessen
unterschiedliche Reproduktionsleistungen erbracht
werden können. Zu diesem Zweck setzten wir uns
die folgenden beiden ersten Analyseschritte als Ziel:
Bestimmung von Ähnlichkeiten und Verschiedenheiten der akustischen Parameter und Suche nach
Bewegungsmustern der verschiedenen Artikulationsorgane. Darüber hinaus setzt sich die Forschungsarbeit zum Ziel Erb- und Umwelteinflüsse bei der
Spracherzeugung zu untersuchen. Bei der Frage nach
der Erb- und Umweltbedingtheit der Spracherzeugung steht deshalb das Bemühen im Vordergrund die
einzelnen Varianzanteile abzuschätzen, um Anhaltspunkte über die nicht näher spezifizierbaren Einflussgrößen der Erb- bzw. Umweltvarianzen zu erhalten.
Abb.2: Bewegungsablauf der
Lippen: Ridah 28 Jahre
Analysen, Merkmalsextraktion
und Ergebnisse
Abb. 3: Bewegungsablauf der Lippen
und Zunge: Julia 10 Jahre
32
der unterscheiden können. Im deutlichen Gegensatz
dazu sind die zweieiigen Zwillinge (ZZ) nur soweit
ähnlich, wie sich dies auch bei allen anderen Nichtzwillingsgeschwistern (NZ) beobachten lässt.
Als mögliche Erklärung für die oben erwähnte Verwechselbarkeit der EZ wird oftmals die sozial und
erzieherisch einwirkende Umwelt während der frühkindlichen Sozialisation angegeben. Diese Erklärung,
so plausibel sie auf den ersten Blick sein mag, ist
unzutreffend, da ZZ, die unter den gleichen sozialen
und erzieherischen Bedingungen aufwachsen, nie
die weitgehende Identität der EZ erreichen. Andererseits kann aber angenommen werden, dass Ähnlichkeiten in der Aussprache durch Erbfaktoren erklärt
werden können. Im Gegensatz hierzu sind ZZ genetisch verschieden und können deshalb darüber Aufschluss geben, wie sich ähnliche Umwelten auf verschiedene genetische Konstitutionen auswirken.
Über die Fragen, warum EZ im Vergleich zu ZZ und
NZ häufiger verwechselt werden und inwieweit sich
die Sprechbewegungen bei den EZ unterscheiden
und in welchem Alter die Sprechmuster erworben
werden, gibt die bestehende Fachliteratur keine Antwort. Darüber hinaus gibt es in der Literatur auch
keine Antwort auf die Anteile der Erb- und Umwelteinflüsse auf das Sprechen.
Im Rahmen eines empirischen Pilotprojektes
haben wir den Versuch unternommen, die Frage zu
klären, ob Formen der mentalen Repräsentation
Die akustischen Parameter wurden sowohl von
einem eineiigen und einem zweieiigen Zwillingspaar
als auch von einem Nichtzwillingspaar untersucht.
Die artikulatorischen Bewegungsmuster wurden von
einem 28- bzw. 32-jährigen Nichtzwillingspaar und
von einem 10 Jahre alten Kind analysiert. Die Analyse der artikulatorischen Eigenschaften der Zwillinge
ließ sich im Rahmen der bisherigen Forschungsarbeiten nicht durchführen.
Einen wichtigen Teil der Analysen stellt die akustische und artikulatorische Merkmalsextraktion dar.
Wichtige Analyseschritte bestehen in der Bestimmung der Formanten und der Stimmeinsatzzeit.
Der Vokaltrakt weist mehrere veränderliche Resonanzräume wie z. B. Mundraum, Nasenraum, Rachen, aber auch nicht veränderliche wie Stirnhöhle
und Nasennebenhöhle auf. Als Formanten werden
allgemein diejenigen Frequenzbereiche bezeichnet,
die durch diese Resonatoren verstärkt werden. Die
Formanten werden, beginnend bei demjenigen mit
der tiefsten Frequenz, von unten nach oben durchgezählt. F0 ist die Grundfrequenz. Für Sprachlaute sind
nicht mehr als fünf relevant. Formanten sind die
wesentlichen Elemente der Klangbildung. Sie sind
besonders wichtig bei der akustischen Definition der
Vokale.
Mit Stimmeinsatzzeit bezeichnet man bei einer
Lautabfolge Verschlusslaut-Vokal, die Zeit zwischen
der Verschlusslösung und dem Beginn der Stimmlippenschwingungen.
Der Schwerpunkt der artikulatorischen Untersuchungen liegt bei der computergestützten Bewegungsanalyse, um festzustellen, wie die Artikulatoren ihre Tätigkeit organisieren und koordinieren,
sowie der Suche nach stabilen Ähnlichkeiten und
Variabilitätskriterien. Die Bewegungsmuster stellen
einen Kernbereich der Untersuchung dar.
Bei der Sprachproduktion spielen die Bewegungen
der Organe und die Länge des Vokaltrakts eine wichtige Rolle. Neben der akustisch sprechertypischen
Information gibt es auch artikulatorisch sprechertypische Informationen. Wenn man die Ergebnisse der
SPRACHWISSENSCHAFT
Spektralanalyse für die Vokale mit den Veränderungen des Vokaltrakts vergleicht, ist es möglich, einige
Tendenzen in der Veränderung der Formantenstruktur in Verbindung mit den artikulatorischen Bewegungen zu erkennen. Die Analysen geben einen Eindruck von der Entwicklung der Formantenbewegungen von einem Vokal zu einem Konsonanten und
umgekehrt.
Die durchgeführten akustischen Untersuchungen
bei den ersten EZ zeigen frappierende Ähnlichkeiten
der Mittelwerte der Grundfrequenz F0 , der Mittelwerte der Formanten und der Formantenbewegungen
der Vokale. Dies gilt auch für die Dauer der Stimmeinsatzzeit. Beim durchgeführten Perzeptionstest, an
dem naive Hörer und Mütter von drei EZ-Paaren teilgenommen haben, ergab sich eine bis zu 95-prozentige Verwechselbarkeit.
Die im Rahmen der Vorarbeit durchgeführten artikulatorischen Analysen haben die Existenz von elliptischen und schleifenförmigen Bewegungsgrundmustern bei der 10-jährigen Sprecherin nachgewiesen. Dies stimmt mit den Ergebnissen der Untersuchungen überein, in denen die Sprache von 28- bzw.
32-Jährigen untersucht wurde. Die empirischen
Befunde deuten darauf hin, dass diese Bewegungsmuster bereits im 10. Lebensjahr gefestigt sind. Falls
diese Bewegungen erworben werden, ist davon auszugehen, dass sie bei kleinen Kindern nicht zu finden
sind. Dies konnte im Rahmen des Pilotprojekts nicht
untersucht werden.
Implikationen für
die mentale Repräsentation
Wenn man zeitliche Sequenzen und die Formen aufeinander folgender Sagittalschnitte desselben Lautes
eines Sprechers betrachtet, so fällt ins Auge, dass die
organische Bewegung verschiedene Abläufe aufweist. Es stellt sich hier die Frage, warum Abweichungen auftreten. In einigen Arbeiten wird vermutet,
dass es sich um stochastische Fluktuationen handelt,
ähnlich einer Art von Rauschen, wie es aus der akustischen Physik bekannt ist (Metoui 2001). Diese relative „Einschränkung“ der potenziellen Bewegungsmöglichkeiten, die zum phonetischen Output führen,
resultiert aus der Anwendung phonologischer
Regeln, die die Stabilisierung des Zusammenspiels
der Artikulatoren bewirken.
Um das Verhalten der Artikulatoren zu untersuchen, wurde das Iterationsverhalten ihrer Bewegungen mittels Computersimulation verfolgt. Die Iteration (Wiederholung von Vorgängen) erzeugt eine
Struktur mit vielen Schichten, der zufolge eine Artikulation in einer Artikulationskette mit zunehmender
Entfernung von den Artikulationsbereichen an Identifikationsgehalt verliert. Bei der Lösung der Aufgabe
haben die Sprachorgane oft mehrere Alternativen;
dabei wirkt der Attraktor als Anziehungspunkt und
bildet ein Ablaufschema.
Die empirischen Befunde aus der Verformung des
Vokaltrakts deuten darauf hin, dass die Bewegungen
der Artikulatoren auf der Aktivierung gespeicherter
Grundstrukturen beruhen. Es scheint plausibel anzunehmen, dass die Artikulationsprozesse nicht unsystematisch, sondern interindividuell sehr ähnlich sind.
Die mentale Repräsentation besitzt die Eigenschaft,
die Individuen in die Lage zu versetzen Daten zu produzieren, die durch einen metrischen Raum beschrieben werden können.
Das Konzept der Bewegungsmuster und der
Attraktorpositionen ist durchaus produktiv für die
Erklärung der Existenz von Invarianten. Es bedarf
noch weiterer Forschung, um die Attraktorpositionen
bei anderen Sprachen zu prüfen. Sollten die Resultate für das Vorhandensein von Bewegungsmustern bei
Kleinkindern durch weitere Experimente bestätigt
werden, könnten diese für die mentale Repräsentationstheorie von großer Bedeutung sein. An einer
Lösung der hier skizzierten Probleme wird an mehreren Instituten weltweit gearbeitet. Wir sind sicher,
durch den Vergleich zwischen den Artikulationsbewegungen der Zwillinge einen Schritt weiter zu kommen.
Abb.4: Schematische Darstellung des
Attraktors: Jede grafische Iteration
entspricht einer Bewegung des Apex.
Anzeige
3D-Recording of
Speech-Movement
inside the mouth
Carstens
Medizinelektronik GmbH
www.articulograph.de
FORSCHUNGSMAGAZIN ■ 1/2005
33
......
...... SPRACHWISSENSCHAFT
■ Summary
It is thus surprising that researchers know so little
about how children acquire the coordination of articulatory movements to produce speech as well as
the phonetical representation in the brain. The voice
and speech of monozygotic twins are so similar that
we cannot always distinguish between them. The
speech and voices of dizygotic twins are different
and easy to distinguish between them. Researchers
have, up to now, found no explanation for the genetic and environmental influences on the acquisition
of coordination and development of articulation
skills in infancy and childhood. The goal of our research program is a detailed description of organ behavior of children, in different age groups and of different sexes, particularly in zygosity of twin pairs, as
well as speech-disordered speakers.
Literatur
Ladefoged, P. und I. Maddieson (1996): The Sounds of the World’s Languages. Oxford: Blackwell.
Metoui, M. (2002): Varianz, Invarianz und Vergleichbarkeit: In W. Huber, R. Rapp (Hrsg.), Linguistics on the Way into the
Third Millennium. Peter Lang, 775-781.
Metoui, M. (2001): Strategien der Artikulation: Über die Steuerungsprozesse des Sprechens. Aachen: Shaker.
Mooshammer, C., P. Hoole und B. Kühnert (1995): On Loops. Journal of Phonetics 23, 3-21.
Sigel, E. (1999): Development of Mental Representation: Theories and Applications. London: Erlbaum.
PD Dr. phil.
Mongi Metoui
MONGI METOUi hat Phonetik, Computer Linguistik,
Romanistik und Anglistik an der Universität Trier studiert. Nach der Promotion 1987 und der Habilitation
1999 zum Thema „Strategien der Artikulation: Über
die Steuerungsprozesse des Sprechens“ folgte die
Ernennung zum Privatdozenten an der Universität
Mainz, Institut für Allgemeine und Vergleichende
Sprachwissenschaft. Seine Arbeitsgebiete sind Phonetik, digitale und kognitive Sprachverarbeitung,
Sprechererkennung, Neurolinguistik und mentale
Repräsentation (Sprechen, Denken, Bewusstsein)
sowie Zwillingssprachforschung (Angeborenheit,
Erwerb und Umwelteinflüsse).
■ Kontakt:
PD Dr. phil. Mongi Metoui
Johannes Gutenberg-Universität Mainz
Department of English and Linguistics
Jakob-Welder-Weg 18
55099 Mainz
Tel. +49 (0) 6131 39-22541
Fax +49 (0) 6131 39-23836
E-Mail: [email protected]
http://www.linguistik.uni-mainz.de/
34
Univ.-Prof. Dr. phil.
Walter Bisang
WALTER BISANG, geboren 1959 in Zürich, studierte
Allgemeine Sprachwissenschaft, Chinesische Sprache
und Literatur und Georgisch an der Universität
Zürich. Zwischen 1986 und 1992 war Walter Bisang
als Assistent am Seminar für Allgemeine Sprachwissenschaft in Zürich tätig, verbrachte einen Auslandsaufenthalt an der School of Oriental and African Studies in London und promovierte 1990 zum Verb in
fünf ost- und südostasiatischen Sprachen. Seit 1992
ist er C4-Professor für Allgemeine Sprachwissenschaft und Vergleichende Sprachwissenschaft (im
Sinne der Sprachtypologie) in Mainz. Arbeitsschwerpunkte sind Sprachtypologie, Sprache und Kognitionund sprachwissenschaftliche Theorien. Seit 1999 ist
Walter Bisang Sprecher des Sonderforschungsbereiches 295 „Kulturelle und sprachliche Kontakte“.
LERNEN UND LEHREN MIT DEN TOP-TOOLS
BORLAND EDUCATION PROGRAM
IT-KNOW-HOW IST FÜR DIE BERUFLICHE ZUKUNFT UNERLÄSSLICH
Borland in der Bildung …
Engagement in der schulischen und universitären IT-Ausbildung hat für Borland traditionell
eine starke Bedeutung – eine große Zahl der heutigen IT-Spezialisten und Entscheidungsträger hat die ersten Schritte in der IT mit Borland-Programmen gemacht. Durch Bereitstellung professioneller Lösungen für die universitäre IT-Ausbildung will Borland den Austausch von Ideen zwischen Universitäten und Industrie auch weiterhin fördern.
Lizenzmodelle …
Bildungseinrichtungen, Schülern, Studenten und Lehrern bietet Borland kostengünstige
Lizenzlösungen in Form von Akademischen Lizenzen, Netzwerklizenzen, Einzelplatzlizenzen
und Softwarepaketen für Schüler, Studenten und Lehrer, den sogenannten SSL-Boxen:
■ Borland Akademische Lizenzen
Akademische Lizenzen sind interessant für Bildungseinrichtungen mit sehr hohem
Lizenzbedarf (Unis, Fachhochschulen, Berufsbildungszentren etc.). Durch diese Art der
Lizenzierung erhalten alle Studenten und Lehrenden für ein Jahr das Recht, mit einem
Borland-Produkt zu arbeiten.
■ Borland Netzwerk Edu Lizenz
Durch die zentrale Verwaltung der Netzwerk-Lizenzen mit Hilfe eines Lizenzverwalters/Lizenzmanagers, kann eine Bildungseinrichtung, die Gestaltung des Informatikunterrichts unabhängig von einem festen Klassenraum vornehmen und planen.
■ Borland SSL Box
Die Borland SSL Box – Software für Schüler, Studenten und Lehrer – ist eine sogenannte „Leerbox“. Der Kunde erwirbt über den Fachhandel eine Borland SSL Box und erhält
damit ein Anrecht auf eine aktuelle Einzel-Benutzer-Lizenz für die Professional Edition
seiner Produktwahl (Delphi, JBuilder, C++Builder 6, C#Builder oder C++Builder X). Nach
der Einsendung eines Formulars erhalten die Kunden innerhalb von 14-21 Tagen ihre
gewünschten Produkte.
Interessiert???
Bitte setzen Sie sich mit unseren Borland Education Partnern in Verbindung. Die Adressen
finden Sie unter http://www.borland.de/partners/directory/academicpartner.html.
Oder schreiben Sie uns an [email protected]
Turbo Pascal steht heute im Museum der Borland Site zum Download zur Verfügung: http://bdn.borland.com/museum
FORSCHUNGSMAGAZIN ■ 1/2005
35
...... BILDWISSENSCHAFT
„Arbeit am Bild“ - Plädoyer für eine Bildwissenschaft
Von Susanne Marschall und Fabienne Liptay
Von den Höhlenmalereien der
Steinzeit zu computergenerierten Bildern im Film:
„Arbeit am Bild“ leistet der
Mensch schon seit Jahrmillionen. Jetzt ist es Zeit für
eine interdisziplinäre
Bildwissenschaft.
36
Es kann keinen Zweifel daran geben: Bilder sind
einer der quantitativ wie qualitativ stärksten Umweltfaktoren des Menschen. Diese Macht der Bilder
ist nicht erst auf ihre massenmediale Verbreitung
und damit auf eine technische Ursache zurückzuführen, sondern auf den anthropologischen Tatbestand,
dass der Mensch vor allem ein Augen- und Ohrenwesen ist. Wir sehen und hören die Welt, bevor wir sie
anfassen, schmecken oder riechen. Das Bild – geht
man von einer grundlegenden Definition des Bildforschers Hans Belting aus – hat seinen Ort im Menschen, besetzt seinen Geist und seinen Körper wie
ein Medium, ein Medium allerdings, das nicht passiv
wie eine Leinwand Bilder transportiert und reflektiert, sondern sie ohne Unterbrechung aktiv schöpft.1
„Arbeit am Bild“ – eine Variation des berühmten
Buchtitels Arbeit am Mythos (1979) von Hans Blumenberg – leisten der Mensch und seine Vorfahren
seit Jahrmillionen. Ohne diese „Arbeit am Bild“ gäbe
es weder Kultur noch technischen Fortschritt.
Werfen wir einen Blick auf unsere Gegenwart und
zwar im engeren Sinne auf die Naturwissenschaften.
Wie viele wissenschaftliche Erkenntnisse werden
über die „Arbeit am Bild“ gewonnen, überprüft und
wieder verworfen? Immer, auch bei der Lösung vollkommen abstrakter Aufgaben, ist unsere Vorstellungskraft, die Anschauung, mit von der Partie. Ohne
Bilder gibt es kein Denken, und da ist es zunächst
völlig unbedeutend, ob es sich um technische Bilder,
künstlerische Bilder oder Selbstbilder handelt. Bilder
produzieren, konfigurieren und speichern Wissen.
Aber auch in mindestens gleichem Maße beherbergen und stiften Bilder Emotionen, bewältigte und
unbewältigte, vertraute und fremde Gefühle. Bilder
werden von Menschen und für Menschen gemacht,
um zu erfreuen, den Schönheitssinn anzusprechen,
zu bilden, zu verführen, zu trösten, Erinnerung zu
bewahren, aber auch um zu ängstigen, zu schockieren, abzuschrecken, zu täuschen oder zu quälen.
„Die Bilder“, das hat der Kunsthistoriker Horst
Bredekamp anlässlich der Verleihung des Aby M.
Warburg-Preises jüngst in einem Interview betont,
„gehören nicht der Kunstgeschichte. Sie gehören
jedem.“2 Bredekamp fordert eine Erforschung der
politischen, psychischen und kulturellen Bildenergien. Dazu gehört unbedingt eine unmittelbare und
differenzierte Auseinandersetzung mit dem Gegenstand: dem Bild. Bildwissenschaftliche Ansätze, die
Bilder oder filmische Bildfolgen in ihrer komplexen
Geschichte und ihren komplizierten Wirkungen übergehen, um sich einer Theorie ohne Anschauung hinzugeben – diese ist dann weder überprüfbar, noch
bringt sie wirklichen Erkenntnisgewinn –, verlaufen
sich derzeit im Nichts einer sich kryptisch gebenden
Banalität. Bredekamp hat unbedingt Recht, dies zu
bemängeln. Die neue, eigentlich noch in den Kinderschuhen steckende Bildwissenschaft muss vor allem
eines leisten: „Arbeit am Bild“. Wie kann, wie soll
eine transdisziplinäre und integrative Bildwissenschaft aussehen? Erster Vorschlag: Bildwissenschaftliche Forschungen sollen Theoreme des Bildes aufgrund von neurowissenschaftlicher und psychologischer Grundlagenforschung, durch eine dezidierte
kunst-, medien- und kulturwissenschaftliche Auseinandersetzung mit den ästhetischen und gestalterischen Grundlagen der Bildproduktion sowie unter
Berücksichtigung von bildhistorischen und soziologischen Quellen gewinnen. Die Theorie des Bildes steht
am Schluss, nicht am Anfang der Auseinandersetzung. Zweiter Vorschlag: Eine Theorie des Bildes
muss für die Dynamik der Bildgeschichte sowie für
die Spezifik medialer Repräsentationen offen gehalten werden.
Es ist vielleicht zu hoch gegriffen, Bildwissenschaft
als eine neue Universalwissenschaft zu feiern, die
sich zutraut, ein ganzes Spektrum an Fächern zu
integrieren – angefangen von den im engeren Sinn
mit Bildern befassten Disziplinen der Kunstgeschichte, Film- und Medienwissenschaft über die Philosophie, Psychologie und Soziologie bis hin zu Informatik, Medizin, Kognitions- und Neurowissenschaften.
Die Entwicklung interdisziplinärer Fragestellungen
und Methoden gehört unstrittig zu den größten
Herausforderungen einer Bildwissenschaft, die die
Tiefe bildkompetenter Analyse nicht der Breite der
involvierten Disziplinen opfern will. In diesem Sinne
ist es auch zu verstehen, wenn Bredekamp eine
Erdung jeglicher bildwissenschaftlicher Betätigung
in den zuständigen Disziplinen der Kunstgeschichte
und Archäologie fordert. Bildwissenschaft kann nur
auf bereits erworbenem Bildwissen aufbauen; sie ist
Professionalisierung, nicht Grundlegung von Bildkompetenz.
Die der Bildwissenschaft vorausgehende Rede
vom „iconic turn“ 3, vom neuerlichen Schub der Bilder seit dem 20. Jahrhundert, benennt indes nicht
bloß eine Erweiterung des Forschungsfeldes, sondern
vielmehr eine Wende im Verständnis des Bildes an
sich. Zum einen wurde die – im Zeitalter der technischen Reproduzierbarkeit ohnehin zunehmend verwischende – Grenze zwischen Bildern aus Kunst,
Medien, Wissenschaft und Alltag aufgelöst und
damit eine interdisziplinäre Perspektive eröffnet.
Zum anderen haben gerade die technisch reproduzierbaren Bilder der Fotografie und des Films als
Gegenstandsbereiche der Kunst deutlich werden lassen, dass man ihnen mit der traditionellen Idee vom
Abbild nicht gerecht wird. Viele Bilder sind weder
mimetisch noch kausal zu erklären und funktionieren
als Bilder von nur im Rahmen bestimmter Verwen-
BILDWISSENSCHAFT
dungssituationen und Zeichensysteme. Ihre Trägermedien können ebenso wechseln wie die Art und
Weise ihrer Reproduktion. Offenbar hängt die Beantwortung der Frage, ob etwas als Bild von aufgefasst
wird, stets von Interpretationsakten ab, die ihrerseits
sozial, kulturell und technisch vermittelt sind. Folgerichtig rücken die Verfahren der Bilderzeugung und
-gestaltung sowie der Bildwahrnehmung und -deutung in den Vordergrund der Betrachtung.
Das Bild ist in seiner Bindung an einen materiellen
Bildträger, an eine Leinwand, ein Papier, ein formbares Material, einen Bildschirm, ins Wanken geraten.
Verstärkte Beachtung haben demnach rezeptionsästhetische Forschungsansätze gefunden, denen zufolge sich ein Bild erst im Betrachter vollendet, wenn
nicht sogar dort überhaupt erst konstituiert. Paradigmatisch kommt dies in Wolfgang Isers literaturwissenschaftlichem Konzept der „Leerstelle“ zur Geltung 4, das von Wolfgang Kemp auf die Bildenden
Künste übertragen wurde, um den Blick auf das zu
lenken, was im Bild eben nicht gezeigt und vom
Betrachter doch gesehen wird5. In der Filmtheorie ist
die Interaktion von Bild und Betrachter auch mit dem
Begriff „suture“ (dt. chirurgische Naht) umschrieben
worden, in dem zugleich die physischen und affektiven Qualitäten des Zusammennähens von Film und
Zuschauer metaphorisch zum Ausdruck kommen.6
Bildbetrachtung ist ein aktiver Prozess, der unter die
Haut geht und in einem Netzwerk komplexer Interaktionen und Strukturkopplungen stattfindet. Daran
beteiligt ist längst nicht nur die sinnesphysiologische
Wahrnehmung des Bildes, die Verarbeitung optischer
Informationen durch Auge und Gehirn. Bilder entstehen in einem polyphonen Zusammenspiel kognitiver
und emotionaler Komponenten, die nicht nur die Sinne des Betrachters involvieren, sondern auch sein
enzyklopädisches und historisches Wissen, Gedächtnisleistungen und Gefühle, Denkprozesse, Erinnerungen und Imaginationen. Als dritten Knotenpunkt im
Netzwerk der Bildwahrnehmung wären neben Bild
und Betrachter ferner das Milieu, der historische,
politische, kulturelle, soziale und räumliche Kontext
der Produktions- und Rezeptionssituation zu bedenken, wenngleich dies ein Bereich ist, den eine neurowissenschaftlich orientierte Bildforschung weitgehend ausklammert.
Ein Beispiel: eine Schwarzweiß-Fotografie, die die
Biologin Karla Levi 1957 von ihren Forschungsarbeiten aus Chile zurück nach Deutschland mitgebracht
hat. Das Bild zeigt einen hoch aufgetürmten Berg
von Gehölz aus der Pflanzenfamilie der Rosen, daneben ein Steinhaus. Vor dem Hintergrund des persönlichen Schicksals der Wissenschaftlerin erhält die Fotografie eine vollkommen neue Bedeutung: Nach dem
Zweiten Weltkrieg war Karla Levi nach Chile emigriert, um dort Pflanzen zu untersuchen, die in
Extremsituationen durch Anpassung überleben. Als
Halbjüdin hatte sie selbst den Holocaust überlebt,
während der Großteil der Familie in Deutschland ausgelöscht wurde. Im Wissen um die Umstände der
Bildentstehung können wir die Fotografie nicht
betrachten, ohne darin die Berge ausgemergelter Leichen aus den Vernichtungslagern zu sehen – seinerseits ein vielfach reproduziertes Bild, das von den
Bild 1: Steven Spielberg:
Schindlers Liste (USA 1993)
Mit dieser halbnahen Einstellung auf
den Protagonisten Schindler (Liam
Neeson) setzt die Schlüsselszene des
Holocaust-Dramas ein. Von einem
Hügel herab, hoch zu Ross, beobachtet Schindler die Räumung des jüdischen Ghettos. Immer wieder kehrt
die Montage während der nun folgenden Szene zu dem entsetzten Beobachter zurück. Sein Blick ist mit unserem Blick als Zuschauer identisch,
zumal Schindler in der Szene nur
Schauender und noch kein Handelnder ist.
Bild 2: Schindlers subjektiver Blick:
Während Schindler das grausame Treiben beobachtet, löst sich aus der Menge ein kleines Mädchen in einem roten
Mäntelchen. Der Film Schindlers Liste
ist ein Schwarzweißfilm. Das plötzliche
Aufkommen von roter Farbe, wenn
auch mit zaghaftem Gestus, verleiht
der kleinen Figur visuelles Gewicht.
Eine ambivalente Szene: Die Farbe
erinnert daran, dass die Menschen auf
dieser Straße Zielscheiben für skrupellose Mörder sind. Zugleich hebt sie das
Kind aus der Menge heraus und individualisiert das kollektive Leid. Das Mädchen mit dem Engelshaar wird durch
die filmische Inszenierung aber auch zu
einer Symbolfigur der Hoffnung.
FORSCHUNGSMAGAZIN ■ 1/2005
37
......
...... BILDWISSENSCHAFT
Bild 3: Obwohl die Montage der
Szene daran festhält, dass wir immer
noch mit den Augen Schindlers
sehen, überwindet die Kamera – im
Gegensatz zu dem Protagonisten –
plötzlich die räumliche Distanz zu
den fliehenden Menschen. Die Bilderzählung ist ungeheuer dicht: Das kleine Mädchen in Rot, ein Rotkäppchen, das zielsicher, langsam und
konzentriert auf dem Weg zu seinem
Versteck bleibt, ist als einzige Figur
komplett zu sehen und noch nicht
durch die Armbinde mit dem Judenstern stigmatisiert. Dagegen bleibt
die Gruppe der Erwachsenen anonym, mit abgeschnittenen Köpfen.
Von großer Bedeutung für die
Sequenz sind Art und Weise sowie
die Richtung, in der sich das kleine
Mädchen bewegt.
Medien längst in ein kollektives Bildgedächtnis übergegangen ist, um dort an den Schnittstellen vom
Materiellen zum Immateriellen ein „imaginäres
Museum“ (André Malraux) erinnerter Geschichte zu
formen. Die Bilddokumente zu Karla Levis Forschungsarbeiten – von ihrer Tochter Angelika Levi in
dem persönlichen Dokumentarfilm Mein Leben Teil 2
(Deutschland 2003) zusammengetragen – reflektieren als Erinnerungsträger das erlittene Trauma der
Mutter und erzählen gleichzeitig davon, „wie auf
Makro- und Mikroebenen permanent Geschichte
produziert, archiviert, in einen Diskurs gebracht und
eingeordnet wird“ (Angelika Levi).
Die Komplexität des Zusammenspiels von kognitiven und emotionalen Faktoren der Bildbetrachtung
soll ein weiteres Beispiel aus dem Bereich des Films
verdeutlichen: In Steven Spielbergs in Schwarzweiß
gedrehtem Holocaust-Film Schindlers Liste (USA
1993) gibt es eine Schlüsselszene, die nur wenige
Minuten umfasst. Schindler beobachtet von einem
Hügel aus die Räumung eines jüdischen Ghettos. Aus
der Menge der fliehenden Menschen löst sich plötzlich ein schwach rot schimmernder Fleck. Ein kleines
Mädchen läuft tapfer, die Hände in den Taschen seines roten Mäntelchens vergraben, langsam und zielsicher zu einem Versteck. Schindler beobachtet das
Kind und verliert es schließlich aus den Augen. Die
filmische Inszenierung und der historische Kontext –
das Vorwissen des Zuschauers – eröffnen ein ebenso
dichtes wie brüchiges Assoziationsgefüge und komprimieren sich zu genuiner Symbolkraft. Wir sehen
einen Mann, der ein Kind beobachtet. Die filmische
Inszenierung verweist in ihrem Subtext auf das
Sehen und die Sichtbarkeit, wobei die Reduktion des
Beobachters auf seinen passiven Augensinn – dies
gilt für Schindler und für den Zuschauer des Films –
die Handlungsunfähigkeit angesichts des unvorstellbaren Grauens schmerzhaft spürbar macht. Ohne
das historische Wissen des Publikums käme diese
emotionale Wirkung nicht zustande. Dazu kommt die
ambivalente Symbolik des Roten in Kombination mit
dem kleinen Mädchen, das als lebende Zielscheibe
38
vor den Augen seiner Mörder auftaucht. Rot ist
warm, aber auch aggressiv, schön, aber auch gefährlich. Das Kind wird durch den Qualitätskontrast zwischen unbunten Grautönen und der bunten Signalfarbe auf mehrfache Weise hervorgehoben: Es ist
Opfer und Hoffnungsträger. Aber es steht auch für
den Einzelnen, dessen Individualität in den Massenvernichtungslagern ausgerottet werden soll. Als das
Kind zum ersten Mal im Bild sichtbar wird, kommt es
in der Logik der Montage unmittelbar auf die Hauptfigur zu, deren subjektiver Blick und emotionales
Entsetzen die filmische Inszenierung zum Gestus des
Erzählens erhebt.
Bilder beginnen zu leben, sobald sie sich mit dem
Betrachter verbinden. Sie werden zu noch weitgehend unerforschten Inhalten von Hirn und Geist und
formen eine Schnittstelle, an der ein intensiver Dialog zwischen Bild- und Neurowissenschaft ansetzen
kann und muss. Über die phänomenologischen
Betrachtungen der Rezeptionsästhetik hinaus sind
hier in empirischer und experimenteller Hinsicht fundierte Erkenntnisse über die neurobiologischen, psychologischen und sinnesphysiologischen Mechanismen der Bildwahrnehmung zu erhoffen, durch deren
Wirkung der Betrachter nicht nur Sichtbares aus dem
Bild herausholt, sondern vielmehr etwas in das Bild
hineinsieht. Das Wechselspiel von Erinnerung und
Imagination, zumal bei der Wahrnehmung von Bildern, die sich wie beim Film auch in zeitlicher Dimension entfalten, stellt hierbei ein reizvolles Feld interdisziplinärer Bildforschung dar ebenso wie der große
Bereich der Emotion, die – in einem männlichen Wissenschaftsdiskurs – in Abgrenzung von den so
genannten höheren kognitiven Fähigkeiten des Vorstellens und Denkens als niedere Fähigkeit diskriminiert und in ihrer Bedeutung für die Bildwahrnehmung deshalb nur unzureichend untersucht wurde.
In der neuerlichen Beachtung der Gefühle sieht Bredekamp den spezifischen Wandel der Perspektive,
den die Bildwissenschaft infolge des „iconic turn“
eingeleitet hat: „Es gibt ein wunderbares Buch von
James Elkins: Warum auf Bildern geweint wird und
BILDWISSENSCHAFT
warum Bilder zum Weinen bringen. Wer das Phänomen unterschätzt, dass Bilder emotionale, körperliche Reaktionen hervorrufen können, wird sich der
Problemtiefe, die von visuellen Phänomenen ausgeht, überhaupt nicht nähern können.“7
In einem 2004 publizierten Manifest von elf führenden Neurowissenschaftlern wurde gefordert, dass
Geisteswissenschaften und Neurowissenschaften „in
einen intensiven Dialog treten müssen, um gemeinsam ein neues Menschenbild zu entwerfen“.8
Vielleicht mag der Beitrag, den eine Bildwissenschaft
im Rahmen der Forschungsinitiative „Hirn und
Geist“ hierzu leisten kann, gerade in der beharrlichen Ergründung der (visuellen) Sinnlichkeit sowie
der historischen und ästhetischen Dimension des
Menschen- und Weltbildes liegen. Denn der Mensch
ist ein ganzheitlich funktionierendes, fühlendes und
denkendes Wesen. Die interdisziplinäre Auseinandersetzung mit neurowissenschaftlichen, philosophischen, sprach- und bildwissenschaftlichen Forschungsthemen in Mainz belegt, dass sich die nach
der Erkenntnis verifizierbarer Gesetze strebenden
Naturwissenschaften auf Fragestellungen eingelas-
sen haben, in denen kaum Antworten zu erwarten
sind, die einem allgemein gültigen Erklärungsprinzip
gehorchen. Sie demonstriert umgekehrt aber auch,
dass die Projekte der Neurowissenschaft kulturwissenschaftliche Relevanz besitzen und von jenen
nachgefragt und aufgegriffen werden, die sich der
Eigenart ihrer Gegenstände gleichsam vom anderen
Ende des Spektrums her nähern.
■ Summary
Pictures are becoming an ever more important
means of experiencing and understanding our environment. The growing importance of pictures, which
is expressed in the formula “iconic turn”, has pushed
a demand for their scientific study beyond the realm
of fine arts and the more modern media such as film
and television. The authors draw an initial outline of
visual studies and build an interface between the
study of pictures and neuroscience focussing on the
picture’s ability to activate cognitive and emotional
processes, as well as the complex mechanisms
behind the perception and interpretation of pictures.
Bild 4: Das Kind im Versteck:
Die Farbe ist nun gewichen. Der
Blick des potentiellen Retters hat
das Mädchen, dessen Tod wenig
später im Film angedeutet wird, verloren. Die Großaufnahme im Versteck – eigentlich ein „unsichtbares“
Bild – richtet sich ab diesem
Moment ausschließlich an das Publikum im Kino. Die symbolische Bildinszenierung der Schlüsselszene aus
Schindlers Liste erzählt – pars pro
toto – wie die jüdische Bevölkerung
aus dem öffentlichen Raum verdrängt wird: in die „Unsichtbarkeit“,
den sicheren Tod getrieben.
Literatur
1) Hans Belting: Bild-Anthropologie. Entwürfe für eine Bildwissenschaft. München 2001.
2) Horst Bredekamp: Im Königsbett der Kunstgeschichte. Ein Gespräch mit Horst Bredekamp, dem Kunsthistoriker und Träger des Aby M. Warburg-Preises, über den Papst in und vor dem Fernseher, die komplexe Macht der Bilder und
das Fußballspiel als Gesamtkunstwerk. In: Die Zeit Nr. 15, 6. April 2005, S. 47.
3) Gottfried Boehm: Die Wiederkehr der Bilder. In: ders. (Hrsg.): Was ist ein Bild? München 1994, S. 11-38; siehe auch:
Christa Maar / Hubert Burda (Hrsg.): Iconic Turn. Die neue Macht der Bilder. Köln 2004.
4) Wolfgang Iser: Der Akt des Lesens. 4. Aufl. München 1994; ders.: Die Appellstruktur der Texte. In: Rainer Warning
(Hrsg.): Rezeptionsästhetik. 4. Aufl. München 1994, S. 228-252.
5) Wolfgang Kemp: Der Anteil des Betrachters. Rezeptionsästhetische Studien zur Malerei des 19. Jahrhunderts. München
1983; ders.: Verständlichkeit und Spannung. Über Leerstellen in der Malerei des 19. Jahrhunderts. In: ders.
(Hrsg.): Der Betrachter ist im Bild. Kunstwissenschaft und Rezeptionsästhetik. Berlin 1992, S. 307-332; ders.:
Kunstwerk und Betrachter: Der rezeptionsästhetische Ansatz. In: Hans Belting / Heinrich Dilly / Wolfgang Kemp /
Willibald Sauerländer / Martin Warnke (Hrsg.): Kunstgeschichte. Eine Einführung. 6., überarb. u. erw. Aufl. Berlin
2003, S. 247-265.
6) Stephen Heath: Questions of Cinema. London / Basingstoke 1981, S. 76ff.
7) Bredekamp: Im Königsbett der Kunstgeschichte, S. 47.
8) Gehirn & Geist 6/2004, S. 37
FORSCHUNGSMAGAZIN ■ 1/2005
39
......
...... BILDWISSENSCHAFT
HD Dr. phil.
Susanne Marschall
Dr. phil.
Fabienne Liptay
SUSANNE MARSCHALL, 1963 geboren, ist Akademische Rätin am Institut für Filmwissenschaft der
Johannes Gutenberg-Universität in Mainz. Nach
einem Studium der Deutschen Philologie, Philosophie
und Komparatistik promovierte Susanne Marschall
1995 zu einem fachübergreifenden tanz- und literaturwissenschaftlichen Thema. Die Habilitation erfolgte 2005 zum Thema „Farbe im Kino“. Sie war maßgeblich an der Konzeption und Realisation des
Medienhauses der Universität beteiligt, ist Sprecherin des IAK Medienwissenschaften und Mitbegründerin von Campus-TV. Aktuelle Forschungsinteressen
sind der Aufbau eines bildwissenschaftlichen Forschungsschwerpunktes in Mainz, Farbwahrnehmung
und Farbgestaltung, Farb-Klang-Beziehungen, Materialästhetik im Film und in der Malerei, Bildsymbolik
sowie Raum und Zeit im Kino.
FABIENNE LIPTAY, geboren 1974, ist wissenschaftliche Mitarbeiterin am Seminar für Filmwissenschaft
an der Johannes Gutenberg-Universität Mainz. Nach
dem Studium der Filmwissenschaft, Theaterwissenschaft und Anglistik war sie von 1999 bis 2001 als
freie Mitarbeiterin in der Fernsehredaktion 3sat Kulturzeit tätig. 2002 erfolgte die Promotion mit der
Studie „WunderWelten – Märchen im Film“, zur Zeit
arbeitet sie an der Habilitation zum Thema „Komposition im bewegten Filmbild“. Fabienne Liptay ist
Mitglied einer Initiatorengruppe zum Aufbau eines
bildwissenschaftlichen Forschungsschwerpunkts in
Mainz. Forschungsinteressen im Rahmen des IFZN
sind Strategien und Techniken emotionaler Bildgestaltung, neuro- und kognitionswissenschaftliche Aspekte visueller (Bewegungs-)Wahrnehmung, Wahrnehmung von Bildraum und Bildzeit und Rezeptionsästhetik des Films.
■ Kontakt:
HD Dr. phil. Susanne Marschall
Johannes Gutenberg-Universität Mainz
Institut für Filmwissenschaft
Wallstrasse 11
55122 Mainz
Tel. +49 (0) 6131 39-31729
Fax +49 (0) 6131 39-31719
E-Mail: [email protected]
http://www.uni-mainz.de/film
Christoph Sticht
- Geigenbaumeister -
Bilhildisstraße 15
55116 Mainz
Tel. 0 61 31 - 22 71 95
Fax 0 61 31 - 22 04 68
E-mail: [email protected]
www.sticht-geigenbau.de
40
BILDWISSENSCHAFT
Die „Szenographie“: ein Schlüsselbegriff der Kultur-,
Kognitions- und Bildwissenschaft
Von Matthias Bauer
„Szenographie“ ist ein vielschichtiger Begriff, der in
unterschiedlichen Zusammenhängen auftaucht. Für
den immer dringlicher werdenden Versuch, die Verständigung zwischen verschiedenen Fächern zu
erleichtern, dürfte dies eher ein Vor- als ein Nachteil
sein, gibt es doch bereits im vorwissenschaftlichen
Bereich eine Schnittmenge gemeinsamer Bedeutungen, auf die ein solcher Versuch aufbauen kann.
Geht man zunächst vom klassischen Begriffsverständnis aus, so wie es Vitruv in seinem Traktat De
Architectura überliefert hat, kann „Szenographie“
die Kulisse sowie den zuweilen als „Bild“ bezeichneten Akt in der schriftlichen Spielvorlage oder auf der
Bühne meinen. Aber auch wenn ein Text – es muss
kein Drama sein – einfach nur gelesen wird und im
Kopftheater eines einzelnen Menschen zur Aufführung gelangt, folgt die Vorstellung einem szenographischen Diskurs.
Perspektivische Mimesis
In all diesen Fällen – beim Blick auf das (illusionistische) Bühnenbild, bei der Inszenierung eines Theaterstücks oder bei der Buchlektüre – geht es um eine
perspektivische Mimesis, bei der sich ein Beobachter
in die Wahrnehmungslage anderer Menschen versetzt, die bestimmte Zeichen so angeordnet haben,
dass er ihrer Blickrichtung folgen kann. In diesem
Sinne entwirft jeder Mensch, der eine sprachliche
Äußerung von sich gibt, eine funktionale, nach Relevanzkriterien gestaffelte Satz- und Deutungsperspektive. Eine Äußerung zu verstehen, heißt mithin, sich –
zumindest vorübergehend – auf diese sprachlich vermittelte Sicht der Dinge einzulassen. Im Anschluss an
Lucien Tesnière, der die Dependenzielle Satzgrammatik begründet hat, und Algirdas Greimas, der eine
Aktanten-Semantik entworfen hat, behaupten
Sprach- und Kulturwissenschaftler daher, dass jeder
Satz ein kleines Drama bildet, in dem das Verb die
Rollen verteilt, die vom Subjekt, vom Objekt usw.
gespielt werden, während die adverbialen Bestimmungen zum Raum, zur Zeit und zu den Umständen
der Handlung das Bühnenbild ergeben. Da oft ein
einziges Stichwort genügt, um mit dem Schauplatz
auch die Drehbücher oder „Skripts“ der Dramen aufzurufen, die vor dieser Kulisse spielen könnten, hat
Umberto Eco die Szenographie als einen virtuellen
Text bezeichnet, in dem der Keim zu einer Geschichte
steckt, die sich tatsächlichen ereignen kann oder nur
imaginär entfaltet wird.
Ein anschauliches Beispiel für diese Art der Szenographie ist der so genannte „establishing shot“, der
im Fernsehen oder im Kino als „key visual“ fungiert.
Sobald wir in einer Totalen das Monument Valley
sehen, antizipieren wir auch schon die Postkutsche,
die gleich ins Bild rollen wird, und stellen uns auf die
Genrekonventionen des Western ein. In der Filmwissenschaft wird die genrespezifische Szenographie
mit dem terminus technicus der Standardsituation
erfasst und auf die von Erving Goffman entwickelte
Idee bezogen, dass es zu jeder Szene oder Situation
einen primären Verständnisrahmen gibt, der sie sinnvoll erscheinen lässt. Die eigentliche Kunst besteht
natürlich darin, den primären Verständnisrahmen
abzuwandeln und seine Bedeutung so zu modulieren, dass der szenographische Diskurs nicht langweilig wird. Aufschlussreich ist, dass die meisten Standardsituationen mit Hilfe eines substantivierten
Verbs bezeichnet werden – der „Überfall“ auf die
Postkutsche im Western, der „show down“ usw. Dies
ist ein deutlicher Hinweis darauf, dass man auch filmische Standardsituationen, ausgehend von der
Verbvalenz, analysieren und zu diesem Zweck eine
methodische Synthese von Dramaturgie, Satzgrammatik und Aktanten-Semantik, von Bild- und Situationsanalyse vornehmen kann.
Bühnenbild, Kulisse,
intellektueller Schauraum
und vieles mehr: Szenographie
hilft Fächer zu verbinden.
Metapher, Mythos und Anschauungsmodell
Der szenographische Diskurs funktioniert also wie
eine Regieanweisung für die von Empathie grundierte Imagination und Kognition des Menschen. Im Prinzip hatte dies bereits Aristoteles erkannt, für den die
Metapher der Inbegriff der menschlichen Kreativität
und Konstruktivität war, weil sie die Dinge, wie es in
seiner Rhetorik heißt, in ihrer Wirksamkeit vor Augen
führt und Analogieschlüsse von einer Szene auf eine
andere Situation erlaubt. Sieht man in der folgerichtigen Entwicklung jenes dramatischen Geschehens,
das Aristoteles in seiner Poetik als „mythus“ bezeichnet, eine komplexe Metapher, wird klar, dass es
in der kleinen wie in der großen Szenographie, beim
einzelnen Sprachbild wie im Welttheater, darauf
ankommt, Anschauungs- oder Verlaufsmodelle von
Handlungsketten für Beobachter zu entwerfen, die
selbst nicht unmittelbar in das Geschehen verstrickt
sind, gerade deshalb aber mittelbar vom Modell auf
ihre eigene Lebenswirklichkeit schließen können.
Man kann somit sagen: Der szenographische Diskurs
erhält einen pragmatischen Wert, indem er jenen
intellektuellen „Schauraum“ eröffnet, den das Wort
„theoria“ ursprünglich meint. Um beim Theater in
seiner traditionellen Form zu bleiben: An diesem Ort
werden der Gesellschaft die Folgen ihrer VerhaltensFORSCHUNGSMAGAZIN ■ 1/2005
41
......
...... BILDWISSENSCHAFT
Szenographie und Diagrammatik
Bis ins 19. Jh. galt die
camera obscura als Modell der
menschlichen Wahrnehmung.
und Denkmuster nach Maßgabe der Wahrscheinlichkeit so vor Augen geführt, dass der Wirkungszusammenhang deutlich wird, für den ihre Mitglieder im
Alltag gleichsam betriebsblind sind.
Dabei kommt das Verfahren der perspektivischen
Mimesis nicht nur zur Anwendung, wenn es um die
kognitive, sondern auch, wenn es um die affektive
Funktion der Kunst geht – etwa um die von Aristoteles als „katharsis“ bezeichnete Erregung, Übertragung und Abfuhr heftiger Gefühle, die noch für Freud
das Vorbild des Psychodramas war, das in der Redekur inszeniert wird. In seinem Brief an die Pisonen
hat der römische Dichter Horaz – wiederum in einer
Art Regieanweisung – dargelegt, wie die rhetorische
Affektenlehre und das poetische Prinzip der perspektivischen Mimesis zusammenhängen:
„Mit den Lachenden lacht, mit den Weinenden
weint das Antlitz des Menschen. Willst Du, dass ich
weine, so traure erst einmal selbst; dann wird dein
Unglück mich treffen. [...] Denn die Natur formt
zuerst unser Innres je nach der äußeren Lage;
beglückt uns, treibt uns zur Wut, zieht uns durch
schweren Kummer zu Boden, bedrückt uns; dann
lässt sie die Regungen der Seele sich äußern durch
die Übersetzung der Zunge.“
42
Angesichts des offenbar für alle Darstellungs- und
Vorstellungsprozesse grundlegenden Zusammenspiels von Perzeption und Imagination, von Kognition und Affektion empfiehlt sich die „Szenographie“
als Schlüsselbegriff der Kultur-, Medien- und Kognitionswissenschaften, zu deren gemeinsamen Aufgaben das interdisziplinäre Projekt der Bilderforschung
gehört. Dabei muss die „Szenographie“ auf den
Komplementärbegriff der „Diagrammatik“ bezogen
werden: Szenen sind in der Regel dicht und konkret –
Diagramme veranschaulichen eher abstrakte Relationen. Eine Szene wird mehr oder weniger emphatisch erlebt – die Ermittlung ihrer Bedeutung hängt
jedoch wesentlich davon ab, dass diese Szene oder
jene Diskurssituation auf eine Rekurssituation bezogen wird, für die es bereits einen primären Verständnisrahmen gibt. So jedenfalls stellt sich der Sachverhalt in der Relationalen Semantik von John Barwise
und Jon Perry sowie in der Metaphorologie dar, die
George Lakoff und Mark Johnson vertreten.
Um den weiterführenden Ansatz der „Diagrammatik“ zu verstehen, muss man freilich über die Bedeutung des Grundworts hinausgehen: Diagramme sind
Schaubilder, Landkarten etwa oder Fieberkurven, aber
auch Schaltpläne oder Grundrisszeichnungen. Denkt
man an die bunten Balken- oder Kuchendiagramme,
die in der Wahlberichterstattung eingeblendet werden, leuchtet ein, dass diese schematischen Gestalten
besonders gut zur Veranschaulichung von (statistischen) Proportionen und Relationen geeignet sind –
also den Logos der Zahl mit dem Logos des Bildes
verbinden. In diesem Sinne erfüllen sie in etwa die
gleiche Aufgabe, die Immanuel Kant in seiner Architektonik des Geistes dem Schema aufgetragen hatte,
das dem Begriff zur Anschauung verhilft. Ein Schema
ist ein Hilfsmittel, um verschiedene Dinge und unterschiedliche mentale Formate aufeinander zu beziehen. Wenn man nun mit Kants Zeitgenossen Johann
Heinrich Lambert das Zeichen als ein Mittel der Verständigung und Erkenntnis ansieht, das, um seinen
Zweck zu erfüllen, zugleich in die Sinne fallen und als
principium cognoscendi taugen muss, wird eine funktionale Äquivalenz zwischen dem Schema als Mittel
der Veranschaulichung und dem Zeichen als Mittel
der Verständigung und Erkenntnis offenkundig.
Folgerichtig entstand die moderne Semiotik als
Versuch, Ästhetik und Logik, Sinnlichkeit und Verstand neu zu konfigurieren. Für ihren Begründer, den
amerikanischen Philosophen Charles Sanders Peirce,
gilt, dass sich der Mensch mittels Zeichen ein Bild
von der Welt (und von sich selbst) macht und dass er
sich und anderen die Bedeutung dieser Bilder vermitteln kann, weil Zeichen an der Schnittstelle von Perzeption und Imagination Beziehungsverhältnisse
und Blickpunkte schaffen, die eine perspektivische
Mimesis erlauben. Daher steht ein Zeichen für einen
bestimmten Bezugsgegenstand immer nur in einer
bestimmten Hinsicht für denjenigen, der seine Perspektive nachvollzieht.
BILDWISSENSCHAFT
Tatsächlich kann man wiederum am Modell der
Metapher demonstrieren, inwiefern die Zeichenkonfiguration und Schemabildung diagrammatisch verfährt. Nehmen wir die längst lexikalisierte Metapher
vom „Staatsschiff“: Wir verstehen dieses Sprachbild,
indem wir sehr konkrete Elemente, die unsere Vorstellung von einem Schiff umfasst, auf bestimmte,
vergleichsweise abstrakte Elemente unserer Idee
vom Staat beziehen. So denken wir an den Steuermann und setzen ihn mit dem Regierungschef gleich,
so assoziieren wir die Wendung „Kurs halten“ und
übertragen sie auf die Herausforderung, das „Staatsschiff“ durch die politischen Gezeiten zu lenken usw.
Kurzum: Das Schiff wird erst zum Anschauungsmodell und dann zum allegorischen Auslegungsschema,
zum Diagramm der Staatsidee.
Wie jeder weiß, der schon einmal versucht hat,
eine originelle, noch nicht lexikalisierte Metapher zu
bilden oder zu entschlüsseln, hat die Diagrammatik
eine heuristische Pointe, besteht die Schwierigkeit
doch darin, Analogien herzustellen (oder zu entdecken), die ebenso überraschend und aufschlussreich
sind. Schaubilder können diesen Vorstellungsprozess
leiten und eignen sich hervorragend für Gedankenexperimente und andere Simulationen. Wichtig ist
dabei stets die Versuchsanordnung, also das Beziehungsgefüge der Elemente und Faktoren, die systematisch variiert, also diagrammatisch behandelt
werden. Hat man aber erst einmal erkannt, dass die
Worte im Satzverband, die Sätze in einem Text oder
die Abfolge der Einstellungen in einem Film, die
„panels“ im comic strip, im story board oder in
irgendeinem anderen Medium der Veranschaulichung Beziehungsgefüge bilden, die konjektural
erfasst werden, wird klar‚ warum und inwiefern
„Szenographie“ und „Diagrammatik“ Komplementärbegriffe bilden. Verständlich wird so auch die enge
Verwandtschaft zwischen der konkreten Szenerie
(eines Bühnenbildes oder eines Landschaftsgemäldes) und dem vergleichsweise abstrakten Szenario,
in dem unsere Annahmen über die Zukunft Gestalt
annehmen und durchgespielt werden.
Imagination und Kognition
Besonders aufschlussreich ist in diesem Zusammenhang ein Befund der modernen Gehirnforschung, der
zufolge die meisten Areale, die im Isokortex mit der
visuellen Wahrnehmung zu tun haben, auch an der
Erzeugung von Vorstellungen beteiligt sind. Wahrscheinlich erklärt dieser Befund, warum es uns so
leicht fällt, Schaubilder in der Imagination zu entwerfen, umzugestalten und kognitiv zu verarbeiten, und
warum Zeichen, die unsere Sinnlichkeit affizieren und
die Vorstellungskraft erregen, auch dem Verstand auf
die Sprünge helfen können.
Zu beachten ist dabei stets die Komplementarität
von Szenographie und Diagrammatik: Denn so wie
der Entwurf von Bildern oder Bildfolgen – also der
szenographische Akt – eine diagrammatische Operation darstellt, können jene Vorstellungen, die Dia-
......
Schichtenmodell des Gehirns
nach J. Dryander 1537
gramme vermitteln, plastisch inszeniert werden. Zu
denken wäre etwa an die 3-D-Animationen der Computer-Spiele oder an den Flugsimulator. Voraussetzung dafür, dass man sich mit ihrer Hilfe in realistischen (oder völlig unrealistischen) Situationen
gefahrlos ausprobieren kann, ist, dass die einzelnen
Spiel- und Handlungszüge zunächst diagrammatisch
erfasst und dann entsprechend inszeniert oder animiert werden. Ein wissenschaftliches Gedankenexperiment, ein Essay oder ein Roman mögen zwar weniger plastisch anmuten, auch sie führen jedoch im
Rahmen einer heuristischen Fiktion modellhaft vor
Augen, was unter bestimmten Umständen geschieht.
Einerseits kann man also die gesamte menschliche
Verständigung als eine mehr oder weniger dramatische „Szenographie“ verstehen, da es in jedem kommunikativen Akt darauf ankommt, dass sich die
Gesprächspartner auf bestimmte „Szenen gemeinsamer Aufmerksamkeit“ (Michael Tomasello) einstellen
und analoge Auffassungsperspektiven entwickeln.
Andererseits geht es dabei stets um die diagrammatische Vermittlung von Bedeutungen im Rahmen
einer situationsspezifischen Zeichenkonfiguration
sowie um die Übertragung dieser Bedeutungen auf
andere Situationen, so dass mit der Zeit ein dynamisches Netzwerk von Relationen entsteht, das der
Welt Gestalt verleiht. Die naheliegende Annahme,
dieses dynamische Netzwerk sei der synaptischen,
ebenfalls dynamischen Architektur des zentralen
Nervensystems strukturell ähnlich oder isomorph,
war zweifellos ein nachhaltiger Antrieb der Kognitionswissenschaft und Gehirnforschung.
FORSCHUNGSMAGAZIN ■ 1/2005
43
...... BILDWISSENSCHAFT
Bei sprachlichen Leistungen wie
dem Generieren von Verben
werden bestimmte Areale des
Gehirns aktiviert (Darstellung
durch Positronen-EmissionsTomographie).
44
Weltbild und Bewusstseinsszene
Auffällig ist jedenfalls, dass wir die Begriffe der „Szene“ und des „Diagramms“ sowohl auf Bilder oder
Zeichenkonfigurationen anwenden, die uns materialiter vor Augen stehen, wie auch auf Konzepte, die
wir nur idealiter, „im Geiste“ haben. Gerade die beiden Metaphern vom „Weltbild“ und von der
„Bewusstseinsszene“ belegen, dass der eigentliche
Clou der diagrammatischen Operationen darin
besteht, die Kluft zwischen dem „Innen“ und dem
„Außen“ zu überbrücken, die sich aus der unspezifischen Codierung aller Sinnesreize an der Peripherie
des zentralen Nervensystems ergibt. Einerseits wissen wir, dass „Weltbilder“ und „Bewusstseinsszenen“ mentale Konstrukte oder Modelle sind, andererseits vergessen wir bei der eigenen Verhaltenssteuerung anhand dieser Modelle, dass es nur Konstrukte sind, solange es keinen triftigen Grund gibt,
an ihrer Verlässlichkeit zu zweifeln.
Die Lösung dieses Rätsels, die von moderaten Konstruktivisten wie Gerhard Roth und anderen erwogen
wird, liegt ganz auf der Linie jener Argumentation, die
zunächst von C. S. Peirce und dann von Ludwig Wittgenstein und Alfred Korzybski entwickelt worden war:
Die kognitive Landkarte ist nicht das Territorium, das
sie im doppelten Sinn des Wortes „ver-zeichnet“, sie
ist jedoch an Projektionsregeln gekoppelt, die sich
immer wieder von neuem empirisch bewähren müssen, da die Karte den Menschen sonst in die Irre führen und ihren Zweck verfehlen würde.
Selbstverständlich gilt dies auch für die Anschauungsmodelle vom Gehirn, die Wissenschaftler entworfen haben. Spätestens seit der Schädel von
außen vermessen und inwendig kartographiert worden ist, kann man die Erforschung des menschlichen
Geistes als einen szenographischen Diskurs betrachten, der metaphorologisch interpretiert werden
muss. Ob man sich dabei wie im 17. und 18. Jahrhundert die „camera obscura“ zum Vorbild der Wahrnehmung nahm oder im 19. und 20. Jahrhundert
dazu überging, physiologische Erregungsmuster aufzuzeichnen und diese Schemata mit elektronischen
Schaltplänen zu vergleichen, bis man auf das Computer-Modell verfiel, das inzwischen auch nur noch
als Übergangsobjekt der Begriffsbildung erscheint –
im Vordergrund all dieser Bemühungen stand stets
die plastische, szenisch-konkrete Veranschaulichung
hochkomplizierter und abstrakter Vorgänge, dahinter
aber die Hoffnung, dem Denken und seiner Tiefengrammatik mittels diagrammatischer Operationen
der Veranschaulichung auf die Spur zu kommen.
Und natürlich sind auch die Verfahren der Elektroenzephalographie, der Positronen-Emissions-Tomographie (PET) und der funktionalen Magnetresonanz-Tomographie (f-MRT) szenographische Versuche der Diagrammatisierung von Erregungs- und Verarbeitungsmustern, bei denen man, wie bei allen Bildern, nicht unmittelbar auf ihre kognitive Funktion
oder auf ihre kulturelle Bedeutung schließen kann.
Wie jede Karte braucht auch das „neuro-image“
eine Legende, die uns vor physikalistischen Kurzschlüssen bewahrt.
Das Verhältnis zwischen der kulturwissenschaftlich orientierten Bildforschung und der kognitionswissenschaftlich relevanten Hirnforschung ist also
dialogisch: Die eine klärt uns über den szenographischen Charakter der bildgebenden Verfahren auf, die
andere versucht, den Hiatus zwischen der semiotischen Beschreibung diagrammatischer Operationen
und der biologischen Erforschung neuronaler Prozesse zu überbrücken. Gute Chancen zur Intensivierung
dieses Dialogs bestehen im Interdisziplinären Forschungszentrum für Neurowissenschaft an der
Johannes Gutenberg-Universität und in der Mainzer
Graduiertenschule MINDS.
BILDWISSENSCHAFT
■ Summary
“Scenography” is a key term in the comparative study of pictorial, spoken or written discourse. The basic
operation is the establishing of a perspective which
shapes the perception, imagination, cognition and
emotion of the person in front of a certain configuration of signs. The references and inferences based on
this operation can be regarded as functions of dia-
grammatoidal reasoning – which is the main topic of
many different but complementary investigations
(i.e. cognitive poetics, relational semantics and heuristics). Therefore, scenography and diagramatics can
be regarded as central concepts in the field of interdisciplinary research, especially in the field of visual
and cultural studies.
Literatur
Aristoteles (1991). Poetik. Stuttgart
Aristoteles (1993). Rhetorik. München
Azara, P.; Hart, C. G. (2000). Bühnen- und Ausstellungsarchitektur. Stuttgart München
Barwise, J.; Perry, J. (1987). Situationen und Einstellungen. Grundlagen der Situationssemantik. Berlin New York
Eco, U. (1987). Lector in fabula. Die Mitarbeit der Interpretation in erzählenden Texten. München Wien
Goffman, E. (1980). Rahmen-Analyse. Ein Versuch über die Organisation von Alltagserfahrungen. Frankfurt am Main
Goodman, N. (1984). Weisen der Welterzeugung. Frankfurt am Main
Greimas, A. J. (1972). Sémantique structurale. Recherche du méthode. Paris
Horatius, Q. F. (1984). Ars Poetica / Die Dichtkunst. Stuttgart
Kant, I. (1993). Kritik der reinen Vernunft. Hamburg
Korzybski, A. (1941). Science and Sanity. New York
Lakoff, G.; Johnson, M. (1990) Metaphors We Live By. Chicago London
Lambert, J. H. (1771). Anlage zur Archictectonic oder Theorie des Ersten und des Einfachen in der philosophischen Erkenntnis. Riga
Neumann, G.; Pross, C.; Wildgruber, G. (Hg.) (2000). Szenographien. Theatralität als Kategorie der Literaturwissenschaft.
Freiburg im Breisgau
Peirce, Ch. S. (1931-58). Collected Papers. Cambridge London (Zur Definition des Zeichens vgl. CP 2.228)
Von Polenz, P. (1985). Deutsche Satzsemantik. Grundbegriffe des Zwischen-den-Zeilen-Lesens. Berlin New York
Roth, G. (1995). Das Gehirn und seine Wirklichkeit. Kognitive Neurobiologie und ihre philosophischen Konsequenzen.
Frankfurt am Main
Stockwell, P. (2002). Cognitive Poetics. An introduction. London New York
Tesnière, L. (1980). Grundzüge der strukturalen Syntax. Stuttgart
Tomasello, M. (2002). Die kulturelle Entwicklung des menschlichen Denkens. Zur Evolution der Kognition. Frankfurt am
Main
Vitruvius, A. P. (1987). Zehn Bücher über Architektur. Baden-Baden
Wittgenstein, L. (1975). Philosophische Untersuchungen. Frankfurt am Main
PD Dr. phil.
Matthias Bauer
■ Kontakt:
PD Dr. phil. Matthias Bauer
Johannes Gutenberg-Universität Mainz
Deutsches Institut
Jakob-Welder-Weg 18
55128 Mainz
Tel. +49 (0) 6131 39-23246
E-Mail: [email protected]
MATTHIAS BAUER, Jahrgang 1962, hat Germanistik,
Publizistik und Geschichte studiert. Die Promotion
erfolgte 1992, die Habilitation 2002. Er ist Privatdozent am Deutschen Institut der Johannes GutenbergUniversität und Lehrbeauftragter am Institut für Filmwissenschaft.
FORSCHUNGSMAGAZIN ■ 1/2005
45
......
Anzeige
46
PHILOSOPHIE
Wie ein bewusstes Ich entsteht:
Die Selbstmodell-Theorie der Subjektivität
Von Thomas Metzinger
Die „Selbstmodell-Theorie der Subjektivität“ (SMT)
ist ein interdisziplinäres Forschungsprogramm, das
seit vielen Jahren am Arbeitsbereich Theoretische
Philosophie verfolgt wird. SMT ist eine philosophische Theorie darüber, was ein bewusstes Selbst ist,
eine Theorie darüber, was es eigentlich bedeutet,
dass geistige Zustände „subjektive“ Zustände sind
und auch darüber, was es heißt, dass ein bestimmtes
System eine „phänomenale Erste-Person-Perspektive“ besitzt.1-5 Eine der Kernaussagen dieser Theorie
ist, dass es so etwas wie Selbste in der Welt nicht
gibt: Selbste gehören nicht zu den irreduziblen
Grundbestandteilen der Wirklichkeit. Was es gibt, ist
das erlebte Ichgefühl und die verschiedenen, ständig
wechselnden Inhalte unseres Selbstbewusstseins –
das, was Philosophen das „phänomenale Selbst“
nennen. Dieses bewusste Erleben eines Selbst wird
als Resultat von Informationsverarbeitungs- und Darstellungsvorgängen im zentralen Nervensystem analysiert. Natürlich gibt es auch höherstufige, begrifflich vermittelte Formen des phänomenalen Selbstbewusstseins, die nicht nur neuronale, sondern auch
soziale Korrelate besitzen. Der Fokus der Theorie liegt
jedoch zunächst auf der Frage nach den minimalen
repräsentationalen und funktionalen Eigenschaften,
die ein informationsverarbeitendes System wie der
Mensch besitzen muss, um die Möglichkeitsbedingungen für diese höherstufigen Varianten des Selbstbewusstseins zu realisieren. Die erste Frage lautet:
Was sind minimal hinreichende Bedingungen dafür,
dass überhaupt ein bewusstes Selbst entsteht?
Integration
Taina Litwak Illustration Studio
Eine Grundidee besagt, dass Selbstbewusstsein in
wesentlichen Aspekten eine vorbegriffliche Integrati-
onsleistung ist: Alle repräsentationalen Zustände, die
in das gegenwärtig aktive Selbstmodell eingebettet
werden, gewinnen die höherstufige Eigenschaft der
phänomenalen „Meinigkeit“ hinzu, sie werden als
eigene erlebt. Wenn dieser Einbettungsprozess gestört wird oder hypertrophiert, resultieren verschiedene neuropsychologische Syndrome oder veränderte Bewusstseinszustände. Werfen wir einen Blick auf
einige Beispiele, bei denen die phänomenale Meinigkeit verloren geht:
Wie wir uns selbst erkennen
und ein grundlegendes
Ichgefühl entwickeln, erläutert
eine philosophische Theorie
über das Wesen des bewussten
Selbst.
• Floride Schizophrenie: Bewusst erlebte Gedanken
sind nicht mehr meine Gedanken.
• Unilateraler Hemi-Neglekt: Mein Bein ist nicht
mehr mein Bein.
• Alien Hand Syndrome: Mein Arm führt zielgerichtete Handlungen ohne meine Kontrolle aus.
• Depersonalisationssyndrome: Ich bin ein Roboter,
verwandele mich in eine Marionette, volitionale
Akte sind nicht mehr meine volitionalen Akte. (Was
hier selektiv verloren geht, ist also das, was der
Philosoph und Psychiater Karl Jaspers „Vollzugsbewusstsein“ genannt hat.)
Subjektiv erlebte „Meinigkeit“ ist also eine Eigenschaft einzelner Formen phänomenalen Gehalts, zum
Beispiel der mentalen Repräsentation eines Beins,
eines Gedankens oder eines Willensaktes. Diese
Eigenschaft ist nicht notwendig mit ihnen verbunden, denn sie ist keine intrinsische, sondern eine relationale Eigenschaft. Ihre Verteilung über die Elemente eines bewussten Weltmodells besitzt eine Varianz.
Sie kann selektiv verloren gehen, und zwar genau
dann, wenn dem System die Integration bestimmter
einzelner repräsentationaler Inhalte ins Selbstmodell
nicht mehr gelingt. Wenn das richtig ist, dann könnte
Abb. 1: Die Gummihand-Illusion:
Gesunde Versuchspersonen erleben
ein künstliches Glied als einen Teil
ihres eigenen Körpers. Die Versuchsperson beobachtet die Nachbildung
einer menschlichen Hand, während
eine ihrer eigenen Hände verdeckt ist
(graues Rechteck). Sowohl die künstliche Gummihand wie auch die unsichtbare Hand werden wiederholt und
gleichzeitig mit einem Stäbchen
gestreichelt. Die grünen und gelben
Bereiche stellen die jeweiligen taktilen
und visuellen rezeptiven Felder für
Neuronen im prämotorischen Kortex
dar. Im rechten Bild sieht man die Illusion der Versuchsperson, bei der die
gefühlte Berührung (in Grün) in Einklang mit der gesehenen Berührung
gebracht wird (die phänomenal erlebte, illusorische Armstellung ist in Blau
dargestellt). Die entsprechende Aktivierung von Neuronen im prämotorischen Kortex lässt sich experimentell
sehr genau nachweisen.6,7
FORSCHUNGSMAGAZIN ■ 1/2005
47
......
...... PHILOSOPHIE
man diese Eigenschaft zumindest prinzipiell operationalisieren, und zwar indem man nach einer empirisch überprüfbaren Metrik für die Kohärenz des
Selbstmodells in den fraglichen Bereichen sucht.
Man könnte auch empirisch untersuchen, wie und
durch welche Teile des Gehirns ein bestimmter repräsentationaler Inhalt ins Selbstmodell eingebunden
wird – und man kann diese Eigenschaft auch
absichtlich konstruieren, indem man dem Gehirn
ungewöhnliche statistische Korrelationen anbietet
Hier ist ein konkretes Beispiel für das, was ich mit
„Meinigkeit“ meine:
Bei der Gummihand-Illusion werden eine gefühlte
und eine gesehene Berührung vom Gehirn so mit
einander verschmolzen, dass nicht nur eine propriozeptive Karte vorübergehend mit einer visuellen Karte in Übereinstimmung gebracht wird - also die
Eigenwahrnehmung des Körpers mit dem, was man
sieht -, sondern so, dass damit auch das Gefühl des
„Besitzens“, die phänomenale „Meinigkeit“ auf die
Gummihand übergeht. Die Versuchsperson erlebt die
Gummihand als ihre eigene Hand und fühlt die
Berührung in dieser Hand. Wenn man sie bittet, auf
ihre verdeckte linke Hand zu zeigen, unterläuft ihr
ein Fehler in Form einer Abweichung in Richtung auf
die Gummihand. „Verletzt“ man einen Finger der
Gummi-Hand durch eine Biegung nach hinten in eine
physiologisch unmögliche Position, dann wird auch
der phänomenal erlebte Finger als wesentlich weiter
zurück gebogen erlebt, als er es in Wirklichkeit ist,
zusätzlich zeigt sich eine deutlich messbare Hautwiderstandreaktion. Zwar berichteten nur 2 von 120
Versuchspersonen tatsächlich von einem echten
Schmerzerlebnis, aber viele zogen ihre reale Hand
zurück, rissen die Augen auf oder lachten nervös.
Wenn man mit einem Hammer auf die Gummihand
schlägt, zeigt die Person ebenfalls eine sehr deutliche
Reaktion. Wieder zeigt sich, wie die phänomenale
Zieleigenschaft direkt von Vorgängen im Gehirn
determiniert wird. Was wir als Teil unseres Selbst
erleben, hängt also vom jeweiligen Kontext ab und
davon, welche Information vom Gehirn jeweils in
unser Selbstmodell eingebettet wird.
Naturalismus
Die Selbstmodell-Theorie geht davon aus, dass die
gesuchten Eigenschaften repräsentationale und
funktionale Eigenschaften des Gehirns sind. Diejenige psychologische Eigenschaft, die uns überhaupt
erst zu Personen macht, wird also mit den begrifflichen Mitteln subpersonaler Beschreibungsebenen
analysiert. In der Philosophie des Geistes nennt man
ein solches Verfahren manchmal auch eine „Naturalisierungsstrategie“: Ein schwer verständliches Phänomen – etwa das Entstehen von phänomenalem
Bewusstsein mit einer subjektiven Innenperspektive
– wird begrifflich auf eine Weise analysiert, die es
empirisch behandelbar machen soll. Naturalistische
Philosophen versuchen, über eine interdisziplinäre
Öffnung klassische Probleme ihrer eigenen Disziplin
48
für die Naturwissenschaften traktabel zu machen,
zum Beispiel für die Neuro- und Kognitionswissenschaften. Naturalismus und Reduktionismus sind für
solche Philosophen aber keine szientistische Ideologie, sondern einfach eine rationale Forschungsheuristik: Wenn es sich zum Beispiel zeigen sollte, dass
es – wie viele glauben - etwas am menschlichen
Selbstbewusstsein gibt, das sich dem naturwissenschaftlichen Zugriff aus prinzipiellen Gründen entzieht, dann werden sie auch damit zufrieden sein. Sie
haben dann das erreicht, was von Anfang an ihr Ziel
war: Philosophen nennen es gerne einen „epistemischen Fortschritt“. Ein Erkenntnisfortschritt könnte
nämlich auch darin bestehen, dass man hinterher auf
wesentlich präzisere und gehaltvollere Weise
beschreiben kann, warum es auf bestimmte Fragen
prinzipiell keine befriedigende wissenschaftliche
Antwort geben kann. Seriöse philosophische AntiNaturalisten und Anti-Reduktionisten kann man deshalb immer daran erkennen, dass gerade sie es sind,
die ein besonders großes Interesse an neuen empirischen Erkenntnissen und an ernsthaften interdisziplinären Dialogen haben.
Simulation
Was wir im Grunde brauchen, ist also eine umfassende Theorie des Selbstmodells von Homo sapiens.
Empirische Daten zeigen, dass es ein virtuelles
Modell ist, das interessanterweise eine Möglichkeit
(die beste Hypothese, die das System momentan
über seinen eigenen Zustand hat) als eine Wirklichkeit darstellt. Ein zweites Beispiel soll deshalb verdeutlichen, was ich – unter vielem anderen – mit
dem Begriff „Selbstmodell“ meine. Was ein phänomenales Selbstmodell ist, hat der indische Neuropsychologe Vilayanur Ramachandran in einer Serie von
faszinierenden Experimenten gezeigt, bei denen er
mit Hilfe von einfachen Spiegeln Synästhesien und
Bewegungsillusionen in Phantomgliedern auslöste.8,9 Phantomglieder sind subjektiv erlebte Gliedmaßen, die typischerweise nach dem Verlust eines Arms
oder einer Hand oder nach chirurgisch durchgeführten Amputationen auftreten. In manchen Fällen, zum
Beispiel nach einer nicht-traumatischen Amputation
durch einen Chirurgen, sind die Patienten subjektiv
in der Lage, ihr Phantomglied willentlich zu kontrollieren und zu bewegen. Das neurofunktionale Korrelat dieser phänomenalen Konfiguration könnte darin
bestehen, dass – da es keine widersprechende Rückmeldung aus dem amputierten Arm gibt – Motorbefehle, die im motorischen Kortex entstehen, immer
noch kontinuierlich durch Teile des Parietallappens
überwacht und dabei in denjenigen Teil des Selbstmodells integriert werden, der als ein Motoremulator
dient. In anderen Situationen dagegen kann die subjektiv erlebte Beweglichkeit und Kontrolle über das
Phantomglied verloren gehen. Solche alternativen
Konfigurationen könnten etwa durch eine präamputationale Lähmung als Folge peripherer Nervenschädigungen oder durch das längere Fehlen einer die
PHILOSOPHIE
Beweglichkeit bestätigenden „Rückmeldung“ durch
propriozeptives und kinästhetisches Feedback entstehen. Das Resultat auf der phänomenalen Darstellungsebene ist dann ein paralysiertes Phantomglied.
Ramachandran und seine Kollegen konstruierten
nun eine „virtuelle Realitätskiste“, indem sie einen
Spiegel vertikal in einen Pappkarton ohne Abdeckung einsetzten. Zwei Löcher in der Vorderseite des
Kartons ermöglichten es dem Patienten, sowohl seinen echten als auch seinen Phantomarm hinein zu
schieben. Ein Patient, der seit vielen Jahren unter
einem paralysierten Phantomglied litt, wurde dann
gebeten, das Bild seiner normalen Hand im Spiegel
zu betrachten, um so – auf der Ebene des visuellen
Inputs – die Illusion zu erzeugen, dass er zwei Hände
sieht, obwohl er in Wirklichkeit nur das im Spiegel
reflektierte Bild seiner intakten Hand sehen konnte.
Die Fragestellung: Was geschieht mit dem Inhalt des
phänomenalen Selbstmodells, wenn man jetzt die
Versuchsperson bittet, auf beiden Seiten symmetrische Handbewegungen auszuführen? Ramachandran beschreibt ein typisches Resultat dieses Experiments:
......
Ich hoffe, dass bereits deutlich geworden ist, wie
solche neuen Daten den von mir eingeführten Begriff
eines „Selbstmodells“ illustrieren: Was sich in diesem Experiment bewegt, ist das phänomenale Selbstmodell. Das plötzliche Auftreten von kinästhetischen
Empfindungsqualitäten in der verlorenen Subregion
des Selbstmodells wurde durch die Installation einer
zweiten Quelle von „virtueller Information“ möglich
gemacht. Sie machte den visuellen Modus der Selbstrepräsentation sozusagen wieder zugänglich und
damit auch die betreffende Information wieder volitional verfügbar. Die willentliche Kontrolle wurde
nun wieder möglich. Was das Experiment ebenfalls
zeigt, ist wie phänomenale Eigenschaften durch
komputationale und repräsentationale Eigenschaften im Gehirn determiniert werden.
Transparenz
Ein genuines, bewusst erlebtes Selbst entsteht immer
genau dann, wenn das System das von ihm selbst
aktivierte Selbstmodell auf der Ebene des bewussten
Erlebens nicht mehr als Modell erkennt. Der entschei-
Ich bat Philip, seine rechte Hand innerhalb der Kiste
rechts vom Spiegel zu platzieren und sich vorzustellen,
dass seine linke Hand (das Phantom) sich auf der linken Seite befindet. Dann gab ich die Instruktion: „Ich
möchte, dass Sie gleichzeitig ihren rechten und ihren
linken Arm bewegen“.
Courtesy of Vilayanur Ramachandran
„Oh, das kann ich nicht“, sagte Philip. „Ich kann meinen rechten Arm bewegen, aber mein linker Arm ist
eingefroren. Jeden Morgen beim Aufstehen versuche
ich, mein Phantom zu bewegen, weil es sich immer in
dieser seltsamen Stellung befindet und weil ich das
Gefühl habe, dass Bewegungen den Schmerz lindern
könnten. Aber“, sagte er, während sein Blick abwärts
an seinem unsichtbaren Arm entlang glitt, „ich war
niemals in der Lage, auch nur den Funken einer Bewegung in ihm zu erzeugen.“
„Okay Philip – versuchen Sie es trotzdem.“
Philip drehte seinen Körper und bewegte seine Schulter in die richtige Stellung, um sein lebloses Phantomglied in die Kiste „hinein zu schieben“.
Dann hielt er seine rechte Hand neben die andere Seite
des Spiegels und versuchte, synchrone Bewegungen zu
machen. Als er in den Spiegel schaute, rang er plötzlich
um Atem und rief dann aus: „Oh mein Gott! Oh mein
Gott, Doktor! Das ist unglaublich. Ich glaube, ich werde verrückt!” Er sprang auf und ab wie ein Kind.
„Mein linker Arm ist wieder angeschlossen. Es ist, als
ob ich in der Vergangenheit bin. Ganz viele Erinnerungen aus der Vergangenheit überfluten mein Bewusstsein. Ich kann meinen Arm wieder bewegen! Ich kann
die Bewegung meines Ellenbogens spüren, auch die
meines Handgelenks. Alles ist wieder beweglich.”
Nachdem er sich etwas beruhigt hatte, sagte ich:
„Okay Philip – schließen Sie jetzt Ihre Augen.”
„Oh je,” sagte er, und die Enttäuschung in seiner Stimme war deutlich zu hören, „es ist wieder eingefroren.
Ich fühle wie meine rechte Hand sich bewegt, aber es
gibt keinerlei Bewegungsempfindung im Phantom.”
„Öffnen Sie Ihre Augen.”
„Oh ja – jetzt bewegt es sich wieder.”8
dende theoretische Punkt ist das, was Philosophen
manchmal „phänomenale Transparenz“ nennen.10
Die vom System eingesetzten repräsentationalen
Zustände sind transparent, d. h. sie stellen die Tatsache, dass sie Modelle sind, nicht mehr auf der Ebene
ihres Gehalts dar. Deshalb schaut das System durch
seine eigenen repräsentationalen Strukturen „hindurch“, als ob es sich in direktem und unmittelbarem
Kontakt mit ihrem Inhalt befände. Transparenz in
dem hier definierten Sinne ist ausschließlich eine
Eigenschaft bewusster Zustände, unbewusste Repräsentationen sind also weder transparent noch opak.
Ich vertrete zwei kausale Hypothesen bezüglich der
Entstehungsgeschichte transparenter phänomenaler
Zustände. Erstens: Die fraglichen Datenstrukturen
werden so schnell und zuverlässig aktiviert, dass das
System sie introspektiv nicht mehr als solche erkennen kann, z. B. wegen des mangelnden zeitlichen
Auflösungsvermögens metarepräsentationaler Funktionen. Außerdem hat es – zweitens - allem Anschein
Abb. 2: Die „virtuelle Realitätskiste“
spiegelt dem Probanden eine zweite
Hand an der Stelle des Phantomglieds
vor.
FORSCHUNGSMAGAZIN ■ 1/2005
49
...... PHILOSOPHIE
nach keinen evolutionären Selektionsdruck auf die
entsprechenden Teile der funktionalen Architektur
gegeben. Der naive Realismus ist für biologische Systeme wie uns selbst eine funktional adäquate Hintergrundannahme gewesen. Diesen Gedanken muss
man nun im letzten Schritt wieder auf das Selbstmodell anwenden: Wir selbst sind Systeme, die erlebnismäßig nicht in der Lage sind, ihr eigenes subsymbolisches Selbstmodell als Selbstmodell zu erkennen.
Deshalb operieren wir unter den Bedingungen eines
„naiv-realistischen Selbstmissverständnisses“: Wir
erleben uns selbst, als wären wir in direktem und
unmittelbarem epistemischen Kontakt mit uns
selbst. Und auf diese Weise entsteht – das ist der
Kern der Selbstmodelltheorie – erstmals ein basales
„Ichgefühl“, ein für das betreffende System unhintergehbares phänomenales Selbst.
■ Summary
The self-model theory of subjectivity (SMT) is an interdisciplinary research program developing a representationalist and functionalist analysis of high-level
phenomenal properties like self-consciousness and
the emergence of a first-person perspective. This
takes place in combination with a search for the neural correlates implementing these properties in
humans. The central working hypothesis is that a phenomenal self emerges if a conscious information-processing system operates under an integrated and
transparent internal model of itself as a whole.
Literatur
1) Metzinger, T. (2003a;2 2004). Being No One. The Self-Model Theory of Subjectivity. Cambridge, MA: MIT Press.
2) Metzinger, T. (2005b). Précis of „Being No One“. In PSYCHE - An Interdisciplinary Journal of Research on Consciousness.
URL: http://psyche.cs.monash.edu.au/ Auch unter http://www.philosophie.uni-mainz.de/metzinger/
3) Metzinger, T. (2000c). Neural Correlates of Consciousness: Empirical and Conceptual Questions. Cambridge, MA: MIT
Press.
4) Metzinger, T. (1995b; 5., erweiterte Auflage 2005)[Hrsg.]. Bewusstsein - Beiträge aus der Gegenwartsphilosophie. Paderborn: mentis.
5) Metzinger, T. (2005). Die Selbstmodell-Theorie der Subjektivität: Eine Kurzdarstellung in sechs Schritten. In C. Herrmann,
M. Pauen, J. Rieger und S. Schicktanz (Hrsg.), Bewusstsein: Philosophie und Neurowissenschaften im Dialog.
Stuttgart: UTB/Fink.
6) Botvinick, M. & Cohen, J. (1998). Rubber hand “feels” touch that eyes see. Nature, 391: 756.
7) Ehrsson, H.H., Spence, C. & Passingham, R.E. (2004). That’s my hand! Activity in premotor cortex reflects feeling of
ownership of a limb. Science, 305: 875-7.
8) Ramachandran, V.S. & Blakeslee, S. (1998). Phantoms in the Brain. New York: William Morrow and Company, Inc.
9) Ramachandran, V.S. & Rogers-Ramachandran, D. (1996). Synaesthesia in phantom limbs induced with mirrors. Proceedings of the Royal Society London, B: 377-86.
10) Metzinger, T. (2003d). Phenomenal transparency and cognitive self-reference. Phenomenology and the Cognitive
Sciences, 2: 353-393. doi:10.1023/B:PHEN.0000007366.42918.eb
Univ.-Prof. Dr. phil.
Thomas Metzinger
THOMAS METZINGER, Jahrgang 1958, studierte Philosophie an der Universität Frankfurt und habilitierte
sich 1993 in Giessen. Er war der erste Fellow des
Hanse-Wissenschaftskollegs in Bremen-Delmenhorst
und kehrte 1999 nach einem einjährigen Forschungsaufenthalt an der University of California at San Diego an die Universität Osnabrück zurück, wo er eine
Professur für Philosophie der Kognitionswissenschaft
innehatte. Metzinger wird der nächste Präsident der
Deutschen Gesellschaft für Kognitionswissenschaft
50
sein, er ist Vorstandsmitglied der Association for the
Scientific Study of Consciousness, Senior Member des
McDonnell Project in Philosophy and the Neurosciences und Adjunct Fellow am Frankfurt Institute
for Advanced Study. Im Jahr 2000 nahm er einen Ruf
auf eine C4-Professur an der Johannes GutenbergUniversität Mainz an.
■ Kontakt:
Univ.-Prof. Dr. phil. Thomas Metzinger
Johannes Gutenberg-Universität Mainz
Philosophisches Seminar
Jakob-Welder-Weg 18
55099 Mainz
Tel. +49 (0) 6131 39-23279
Fax +49 (0) 6131 39-25141
E-Mail: [email protected]
http://www.philosophie.uni-mainz.de/metzinger
PHILOSOPHIE
Bildhaftes Vorstellen, Denken und Simulieren
Von Verena Gottschling
Die Idee von bildhaftem Denken wird seit der Antike
diskutiert. Schon Aristoteles billigte Bildern in der
Kognition eine zentrale Rolle zu. Die Konzentration
auf die Sprachphilosophie und die Entstehung der
Psychologie als eigene Disziplin führten Anfang des
letzten Jahrhunderts dazu, dass Denken vor allem als
sprachliches Denken verstanden und die Frage
anschaulichen Denkens vernachlässigt wurde. In frühen psychologischen Versuchen wurden Personen
zunächst lediglich nach ihren introspektiven Eindrücken befragt und direkt auf Realisierungen im
menschlichen Gehirn geschlossen. Gaben die Personen also an, die Aufgaben mittels bildhafter Vorstellungen zu lösen, ging man von der Existenz von Bildern im Gehirn aus. Aus heutiger Sicht ist dieser
Schluss nicht zulässig. Die Auseinandersetzung um
bildhaftes Denken wurde dann einige Zeit in der Literatur kaum weiterentwickelt. In modernem kognitions- und neurowissenschaftlichem Gewand hat diese Debatte unter dem Schlagwort „Imagery Debatte“ eine Renaissance erlebt. Ausgelöst wurde dies
durch Experimente kognitiver Psychologen, die Hinweise auf ein – bildartiges – internes Repräsentationsformat zu geben scheinen.
Allerdings unterscheidet sich die klassische philosophische Debatte von der Imagery Debatte. In der
modernen Debatte wird zugestanden, dass bildhaftes Vorstellen mit der subjektiven Erfahrung einhergeht, die der des Wahrnehmens sehr ähnlich ist; kurz,
dass es sich „so anfühlt“, als würden wir Bilder
betrachten. Der strittige Punkt ist, was für Arten
mentaler Repräsentationen während dieser Prozesse
verwendet werden. Erzwingen die empirischen
Ergebnisse von Psychologen und Neurowissenschaftlern das Zugeständnis, mentale bildhafte Repräsentationen - kurz „Images“ - zu postulieren – oder legitimieren sie deren Postulierung zumindest? Und
wenn dies zugestanden wird, was genau sind die
Eigenschaften dieser Repräsentationen, die es erlauben, sie als „bildhaft“ zu bezeichnen?
Seit etwa Mitte der 80er Jahre ist es mit den neuen
bildgebenden Verfahren möglich geworden, die
Gehirnaktivitäten direkt zu messen. Philosophisch ist
vor allem interessant, was sich aus diesen Ergebnissen darüber, wie bildhaft menschliches Denken funktioniert, tatsächlich ableiten lässt.
Zentral für die Diskussion der Möglichkeit bildhaften Denkens sind zwei Aspekte: Erstens die Formatfrage, also die Frage nach der Bildartigkeit der internen Repräsentationen, die wir beim Denken benutzen; zweitens die Frage, ob und wie sehr die Repräsentationen im Denken identisch mit den entsprechenden perzeptuellen Repräsentationen sind oder
ob die beim Vorstellen zugrunde liegenden Reprä-
sentation „post-perzeptuelle“ Repräsentationen
sind. Sind in einer imaginierten Situation und ihrer
visuell wahrgenommenen Entsprechung dieselben
internen perzeptuellen Repräsentationen beteiligt?
Beide Fragestellungen sind im Prinzip unabhängig
voneinander. Es wäre möglich, dass die zugrunde liegenden Repräsentationen perzeptuell sind, aber dass
nicht „bildhaft“ repräsentiert wird. Tatsächlich aber
hat sich herausgestellt, dass beide Fragestellungen
eng miteinander verwandt sind, da sich zeigen ließ,
dass die topographische Organisation eine wichtige
Rolle in bestimmten Ebenen visueller Areale spielt.
Insofern lässt sich die zweite Frage inzwischen insoweit bejahen, als von Psychologen und Neuropsychologen nachgewiesen wurde, das tatsächlich Aktivierungen in diesen topographischen Arealen des visuellen Systems aktiv sind, wenn Menschen sich etwas
vorstellen oder etwas sehen. Es wäre jedoch verfrüht, hieraus zu schlussfolgern, man habe die fraglichen Bilder im Geiste gefunden und die philosophische Debatte sei beendet.
Mit neuen bildgebenden
Verfahren können Gehirnaktivitäten direkt gemessen
werden. Philosophisch ist vor
allem interessant, was sich aus
den Ergebnissen dieser
Messungen tatsächlich über
menschliches Denken ableiten
lässt.
Die Imagery Debatte
In der Imagery Debatte geht es darum, ob es notwendig ist, neben den sprachartigen oder symbolischen Repräsentationen eine andere Art mentaler
Repräsentationen zu postulieren, bildhafte Repräsentationen oder Images. „Piktorialisten“ und ihr führender Vertreter Stephen Kosslyn behaupten, dass
unsere subjektive Erfahrung in die richtige Richtung
weist. Es gibt gute Gründe anzunehmen, dass es
bildhafte mentale Repräsentationen gibt. Zenon
Pylyshyn und mit ihm die meisten Philosophen glauben, dieses Zugeständnis sei unnötig; diese
„Deskriptionalisten“ argumentieren, die Ergebnisse
ließen sich auch mit den ohnehin postulierten symbolischen Repräsentationen erklären. Mehr noch, der
Piktorialismus sei inkonsistent. Auch viele Gegenwartsphilosophen beurteilen die modernen „Bildertheorien“ des Geistes negativ. Bilder scheinen nicht
die richtigen Entitäten zu sein, die wir für Theorien
des Geistes benötigen. Dafür gibt es viele Gründe.
Der Gehalt mentaler Repräsentationen wird als
begrifflich und kompositional verstanden. Bilder
scheinen einen solchen Gehalt nicht zu besitzen.
Dabei ist wichtig, zwei Arten von Bildertheorien zu
unterscheiden. In gleichberechtigten Theorien werden zwei gleichstufige Repräsentationsformate
angenommen. Die schwächere Behauptung wird in
hierarchischen Theorien vertreten; hier wird behauptet, ein Format – üblicherweise das bildhafte – sei
dem anderen untergeordnet. Hierarchische Bildertheorien müssen als erfolgversprechender gelten.
FORSCHUNGSMAGAZIN ■ 1/2005
51
......
...... PHILOSOPHIE
Doch auch für diese Arten von Bildertheorien
scheint sich automatisch das Homunkulusproblem
zu ergeben: Externe Bilder müssen interpretiert werden. Wer interpretiert und analysiert mentale Bilder?
Ein kleiner Homunkulus im Kopf? Wer interpretiert
dessen Images? Das zugrunde liegende Bild wurde
sehr anschaulich als „Cartesisches Theater“ bezeichnet. Vertreter einer erfolgreichen Bildertheorie können nicht einfach behaupten, dass es eine interne
Bühne gibt, auf der Information präsentiert und uns
bewusst wird. Diese übervereinfachte Auffassung ist
in jedem Fall zu vermeiden.
Begriffliche Mehrdeutigkeit in den
Bildertheorien
Bei genauerer Analyse zeigt sich allerdings, dass die
so gegensätzliche Bewertung der Bildertheorien in
verschiedenen Missverständnissen begründet ist. Der
zentrale Begriff „Image“ wird in den verschiedenen
Disziplinen, aber auch von verschiedenen Wissenschaftlern und in verschiedenen Ansätzen unterschiedlich und zudem miteinander unverträglich verwendet (Abb. 1). Insbesondere müssen die Postulierung lediglich funktionaler Images (funktionale Lesart, FLA) und die von „echten“ bildhaften Repräsentationen („real picture“-Lesart, RPLA) unterschieden
werden. Die zweite Behauptung ist stärker und identifiziert das Medium bildhafter Repräsentation mit
retinotop repräsentierenden Arealen im primären
visuellen Kortex oder in höheren visuellen Arealen.
Die schwächere Lesart des Piktorialismus besagt nur,
dass die entsprechenden Repräsentationen in ihrer
Funktion in den Prozessen Bildern in gewisser Weise
ähneln, sie seien jedoch nicht wirklich „bildhaft“
oder „räumlich“. Beide Lesarten des Piktorialismus
haben unterschiedliche Schwachpunkte. Die funktionale Lesart muss eine Erklärung liefern, was „funktionale Bilder“ und „funktional räumliche Repräsentationen“ sind. Ein Piktorialismus in der stärkeren
Lesart scheint unweigerlich in das Homunkulusproblem zu geraten.
Tatsächlich sind beide Strategien nicht aussichtslos. Michael Tye hat einen vielversprechenden Ansatz
vorgeschlagen, der von der Künstlichen Intelligenz
(KI) inspiriert ist, allerdings ebenfalls sehr unterschiedlich verstanden werden kann (vgl. FLA in Abb.
1). Die Kernidee ist die, dass räumliche Entfernungen
implizit repräsentiert werden, indem mehrfach jeweils die Nachbarzellen der Ausgangszelle bestimmt
werden. Andere bildhafte Eigenschaften werden
symbolisch repräsentiert, d. h. es liegen hybride Repräsentationen vor. Meiner Meinung nach kann diese Grundidee ohne weiteres verbessert und erweitert
werden. Diese funktionale Interpretation des Piktorialismus hat allerdings ein wichtiges Zugeständnis
zur Folge: Beim bildhaften Vorstellen handelt es sich
nicht wirklich um Bilder; das Reden über interne Bilder ist eine weit gefasste Analogie.
Die zweite und stärkere Lesart ist die interessante:
Bilder wie auch perzeptuelle Repräsentationen wer52
den durch topographische Abbildungen im menschlichen visuellen Kortex identifiziert. Dennoch ist diese
Lesart nicht auf eine reduktionistische Position
bezüglich des Leib-Seele-Problems festgelegt, anders
als vielfach von Philosophen angenommen wird (vgl.
Lesarten der RPLA in Abb. 1). Man ist nicht verpflichtet, die Images und ihre neuronale Realisierung im
Sinne einer Typ-Identität zu identifizieren. Auch wird
hier nicht einfach die Erklärungsebene von der funktional charakterisierten Ebene mentaler Repräsentation hin zu Eigenschaften des Gehirns gewechselt.
Die Position des Psychofunktionalismus eröffnet eine
andere Möglichkeit. Im Psychofunktionalismus wird
die funktionale Analyse als wissenschaftliche Hypothese verstanden. Hierbei wird davon ausgegangen,
dass Images als mentale phänomenale Zustände mit
bestimmten funktionalen Rollen identifiziert werden
können. Die empirische Wissenschaft ist das Werkzeug, das wir nutzen können, um diese Zustände mit
bestimmten funktionalen Rollen zu korrelieren. Das
ist deswegen möglich, so die Annahme, weil die
funktionalen Komponenten anatomisch unterscheidbar sind. Deswegen spiegelt sich die funktionale
Organisation in der Organisation unseres Nervensystems wider. Damit wird angenommen, dass mentale
Zustände eine bestimmte funktionale Rolle spielen
und dass sie Informationen tragen. Um mehr über
diese Rolle und ihre Realisierung zu erfahren, sollten
wir das Gehirn erforschen. Dennoch werden mentale
Zustände nicht einfach mit Gehirnzuständen identifiziert. Hieraus folgt, dass die topographische Organisation in bestimmten Ebenen visueller Areale nicht
ausreicht, um den Schluss auf vorliegende „Bildartigkeit“ zu rechtfertigen. Zusätzlich muss gezeigt werden, dass diese Organisation eine Rolle für die ablaufenden Informationsverarbeitungsprozesse spielt.
Wenn benachbarte Neuronen nicht auf die richtige
Art miteinander verschaltet sind oder etwa gezeigt
werden kann, dass sie nicht adäquat Information
verarbeiten, spielt das spezielle räumliche Layout
nicht die geeignete funktionale Rolle.
Bildhaftes Vorstellen und Ebenen
der Wahrnehmung
Doch es gibt noch weitere Mehrdeutigkeiten in der
Verwendung von „Image“. Auch innerhalb der stärkeren Lesart werden als Images Repräsentationen
auf sehr unterschiedlichen Analyseebenen bezeichnet je nachdem, in welchen topographisch organisierten visuellen Arealen die Images vermutet werden. Visuelle Wahrnehmung wird als mehrstufiger
Prozess verstanden, der in drei relativ gut abgrenzbaren hierarchischen Ebenen stattfindet, die eng miteinander vernetzt sind. Der visuelle Kortex besteht
aus dem primären visuellen Kortex und einer Anzahl
weiterer kortikaler Areale, die unterschiedliche Arten
von Information analysieren, mehrere dieser Areale
sind topographisch organisiert.
Der Favorit unter Wissenschaftlern ist die Identifizierung der gesuchten Images mit Repräsentationen
Tatort
Greifstraße
Printmedien
und mehr . . .
Neueste Technologie
und Know-How.
Spannend.
Medientechnik,
Drucktechnik & Verlag GmbH
Greifstraße 4 · 65199 Wiesbaden
Tel.: (0611) 39699-0 · Fax (0611) 3969930
alle ISDN-Protokolle (0611) 932079
E-mail: [email protected]
www.dinges-frick.de
FORSCHUNGSMAGAZIN ■ 1/2005
53
...... PHILOSOPHIE
Gibt es mentale Repräsentationen?
Ablehnung des
Repräsentationalismus‘
Repräsentationalismus
Piktoralismus
Ja
Nein
Abb. 1: Moderne Bildertheorien:
Piktorialismus im Überblick
1 Manchmal werden auch zusätzlich Areale
im präfrontalen Kortex (PFC) erwähnt.
54
W-RPLA
RPLA
FLA(4‘)
FLA(3‘)
FLA(2)
FLA(1)
Pylyshyns
Deskriptionalismus
FLA
im primären visuellen Kortex (V1). Andere Wissenschaftler gehen davon aus, dass es sich um eine in
der Mitte gelegene Analyseebene (Areale in V2, V3,
V3A, V4) handelt, gelegentlich wurde auch die
höchste Analyseebene in der Wahrnehmung als die
fragliche Region (inferior-temporales Kortex (IT) im
ventralen System) identifiziert.1 Doch es gibt theoretische und empirische Gründe dafür, Images auf der
mittleren Ebene anzusiedeln. Repräsentationen auf
dieser Ebene sind intern strukturiert, wie auch unser
bewusstes Erleben haben sie einen intrinsisch visuellen Charakter, sie sind subjektzentriert. Gleichzeitig
ist ein ständiger Abgleich mit Information über räumliche Zusammenhänge notwendig. Diese Information
findet sich auf Ebenen der höheren Analyse und der
Objekterkennung.
Für eine möglichst erfolgreiche Bildertheorie sollten Images als intern strukturierte räumliche Repräsentationen verstanden werden, die dennoch modalitätsspezifisch sind, da sie aus einer Untermenge
neuronaler Aktivität bestehen, die mit der korrespondierenden visuellen Wahrnehmung assoziiert ist.
Zudem sind Images hybride Repräsentationen, sie
können symbolische Elemente enthalten. Auf diese
Weise besteht die Möglichkeit, mit einer untergeordneten Theorie den philosophischen Problemen zu
entgehen, die sich für Bildertheorien stellen. Beim
bildhaften Vorstellen sind mittlere Repräsentationen
notwendig involviert, aber Vermittlung von höheren
Ebenen spielt ebenfalls eine Rolle.
Thomas‘
„Radikaler
Piktoralismus“
Deskriptionalismus
Werden bildhafte mentale
Repräsentationen nur in
funktionalem Sinn postuliert?
Ja
Nein
...
Bildertheorien und Kognition
Bildhaftes Vorstellen wird als wichtige Fähigkeit verstanden, die beim Lernen, Simulieren von Ereignissen, für die Handlungsplanung und Kreativität, aber
auch für das Verstehen anderer eine wichtige Rolle
spielen soll.
Wir schreiben anderen tagtäglich Emotionen,
Überzeugungen und Wünsche zu und auf dieser
Basis erklären und prognostizieren wir ihr Verhalten.
Doch wie genau gelangen wir zu diesen Zuschreibungen? Welche Rolle spielen dabei „simulierte Bilder“? Es gibt in der Philosophie des Geistes zwei
konkurrierende Ansätze: die „Theorie-Theorie“ und
die Simulationstheorie. Erstere geht davon aus, dass
wir eine alltagspsychologische Theorie darüber
haben, wie Menschen sich verhalten. Diese Theorie
haben wir uns allmählich angeeignet; sie ist zumindest ausreichend mächtig, um Alltagsverhalten zu
erklären. Der konkurrierende Ansatz der Simulationstheorie besagt, dass wir an uns simulieren, wie es für
den anderen sein muss, sich in besagtem Zustand zu
befinden. Wir lassen die entsprechenden neuronalen
Zustände „offline“ – also ohne Verursachung von
außen – ablaufen. Wir empfinden Mitleid mit einer
geschundenen Kreatur, weil wir uns in sie hineinversetzen und uns vorstellen, selbst geschlagen zu werden, nicht, weil wir eine abstrakte Theorie befragen,
wann man Mitleid mit anderen haben muss. Neurowissenschaftler untersuchen hierzu, ob sich die glei-
Quelle: Verena Gottschling, Bilder im Geiste. Die Imagery Debatte, Paderborn, mentis 2003, S. 308.
Nein
S-RPLA
Gibt es bildhafte
mentale
Repräsentationen?
Ja
PHILOSOPHIE
chen Gehirnaktivierungsmuster in der Wahrnehmungs- und der entsprechenden offline-Aktivierung
ergeben. Mit einer Bildertheorie der beschriebenen
Art ist man nicht auf einen der beiden Ansätze festgelegt, wenn auch die Simulationstheorie zu vertreten nahe liegt. Doch selbst innerhalb der Gruppe der
Simulationstheoretiker wird die Rolle perzeptueller
Simulationen als lediglich untergeordnet betrachtet.
Doch diese Einschätzung beruht auf einem Missverständnis, das sich einem veralteten Verständnis dessen verdankt, was Images eigentlich sind. Denn Images sind nicht einfach „simulierte Bilder“, sondern
hybride Repräsentationen mit komplexer Funktion.
Deshalb ist die Rolle, die perzeptuelle Repräsentationen in der Kognition – etwa beim Verstehen anderer
Menschen und der Simulation von Situationen –
spielen können, bedeutsamer als zumeist angenommen wird. Die Missverständnisse um das, was in Bildertheorien behauptet wird, haben auch hier ihre
Spuren hinterlassen.
Dr. phil.
Verena Gottschling
VERENA GOTTSCHLING hat Philosophie, Linguistik
und Informatik an den Universitäten Tübingen und
München studiert. Sie war Mitglied und Stipendiatin
des Graduiertenkollegs Kognitionswissenschaft (Philosophie, Psychologie, Informatik) an der Universität
des Saarlandes und Austauschwissenschaftlerin am
Philosophy-Neuroscience-Psychology Program an
der Washington University in St. Louis (USA). 2002
promovierte sie an der Johannes Gutenberg-Universität Mainz. Seit Juni 2003 ist Verena Gottschling
Wissenschaftliche Mitarbeiterin im Arbeitsbereich
Logik und Wissenschaftstheorie im Philosophischen
Seminar der Universität Mainz und seit April 2005
zudem „Visiting Fellow“ am King’s College in London. Sie arbeitet im Bereich Philosophie des Geistes,
insbesondere im Bereich der Philosophie der Psychologie und der Neurowissenschaften, sowie zur Philosophie der Biologie.
■ Summary
The idea of pictures in cognition has been around
since antiquity. Recently, we have witnessed a revival
of this debate in Cognitive Science and Neuroscience, i.e. the modern imagery debate. In the literature, however, the concept of mental image is an
umbrella term used to describe a variety of different
kinds of representations. In fact, what we are talking
about is mainly a special kind of spatial representation, which can also contain symbols, i.e. the mental
image is a mixed concept. Secondly, we must clearly
distinguish functionally represented spatial relations
from stronger reading, which interprets spatial relations as represented by physical isomorphism. I argue
for a view that sees the neural correlate of images at
an intermediate level, but maintains in addition the
claim that high-level activation is necessary. This characterization gives us the most promising version of
a philosophical picture theory.
■ Kontakt:
Dr. phil. Verena Gottschling
Johannes Gutenberg-Universität Mainz
Philosophisches Seminar
Jakob-Welder-Weg 18
55099 Mainz
Tel. +49 (0) 6131 39-22788
Fax +49 (0) 6131 39-25141
E-Mail: [email protected]
Tra nsfus io nsze ntrale Mainz
Klinikum der Johannes Gutenberg-Univ ersit ät
Hoch hau s Aug ust usp la tz
55 101 M ainz - Tel. 0 613 1-173 216
Montag, Mittwoch
Dienstag, Donnerstag
Freitag
Samstag
8.00
8.00
8.00
8.00
-
16.00
18.00
15.00
11.00
Uhr
Uhr
Uhr
Uhr
Alle, die 18 bis 65 Jahre alt sind
und mind. 50 Kilogramm wiegen
FORSCHUNGSMAGAZIN ■ 1/2005
55
......
...... WEITERE PARTNER DER UNI
Günstig, komfortabel und umweltfreundlich. Das ist Fernwärme.
Das Heizkraftwerk Mainz liefert sie in
weite Teile des Stadtgebiets – und das
seit über 40 Jahren.
Heizkraftwerk GmbH Mainz
Gaßnerallee 33
55120 Mainz
Telefon 06131/976-470
www.fernwaerme-fuer-mainz.de
- Naturarzneimittel
- Impfstoffe
- Gesundheitsberatung
- Bluttests
- Kosmetik
- Internationale Arzneimittel
Freunde der Universität Mainz e.V.
Freunde
der Universität
Mainz e.V.
Die Vereinigung
” fördert Forschung und Lehre
” hilft bei der Finanzierung von Forschungsprojekten,
wissenschaftlichen Veranstaltungen und bei der
Anschaffung von Geräten und Büchern
” gewährt Promotionsstipendien und verleiht
Forschungspreise
” ist bemüht, für die im Jahre 2000 eingerichtete Stiftungsprofessur Persönlichkeiten von internationalem
Renommee jeweils im Sommersemester zu einer
Vorlesungsreihe zu gewinnen
” pflegt die Verbundenheit zwischen der Hochschule, der
Stadt Mainz und dem Land
” ist Träger des Kinderhauses „Villa Nees“, das Kinder von
Angestellten des Klinikums betreut.
Werden Sie Mitglied!
1. Vorsitzender: Dr. Hans Friderichs, Bundesminister a.D.
2. Vorsitzender und Geschäftsführer: Kurt Roeske, Oberstudiendirektor i.R.
Freunde der Universität Mainz e.V.
Ludwigstraße 8-10 · D-55116 Mainz
Tel.: +49 (0) 6131 – 203339
Fax: +49 (0) 6131 – 203536
56
Klavier- und
Flügelstimmungen
Reparaturen
E. BREITMANN
Orgel- und Klavierbau GmbH
Nieder-Olm
Backhausstraße 11 · Tel. 0 61 36 / 81 42 99
Mein Garten – ein Ort,
der Quelle des Lebens ist.
Büro: Schildweg 8 · 55271 Stadecken-Elsheim
Telefon: (06136) 13 26 · Telefax: (06136) 33 26
Pflanzenverkauf: Mo-Fr 9-19 Uhr, Sa 9-16 Uhr
Fasanenstraße 2 · 55271 Stadecken-Elsheim · Tel.: (06136) 92 44 16
„G LOKALISIERUNG :
H EIMVORTEIL PLUS
W ELTOFFENHEIT.“
Die Kundenbetreuer der LRP
Das Zusammenwachsen der Märkte
im weltweiten Maßstab birgt Chancen
und Risiken gleichermaßen. Maßgeblich
für den Erfolg: das feste Standbein im heimischen Markt. Know-how und Erfahrung vor
Ort überregional zu nutzen ist ein Geschäftsprinzip, das die LRP Landesbank Rheinland-Pfalz
gemeinsam mit den Sparkassen verfolgt. Global und
lokal zugleich, kurz: glokal. Eine Eigenschaft, die dem
typischen Mainzer seit Gutenbergs Zeiten zu Eigen ist
und damit auch unseren Marktauftritt erfolgreich prägt.
Sprechen Sie mit uns. Telefon (0 61 31) 13 - 01 oder www.lrp.de
Herunterladen