Kopenhagen, eine verpasste Gelegenheit?

Werbung
Nr. 63 – April 2010
Europäische Kommission
Reportage
„Meine Stimme begleitet Sie“
Energie
Laser- und Fusionstechnologie –
ein perfektes Bündnis?
ISSN 1830-737X
Magazin des Europäischen Forschungsraums
© Shutterstock/Robert HM Voors
Klima
Kopenhagen,
eine verpasste
Gelegenheit?
research*eu, das Magazin des Europäischen Forschungsraums, will zur Erweiterung der demokratischen Debatte
zwischen Wissenschaft und Gesellschaft beitragen. Es wird von unabhängigen Journalisten verfasst und analysiert
und stellt Forschungsprojekte, Ergebnisse sowie Initiativen vor, deren Akteure, Frauen und Männer, zur Stärkung
und Bündelung der wissenschaftlichen und technologischen Exzellenz Europas beitragen. research*eu wird auf
Deutsch, Englisch, Französisch und Spanisch vom Referat Information und Kommunikation der GD Forschung der
Europäischen Kommission herausgegeben. Es erscheint zehnmal im Jahr.
research*eu
Chefredakteur
Michel Claessens
Lektorat der Sprachversionen
Gerard Bradley (EN), Tonia Jiménez-Nevado
(ES), Regine Prunzel (DE)
Allgemeine Koordination
Jean-Pierre Geets, Charlotte Lemaitre
Redaktion
Jean-Pierre Geets
Viele Wissenschaftler behaupten, dass Wissenschaft und Medien nicht gut zusammenpassen. Vereinfachungen bis hin zur Fälschung, Übertreibungen, Fehler: Wissenschaftsjournalismus, so diese Wissenschaftler, habe nicht viel zu tun mit „echter“
Wissenschaft. Er sei bestenfalls eine Karikatur.
Dem ist jedoch nicht so. Indem Journalisten Forschungsergebnisse in eine verständliche Alltagssprache übertragen, tragen sie dazu bei, das Bild der Wissenschaft in
der Öffentlichkeit zu vervollständigen, es lebendiger und menschlicher zu machen.
Das tun sie ganz besonders, wenn sie über aktuelle Forschungsarbeiten berichten und
die Experten ins Rampenlicht stellen.
Ein besonders anschauliches Beispiel ist die Diskussion über den Klimawandel, das zentrale Thema dieser
Ausgabe. Gerade hier leisten Journalisten etwas, was Wissenschaftlern heute am meisten fehlt: Sie machen die
Probleme für die Öffentlichkeit und die Politik sichtbar. Ohne die Hilfe der Medien, ohne die Arbeit der Wissenschaftsjournalisten, hätte der Weltklimarat sicherlich nie die Aufmerksamkeit der Politiker gefunden. Das sieht auch
sein Vorsitzender, Rajendra Kumar Pachauri, so. In einem Beitrag, der im Juni auf der Website SciDev (Réseau Sciences et Développement) veröffentlicht wurde, erklärte er: „In den letzten Jahren haben die Medien eine ganz wesentliche Rolle bei der weltweiten Sensibilisierung der Öffentlichkeit für die Folgen des Klimawandels gespielt. Das ist
eine sehr gute Sache. Es ist also keineswegs übertrieben, wenn man sagt, dass die Medien dazu beigetragen haben,
die öffentliche Meinung für die Unterstützung der Maßnahmen gegen den Klimawandel zu gewinnen.“
Dass wissenschaftliche Arbeit nicht umsonst ist, sondern der Gesellschaft Nutzen bringt, ohne ihr zu schaden,
davon träumt jeder Wissenschaftler. Und dazu leistet der Wissenschaftsjournalismus seinen Beitrag.
Michel Claessens
Chefredakteur
Die in diesem Editorial und den Artikeln wiedergegebenen Meinungen sind
nicht bindend für die Europäische Kommission.
Unter folgender Website können Sie das Magazin research*eu kostenlos abonnieren oder Ihr vorhandenes
Abonnement ändern/abbestellen: http://ec.europa.eu/research/research-eu/subscribe_de
Auf dieser Seite können Sie auch ältere Ausgaben kostenlos bestellen.
Name:
.................................................................................................................................................................
Organisation: ........................................................................................................................................
Anschrift: ......................................................................................................................................................
...........................................................................................................................................................................................
PLZ: ................................................................ Stadt: ...............................................................................
Land: .....................................................................................................................................................................
Autoren
Audrey Binet, Laurence Buelens, Didier
Buysse, Élise Dubuisson, Stéphane Fay,
Jean-Pierre Geets, Elisabeth Jeffries,
Marie-Françoise Lefèvre, Annick M’Kele,
Christine Rugemer, Yves Sciama,
Julie Van Rossom
Übersetzungen
Andrea Broom (EN), Martin Clissold (EN),
Silvia Ebert (DE), Michael Lomax (EN),
Consuelo Manzano (ES)
Aus Platzgründen und aus Gründen der
Lesbarkeit wird in der deutschen Ausgabe
das generische Maskulinum verwendet.
Grafik
Gérald Alary (Projektleiter), Olivier Moulin
(Layout), Sophie Maertens (Koordination
und Produktion), Daniel Wautier
(Druckfahnenkorrektur FR),
Richard Jones (Druckfahnenkorrektur EN),
Sebastian Petrich (Druckfahnenkorrektur DE),
D. A Morrell (Druckfahnenkorrektur ES)
Bildauswahl
Christine Rugemer
Internetversion
Charlotte Lemaitre
Druck
Bietlot, Gilly (BE)
Gesamtproduktion
PubliResearch
Sie möchten die Druckversion von research*eu erhalten?
Sie können aber auch diesen Abschnitt ausfüllen
(bitte in Druckbuchstaben)
und an folgende Adresse zurückschicken:
research*eu
ML DG1201
Boîte postale 2201
L-1022 Luxembourg
Redaktioneller Berater
Didier Buysse
© Arion
Editorial
Nur eine Karikatur?
Gewünschte Ausgabe:
Französisch
Deutsch
Englisch
Spanisch
Wenn Sie mehrere Exemplare einer bestimmten
Ausgabe erhalten wollen, schicken Sie Ihre Bestellung
zusammen mit Ihrer vollständigen Anschrift und
einer kurzen Begründung bitte
• per E-Mail an:
[email protected]
• per Fax an: (+32-2-295 82 20).
Falls Sie ein oder mehrere Exemplare älterer
Ausgaben erhalten möchten, schicken Sie uns
eine kurze Nachricht per E-Mail oder per Fax.
Auf der Titelseite
Packeisschmelze.
©Shutterstock/Robert HM Voors
Um eine nachhaltige Bewirtschaftung
unserer Wälder zu gewährleisten, wurde
dieses Magazin auf PEFC-zertifiziertem
(Programme for the Endorsement of Forest
Certification schemes) Papier gedruckt.
Auflage dieser Nummer: 126 000
Alle Ausgaben von research*eu sind auch
auf der Website der GD Forschung zu finden:
http://ec.europa.eu/research/research-eu
Verantwortlicher Redakteur:
Michel Claessens
Tel.:
+32 2 295 99 71
Fax:
+32 2 295 82 20
E-Mail: [email protected]
© Europäische Gemeinschaften, 2010
Nachdruck mit Quellenangabe gestattet.
Weder die Europäische Kommission noch
irgendeine Person, die im Namen der
Kommission handelt, sind für die Verwendung der in dieser Publikation enthaltenen
Informationen oder für eventuelle, trotz
der sorgfältigen Vorbereitung der Texte
noch vorhandenen Fehler verantwortlich.
INHALT
4 In Kürze
Im Trend
DOSSIER KLIMA
20 In Kürze
Neues aus Europa.
Forschung unter dem Mikroskop.
Interview
24 Auszeichnung eines „Grundlagenforschers“
Interview mit Harald zur Hausen, Nobelpreisträger in Medizin, dessen Entdeckung des
HPV die erste präventive Impfung gegen
Gebärmutterhalskrebs ermöglicht hat.
Porträt
34 Der Algorithmus der Götter
Der hervorragende Forscher und passionierte
Geschäftsmann, Stephen Wolfram,
hat die Welt der Wissenschaft mit seinen
Theorien und Arbeitsmethoden erschüttert.
Strafvollzug
Reportage
Interview
8 „Angesichts der Ausmaße des Problems
haben wir entsetzlich wenig getan“
Gespräch mit Jean-Pascal van Ypersele,
Vizepräsident des IPCC, Professor
am Institut für Astronomie und Geophysik
der Katholischen Universität Löwen (BE).
Ozeane
10 Die Ozeane versauern
Im Schatten der Klimaerwärmung schreitet
ein weiteres Phänomen voran, das durch
CO2-Emissionen des Menschen hervorgerufen
wird: die Versauerung der Ozeane.
Verkehr
12 Benzin und Diesel ade
Ein Blick auf das NEMO-Projekt, das sich
die Herstellung von Biokraftstoffen der
zweiten Generation aus pflanzlichen
Abfällen vorgenommen hat.
26 „Meine Stimme begleitet Sie“
Anästhesie unter Hypnose wird seit mehr als
fünfzehn Jahren in Belgien praktiziert. Blick
auf eine Technik, die inzwischen nicht mehr
umstritten ist.
Klimaskepsis
17 „Jeder Wissenschaftler muss auch
Skeptiker sein“
Welche Argumente haben die Klimaskeptiker,
jene Wissenschaftler, die sich gegen die
meisten Klimaspezialisten auflehnen?
Geisteswissenschaften
Neurowissenschaften
30 Blick hinter die Kulissen der Werkstatt
des Glücks
Die Forscher der TrygFonden Research Group
haben versucht, das Wesen des Glücks
zu verstehen, um Menschen zu helfen,
die diese Gefühle nicht kennen.
Energie
38 Woher stammt religiöses Denken?
EXREL oder wie europäische Wissenschaftler
die Ursprünge der Religion erklären und ihre
Entwicklungen vorherzusagen versuchen.
40 In Kürze
Wissenschaft griffbereit. Pädagogische Ecke.
Veröffentlichungen. Nachwuchsforscher.
Meinung.
Klimamodelle
14 Die Diagnosewerkzeuge
Die wissenschaftlichen Voraussagen zum
europäischen Klima haben eine bisher unerreichte Detailgenauigkeit erreicht. Und zum
ersten Mal liegen auch Methoden vor, mit
denen die Genauigkeit bewertet werden kann.
36 Die Auswüchse der Gefängniswelt
Die Überbelegung der Gefängnisse, das
soziale Gefälle, neue Formen der Kriminalität.
Siegt der Strafvollzugsstaat über den
Wohlfahrtsstaat? Die meisten Kriminologen
zweifeln nicht mehr daran.
Bild der Wissenschaft
32 Laser und Fusion – die perfekte Allianz?
Der Zugang zu sauberer und unerschöpflicher Energie ist das ehrgeizige Ziel der
Projekte PETAL und HIPER auf dem Gebiet
der kontrollierten thermonuklearen Fusion.
44 Kurz vor dem Ausbruch
research*eu Nr. 63 | APRIL 2010
3
IN KÜRZE
Europa auf der
Suche nach seinen
Vorfahren
© Joachim Burger
Auf der Suche nach unseren
Wurzeln mithilfe von Gentests
scheinen sich genauso viele
Geheimnisse vor uns aufzutun
wie gelöst werden. Bereits im
Jahr 2005 wiesen Forscher des
Instituts für Anthropologie der
Johannes Gutenberg-Universität in
Mainz (DE) nach, dass die ersten
Bauern Europas nicht die direkten
Vorfahren der modernen Europäer
waren. Anschließend verglichen
sie in einer neuen Studie die
DNA dieser Bauern mit jenen
der letzten Jäger und Sammler,
die Europa nach der Eiszeit
bewohnten. Doch auch hier ließ
sich keine Verbindung zu den
ersten Bauern feststellen, genauso
wenig zur heutigen europäischen
DNA-Analyse in einem Labor der
Universität Mainz.
Bevölkerung. Damit stammt der
moderne Europäer von keiner
dieser beiden Gruppen ab, auch
nicht aus einer Mischung dieser
beiden, weil bestimmte gemeinsame DNA-Abschnitte in den untersuchten Skeletten fehlten. Was
nun? Die Frage bleibt offen.
4
research*eu Nr. 63 | APRIL 2010
Doch mithilfe der Forschung ist
es gelungen, erste Antworten
auf die Frage, wie der Europäer
sesshaft wurde, zu finden. Lange
Zeit glaubte man, dass die ersten
Bauern ehemalige Jäger und
Sammler waren, die allmählich
sesshaft werden wollten. Da es
aber überhaupt keine Verbindung
zwischen diesen beiden Gruppen
gibt, müssen die Bauern von
woanders her gekommen sein.
Den Forschern ist die Lokalisierung und Datierung dieser
Einwanderung gelungen: Diese
Menschen stammten aus den
Karpaten rund 7 500 Jahre vor
unserer Zeit. Und dieser Ursprung
bringt sie auch den Regionen
näher, in denen die ersten
Menschen sesshaft waren:
im Osten und in Kleinasien.
www.uni-mainz.de
Stickstoff gefährdet
Wüsten
Forscher der amerikanischen
Cornell-Universität in New Jersey
(US) haben eine Entdeckung
gemacht, die uns gerne erspart
geblieben wäre: Stickstoffverlust in
trockenen Böden. Ihre in der
Mojave-Wüste im Westen der USA
durchgeführten Versuche zeigen,
dass der Wassermangel in Kombination mit hohen Temperaturen zum
Stickstoffverlust in Gasform führt.
Da Wasser und Stickstoff zwei
zentrale Elemente für die biologische Aktivität der Böden sind,
bedeutet dies, dass die Vegetation
in trockenen Gebieten noch ärmer
wird. Damit nährt dieses Phänomen
einen Teufelskreis. Die Stickstoffgase
führen zur Erhöhung der Ozonkonzentrationen in der Troposphäre, die
die Luft verschmutzen und vor allem
den Treibhauseffekt antreiben.
Damit tragen sie auch zur Erwärmung bei, die für den Klimawandel
verantwortlich ist, und zur
Abschwächung der Regenfälle
in diesen Regionen.
Bisher wurde diese Form des
abiotischen, nicht biologischen
Verlusts in der Berechnung der
Stickstoffbilanz noch niemals
berücksichtigt. Deshalb bestanden
die Wissenschaftler darauf,
diesen neuen Faktor in die Klimamodelle zu integrieren.
www.news.cornell.edu
Welches ist
das schönste
Schweinchen?
Wenn sich ein Schwein im Spiegel sieht, wird es sich wahrscheinlich
auf seinen vermeintlichen Artgenossen stürzen. Das würde man
jedenfalls denken. Doch die Anthropozoologen – diese Disziplin
untersucht die Verbindungen
zwischen Mensch und Tier – der
Universität Cambridge (UK) sind da
anderer Meinung. Und um zu dieser
Erkenntnis zu gelangen, bedarf
es ein wenig Geduld.
Zwei Jahre lang sperrten die Wissenschaftler acht Schweine fünf Stun-
© Shutterstock/Anat-oli
IM TREND
den täglich in einen Stall mit einem
Spiegel. Anfangs waren die Tiere
von ihrem Spiegelbild genervt und
zerstörten den Spiegel jedes Mal,
wenn sie ihn sahen. Doch bald
schienen sie verstanden zu haben,
dass im Spiegel nur das Bild ihrer
Umwelt zu sehen war. Um dies zu
überprüfen, stellten die Forscher
einen Futtertrog in den Stall, und
verteilten mithilfe eines Ventilators
den Geruch. Der Trog war hinter
einem Schirm verborgen, jedoch im
Spiegel sichtbar. Mit Ausnahme
eines Tieres konnten alle Schweine
den Futtertrog innerhalb von
20 Sekunden lokalisieren.
Für den Studienleiter Daniel Broom
könnte diese Information vielleicht
zur Verbesserung der Lebensbedingungen von Zuchtschweinen
beitragen. Mit dieser intellektuellen
Fähigkeit reiht sich das Schwein
in den sehr kleinen Kreis der Arten
ein, die ein Bewusstsein für ihr eigenes Ich haben. Elefant, Orca, Delfin,
Graupapagei, Elster, verschiedene
Primaten und schließlich auch der
Mensch, sobald er nach seinem
18. Lebensmonat das Spiegelstadium durchlaufen hat, gehören zu
diesen wenigen Auserwählten.
www.vet.cam.ac.uk/research/
Escherichia Coli.
Kooperation
oder Tod
Eine französisch-portugiesische
Forschergruppe des PasteurInstituts (FR) und der Universität
Lissabon hat anhand des E. ColiBakteriums untersucht, wie
Bakterien miteinander kooperieren. Ihre Studie wurde in der
Fachzeitschrift Current Biology
veröffentlicht. Dieses Bakterium
lebt in der Darmflora und verträgt
sich mit dem menschlichen Organismus sehr gut. Doch sobald sich
die Interaktionen mit diesem oder
mit anderen Bakterien ändern,
kann es gefährlich werden. Sein
Sekretom – die Gesamtheit der
Proteine, von denen die vitalen
Funktionen abhängen – wird sehr
leicht von anderen Bakterien
ausgenutzt und zwar über den
horizontalen Gentransfer. Dabei
springen sehr mobile Gene, die
im Plasmid der Zelle kodiert sind,
von einem Organismus zum
anderen. Und dadurch wird E. Coli
zu einem möglichen Kollaborateur,
auch ohne sein Zutun.
Die Forscher wollten nun verstehen, warum dieses Phänomen
fortbesteht, obwohl es den helfenden Organismen keine besonderen
Vorteile bringt – jedenfalls, wenn es
diese nicht schädigt. Der Studie
zufolge ist dies durch einen
dreifachen Prozess zu erklären.
Zahlreiche Gene des Sekretoms
verfügen über das Merkmal
„Kooperation“. Sobald dieses auf
andere Organismen übertragen
wird, werden diese auch kooperativ. Um diese neue Population zu
erhalten, haben sie sich mit anderen Genen ausgestattet, die eine
Strafstrategie der Art „Kooperation
oder Tod“ verfolgen. Diese genetische Ähnlichkeit der infizierten
Individuen begünstigt die Weitergabe des Merkmals von einer
Generation zur nächsten über die
Verwandtschaftslinie. Die Untersuchung dieses Prozesses macht den
Weg frei für ein besseres Verständnis des Bakterienwachstums und
seiner möglichen Manipulationen.
www.cell.com/current-biology/
Babys mit Akzent
Aus früheren Studien wusste man
bereits, dass Babys die Sprache
bevorzugen, die sie bereits im
Mutterleib gehört haben. Heute
weiß man aber auch, dass die
Schreimelodien der Neugeborenen dieser Sprache entsprechen.
Eine Gruppe des Zentrums für
vorsprachliche Entwicklung und
Entwicklungsstörungen des
Würzburger Universitätsklinikums
(DE) hat die Schreimelodien von
30 französischen und 30 deutschen Neugeborenen untersucht.
Es scheint, dass die französischen
Neugeborenen ihren Schrei zum
Ende hin betonen, wie in der
französischen Sprache üblich,
wogegen die deutschen Babys
den Schrei am Anfang betonen.
Hier liegt natürlich kein Akzent im
wortwörtlichen Sinn vor, weil dieser
die Betonung der Wörter betrifft.
Die Studie bestätigt jedoch, wie
wichtig die Sprachmelodie beim
Spracherwerb ist, und zeigt deutlich, dass dieser bereits im Mutterleib beginnt, erst durch die
Wahrnehmung und dann durch
die Wiedergabe der gehörten
Melodien. Den Forschern zufolge
ist dies ein weiterer Hinweis, um
das Rätsel der Sprachentstehung
bei unseren Vorfahren zu lüften.
www.uni-wuerzburg.de/
Der Geruch
alter Bücher
Der typische Schimmelgeruch,
der den Charme alter Bücher
ausmacht, steht im Mittelpunkt
einer neuen Methode zur Bewertung der Alterung von Werken.
Die Methode wurde von einer
Gruppe englischer und slowenischer Forscher entwickelt und
in der Fachzeitschrift Analytical
Chemistry vorgestellt. Die Forscher
bezeichneten diese Methode
als „material degradomics“ (auf
Deutsch in etwa: „Kunde der
Materialauflösung“). Sie wurde am
University College London und an
der Universität Ljubljana entwickelt
und bietet im Vergleich zu konventionellen Methoden einen wesentlichen Vorteil: Sie ist zerstörungsfrei,
da sie ausschließlich den freigesetzten Geruch der analysierten
Dokumente untersucht.
Wenn Bücher altern, setzen sie
© Shutterstock/Valentin Agapov
© Inserm
© Shutterstock/Ngo Thye Aun
IN KÜRZE
flüchtige organische Verbindungen (FOV) frei, die den typischen
Geruch verursachen. Die Forscher
analysierten die FOV von 72 historischen Werken, deren Zusammensetzung charakteristisch für das
19. und 20. Jahrhundert ist. Es wurden 15 FOV mit dem häufigsten
Vorkommen als Marker für den
Verfall ausgewählt und statistisch
mit den Hauptbestandteilen des
Papiers (Harz, Lignin, Carbonyl)
und einigen chemischen Parametern, etwa dem pH-Wert, verglichen. Damit lieferte der Wert jedes
Markers den digitalen Abdruck
eines Buches zu einem bestimmten Zeitpunkt. Diese Information
könnte Museen und Bibliotheken
sowohl bei der Ermittlung des
Restaurationsbedürfnisses
von Büchern als auch bei der
Verbesserung der Restaurationstechniken unterstützen.
http://pubs.acs.org/journal/
research*eu Nr. 63 | APRIL 2010
5
DOSSIER KLIMA
Kopenhagen,
eine verpasste
Gelegenheit?
Der Weltklimarat (Intergovernmental Panel on
nur, weil es zur Neige geht – geht auch unsere
Climate Change, IPCC) musste 17 Jahre warten,
Geduld langsam ihrem Ende zu. Immer mehr
bevor seine Schlussfolgerungen in konkrete Zahlen
Forschungen werden zu anderen Energieformen
umgesetzt wurden, die berüchtigte Schwelle von 2 °C
durchgeführt. Und nach dem Fehlstart mit den
Temperaturanstieg. Auch wenn diese Zahl mit
Biokraftstoffen der ersten Generation, der uns
Vorsicht zu genießen sei, so der Vizepräsident des
ziemlich teuer zu stehen gekommen wäre, ist und
IPCC und Klimaforscher Jean-Pascal van Ypersele,
bleibt diese Energieform ein Hoffnungsträger.
sollte das Zwischenziel, das dadurch erreicht
wurde, nicht heruntergespielt werden. Heute werden
Doch es besteht dringender Handlungsbedarf.
die Regierungen auf der ganzen Welt inständig
Die Nachrichten zu den Auswirkungen der
zum Handeln und zur Überarbeitung ihrer Ziele
Klimaerwärmung auf die Ökosysteme häufen sich.
aufgefordert, die nicht ehrgeizig genug sind.
Bis vor Kurzem wusste man nicht, dass etwa
Kohlendioxid die Zusammensetzung des Meer-
Im Hinblick auf das Erdöl – der fossilen Energieform,
wassers so verändern würde, dass die Biodiversität
von der wir uns abwenden müssen, und zwar nicht
und die marinen Ökosysteme gefährdet werden.
6
research*eu Nr. 63 | APRIL 2010
Jetzt erst wurde die Versauerung der Meere
Die Ermahnungen für mehr politischen Willen
der Liste der Umweltprobleme hinzugefügt.
und eine komplette Überprüfung unserer
© CNRS Photothèque/Erwan Amice
Pinguine (Pygoscelis
adeliae) auf einem kleinen
Eisberg vor der AdelaideInsel (Antarktis).
Konsumgewohnheiten haben in den vergangenen
Die Zahlen werden verfeinert, die Klimamodelle
Jahren zugenommen, ohne jedoch die nötige
perfektioniert, die Voraussagen enthalten immer
Wirkung zu zeigen. Davon zeugen auch die
genauere Wahrscheinlichkeiten und werden gleich-
Vereinbarungen auf dem Klimagipfel in Kopenhagen
zeitig auch immer trüber. Die Wissenschaft macht
im vergangenen Dezember. Doch diese Ermah-
Fortschritte, ohne absolute Sicherheit zu geben, bleibt
nungen haben dazu geführt, dass wir endlich
also im Diskurs – und das ist auch gut so. Ein
das eine Ufer verlassen haben, an dem wir uns
Hinweis darauf sind auch die Wissenschaftler, die
befanden, als wir noch nichts von den Folgen
unter dem Begriff Klimaskeptiker zusammenge-
wussten und alles verschwendet haben. Jetzt müssen
fasst werden und die immer noch die menschliche
wir das andere Ufer erreichen.
Ursache der Erwärmung und/oder die Richtigkeit
der vorgeschlagenen Maßnahmen,um die Klimaänderungen zu bekämpfen, anzweifeln.
research*eu Nr. 63 | APRIL 2010
7
„Angesichts der Ausmaße
des Problems haben wir
entsetzlich wenig getan“
Jean-Pascal van Ypersele,
Vizepräsident des IPCC(1),
erklärt die wissenschaftliche
Sachlage zur Klimaerwärmung,
ohne die manchmal recht
ungewöhnliche politische
Jean-Pascal van Ypersele – „Die Physik des Klimas
Interpretation zu vergessen.
© Jacky Delorme (UCL)
DOSSIER KLIMA
INTERVIEW
hat nichts mit der politischen Agenda gemein.“
Zur Frage der Klimaerwärmung scheint Konsens
zu herrschen, doch ist es sicher, dass menschliche
Aktivitäten dazu beitragen?
Das Vertrauensniveau hinsichtlich der menschlichen Ursache des Phänomens ist sehr hoch
und steigt jedes Jahr. 1995 schrieb der IPCC:
„Verschiedene Elemente weisen darauf hin, dass
es einen spürbaren Einfluss menschlicher Aktivitäten auf das Klima gibt.“ 2007 wurde festgestellt,
dass der größte Anteil der Erwärmung in den
letzten 50 Jahren mit einer Wahrscheinlichkeit
von mehr als 90 % auf Treibhausgasausstöße
zurückzuführen ist, die durch den Menschen
verursacht werden.
Diese Sicherheit gründet auf zahlreichen Argumenten. Einerseits wurden große Fortschritte bei
der Klimamodellierung erzielt. Und andererseits
spielt die besondere Form der Erwärmung eine
Rolle: Typisch für sie ist eine erkaltende obere
Atmosphäre, weil die Treibhausgase einen Teil der
Wärme in der unteren Atmosphäre zurückhalten,
die sich ihrerseits sehr schnell aufheizt. Wenn die
Erwärmung etwa auf eine gesteigerte Sonnenaktivität zurückginge, dann wäre sie gleichmäßig und
vor allem stärker in der Stratosphäre zu spüren.
Außerdem kann man beobachten, dass sich die
Regionen um die Pole stärker erwärmen als an
8
research*eu Nr. 63 | APRIL 2010
den Wendekreisen, was die Erklärung durch den
Treibhauseffekt ebenfalls bestätigt.
Welche Folgen sollten grundsätzlich
angezweifelt werden?
Der letzte Klimabericht fasst die Folgen auf
mehreren hundert Seiten zusammen, angefangen
bei Ernteausfällen in der Landwirtschaft bis hin
zur Gesundheit. Ich möchte hier die Bedeutung
der hydrologischen Veränderungen hervorheben:
Die Modelle sehen die Austrocknung mehrerer
stark besiedelter Regionen voraus, darunter auch
des Mittelmeerbeckens, wo es bereits große Probleme aufgrund des Wassermangels gibt. Ein
weiterer Aspekt ist das Abschmelzen der Gletscher in den Anden und im Himalaja. Diese
stellen wichtige Wasserspeicher für Millionen von
Menschen dar, für die die Regenzeit nur wenige
Wochen bis Monate dauert. In der restlichen Zeit
werden die Flüsse durch die Gletscher gespeist.
Deshalb ist ihr vorprogrammiertes Verschwinden
sehr besorgniserregend.
Dasselbe gilt auch für den Anstieg des Meeresspiegels. Davon sind alle europäischen Küstengebiete betroffen, etwa die Niederlande, Belgien und
Deutschland. Die Bodenerosion wird schneller
fortschreiten, das Grundwasser wird versalzen,
große Sturmschäden sind zu befürchten. Im Nildelta leben etwa zehn Millionen Menschen nur
einen Meter über dem Meeresspiegel. Es ist ziemlich sicher, dass im Laufe dieses Jahrhunderts der
Meeresspiegel um mindestens einen halben Meter
ansteigen wird, vielleicht sogar um einen Meter.
Wohin sollen all diese Menschen?
Was soll man von der Risikoschwelle von 2 °C
Erwärmung halten?
Der Weltklimarat hat niemals behauptet, dass
diese Schwelle von 2 °C nicht überschritten werden darf, noch, dass die CO2-Konzentrationen in
der Atmosphäre auf unter 450 ppm (parts per
million) zu stabilisieren seien. Unsere Aufgabe –
die Nuance ist hier wichtig – ist es zu sagen, dass
man sich für dieses oder jenes Szenario auf diese
oder jene Erwärmung einigt, also auf die eine oder
andere Folge. Die Politiker müssen dann die
akzeptablen Folgen festlegen, weil dazu Werturteile notwendig sind, die nicht in das Ressort
der Wissenschaftler fallen. Der 2 °C-Wert kam
bei einer Sitzung des EU-Ministerrates auf. Er wurde dann im Klimabericht von 2001 sozusagen validiert, in dem das berühmte Diagramm Burning
Embers (glühende Kohlen) veröffentlicht wurde,
welches die Schwere der Folgen für verschiedene
Temperaturen zusammenfasste. Seine Farben
gingen von weiß bis rot bei 2 °C für die meisten
Folgen und das hat dazu geführt, dass sich diese
Ziffer im Gedächtnis festsetzen konnte, obwohl
sie auf mehr als zehn Jahre alten Daten beruht.
Wollen Sie damit sagen, dass die neusten
wissenschaftlichen Informationen diesen
Schwellenwert entkräften?
Auf Anfrage der Politiker wurden die Folgen
im Detail überarbeitet. Für die Autoren des
INTERVIEW
© ESO
DOSSIER KLIMA
Das Erdklima wird durch Sonneneruptionen – hier bei einer Sonnenfinsternis sehr gut sichtbar – sowie
von der Position der Erde zur Sonne
beeinflusst. Obwohl diese Parameter
in großen Zeitmaßstäben variieren,
reichen sie nicht aus, um den starken
Temperaturanstieg seit der industriellen
Revolution zu erklären.
Berichts von 2007, praktisch dieselben, die schon
2001 mitgewirkt hatten, sollten die Grenzwerte
um 0,5 °C gesenkt werden. Die neue Grafik
[Anm.d. Red.: siehe Artikel „Die Diagnosewerkzeuge“ in dieser Ausgabe] wurde nicht im Bericht
veröffentlicht, sondern 2009 in der amerikanischen Fachzeitschrift Proceedings of the National
Academy of Sciences (PNAS). Ich sagte bereits,
dass es mir als Vizepräsidenten des IPCC nicht
zusteht, eine Gefahrengrenze festzulegen. Allerdings kann ich sagen, sollten sich die Minister,
die sich vor 13 Jahren auf Grenzwerte von 2 °C
und 450 ppm geeinigt haben, heute auf der Grundlage derselben Kriterien Entscheidungen treffen,
würden sie sehr wahrscheinlich die Gefahrengrenze auf 1,5 °C und 350 ppm festsetzen.
Welche Wirkungen hätte eine solche Änderung
der Gefahrengrenze?
Derzeit gibt der IPCC keine Antwort auf diese Frage, weil das vorbildlichste Szenario, dass
er im Hinblick auf die Emissionen bewertet hatte, eine Erwärmung von 2 °C bis 2,4 °C annimmt.
Wir haben uns daher auf eine Verallgemeinerung
beschränkt, um eine Vorstellung von den Emissionen zu erhalten, die es uns ermöglichen, unter
1,5 °C zu bleiben. Ich denke, dass diese Lücke im
kommenden Bericht ausgeglichen wird – sollte
dies der Fall sein, müssten die Ziele zur Emissionssenkung noch strenger formuliert werden.
Haben die Politiker auf den IPCC seit seinem
letzten Bericht mehr gehört?
Es gab eine größere positive Wendung – und
das steht nicht im Widerspruch zu dem, was ich
Ihnen sagen möchte –, weil das 2 °C-Ziel vor
Kurzem zunächst auf dem G8- und dann auf dem
G20-Gipfel übernommen wurde. Das ist sehr
wichtig, trotz der Bedenken, die ich zu diesem
Wert angemeldet habe, weil man sich bis dahin
auf internationaler Ebene noch auf keinen Wert
geeinigt hatte. Und das ist das Schlimmste! Das
Rahmenübereinkommen der Vereinten Nationen
über Klimaänderungen, das 1992 kurz vor dem
Gipfel in Rio angenommen wurde, beschränkte
sich lediglich auf „die Stabilisierung der Konzentrationen von Treibhausgasen in der Atmosphäre
auf einem Stand, auf dem eine gefährliche vom
Menschen verursachte Störung des Klimasystems
verhindert wird.“ Was bedeutet, dass wir seit
17 Jahren ohne quantifiziertes und international
anerkanntes Ziel leben. Dass ein Wert angenommen wurde, ist ein riesiger Fortschritt, weil daraus
eine ganze Reihe anderer Werte folgen, insbesondere die Emissionsreduktionsziele.
Kann man sagen, dass die Arbeiten des IPCC
allmählich in politische Entscheidungen umgesetzt
wurden?
Nur dass die Interpretationen unserer Schätzungen oft selektiv sind. So haben wir gesagt,
um zwischen 2 °C und 2,4 °C Erwärmung zu liegen – und wohlgemerkt nicht unter 2 °C! –,
müsste unter Berücksichtigung wissenschaftlicher
Unsicherheiten der weltweite Ausstoß seinen
Höhepunkt „zwischen 2000 und 2015“ erreichen.
Manche haben sich bereits auf 2015 festgelegt,
und ich bedauere, dass der Europäische Rat vor
einigen Wochen diese Frist auf „vor 2020“ erweitert hat! Vielleicht weil das europäische Klimapaket mit dem Horizont von 2020 aufgestellt
wurde, doch die Physik des Klimas hat nichts mit
der politischen Agenda gemein.
Ein anderes Beispiel: Als kürzlich auf dem
G8-Gipfel das 2 °C-Ziel verabschiedet wurde, wurde dies mit einer „Senkung der globalen Emissio-
nen um 50 %“ gleichgesetzt, doch ohne das
Referenz-Jahr anzugeben, was bedeuten würde,
dass man sich auf aktuelle Emissionen bezieht.
In seinem Bericht hatte der IPCC angegeben,
dass die weltweiten Emissionen im Vergleich zu
den Werten von 1990 um 50 % bis 85 % gesenkt
werden müssten. Und seitdem sind die Emissionen um ungefähr 40 % gestiegen! Zusammenfassend bedeutet das, dass unabhängig davon, ob
wir die Ziele überhaupt erreichen können, diese
auf internationaler Ebene bereits weit über dem
liegen, was nötig wäre, um die Menschen und
Ökosysteme zu schützen.
Was ist für die Emissionsreduktion noch zu tun?
Es ist bereits viel geleistet worden, aber angesichts der Größe des Problems noch viel zu wenig.
Nehmen Sie das Kyoto-Protokoll: Das Ziel ist es,
die Emissionen der Industrieländer in 22 Jahren
um 5 % zu senken (zwischen 1990 und 2012)
und dieses Ziel wird nur knapp erreicht werden.
In diesen Ländern müssen jetzt die Emissionen
um 80 % bis 95 % in 40 Jahren gesenkt werden,
was weltweit einer Gesamtreduktion von 50 % bis
85 % gleichkommt. Und zum Ende des Jahrhunderts sollten diese bei null liegen. Das setzt
jedoch voraus, dass wir unser Konsum- und Produktionsverhalten – nicht nur für Energie, sondern
für alle Güter – von Grund auf ändern müssen,
wie wir uns fortbewegen, wohnen und arbeiten.
Das ist eine wahre Revolution!
Das Interview führte Yves Sciama
(1) Zwischenstaatlicher Ausschuss für Klimaänderungen
(International Panel on Climate Change, IPCC), kurz:
Weltklimarat. Jean-Pascal van Ypersele ist Physiker,
Klimaforscher und Professor am Institut für Astronomie
und Geophysik der Katholischen Universität Löwen (BE).
research*eu Nr. 63 | APRIL 2010
9
OZEANE
DOSSIER KLIMA
Die Ozeane versauern
N
Die CO2-Emissionen
verstärken nicht nur den
Treibhauseffekt, sie wirken
sich auch auf heimtückische
Weise auf den Säuregehalt
der Ozeane aus. Und dieses
Phänomen könnte die
marinen Ökosysteme des
Planeten destabilisieren.
eu ist das nicht. Die Ozeane spielen
eine zentrale Rolle bei der Regulierung des Klimas. Als riesige CO2Reservoire binden sie ein Viertel
der Treibhausgasemissionen, die durch den
Menschen seit 200 Jahren verursacht werden.
Diese Absorptionsfähigkeit lässt sich durch einen
physikalischen Prozess erklären (siehe Kasten).
Die Natur strebt immer nach einem Gleichgewicht und da CO2 wasserlöslich ist, kann es
leicht aus der Atmosphäre in die Ozeane gelangen. Ohne diese Reaktion wäre der Klimawandel
noch viel größer. Aber es gibt auch eine Kehrseite: die Versauerung der Ozeane.
„Bis vor Kurzem war man sich noch nicht
bewusst, dass sich die chemische Zusammensetzung der Meere so weit verändern würde, dass
sich dies auch auf die biologischen Funktionen
von Organismen und die marinen Ökosysteme
auswirken würde“, erklärt Jean-Pierre Gattuso,
Ozeanograf und Koordinator von EPOCA. Dieses
umfangreiche europäische Forschungsprogramm
wurde 2008 gestartet, um die Auswirkungen der
Versauerung der Ozeane auf marine Biotope zu
ermitteln.
© Jean-Louis Teyssié/International Atomic Energy Agency
Ein Schneeballeffekt
Im Labor: Kalzifizierung und Übertragung
von Mineralspuren mithilfe von Isotopen.
10
research*eu Nr. 63 | APRIL 2010
CO2 ist ein saures Gas. Wenn es sich im Meerwasser auflöst, reagiert es mit Wasser und den
Carbonat-Ionen und bildet Bicarbonat-Ionen.
Durch diese Reaktion wird das Volumen der
H+-Ionen im Meerwasser erhöht, wodurch der
Säuregehalt steigt, was sich wiederum in einem
niedrigeren pH-Wert spiegelt. Außerdem wird
die Konzentration der Carbonat-Ionen gesenkt,
die eine fundamentale Rolle für einen Teil der
marinen Fauna spielen. Deshalb sind Korallen,
Muscheln und andere Schalentiere direkt durch
dieses Phänomen bedroht. Was haben sie gemeinsam? Diese Lebewesen bilden ihre Muschel oder
ihr Skelett durch Aufnahme der Calcium- und der
Carbonat-Ionen aus dem Meerwasser. Auf diese
Weise erhalten sie die Elemente, die sie zur Bildung von Calciumcarbonat oder Kalk benötigen.
Je weniger Carbonat im Meerwasser enthalten
ist, umso mehr Energie müssen diese Organismen
aufwenden, um sich zu entwickeln. „Anfangs
dachten wir, dass die Kalzifizierung, also die
Fähigkeit Kalk zu bilden, einfach nur sinken
würde. Doch in Wirklichkeit ist es viel komplizierter. Während bei manchen Arten die Kalzifizierung tatsächlich langsamer abläuft, läuft sie bei
anderen zwar ganz normal ab, doch zulasten
anderer vitaler Funktionen, etwa dem Wachstum
oder der Fortpflanzung“, erklärt Ulf Riebesell,
Ozeanograf vom Leibniz-Institut für Meereswissenschaften an der Universität Kiel (DE). Er
koordiniert auch das deutsche Forschungsprojekt
BIOACID, das die Versauerung der Ozeane
erforscht und im September 2009 gestartet wurde.
Die Reaktion mancher wichtiger Kalkorganismen beunruhigt die Forscher ganz besonders. „In
den kalten Meeren leben Korallengemeinschaften
in sehr großen Tiefen, dort wo die Carbonatkonzentrationen von Natur aus schwach sind“, erklärt
Jean-Pierre Gattuso. „Die jüngsten Ergebnisse und
Voraussagemodelle zeigen, dass diese Gewässer
zu sauer werden könnten und damit den Kalk auflösen würden. Mit steigender Versauerung würde
nicht nur das Wachstum der Kaltwasserkorallen
gebremst werden, sie würde auch zur Auflösung
ihres Skeletts beitragen.“ Genauso wie die tropischen Korallen bilden auch die Kaltwasserkorallen
einen privilegierten Lebens- und Fortpflanzungsraum. „Sowohl auf der Nord- als auch auf der Südhalbkugel sind viele Arten, die für die Fischerei
von wirtschaftlicher Bedeutung sind, bedroht. Sollten die Korallen verschwinden, hätte dies immense sozialwirtschaftliche Folgen. Hinzu käme auch
die Frage nach der Sicherheit, weil die Korallenriffe in den tropischen Gewässern die Küsten auf
natürliche Weise vor den Unbilden des Meeres
schützen“, unterstreicht Jean-Pierre Gattuso.
Ein weiteres Sorgenkind ist die Flügelschnecke
(Thecosomata, früher Pteropoda), eine Art schwimmende Schnecke. „Das Haus der Flügelschnecken
besteht aus Aragonit, einer weniger stabilen
Form von Kalk, die auf eine Versauerung noch
empfindlicher reagiert“, erklärt Ulf Riebesell.
„Die Flügelschnecken sind ein wichtiges Glied in
der marinen Nahrungsmittelkette. So ernährt sich
etwa der Nordpazifische Lachs während einer
2
bestimmten Wachstumsphase fast ausschließlich
von diesen Tieren. Wir wissen nicht, ob diese Raubfische auf andere Arten ausweichen können oder
ob der Rückgang der Flügelschnecken auch zur
Zerstörung dieser Populationen beitragen wird.“
Tausende Unbekannte
Außer den Kalkorganismen könnten auch
andere Meeresbewohner von den Folgen der
Versauerung der Ozeane direkt betroffen sein.
Doch die Forschung steht immer noch ganz am
Anfang. Die zunehmende Versauerung senkt auch
das Schalldämpfungsvermögen der Ozeane, was
dazu führen könnte, dass sich Meeressäugetiere
nicht mehr richtig orientieren und sie ihre Beute
nicht orten können. Es gibt auch nur wenige
Untersuchungen über die Auswirkungen der
Versauerung auf Fische. „Eine amerikanische
Untersuchung hat einen Zusammenhang zwischen der Versauerung und der Vergrößerung
von Otolithen festgestellt. Dieser Innenohrknochen spielt eine wichtige Rolle für den Gleichgewichtssinn von Fischen. Man weiß jedoch nicht,
inwiefern eine anormale Entwicklung verhängnisvoll sein könnte“, erklärt Jean Pierre Gattuso.
Um die Folgen der Versauerung zu verstehen,
untersuchen die Forscher von EPOCA jene marinen Ökosysteme, in denen die CO2-Konzentrationen auf natürliche Weise hoch sind, etwa vor
der italienischen Insel Ischia. Doch die meisten
Forschungen konzentrieren sich auf die Polargebiete, die mehr CO2 aufnehmen, weil sich dieses
Gas im kalten Wasser besser auflöst. „An den
Polen schreitet die Versauerung schneller voran.
Deshalb sind die Auswirkungen auf die Ökosysteme dort auch leichter festzustellen“, erklärt
Jean-Pierre Gattuso.
© David Luquet/OOV-CNRS-UPCM
4
© Steeve Comeau/LOV-CNRS
3
© Steeve Comeau/LOV-CNRS
© Samir Alliouane/LOV-CNRS
1
DOSSIER KLIMA
OZEANE
Diese Organismen, die entweder eine Schale oder ein Kalkskelett besitzen,
sind durch die Versauerung der Ozeane einem erhöhten Risiko ausgesetzt.
1 Eine erwachsene Flügelschnecke (Cavolinia inflexa) aus der Bucht von
Villefranche (FR). Dieses im Wasser lebende Weichtier besitzt eine Kalkschale
und reagiert sehr empfindlich auf Veränderungen des pH-Werts.
2 Junge Flügelschnecke (Cavolinia inflexa) aus dem Mittelmeer. Der grüne Teil
entspricht der Schale, die mit dem Fluoreszenzfarbstoff Calcein markiert wurde.
3 Limacina helicina, schwimmende Meeresschnecke, lebt in der Arktis,
am Königsfjord (Spitzbergen) entnommen.
4 Korallenalgen aus dem Mittelmeer bilden unter Wasser eine Flora,
die durch die Versauerung der Ozeane besonders stark betroffen ist.
Um die Säureschwelle zu ermitteln, die nicht
überschritten werden darf, wenn das herrschende
Gleichgewicht in den Ozeanen erhalten bleiben
soll, muss man die Auswirkungen der Versauerung auf das marine Biotop verstehen. „Bisher
konnte noch kein maximaler Toleranzwert festgelegt werden, weil uns nicht genügend Daten
vorliegen. Die ersten Untersuchungen über die
Versauerung der Meere wurden vor höchstens
15 Jahren durchgeführt“, erläutert der Forscher.
Doch eines ist sicher: Die Versauerung schreitet voran, sie ist messbar und steigt zusammen mit
den CO2-Emissionen an. Seit dem Beginn des
Industriezeitalters ist der pH-Wert der Ozeane
bereits von 8,2 auf 8,1 gesunken. Doch gibt es nur
eine Lösung für dieses Problem: Die Reduzierung
der CO2-Emissionen. Diese Forderung wird auch
von mehr als 150 Ozeanforschern in der Erklärung
von Monaco getragen. In dieser im Januar 2009
veröffentlichten Erklärung werden die politischen
Entscheidungsträger aufgefordert, das Thema der
Versauerung der Ozeane auch auf dem Klimagipfel in Kopenhagen auf den Tisch zu bringen.
Julie Van Rossom
EPOCA
27 Partner, 9 Länder
(BE-CH-DE-FR-IS-NL-NO-SE-UK)
www.epoca-project.eu
BIOACID
19 Partner, 1 Land (DE)
http://bioacid.ifm-geomar.de
CARBOOCEAN
47 Partner, 14 Länder (BE-CH-DE-DKES-FR-IS-MO-NL-NO-PO-SE-UK-US)
www.carboocean.org
Der gesättigte Ozean
D
ie CO2-Aufnahme durch die Ozeane ist ein
natürlicher Prozess. Die physikalische
Pumpe, wie der Mechanismus gemeinhin
genannt wird, steht im Zusammenhang mit einem
weiteren als biologische Pumpe(1) bekannten
Prozess, in dessen Zentrum Kalkalgen stehen.
Diese fixieren das CO2 in ihrer Schale durch Fotosynthese und ziehen es beim Absterben auf den
Meeresboden hinunter. Derzeit weiß man nicht,
inwieweit die Reaktion dieser Organismen auf die
Versauerung der Ozeane das Funktionieren der
ozeanischen Kohlenstoffsenke beeinträchtigen
könnte. Im Jahr 2009 wurde das europäische Projekt CARBOOCEAN abgeschlossen, das sich mit
der Messung der Kohlenstoffspeicherkapazität
der Ozeane befasst hat. Die Ergebnisse zeigen,
dass sich die CO2-Aufnahmefähigkeit im Nordatlantik und im Südlichen Ozean verlangsamt hat.
Die Ursache für diese Verlangsamung ist jetzt
zu klären. „Diese Veränderungen könnten auf
natürliche Phänomene zurückgehen, etwa auf
den Temperaturanstieg oder auf veränderte
Meeresströmungen. Doch sie können auch biologische Ursachen haben“, erklärt Ulf Riebesell.
„Im Gegensatz zu den Mechanismen der biologischen Pumpe sind jene der physikalischen
Pumpe relativ bekannt. Einige Wissenschaftler
bestätigen, dass diese Pumpe durch die Versauerung wirksamer wird, andere prognostizieren das
Gegenteil. Deshalb ist es besonders wichtig, diese
Phänomene zu verstehen und zu quantifizieren,
um die Zuverlässigkeit der benutzten Modelle
zur Klimavorhersage zu erhöhen“.
(1) Zum Thema physikalische und biologische Pumpen siehe auch
„Das CO2 zwischen Himmel und Meer“, research*eu, Sonderausgabe Dezember 2007.
research*eu Nr. 63 | APRIL 2010
11
VERKEHR
DOSSIER KLIMA
Benzin und Diesel ade
Um die Forschungen zu den Biokraftstoffen der zweiten Generation voranzutreiben,
hat Europa das NEMO-Projekt ins Leben gerufen. NEMO setzt auf Enzyme und
Mikroorganismen, um aus den land- und forstwirtschaftlichen Abfällen von heute
den Kraftstoff von morgen herzustellen.
B
ereits 2020 sollen 10 % aller im Verkehr verbrauchten Kraftstoffe in Europa aus erneuerbaren Energiequellen
stammen. Um dieses Ziel zu erreichen, hat sich die Union ein neues Instrument
geleistet: Das Projekt Novel high-performance
enzymes and micro-organisms for conversion of
lignocellulosic biomass to bioethanol (NEMO)
wird von Merja Penttilä, Forscherin am Valtion
Der Themenbereich
„Lebensmittel, Landwirtschaft und Fischerei
sowie Biotechnologie“
M
it einem Budget von 1,9 Mrd. EUR
gehört er zu den Themen des spezifischen Programms „Zusammenarbeit“
des 7. Rahmenprogramms (RP7). Das Hauptziel ist
die Errichtung einer europäischen Wissenswirtschaft, die sich auf Nachhaltigkeit und ein gutes
Management der biologischen Ressourcen stützt.
Es geht vor allem darum, die Umwandlung von
Biomasse zu optimieren, um Produkte mit hohem
Mehrwert herzustellen.
© INRA/Gérard Paillard
Biomasseversuchsanlage
auf dem INRA-Gelände in
Estrée-Mons (FR).
12
research*eu Nr. 63 | APRIL 2010
Teknillinen Tutkimuskeskus (VTT), dem technischen Forschungszentrum von Finnland,
koordiniert. Es soll die Herstellung von Biokraftstoffen der zweiten Generation aus landund forstwirtschaftlichen Abfällen fördern und
sie im Vergleich zu ihren Vorgängern der ersten Generation verbessern. Diese haben nicht
nur eine fragwürdige ökologische Bilanz, sie
werden noch dazu meist aus Nahrungspflanzen hergestellt, etwa Getreide. Damit verursachen sie einen Preisanstieg dieser Ressource
und gefährden in der Folge den sozialen Frieden und die politische Stabilität der ärmsten
Länder unserer Welt. (1) Wenn die Europäische
Union ihren Platz in diesem strategischen Forschungsbereich behaupten möchte, muss sie sich
auch auf neue Projekte wie dieses verlassen, um
die künftige Energieunabhängigkeit zu verbessern.
Ziel Ökologie
An NEMO sind 18 Partner in neun europäischen Ländern (Deutschland, Belgien, Finnland,
Frankreich, Italien, Niederlande, Slowenien,
Schweden, Schweiz) beteiligt. Es bringt Universitäten, Forschungszentren und auch Privatunternehmen wie die kleine deutsche Firma Green
Sugar zusammen. „Dank unserer Kontakte zur
Universität Frankfurt (DE) wurden wir zu einer
Besprechung des NEMO-Projekts eingeladen
und stellten fest, dass wir gemeinsame Interessen hatten“, berichtet Frank Kose, Projektleiter
bei Green Sugar. Das Forschungsbudget beläuft
sich auf 8,25 Mio. EUR für vier Jahre. Davon
stammen 5,9 Mio. EUR aus dem Themenbereich
„Lebensmittel, Landwirtschaft und Fischerei
sowie Biotechnologie“ des 7. Rahmenprogramms (RP7), der sich auf die Entwicklung der
Biowirtschaft konzentriert.
Die Biokraftstoffe der zweiten Generation,
die NEMO entwickeln möchte, werden auf
der Grundlage von Lignozellulose hergestellt.
Diese kommt vor allem in Pflanzenzellen vor,
weshalb die Verwendung aller Pflanzenteile
möglich ist: Blätter, Stiele, Stroh oder auch Grünschnittabfälle. Damit ist es nicht mehr nötig,
nur auf den essbaren Pflanzenteil zurückzugreifen, um Biokraftstoff herzustellen, und
es zeigt sich ein Ausweg aus dem Zwiespalt
„essen oder fahren“ der ersten Generation von
Biokraftstoffen. Außerdem bietet die Verwertung
pflanzlicher Abfälle auch Vorteile im Hinblick
auf die Rentabilität.
Umwandlung grüner Abfälle
Die Forscher wollen neue Verfahren zur
Umwandlung von Lignozellulose (die aus Lignin, Zellulose und Hemizellulose besteht) aus
land- und forstwirtschaftlichen Abfällen in Biokraftstoff entwickeln. Diese Umwandlung erfolgt
normalerweise in vier Phasen: Vorbehandlung,
Extraktion, Fermentation und Destillation.
Die Vorbehandlung der Lignozellulose
dient der Aufspaltung des Lignins, um diesem
die Zellulose- und Hemizellulosemoleküle zu
entziehen und daraus Glukose zu gewinnen.
Durch Fermentation von Glukose mithilfe von
Hefen entsteht Ethanol, ein Alkohol, aus dem
Biokraftstoff destilliert wird.
NEMO wird sich hauptsächlich auf die erste
Phase konzentrieren. „Hierbei geht es vor allem
darum, die Kohlenstoffketten der Zellulose und
Hemizellulose mithilfe neuer Enzyme in ihre
Bestandteile aufzuspalten – das heißt in Zucker
wie Glukose. Das wird Zuckerbildung genannt“,
erklärt Frank Kose. Enzyme sind Proteine, die
chemische Reaktionen beschleunigen und die
Molekülstruktur verändern können. Ein weiterer Vorteil ist, dass die Bakterien, die den Fermentationsprozess der Glukose aufrechterhalten,
nur schwach toxisch sind. „Bei jedem neuen
Enzymansatz muss die Biomasse auf die Aktion
der Enzyme vorbereitet werden. Bei der von
Green Sugar entwickelten Technologie werden
anorganische Säuren verwendet, um ihre Wirksamkeit zu erhöhen“, erklärt der Projektleiter.
Neben den wissenschaftlichen Zielen will
NEMO überprüfen, ob die in den Labors entwickelten Enzyme auch wirksam genug sind,
um in industriellen Verfahren eingesetzt zu
werden. „Unser Engagement wird natürlich von
wirtschaftlichen Erwägungen geleitet“, erklärt
Frank Kose. „Wir wollen eine Technologie
zur Verzuckerung des Pflanzenmaterials entwickeln, die künftig in Produktionsanlagen
mit einer jährlichen Kapazität von 50 000 bis
100 000 Tonnen eingesetzt werden kann. Dazu
brauchen wir starke Industriepartner. Wenn
NEMO eine neue Technologie entwickelt, um
Zellulose mithilfe von Enzymen umzuwandeln,
und wenn dabei die Technologie von Green
Sugar zum Einsatz kommt, dann werden sich
die Industrieunternehmen, die sich am Projekt
beteiligen, dieser Technologie bedienen. Und
das ist, als ob wir ihnen unser Know-how verkaufen würden.“
Damit ist NEMO sowohl für Industrieunternehmen als auch für Forscher interessant. Denn
über die Hoffnung hinaus, zur Lösung des
weltweiten Energieproblems beizutragen, geht
es auch darum, sich ein Stück vom derzeit
boomenden Markt für Bioenergiequellen zu
sichern. Doch noch bevor NEMO seine Versprechungen erfüllen kann, naht bereits eine dritte
Generation von Biokraftstoffen heran. Sie stützt
sich auf den Auszug von Öl aus Algen und
wagt gerade erste Schritte auf dem Weg aus
dem Labor in die Praxis.
Stéphane Fay
(1) Siehe Artikel Auf die Hoffnung folgen Zweifel in unserer
Sonderausgabe Abschied vom Erdöl?, März 2008.
NEMO
18 Partner, 9 Länder
(BE-CH-DE-FI-FR-IT-NL-SI-SE)
www.vtt.fi/news/?lang=en
DOSSIER KLIMA
VERKEHR
Gemeinsame Initiative
für Brennstoffzellen
und Wasserstoff
E
uropa erforscht auch andere Wege, um sich
mit erneuerbaren Energiequellen auszustatten. Das ist der Fall bei Brennstoffzellen und der Wasserstofftechnologie, die beide
Energie aus Wasserstoff liefern. Sie stehen im Mittelpunkt der neuen gemeinsamen Technologieinitiative (JTI) Brennstoffzellen und Wasserstoff
(Fuel cells and hydrogen, FCH) – einer Partnerschaft zwischen der Europäischen Kommission,
Privatunternehmen und mehreren Universitäten
und Forschungsinstituten.
Auch hier geht es um die Senkung des Kohlendioxidausstoßes und eine geringere Abhängigkeit
Europas von Kohlenwasserstoffen, wobei gleichzeitig auch ein Beitrag zum Wirtschaftswachstum
geleistet wird. Der Vorteil der JTI ist es, dass sie
alle Akteure und Mittel in einer gemeinsamen
Anstrengung zusammenführt. So sind etwa die
Technologien, die zur Verbreitung von Brennstoffzellen notwendig sind, noch nicht marktreif
und können auch nur schwerlich von einem auf
sich allein gestellten Akteur entwickelt werden.
Die erste Aufforderung zur Einreichung von Vorschlägen der JTI FCH wurde 2008 veröffentlicht
und von der Kommission mit 28 Mio. EUR ausgestattet. Eine zweite Aufforderung zur Einreichung
von Vorschlägen wurde bis zum 15. Oktober 2009
durchgeführt. Das Budget beträgt 70 Mio. EUR.
http://ec.europa.eu/research/fch/
Kleines Lexikon
Biokraftstoff: Ersatzkraftstoff, der auf der Basis
von pflanzlichen Rohstoffen hergestellt wird.
Bioethanol: Ethanol aus der Vergärung
von pflanzlichen Rohstoffen. Ethanol ist
in allen alkoholhaltigen Getränken enthalten.
Anorganische Säure: Säure, die keinen
Kohlenstoff enthält.
research*eu Nr. 63 | APRIL 2010
13
KLIMAMODELLE
I
DOSSIER KLIMA
Die Diagnosewerkzeuge
Angesichts der verrücktesten Katastrophenszenarien,
die zurzeit zirkulieren, benötigen wir ausgefeilte
Techniken zur Klimavoraussage, wenn wir die richtigen
Entscheidungen treffen wollen. Durch ein neues großes
Klimamodell ist es heute möglich, gewisse Unsicherheiten
über das Klima im Europa des 21. Jahrhunderts aus
dem Weg zu räumen. Es liefert das bislang genaueste
Bild unserer Klimazukunft.
m Umweltfilm The Age of Stupid (deutsch:
Das Zeitalter der Dummheit), der 2009 in
die Kinos kam, spielt Pete Postlethwaite
die Rolle des letzten Überlebenden einer
Klimakatastrophe im Jahr 2055. Vom letzten
Stockwerk eines Hochhauses aus betrachtet er
eine zerstörte Welt, umgeben von klassischen
Denkmälern und Kulturschätzen, die riesige
Überschwemmungen überlebt haben. Und er
fragt sich, warum ein halbes Jahrhundert vorher die Menschen sich nicht zusammengetan
haben, um diese Katastrophe zu verhindern.
Auch wenn der Film die Fantasie der Zuschauer stark beflügelt, würden zahlreiche Wissenschaftler sicherlich den gewählten Zeitpunkt
des Weltuntergangs kritisieren.
Das Ende der Welt im Jahr 2055?
Die jüngsten Voraussagen des Weltklimarats
(IPCC) – der vierte Bericht aus dem Jahr 2007
– liefern Klimamodelle, die von der Vorstellung
des Filmproduzenten gar nicht so weit entfernt
liegen. Sie stellen eine mögliche Temperaturerwärmung auf der Grundlage der besonderen
Emissionsbedingungen dar, die unter anderem
von der erfolgreichen Durchführung der Strategien für den Umweltschutz und die grünen
Energieformen sowie vom Bevölkerungswachs-
Sturmwarnung
A
© CNRS Photothèque/Françoise Guichard, Laurent Kergoat
© Eumetsat
m Nachmittag des 18. Januars 2007 wütete ein schwerer Orkan über Europa. Der Wind fegte mit bis zu
202 km/h über Deutschland hinweg und steigerte
sich, bis er die Tschechische Republik erreichte. Bei den Versicherungen wurden Schäden in Millionenhöhe angemeldet,
Sturmtief Kyrill, Anfang 2007.
die an Gebäuden und durch umgestürzte Bäume verursacht
worden waren. Im Vereinigten Königreich und in Deutschland waren Tausende Haushalte ohne
Strom. Der Orkan Kyrill hatte seinen Anfang über Neufundland in Kanada genommen, bevor er den
Atlantik überquerte, um anschließend über die Britischen Inseln und dann über Nord- und Mitteleuropa hinwegzuziehen. Der Weg und die Form von Kyrill sind typisch für Winterorkane, die sich
nicht über tropischen Regionen bilden.
Diese Orkane entstehen in Regionen mit großen Temperaturunterschieden, wie zwischen
Florida und Grönland, und beginnen in der Regel an der nordamerikanischen Küste. Durch die
Temperaturunterschiede werden Luftmassen bewegt und es entstehen Winde, die sich zu einem
starken Sturm entwickeln können. Seit 40 Jahren lassen sich etwa fünf Orkane pro Jahrzehnt beobachten. Es stellt sich die Frage, ob diese wegen der Temperaturveränderungen vermehrt auftreten
werden, was für die Wirtschaft und die Regierungen nicht unproblematisch wäre. Laut ENSEMBLES
liegt unter Berücksichtigung des Emissionsszenarios A1B die Wahrscheinlichkeit bei 90 %, dass in
Süddeutschland die Schäden, die zwischen 2017 und 2100 durch Stürme verursacht werden, um
13 % bis 37 % im Vergleich zum Zeitraum 1961 bis 2000 ansteigen werden.
14
research*eu Nr. 63 | APRIL 2010
tum abhängen. Ein Modell ist ein Computerprogramm, welches die Entwicklung des Klimas
ab einem bestimmten Zeitpunkt sowie eine
Reihe von Szenarien, die mit den Emissionsbedingungen zusammenhängen, simuliert.
Je komplizierter die Daten umso komplexer
auch die Modelle. Sie können aus bis zu
30 Parametern wie etwa Windgeschwindigkeit,
Luft- und Bodenfeuchtigkeit oder Taupunkt
bestehen. Ein Modell kann Millionen Zeilen
Quellcode enthalten, für die mehrere Monate
Entwicklungszeit benötigt werden, zu denen
noch längere Analysezeiten hinzukommen, was
auch erklärt, weshalb weltweit nur 25 globale
Modelle existieren.
In seinem günstigsten Szenario (schwacher
Treibhausgasausstoß) rechnet der IPCC besten
Schätzungen zufolge mit einer Temperaturerhöhung von 1,8 °C in den Jahren 2090-2100 im
Vergleich zu 1990 (die Temperatur ist seit dem
Beginn der industriellen Revolution um 0,7 °C
gestiegen) und einem Anstieg des Meeresspiegels um 18 bis 38 Zentimeter. Das ungünstigste Szenario (hohe Emissionen) sieht nach dem
heutigen Stand des Wissens eine Temperaturerhöhung von 4 °C und einen Anstieg der Meere
um 26 bis 59 Zentimeter voraus. Unabhängig
vom Szenario sagt der IPCC mehr Schäden
durch Überschwemmungen und Stürme voraus.
Ein Anstieg von 3 °C würde damit einem Verlust von 30 % der Küstenfeuchtgebiete entsprechen. Doch nirgendwo ist die Rede von einer
globalen Überschwemmung im Jahr 2055.
Ein europäisches Megamodell
Diese Form der Klimamodellierung wird ständig verbessert. Sie ist sehr nützlich, wenn alarmierende Nachrichten zu widerlegen sind, aber
auch, um gegen jene Stimmen anzugehen, die
behaupten, dass es keinen Klimawandel gebe,
sodass die Öffentlichkeit korrekt informiert werden kann. In den vergangenen Jahrhunderten
wurden die Mess- und Modellierungstechniken
immer weiter verbessert. Die ältesten Daten
stammen von einem Klimathermometer, das im
Zentrum Englands Ende des 17. Jahrhunderts
stand. Im 19. Jahrhundert waren meteorologische Beobachtungen überall verbreitet. In den
1920er Jahren ließ man Ballons, die mit zahlreichen Messinstrumenten ausgestattet waren, in
die Luft aufsteigen. Dreißig Jahre später wurden
Flugzeuge zur Messung der Atmosphäre benutzt
und am Nord- und am Südpol wurden Wetter-
stationen aufgebaut. Heute erfolgt die Datensammlung per Satellit.
Das Projekt ENSEMBLES, das mit 15 Mio. EUR
aus dem 6. Rahmenprogramm (RP6) finanziert
wird, bedient sich einer Reihe neuer aufwändiger Klimamodelle. Seine Voraussagen besitzen ein größeres Maß an Sicherheit, weniger
aufgrund der Genauigkeit der Beobachtungen
als aufgrund der Qualität und Tiefe der Modellbildung. Die Klimaforscher bestätigen damit,
dass sie im Vergleich zu vorangegangenen
Modellen, die aus Daten von globalen Klimamodellen entwickelt worden waren, das
genauste und detaillierteste Bild von Europa
zum Ende des Jahrhunderts gezeichnet haben.
So zeigen etwa die mittleren Ergebnisse einer
Prognose von ENSEMBLES, die auf dem Emissionsszenario A1B basieren – gleichgewichtete
Verwendung fossiler Brennstoffe und anderer
Energieformen, darunter auch erneuerbarer –,
dass zwischen 2080 und 2090 die Temperaturen
während der Sommermonate im Südwesten
Frankreichs im Vergleich zum Referenzzeitraum
1961 bis 1990 um 6 °C höher und die Niederschläge um 50 % niedriger liegen werden. Die
Detailgenauigkeit der neuen Modelle gehört zu
den wichtigen Beiträgen des Projekts zur Klimamodellierung. „Wir erreichen eine weit höhere Auflösung als alle bisherigen Modelle. Das ist
ein riesiger Sprung nach vorne“, bestätigt Paul
van der Linden, Leiter von ENSEMBLES, das im
Hadley-Zentrum für Klimaänderungen in Exeter (UK) untergebracht ist. Es sind die Resultate
aus fünf Jahren harter Arbeit in einer recht
undurchsichtigen Wissenschaft.
Die Geschichtsprüfung bestehen
Derzeit werden sechs (von 40) Szenarien des
IPCC in den Modellen verwendet. Sie beschreiben verschiedene künftige Emissionsniveaus
und wurden aufgrund von sozio-ökonomischen Hypothesen und Vermutungen zur
Handhabung des Klimaproblems aufgestellt.
Einige gehen von Business-as-usual aus und
präsentieren sich eher negativ. Andere gründen auf fruchtbareren Energiestrategien. Sie
berücksichtigen auch Einschätzungen zur Sonnenstrahlung und zu den Aerosolen. Ihre
Reichweite variiert je nachdem, ob sie die
Daten für einen, zwei oder zehn bis fünfzehn
Schadstoffe einbeziehen.
Die Modelle sind im Laufe mehrerer Jahrzehnte in 12 verschiedenen Forschungszentren
entwickelt worden. Die sieben europäischen
Zentren wurden in ENSEMBLES zusammengeführt. Unter den 66 Partnern befinden sich auch
außereuropäische Institute. Die Forscher rastern
die Weltkugel zunächst grob. Anschließend werden die Modelle auf Weltebene hochgerechnet
und die Werte jedes Rasters oder jeder Zelle
werden rekonstruiert. Je nach Forschungsziel
werden unterschiedliche Modelle verwendet:
entweder nur für die Atmosphäre, den Ozean
oder beides. Über die globalen Merkmale des
Klimawandels hinaus können die Wissenschaftler auch die Folgen modellieren.
Alte und neue Daten zu Temperaturen und
Niederschlägen werden verwendet, um das
Modell anhand des als „Hindcasting“ (rückwirkende Simulation) bezeichneten Verfahrens im
Hinblick auf die Klimageschichte zu testen. „Wir
wollen wissen, wie leistungsfähig das Modell ist,
und es im Zusammenhang mit den Klimabeobachtungen sowie den Treibhausgasmessungen
der Vergangenheit bewerten“, erklärt Paul van der
Linden. Sollte der Test von den historischen Daten
stark abweichen, so ist das Modell schwach. Da
die Erstellung eines globalen Modells sehr viel
Zeit kostet, können nur bestimmte Teile für einen
eingegrenzten Zeitraum getestet werden.
Unzählige Simulationen
Eine einzige Prognose aus einem Modell reicht
nicht aus. Um die Genauigkeit zu verbessern, lassen die Klimaforscher dasselbe Model Tausende
Male mit jeweils unterschiedlichen Daten laufen,
oder mehrere Modelle mehrmals mit denselben
Daten. Mit diesem sogenannten Gesamtmodell
wird ein zuverlässigeres Ergebnis erzielt, weil die
Mittelwerte mehrerer Modelle genauer sind als
das Ergebnis eines einzigen. Das ist auch der
Punkt, in dem sich ENSEMBLES von vorangegangenen Projekten unterscheidet.
„Es ist das größte Projekt seiner Art“, bestätigt Paul van der Linden. Die Prognostiker aus
ganz Europa haben ein enormes Mehrfachmodell erstellt, das sieben europäische Gesamtmodelle miteinander kombiniert. Durch seine
Größe kann es eine Detailgenauigkeit liefern,
die jeden vorangegangenen Versuch übertrifft.
Außerdem unterscheidet es sich von seinen
Vorläufern, weil es ein Gesamtmodell aus
15 regionalen Modellen zusammenstellt, die in
den sieben globalen Modellen untergebracht
sind. Die Forscher haben die möglichen Folgen
des Klimawandels an 14 Standorten in
research*eu Nr. 63 | APRIL 2010
15
DOSSIER KLIMA
KLIMAMODELLE
KLIMAMODELLE
5
Starke
Steigerung
Negativ
für die
meisten
Regionen
Negativ
in allen
Messungen
Hoch
DOSSIER KLIMA
4
3
Zukunft
Geringes
Risiko
Steigerung
Negativ
für einige
Regionen,
positiv für
andere
Negative
oder
positive
Auswirkungen
auf den
Markt;
Mehrheit
der
Menschen
2
1
Niedrig
Quelle: IPCC
0
Vergangenheit
Mittlerer Temperaturanstieg über dem Niveau von 1990 (°C)
Hohes
Risiko
W Burning embers (glühende Kohlen)
Von schwachem Gelb bis zum kräftigen Rot zeigt diese Grafik des IPCC den Aufstieg
von fünf Risikokategorien, die mit verschiedenen Stufen der Erwärmung des
Planeten zusammenhängen. Diese Grafik wurde zum ersten Mal 2001 veröffentlicht.
2007 wurde sie aktualisiert, wobei die Alarmstufe erheblich angehoben wurde.
1 Risiken für bestimmte Ökosysteme (Korallenriffe, Gletscher,
Lebewesen usw.).
2 Extreme Wetterrisiken (Hitzewellen, Überschwemmungen, Trockenheit,
Brände, Orkane usw.).
3 Ausweitung der Folgen der Disparitäten und der regionalen Gefährdung
(in Gelb: gewisse Bereiche, die von der Erwärmung profitieren, können
im Kontrast zu denen stehen, die darunter leiden; doch im roten Bereich sind
die negativen Auswirkungen generell spürbar).
4 Risiken mit Auswirkungen auf Wirtschaft und Märkte (siehe Bemerkung oben).
5 Risiken großer Veränderungen (beschleunigter Anstieg der Meere, Versauerung der Ozeane, extreme Hitze).
-0.6
1
2
3
4
5
Europa untersucht. Sie können auch die
Auswirkungen einer durchschnittlichen Erwärmung um 2 °C in Europa auf die Landwirtschaft,
die Gesundheit, Energie, Wasserressourcen und
auf die Versicherungen simulieren. „Unser
Ansatz ist eher horizontal als vertikal“, erklärt
Paul van der Linden.
Eine weitere Innovation: die Entwicklung
eines neuen Szenarios mit dem Namen E1, das
mithilfe einer Gruppe globaler Klimamodelle
getestet wurde. Es geht davon aus, dass die
politischen Anstrengungen zur Emissionssenkung greifen und die Emissionsziele erreicht
werden. Dieser Ansatz nimmt sich Szenarien
des IPCC in umgekehrter Form vor. Er geht also
von den erzielten Temperaturen aus, um die
Emissionen zu berechnen. So gelangt er zu
einem CO2-Niveau, das sich auf 450 ppm im
Jahr 2140 stabilisiert hat – dieser Betrag wurde
von den Entscheidungsträgern als höchster
Schwellenwert festgelegt, damit die Temperaturen um nicht mehr als 2 °C steigen. Die Ergebnisse implizieren, dass die Emissionen bis Ende
des Jahrhunderts auf null fallen müssen, nachdem sie 2010 eine Spitze von ungefähr 12 Gigatonnen Kohlenstoffäquivalent erreicht haben.
16
research*eu Nr. 63 | APRIL 2010
Der nächste IPCC-Bericht sollte ein Modell enthalten, das nach dem E1-Szenario funktioniert.
Ausgefeilte Wahrscheinlichkeiten
Jedenfalls sollte man nicht vergessen, dass
unabhängig von der Anzahl der Durchläufe
diese Modelle auch weiterhin Projektionen
bleiben und niemals Sicherheit liefern können.
Doch auch in dieser Hinsicht ist der Forschungsgruppe von ENSEMBLES eine Premiere gelungen. Das Projekt erstellt eine Reihe von
Prognosen, anhand derer entschieden werden
kann, welche Ergebnisse wahrscheinlicher sind
als andere. Die Forscher bestätigen, dass sie
die Wahrscheinlichkeit der Genauigkeit einer
bestimmten Prognose messen können und
zwar dank des Mehrfachmodells dieses Projektes. „Vorher konnte man etwa sagen, dass die
Zahl der Stürme bis zu einem bestimmten
Datum um 20 % ansteigen werde. Heute können wir sagen, dass 95 % der Ergebnisse zeigen, dass sich die Stürme um 5 % bis 20 %
vermehren werden“, erklärt Gregor Leckebusch, Klimaforscher am Institut für Meteorologie der Freien Universität Berlin.
Quelle: IPCC
X
Voraussichtlicher Temperaturanstieg im letzten
Jahrzehnt des Jahrhunderts (2090-2099) nach dem
IPCC-Szenario, dass das Wirtschaftswachstum ansteigt
und auf einen Energiemix aus fossilen und nicht
fossilen Brennstoffen zurückgegriffen wird.
Für Paul van der Linden stellt dieses Modell
einen großen Fortschritt für die Gemeinschaft
der Klimamodellierer dar. „Zum ersten Mal verfügen wir über Wahrscheinlichkeiten und die
Forscher können nunmehr auf diese Datenbank zurückgreifen, um ihre eigenen Modelle
laufen zu lassen.“
Nur die Realität wird jetzt noch die besten
Modelle infrage stellen. Der in den letzten Jahren festgestellte Rückgang des arktischen
Schelfeises während der Sommermonate würde bei den früheren Modellen erst ganz zum
Schluss berücksichtigt werden. Das lässt
befürchten, dass die Entwicklung des Klimas
wahrscheinlich unterschätzt wurde und dass
wir neue Prognosen aufstellen müssen.
Elisabeth Jeffries
ENSEMBLES
79 Partner – 18 Länder
(AT-BE-CH-CZ-DE-DK-ES-FI-FRGR-IE-IT-NL-NO-PL-RO-SE-UK)
2 nicht europäische Länder (AU-US)
http://ensembles-eu.metoffice.com/
index.html
„Jeder Wissenschaftler
muss auch Skeptiker sein“
Während die Wissenschaftler
des IPCC Studien bewerten
und erstellen, mit denen
das Wissen zur Frage des
Klimawandels erweitert
werden soll, werden Zweifel
an den Ergebnissen des
Weltklimarates laut.
W
© Shutterstock/Trance Drumer
Sind die Aktivitäten
des Menschen an der
Erwärmung schuld?
Die Debatte ist noch
lange nicht zu Ende.
enn in der Wissenschaft eine
Mehrheit etwas behauptet,
bedeutet das noch lange nicht,
dass diese Behauptung wahr
sein muss. Obwohl die meisten Klimaexperten
die generelle These des Weltklimarates (IPCC)
unterschreiben, welche besagt, dass die gefährliche Klimaerwärmung wahrscheinlich auf
menschliche Aktivitäten zurückzuführen ist,
wird diese These regelmäßig von den Klimaskeptikern zurückgewiesen. Der Laie, dem ein
umfassendes Wissen zur Klimaforschung fehlt,
ist angesichts der oftmals widersprüchlichen
Argumente hilflos. Und manche Medien, denen
an Polemik mehr liegt als an echter Information, tragen ihren Teil zur Konfusion bei.
Nimmt man jetzt noch jene heraus, die – mithilfe von Desinformationsstrategien wie jenen
der Zigarettenindustrie in der 1980er Jahren –
besondere Interessen verfolgen, und jene, die
im IPCC nur den verlängerten Arm eines weltweiten politisch-ökologischen Komplotts sehen,
dann bleiben noch jene sicherlich ehrlichen
Skeptiker übrig, deren Äußerungen sich auf eine
wissenschaftliche Argumentation stützen.
Obwohl die Argumente in alle Richtungen
weisen, lassen sich die Skeptiker grob in zwei
große Kategorien einteilen: jene, die den menschlichen Ursprung der Erwärmung verneinen oder
herabspielen, und jene, die dem Ernst der Lage
widersprechen. Die ersten legen Belege vor, mit
denen sie beweisen wollen, dass die Treibhausgasemissionen, die aus menschlichen Aktivitäten
stammen, nur wenig oder gar nicht für die seit der
Mitte des 20. Jahrhunderts beobachtete Erwärmung verantwortlich sind. Sie sollen vor allem mit
natürlichen Faktoren zusammenhängen. Die
zweite Gruppe, die sich von der ersten kaum
unterscheidet, zweifelt die wissenschaftlichen
Grundlagen der Vorhersagen und der dort genannten erwarteten Konsequenzen der Erwärmung an.
Mit welchen Argumenten widersprechen sie
der Meinung der Mehrzahl der Klimaexperten?
Der Ursprung aller Fragen und Unsicherheiten,
die noch zu Ursache und Folgen der Klimaerwärmung bestehen, liegt in der Komplexität
des Systems Erde und seiner Zusammenhänge
mit dem Universum.
Die Sonne – Triebfeder der Erwärmung
Das häufigste Argument gegen die These der
menschlichen Ursache der Erwärmung betrifft die
Position der Erde im Verhältnis zur Sonne und ihre
Aktivität. Zu allen Zeiten soll die Intensität der Sonnenaktivität, die Form der Umlaufbahn der Erde
um die Sonne und die Neigung unseres Planeten
auf dieser die Temperaturen bestimmt haben.
„Schaut man sich die vergangenen 800 000 Jahre
an, ohne die letzten 200 zu berücksichtigen, so
sieht man, dass die Klimaveränderungen der Vergangenheit durch natürliche Faktoren wie die allmähliche Veränderung der Erdumlaufbahn und die
Position der Erde auf dieser ausgelöst wurden“,
räumt Jean-Pascal van Ypersele ein, Vizepräsident
des IPCC und Klimaforscher an der Katholischen
Universität Löwen (BE). Doch auch wenn diese
Parameter im Laufe langer Zeitabschnitte variieren,
reichen sie nicht aus, um den starken Temperaturanstieg seit der industriellen Revolution zu erklären. „Wir dürfen sehr unterschiedliche Zeitskalen
nicht miteinander vermischen.“ (1)
research*eu Nr. 63 | APRIL 2010
17
DOSSIER KLIMA
KLIMASKEPSIS
© CNRS Photothèque/John Pusceddu
35 Meter hoher Turm im Wald von Barbeau
(FR), zur Messung der Kohlenstoff- und
Wasserströme zwischen einem Waldökosystem und der Atmosphäre.
Probenentnahme aus dem Mittelmeer im Rahmen des
Epoca-Projekts, mit dem die Versauerung der Ozeane
beleuchtet werden soll. Das Meerwasser nimmt hohe
Mengen an Kohlendioxid aus der Atmosphäre auf, was
zur Versauerung führt.
Auch wenn das CO2 sicherlich nicht
der einzige Ursachenfaktor ist, hätte es sehr
wohl zur Ausweitung der Folgen durch die Veränderungen bei der Verteilung und der Gesamtmenge der auf der Erdoberfläche verfügbaren
Sonnenenergie beitragen können. „Ausgangspunkt sind die astronomischen Faktoren. Es ist
durchaus wahrscheinlich, dass der Kohlenstoffkreislauf durch kleine Klimaveränderungen, die
durch diese Fluktuationen hervorgerufen wurden, beeinflusst wurde. Und das wiederum hat
sich auf das Klima der Vergangenheit ausgewirkt“.
Das Ei oder die Henne?
Hier trifft man auf einen wunden Punkt: der
Zusammenhang zwischen der CO2-Konzentration in der Atmosphäre und den Temperaturveränderungen. Während die meisten Klimaforscher
sagen, dass ein Anstieg der CO2-Konzentrationen zur Erwärmung der Erdatmosphäre beiträgt,
betonen andere mithilfe von Grafiken, dass es
in den geologischen Zeiten der Erde eher der
Temperaturanstieg war, der zu hohen CO2-Konzentrationen geführt hat und nicht umgekehrt.
„Tatsache ist, dass sich die Ozeane nach einem
Temperaturanstieg, der durch astronomische
Faktoren hervorgerufen wurde, erwärmen und
damit weniger CO2 aus der Atmosphäre aufnehmen können. Das ist ein chemisches Gesetz: CO2
löst sich in kaltem Wasser besser auf als in warmem. Damit verbleibt ein größerer Anteil dieses
Gases in der Atmosphäre.“
18
© CNRS Photothèque/Claude Delhaye
Auf der ganzen Welt wird der CO2-Ausstoß gemessen,
doch mit unterschiedlichen Methoden.
© CNRS Photothèque/Jean-Yves Pontailler
DOSSIER KLIMA
KLIMASKEPSIS
research*eu Nr. 63 | APRIL 2010
Die Temperatur wirkt sich also auf die CO2Konzentrationen aus. „Die Skeptiker haben
recht, wenn sie sagen, dass das CO2 in der
Vergangenheit dem Temperaturanstieg folgte.
Doch sobald es sich häuft, verstärkt es den
natürlichen Treibhauseffekt und führt zu einer
weiteren Erwärmung. Wird die CO2-Schicht in
der Atmosphäre dicker, ist es, als ob man sich
eine weitere Decke über das Bett legt, wodurch
einem wärmer wird!“
Schwerer Staub
Doch scheinen die Zusammenhänge zwischen
astronomischen Faktoren und der CO2-Konzentration in der Atmosphäre, die einerseits von den
„Klimaskeptikern“ und andererseits von denen,
die sich haben überzeugen lassen, genannt werden, nicht diametral entgegengesetzt zu sein,
wenn sie erst einmal analysiert wurden. Die Frage hieße also, welche Auswirkungen die durch
den Menschen verursachten Treibhausgase auf
das komplizierte System Erde haben. Und auch
an diesem Punkt scheiden sich die Geister. Für
die einen spielt dieser Beitrag eine untergeordnete Rolle, für die anderen ist er wesentlich.
„Die CO2-Konzentration in der Atmosphäre
ist im Vergleich zur Wasserdampfkonzentration,
dem Hauptverursacher des Treibhauseffekts,
lächerlich. Und der natürliche CO2-Ausstoß liegt
wesentlich höher als der, der durch den Menschen verursacht wird“, so wird von den Skeptikern regelmäßig argumentiert. Durch das
natürliche Phänomen des Treibhauseffekts wird
Messinstrumente an einem Drachen, mit denen der
Wind und die CO2-Mengen in 100 m und 200 m Höhe
gemessen werden. Dieses Experiment wurde im
Rahmen der Amma-Kampagne (Analyses multidisciplinaires de la mousson africaine) in Benin durchgeführt.
Leben auf der Erde erst möglich. Ohne dieses
läge die Durchschnittstemperatur auf der Erde
bei -18 °C anstelle von +15 °C. „Und Wasserdampf ist tatsächlich das primäre Treibhausgas.
Doch das Problem ist nicht der Treibhauseffekt
an sich, sondern seine Verstärkung, die seit
mehr als 40 Jahren von Satelliten gemessen und
dokumentiert wird und die auf die Aktivität
des Menschen zurückgeht. Die Isotopenanalysen
des atmosphärischen CO2 beweisen, dass der
Ursprung für die Zunahme dieses Gases in der
Atmosphäre auf die Nutzung fossiler Brennstoffe zurückzuführen ist.“
Es stimmt, dass die natürlichen CO2-Emissionen viel höher sind als jene, die durch den Menschen verursacht werden. „In einem Vortrag zum
Kohlenstoffkreislauf vor dem belgischen Erdölverband 1997 erwähnte ein Klimaforscher, dass
der natürliche Kohlenstoffstrom bei etwa 200 Milliarden Tonnen pro Jahr liege im Vergleich zu
8 Milliarden Tonnen Kohlenstoff menschlichen
Ursprungs. Daher sei es seiner Ansicht nach
lächerlich, die mageren 4 Prozent aus menschlichen Aktivitäten anzugreifen.“ Aber es ist nur
eine Frage des Gleichgewichts. „Er hat allerdings
nicht gesagt, dass die natürlichen Systeme ihre
Emissionen recyceln, vor allem durch Fotosynthese.“ Damit absorbieren diese Systeme das
Kohlendioxid, das sie ausstoßen. „Das ist wie bei
einer Waage, die sich im Gleichgewicht befindet:
Wenn man auf der einen Seite Staub hinzufügt
– hier das durch den Menschen verursachte CO2 –
dann kippt das Gleichgewicht.“ Und dabei wurde
Wenn der IPCC die Tür zuschlägt
Auch die Klimamodelle(2), auf die sich der
IPCC für seine Prognosen stützt, stehen zur
Debatte. Sind sie zuverlässig? Die größten Skeptiker schätzen, dass es für Schlussfolgerungen
nicht ausreicht, nur die Parameter zu kennen, die
das Klima auf der Erde beeinflussen. „In der Wissenschaft gibt es keine Sicherheit, doch im
Gegensatz zu dem, was sie vorgeben, sind die
Klimamodelle keine einfachen statistischen Extrapolationen.“ Auf der Grundlage physikalischer,
chemischer und biologischer Gesetzmäßigkeiten
müssen diese Modelle zunächst das aktuelle Klima simulieren können. Im nächsten Schritt muss
verifiziert werden, dass sie auch das Klima der
Vergangenheit simulieren können. „Damit wird
es möglich, das Werkzeug zu validieren, mit dem
Beobachtungen zum Klima der vergangenen
hundert, tausend oder hunderttausend Jahre mithilfe von Eisproben gemacht werden. Anschließend können diese Modelle zur Erstellung von
Projektionen genutzt werden, und nicht zur Voraussage des künftigen Klimas, denn das ist nicht
möglich.“ Glaubt man den Modellen, variieren
diese Projektionen je nach Zukunftsszenario für
die Treibhausemissionen erheblich.
Im Dokumentarfilm The Great Global Warming Swindle von Martin Durkin sind Wissenschaftler zu sehen, die aus dem IPCC ausgetreten
sind, weil sie mit den Projektionen der für die
politischen Entscheidungsträger vorgesehenen
Berichte nicht einverstanden waren. Klimaexperten drehen ihren Kollegen den Rücken zu und
das nährt bei allen den Zweifel. „Obwohl die
Gruppe aus zwischenstaatlichen Experten besteht,
ist der Erstellungsprozess der Berichte sehr unabhängig. Die Autoren verfassen die Texte auf der
Grundlage der wissenschaftlichen Literatur und
diese Texte durchlaufen drei Korrekturrunden
durch Experten und Regierungen.“ Jeder Kommentar zu einer Zeile oder einem Paragrafen wird
in eine Tabelle eingetragen, und zu jedem Kommentar geben die Autoren anschließend eine
Rückmeldung. Die Lektoren wachen darüber,
dass jeder Kommentar von den Autoren ehrlich
bewertet wird. Und damit das alles auch transparent ist, sind diese Tabellen auf der Website des
IPCC zugänglich.
„Ein Bericht bedeutet Hunderte Autoren und
insgesamt 2 500 Experten, die sich am Lektorat
Tausend Jahre Klima in Europa
I
m Rahmen des RP6-Projekts Millennium European Climate
soll ermittelt werden, ob die aktuellen klimatischen
Veränderungen über die normale Variationsbreite des
Klimas hinausgehen, das im vergangenen Jahrtausend in
Europa beobachtet wurde. Die beteiligten Forscher der
40 Universitäten und Forschungseinrichtungen haben ihre
Entnahme einer Eisprobe
unterschiedlichen Kompetenzen gebündelt, um das Klima
in der Antarktis im Rahmen des
Europas der Vergangenheit zu rekonstruieren. „Es ist ein
EPICA-Programms.
multidisziplinäres Projekt, in dem verschiedene Ansätze
verwendet werden, etwa die Analyse historischer Archive, Jahresringe von Bäumen, Sedimente aus
Seen, Eisproben sowie Modellierungen“, erklärt Rob Wilson, Paläoklimatologe an der Universität
Saint Andrews in Schottland (UK). „Jeder Ansatz hat seine Stärken und Schwächen, und wir setzen
die Stärken jedes Datentyps ein, um die Geschichte des Klimas in Europa der letzten 1 000 Jahre zu
rekonstruieren.“
Sobald die Daten gesammelt und analysiert wurden, werden sie mit den Ergebnissen aus den
Modellen verglichen. „Wenn diese beiden unabhängigen Informationsquellen sich decken, wird
dadurch nicht nur ein besseres Verständnis der klimatischen Veränderungen der Vergangenheit
möglich, sondern auch die Ermittlung der dominierenden Faktoren der Veränderungen in den
verschiedenen Perioden“, erklärt der Forscher. Ein halbes Jahr vor Ende von Millennium European
Climate liegen die Abschlussergebnisse noch nicht vor. Jedoch liegen die vorläufigen Analysen
„allgemein auf einer Linie mit den Schlussfolgerungen des IPCC“, erläutert Rob Wilson.
http://137.44.8.181/millennium
beteiligen. Dass sich manche zu einem bestimmten Zeitpunkt unbehaglich fühlen – und das
ändert auch nichts daran, dass es sich um gute
Wissenschaftler handelt –, weil sie ihre Ideen
nicht durchsetzen können, ohne dass diese mit
anderen Aspekten in der Literatur oder Kommentaren zusammenstoßen, das ist unvermeidlich.“
Skepsis oder doch nicht?
Ist das einfach nur ein Meinungsstreit unter
Experten? Die Debatte wird allerdings manchmal mit erstaunlicher Heftigkeit geführt. Manche Skeptiker zögern auch nicht, das
„einheitliche Denken“ des IPCC infrage zu stellen und werden dann selbst als „Leugner“ oder
„Revisionisten“ bezeichnet. Die Dramatisierung
der Kontroverse in gewissen Medien und auf
manchen Blogs trägt dazu bei, dass die Sichtweisen unvereinbar erscheinen, als ob es eine
Glaubensfrage wäre. Angesichts der Unstimmigkeit weiß die Öffentlichkeit nicht mehr,
wem sie eigentlich glauben soll und vergisst
wahrscheinlich auch, dass der Zweifel und die
Suche nach der Wahrheit immer zusammengehören. „Alle Wissenschaftler müssen skeptisch
sein. Ich sehe nicht ein, weshalb manche die
Skepsis monopolisieren müssen.“
Die wirtschaftlichen, politischen und gesellschaftlichen Folgen sind natürlich immens.
Sollte der Einfluss der menschlichen Aktivitäten auf das Klima zu vernachlässigen sein,
dann sind viele Anstrengungen womöglich
umsonst gewesen – selbst wenn die, die dem
Versiegen der fossilen Ressourcen entgegenwirken sollten, Auswirkungen auf unsere Energieversorgung der Zukunft haben. Wenn
dagegen der menschliche Faktor das natürliche Gleichgewicht so stark stört, dass es sich
nicht mehr erholen kann, dann wäre ein passives Verhalten, also nichts zu tun, um diesen
Zustand zu ändern und sich auf die Folgen vorzubereiten, in den Augen der uns folgenden
Generationen eine grobe Fahrlässigkeit.
Audrey Binet, Jean-Pierre Geets
(1) Alle Zitate von Jean-Pascal van Ypersele.
(2) Siehe Artikel Die Diagnosewerkzeuge in dieser Ausgabe.
IPCC
www.ipcc.ch
RealClimate: Infos
zur Klimaforschung
www.realclimate.org
research*eu Nr. 63 | APRIL 2010
19
DOSSIER KLIMA
noch nicht mal die massive Entwaldung hinzugerechnet, die das Gewicht auf der anderen Seite
der Waage verändert.
© CNRS Photothèque/IPEV/Claude Delhaye
KLIMASKEPSIS
IN KÜRZE
NEUES
AUS EUROPA
Genangriff auf
die Alzheimersche
Krankheit
www.eso.org
Ein Meeresbakterium
gegen den Krebs
Ein Bakterium hat die Aufmerksamkeit des Unternehmens Nereus
Pharmaceuticals in San Diego (USA)
und von Biochemikern der TU
München (DE) erregt. Salinispora
tropica ist der lateinische Name des
Meeresbakteriums. Es produziert
© Inserm/Catherine Fallet-Bianco
© ESO/L.Calçada
Fragmente von Krebszellen.
Zerebraler Cortex.
Beta-Amyloid nach sich, welches das
Nervensystem zerstört und sich im
Gehirn der betroffenen Patienten
ablagert. Damit wäre jede Forschung, die zur Unterdrückung
dieses Peptids führt, ein Fortschritt
auf dem Weg zu einer Therapie.
Im gleichen Zeitraum hat sich eine
britische Forschergruppe unter der
Leitung von Julie Williams vom
Alzheimer’s Research Trust (UK)
auch mit dem CLU-Gen beschäftigt
20
www.univ-lille2.fr
www.alzheimers-research.org.uk
Mechanismus zerstört. Diese
Feststellung könnte der kleinen
Gemeinschaft der Exoplanetenjäger
Auftrieb verleihen, weil der Lithiummangel von Sternen derzeit ein
sachliches Indiz auf die Existenz
dieser extrasolaren Planeten ist.
© Inserm/Jenny Valladeau
Zwei in der Zeitschrift Nature
veröffentlichten Studien ist es
gelungen, drei neue Gene zu
identifizieren, die im Zusammenhang mit Alzheimer stehen. Zwei
davon, Clusterine (CLU) und CR1,
wurden von der Gruppe von
Philippe Amouyel, Professor für
Epidemiologie und öffentliche
Gesundheit an der Universität Lille 2
(FR), bestimmt. Mutationen dieser
Gene ziehen wahrscheinlich Probleme bei der Eliminierung des Peptids
und mit einem dritten Gen mit
der Bezeichnung PICALM. Mit den
für diese Forschung verwendeten
DNA-Chips konnte der Grad der
Genexpression von 20 000 gesunden
und kranken Personen bestimmt
werden. Obwohl durch diese Analysen die Beteiligung des Gens PICALM
an dieser Form der Demenz ans Licht
gebracht wurde, muss seine Rolle
noch genau bestimmt werden.
für Astrophysik der Kanaren (ES) in
der Zeitschrift Nature eine Studie,
der zufolge das Geheimnis gelöst
scheint: Der Grund ist, dass unser
Stern von anderen Planeten
umgeben ist.
Seit mehreren Jahren beobachtet
die Europäische Südsternwarte
(ESO) mithilfe des High Accuracy
Radial Velocity Planet Searcher
(HARPS) 500 Sterne, von denen
70 von Planeten umgeben sind.
Dieser Spektrograf befindet sich
am 3,6-Meter-Teleskop in La Silla
in Chile. Garik Israelian und seine
Mannschaft untersuchten nur
Sterne, die unserer Sonne ähnlich
sind. Ein Viertel der Proben zeigte,
dass die meisten Sterne, die von
Planeten umgeben sind, ungefähr
100-mal weniger Lithium enthalten
als die anderen.
research*eu Nr. 63 | APRIL 2010
Exoplanet Gliese 581. Künstlerische Darstellung.
Vom Mysterium
des Lithiums zu
den Expoplaneten
Seit 60 Jahren stellt die Wissenschaft die Frage, weshalb die Sonne
viel weniger Lithium enthält als
ähnliche Sterne. Doch im November
2009 veröffentlichte eine
Forschungsgruppe des Astrophysikers Garik Israelian vom Institut
Lithium, ein leichtes Element aus
drei Protonen und vier Neutronen,
ist aller Wahrscheinlichkeit nach
kurze Zeit nach dem Big Bang vor
13,7 Milliarden Jahren entstanden
und müsste in ähnlichen Mengen
in allen Sternen vorhanden sein.
Es scheint daher, dass die Bildung
oder die Präsenz von Planeten
rund um einen Stern dazu führt,
dass dieser sein eigenes Lithium
mittels eines noch unbekannten
ein Molekül, welches Proteasome
zerstört und dadurch die entsprechenden Medikamente ersetzen
könnte. Diese werden gegen die
Verbreitung von Krebszellen
eingesetzt und haben sehr schwere
Nebenwirkungen, weil sie auch
gesunde Zellen zerstören.
Proteasome sind die Müllverwertungsanlagen von Zellen. Werden
diese deaktiviert, ersticken die
Zellen an ihrem eigenen Müll.
Salinispora tropica produziert ein
Killermolekül, welches genau so
wirkt. Es bricht das Proteasom
auf und zerstört es anschließend,
wie ein zerbrochener Schlüssel
in einem Schloss. Den Forschern
zufolge ist dies die beste Methode,
das Proteasom zu blockieren.
Da jetzt der Mechanismus im
Detail bekannt ist, kann er gezielt
variiert werden, um ein wirksames
Medikament zu entwickeln.
http://portal.mytum.de/
welcome/
Ewige Erinnerungen
© Shutterstock/Lulu Duraud
Warum bleiben manche Erinnerungen auf ewig in unserem
Gedächtnis, während andere sich
verflüchtigen? Alles hängt von
der Kapazität unseres Gehirns ab,
neue Eindrücke in dauerhafte
Erinnerungen umzuwandeln.
Die erste Etappe in diesem Prozess
besteht darin, Erinnerungen einige
Stunden lang zu speichern. Dabei
wird die neuronale Übertragung
durch eine Reihe chemischer
Veränderungen an den Synapsen
variiert. Doch wie verankern sich
diese Kurzzeiterinnerungen
dauerhaft im zerebralen Cortex?
Forschern des Karolinska Institutet
(SE) ist es in Zusammenarbeit mit
„Und mit einem Mal war die Erinnerung
da. Der Geschmack war der jenes
kleinen Stücks einer Madeleine.“
(Marcel Proust)
dem amerikanischen National
Institute on Drug Abuse (NIDA)
gelungen, bei gentechnisch
veränderten Mäusen die Fähigkeit
für Langzeiterinnerungen zu
aktivieren und zu deaktivieren.
Damit konnten sie die Rolle des
Rezeptormoleküls nogo receptor 1
(NgR1) beleuchten. Wenn Nervenzellen aktiviert werden, wird das
für NgR1 zuständige Gen abgeschaltet und man nimmt an, dass
dies mit der Bildung von Langzeiterinnerungen zusammenhängt.
Die Forscher testeten ihre Hypothese, indem sie Mäuse mit einem
zusätzlichen NgR1-Gen schufen,
das aktiv blieb, wenn das normale
NgR1-Gen abgeschaltet wurde.
Mit dieser Entdeckung wurde ein
weiterer Schritt bei der Suche nach
Behandlungsmöglichkeiten von
Gedächtnisstörungen getan.
© Shutterstock/Sebastian Kaulitzki
IN KÜRZE
Anstieg der Fehl- und Totgeburten.
Sollten diese Ergebnisse auch auf
den Menschen übertragbar sein,
könnten sie auch Implikationen
für künstliche Befruchtungstechniken haben. Sie könnten zum
Schutz der Samenzellen beitragen,
die beim Auftauen vor der künstlichen Befruchtung einem starken
oxidativen Stress ausgesetzt sind.
www.inserm.fr
…und empfindlichen sterilen
Von empfindlichen Männern
Samenzellen…
http://ki.se
Forscher des Labors für Genetik,
Fortpflanzung und Entwicklung
des Inserm, das Wissenschaftler
aus mehreren französischen
Forschungseinrichtungen vereint,
haben ein antioxidatives Protein
entdeckt, das wahrscheinlich die
Samenzellen schützt. Samenzellen
reifen in den Nebenhoden heran
und erhalten dort ihre Befruchtungsfähigkeit. Dennoch kann
es gerade bei sehr empfindlichen
Samenzellen passieren, dass ihre
DNA durch einen oxidativen Stress
fragmentiert wird. Und hier greift
das Protein GPx5 ein.
Die Forscher haben entdeckt, dass
männliche Mäuse, denen dieses
Protein fehlte, morphologisch
normale Samenzellen besitzen.
Doch bei der Befruchtung weiblicher Zellen treten Entwicklungsfehler auf und es kommt zu einem
Schenkt man einer Veröffentlichung
in der Fachzeitschrift European
Urology vom Dezember 2009
Glauben, haben unfruchtbare
Männer eine viel empfindlichere
Gesundheit als fruchtbare. Der
Artikel stützt sich auf eine prospektive Studie, die zwischen September 2006 und 2007 an der
Universität Mailand durchgeführt
wurde. Die dortige Forschungsgruppe des Urologen Andrea
Salonia untersuchte 344 unfruchtbare Männer im Alter von 18 bis
60 Jahren. Aus dem Vergleich mit
der Kontrollgruppe, die aus
293 Männern derselben Altersgruppe bestand, geht hervor, dass
weniger fruchtbare Männer auf der
Charlson-Skala eine wesentlich
höhere Komorbidität aufweisen.
Damit werden diagnostisch
abgrenzbare Krankheitsbilder
bezeichnet, die beim Patienten
zur gleichen Zeit auftreten.
Das bedeutet in diesem Fall, dass
diese Patienten im Vergleich zur
fruchtbaren Bevölkerung neben
der Unfruchtbarkeit in größerem
Maße auch an anderen gesundheitlichen Störungen leiden.
Angesichts der Probengröße ist
es für Verallgemeinerungen
allerdings noch zu früh und es
sind größere Studien notwendig,
um diese Ergebnisse zu bestätigen.
www.europeanurology.com
Die dunkle Materie
im anderen Licht
Seit einigen Jahren versuchen
Astrophysiker den Ursprung der
Elektronen- und Positronenströme
herauszufinden, die in der Milchstraße entdeckt wurden. Bislang
gingen die Wissenschaftler davon
aus, dass diese ihren Ursprung in
der dunklen Materie haben. Doch
laut einer in der Zeitschrift Physical
Review Letters im August 2009
veröffentlichten Studie, die von
der Forschungsgruppe der Astrophysikerin Julia Becker von der
Ruhr-Universität Bochum und dem
Physiker Wolfgang Rohde von der
Technischen Universität Dortmund
in Deutschland geleitet wurde,
verhält es sich ganz anders.
Danach stammen die entdeckten
Teilchenströme aus dem Plasma,
das bei der Explosion gigantischer
Sterne, die mehr als das 15-Fache
der Masse unserer Sonne besitzen,
in den Weltraum geschleudert wird.
Das beschleunigte Plasma kollidiert
mit dem Sternenwind, der aus
Teilchen aus früheren Explosionen
besteht, und es entsteht eine
Schockfront. Wenn sich die Schockfront zum Magnetfeld des Sterns
ausrichtet, ist das ausgestrahlte
Signal mal schwach und mal
energiereich. Dieses Modell passt
genau zu den Beobachtungen, was
research*eu Nr. 63 | APRIL 2010
21
Zentrum der Milchstraße.
Mäuselunge.
also bedeutet, dass der Beweis
für die Existenz der dunklen
Materie woanders zu suchen ist.
nen ausgesetzt ist, wird das
Immunsystem der Lungen aktiviert, was zur Verengung der
Bronchien und damit zu einer
schlechten Sauerstoffversorgung
führt. Das führt zur Annahme,
dass sich Asthma aus einer
Defizienz der Makrophagen an
einem bestimmten Zeitpunkt
im Leben eines Individuums
heraus entwickelt.
www.ruhr-uni-bochum.de
www.tu-dortmund.de
Zellen, die sich
gegen Asthma
wehren
www.ulg.ac.be
Eine Forschungsgruppe der Interdisziplinären Gruppe für angewandte
Genoproteomik an der Universität
Lüttich (BE) unter der Leitung des
Biologen und Tierarztes Fabrice
Bureau hat in Mäuselungen Zellen
entdeckt, die eine asthmatische
Reaktion verhindern können.
Diese Zellen, bei denen es sich um
Makrophagen handelt, sind mit den
Dendriten in der Lunge verbunden
und leiten Antigene an die T-Lymphozyten in den Lymphknoten
weiter. Die Makrophagen entdecken
ununterbrochen Antigene in der
eingeatmeten Luft sowie die
immunstimulierenden Moleküle,
die diese begleiten, und verhindern
die Wanderung der Dendritenzellen
zu den Lymphknoten und damit
die Reaktion des Immunsystems auf
diese ungefährlichen Allergene.
Die Immunreaktion von Asthmatikern auf Allergene in der Luft ist
allerdings gefährlich. Jedes Mal,
wenn der Patient diesen Allerge-
22
research*eu Nr. 63 | APRIL 2010
Der gute
Treibhauseffekt
Vor vier Milliarden Jahren war die
Sonne noch ein junger Stern und
um ein Drittel kälter als heute.
Ohne Treibhauseffekt wäre also
ein Leben auf der Erde gar nicht
möglich gewesen. Das Leben
verdankt die Erde dem Carbonylsulfid (COS), das aus der vulkanischen Aktivität während mehrerer
Millionen Jahre entstanden ist.
Zu diesem Ergebnis gelangt eine
Studie, die im August 2009 in
der Zeitschrift Proceedings of
the National Academy of Sciences
(PNAS) veröffentlicht wurde.
Die Autoren, der Chemiker
Matthew Johnson und seine
Kollegen von der Universität
Kopenhagen sowie eine Forschungsgruppe vom Tokioer
Technologieinstitut, haben in sehr
altem Gestein eine eigenartige
Schwefelisotopenverteilung
entdeckt, die nicht aus einem
geologischen Prozess stammt.
Davon überzeugt, dass ein Atmosphärenfaktor im Spiel sein kann,
haben sie Schwefeldioxid (SO2) mit
Sonnenlicht unterschiedlicher
Wellenlänge bestrahlt. Damit ist es
ihnen gelungen, die Verteilung der
Schwefelisotope im Gestein ganz
genau zu reproduzieren.
Für die Forscher weisen diese
Ergebnisse das Carbonylsulfid, das
sich aus Schwefel aus den Vulkaneruptionen gebildet hat, als den
besten Kandidaten für die Erklärung
des Treibhauseffektes aus, den es
seit den Anfängen der Erde gab. Sie
nehmen an, dass eine atmosphärische Decke aus COS, das wirksamer
ist als CO2, bereits ausgereicht hätte,
um 30 % der Energie zu kompensieren, die von der Sonne nicht geliefert wurde. Damit hatte es das
Entstehen von Leben begünstigt,
das es zerstört, wie das Ozon (O3)
die ultraviolette Strahlung.
Doch wie lässt sich die Vereisung
der Erde vor 2,5 Milliarden Jahren
mit einer solchen Decke erklären?
Durch das Entstehen von Leben,
durch welches große Mengen
an Sauerstoff freigesetzt wurden.
In einer oxidierten Atmosphäre
kann kein COS aus Schwefel mehr
entstehen, sondern nur noch
Sulfat-Aerosole, die eine umgekehrte Wirkung haben. Man muss
also alle Gase in der Atmosphäre
berücksichtigen.
www.chem.ku.dk
Neue Erkenntnisse
zum HI-Virus
Das grün fluoreszierende Protein,
dessen Entdeckung mit dem
Nobelpreis für Chemie 2008
belohnt wurde, hat bereits zu
neuen Fortschritten in der AIDS-
Forschung geführt. So ist es
Forschern der Universitäten
München und Heidelberg (DE)
gelungen, den Replikationsprozess
des HI-Virus in allen Einzelheiten
und in Echtzeit sowie den Prozess
zu beobachten, durch den die
neuen Viren freigesetzt werden,
und die Nachbarzellen infizieren.
Dazu hat Biophysiker und Forschungsleiter Don Lamb von der
Universität München Zellkulturen
verwendet, die 8 von 9 Genen des
HIV-1 enthalten, wobei eines davon
verändert wurde, um eine fluoreszierende Form des GAG-Proteins
zu erhalten (group-specific antigen), aus welchem die Virushülle,
das Capsid, besteht.
Die Studie, die teilweise durch das
7. Rahmenprogramm unterstützt
und in PloS (Public library of
Science) Pathogens veröffentlicht
wurde, zeigte, dass die Membran
der Wirtszelle in ein bis maximal
zwei Stunden nach Aktivierung
des Replikationsprozesses des
© Inserm/Philippe Roingeard
© ESO/S.Gillessen et al.
© Inserm/Michel Depardieu
IN KÜRZE
Ansetzen des HI-Virus. Das Virus
kommt aus der infizierten Zelle
mithilfe zellulärer Partner des
Zytoskeletts heraus, die an den
sogenannten Filopoden,
Zellverlängerungen, auftreten.
HIV-1 mit Viren bedeckt ist.
Jedes Virus wird einzeln zusammengebaut, nicht, wie bisher
vermutet, auf einer Art zellulärer
Plattform. Es dauert rund 15 Minuten bis das fertige Virus aus der
Abdruck der Grafik mit freundlicher Genehmigung des
Physikalischen Instituts der Universität Stuttgart.
IN KÜRZE
FORSCHUNG UNTER
DEM MIKROSKOP
Wirtszelle entlassen wird. Die Forscher konnten auch bestimmen,
ob die Viren auf der Oberfläche
einer Wirtszelle von dieser hergestellt wurden oder ob sie von
infizierten Nachbarzellen stammen. Bis zu diesem Zeitpunkt war
nur wenig über die interzellulären
Kontaminationsmechanismen des
HI-Virus bekannt. Diese Entdeckungen bringen eine neue
Sichtweise ein.
www.cup.uni-muenchen.de
www.plospathogens.org
Das Paradoxon
der Löcher
Macht man Löcher in einen feinen
Goldfilm, der bereits fast durchsichtig ist, wird der Film undurchsichtig! Das ist das Ergebnis der
Forschungsgruppe des Physikalischen Instituts der Universität
Stuttgart (DE). Erstaunlich?
Ein wenig, denn man weiß auch,
dass Lichtwellen keine Löcher
durchdringen können, die kleiner
als die Wellenlänge sind. Doch
Metalle machen von dieser Regel
manchmal eine Ausnahme.
Vor einem Jahrzehnt hatten
Forscher bereits nachgewiesen,
dass sich bei einer bestimmten
Anordnung der Löcher die einfallenden Lichtwellen über die
gesamte Oberfläche ausbreiten.
Durch die Interaktion dieser
Plasmonen mit dem Licht kann
das Licht den Film durchdringen.
Der verwendete Goldfilm – 20 nm
dick und mit Löchern von 200 nm
Durchmesser – war für die Versuchsbedingungen geeignet,
doch er ließ weniger Licht durch
als erwartet. Die Wissenschaftler
zweifelten die Halbdurchlässigkeit
des Films an, der 40 % des Lichts
durchlässt. Die restlichen 60 %
schienen nicht auszureichen,
damit die Plasmonen wirken
konnten. Außerdem schien die
Durchlässigkeitsrate von der
Wellenlänge abhängig zu sein,
weil Infrarotstrahlen eine sehr
starke Absorption nach sich
ziehen. Die deutsche Studie
trägt also mit neuem Wissen
zu diesem Forschungsgebiet bei.
Die Beherrschung dieser besonderen Interaktionen könnte zur
Entwicklung von integrierten
Plasmonenchips führen, um
bestimmte Wellenlängen herauszufiltern.
www.uni-stuttgart.de
Neue Wissenschaften??
In einem in der Zeitschrift Minerva veröffentlichten Artikel versucht
Andrea Bonaccorsi, Professor für Innovationswirtschaft und Wissenschaftssoziologie an der Universität Pisa, zu beschreiben, was er „neue
Wissenschaften“ nennt, das heißt das organisierte Wissen, das sich nach
dem Zweiten Weltkrieg herausgebildet hat: Informationswissenschaften,
Materialwissenschaften und Biowissenschaften auf der Grundlage
der Molekularbiologie, die sich ihm zufolge strukturell von den klassischen Disziplinen, wie Physik, Chemie oder Astronomie, unterscheiden.
Im Gegensatz zu den gängigen Behauptungen ist er der Meinung,
dass das Konzept der neuen Wissenschaften ebenso wie das der alten
vom „Reduktionismus“ geprägt wird, also dem Wunsch, „das komplexe
Sichtbare durch etwas einfaches Unsichtbares zu ersetzen“, um es mit den
Worten des berühmten französischen Physikers Jean Perrin auszudrücken.
Doch als Antwort auf die sozialen Bedürfnisse und wirtschaftlichen
Zwänge zeichnen sich diese Wissenschaften jedoch weder durch eine
größere Interdisziplinarität aus, noch sind sie stärker auf die Anwendung
hin orientiert, jedenfalls nicht grundlegend.
Bonaccorsi zufolge sind sie hauptsächlich von der Form der hier
herrschenden Forschungsdynamik geprägt. Es ist eine Dynamik
mit industriellem Tempo, die sich durch schnelles Wachstum und hohe
Diversifikation in Verbindung mit einer Tendenz zur Divergenz der Fragestellungen charakterisiert. Jede Erklärungshypothese führt zu einem
neuen Forschungsprogramm.
Zur Begründung seiner These nutzt Bonaccorsi die Ergebnisse einer
Vergleichsanalyse zur Häufigkeit neuer Wörter in wissenschaftlichen
Publikationen, die einerseits aus diesen drei Forschungsgebieten
und andererseits aus dem traditionellen Bereich der Hochenergiephysik
stammen.
Interessante Ansichten wie diese müssen jedoch differenziert und
ergänzt werden. Darüber hinaus wäre es sicher möglich gewesen, all
das verständlicher und einfacher auszudrücken. Beklagen wir uns aber
nicht: Im Vergleich zu vielen seiner Hochschulkollegen ist der Stil von
Andrea Bonaccorsi (beinahe) der von Voltaire.
Michel André
research*eu Nr. 63 | APRIL 2010
23
INTERVIEW
Das Foto wurde uns freundlicherweise vom Deutschen
Krebsforschungszentrum überlassen
Auszeichnung
eines „Grundlagenforschers“
Harald zur Hausen –
„Da wir den Genomschlüssel des Humanen
Papillomvirus nachgewiesen haben, hätte
die Entwicklung eines
Impfstoffs eigentlich
uns zugestanden.“
Ihr Nobelpreis ist die Krönung des
Lebenswerks eines „Grundlagenforschers“, der
sein Leben der Krebsforschung gewidmet hat,
vor allem der Erforschung von Tumorviren.
Wie kommt es, dass Sie sich für diesen Weg
entschieden haben?
Seit meiner Doktorarbeit in Medizin in den
1960er Jahren habe ich mich dafür interessiert,
welche Rolle Viren bei der Entstehung von Krebs
spielen können. Obwohl bereits seit Anfang des
20. Jahrhunderts die infektiöse Ursache bestimmter Tumore bei Tieren bekannt war, tappte man
noch völlig im Dunkeln, was die Rolle von Viren
bei der Entstehung von Tumoren beim Menschen
betraf. Ich begann, mit Gertrude und Werner
Henle in den Vereinigten Staaten über BurkittLymphome (1) zu arbeiten. Die beiden englischen
Biologen Michael Epstein und Yvonne Barr stellten 1964 einen Zusammenhang zwischen dem
Herpesvirus EBV (Epstein-Barr-Virus), das auch
ihren Namen trägt, und der Entstehung des
Burkitt-Lymphoms fest. Für mich war die zentrale
Frage, welche Rolle dieses Virus im Genom der
24
research*eu Nr. 63 | APRIL 2010
Der Nobelpreis für Medizin 2008 hebt die Bedeutung von
drei europäischen Pionieren hervor, die einen entscheidenden
Beitrag zum Kampf gegen zwei schlimme Infektionskrankheiten geleistet haben: der beiden Franzosen Luc
Montagnier und Françoise Barré-Sinoussi, Entdecker des
HI-Virus, und des deutschen Virologen Harald zur Hausen,
der den Nachweis erbracht hat, dass Papillomaviren Gebärmutterhalskrebs auslösen können. Ein Gespräch mit dem
Wissenschaftler, dessen Entdeckung die Entwicklung der ersten
vorbeugenden Impfung gegen diese Krebsform ermöglicht hat.
Epithelzellen spielt. Nach meiner Rückkehr nach
Deutschland konnte ich eine Forschungsgruppe
am Institut für Virologie in Würzburg zusammenstellen. Bei unseren Arbeiten entdeckten wir, dass
bereits bei einer Ansteckung die DNA des EpsteinBarr-Virus in den Zellen des Burkitt-Lymphoms
nachweisbar ist, obwohl sie dieses Virus noch
nicht produzieren. Das war ein wichtiges Resultat,
denn es zeigte, dass das weitere Wachstum der
Tumore auf ein Genom zurückzuführen war.
Haben Sie damals beschlossen, sich auf die
Erforschung des Gebärmutterhalskrebses zu
konzentrieren?
Ich habe in der Tat mit diesen Ergebnissen im
Gepäck angefangen, über Gebärmutterhalskrebs
zu arbeiten – immerhin die zweithäufigste
Krebsursache bei Frauen. Damals ging man
davon aus, dass diese Krankheit durch Herpessimplex-Viren ausgelöst wurde, die durch sexuelle Kontakte übertragen werden. Die Verfahren
für den Nachweis von DNA, über die wir damals
verfügten, bestätigten diese Hypothese allerdings
nicht. Nachdem sich dies als Irrweg erwiesen hatte, begann ich, mich für Berichte über „kleinere
medizinische Eingriffe“ (einige gingen sogar bis
auf das 19. Jahrhundert zurück) bei Krankheiten
zu interessieren, die von Genitalwarzen verursacht werden und die wir einem anderen noch
weitgehend unbekannten Virus zuschrieben,
dem Papillomavirus oder HPV(2). Damals war
das noch weitgehend Neuland. Als ich 1974 in
einem Vortrag auf einer Virologie-Konferenz in
Florida über diese Genitalwarzen die Hypothese
des Herpes-simplex-Erregers zu widerlegen versuchte, wurde ich nicht ernst genommen.
Unsere Gruppe – ich war damals Leiter des
Instituts für Virologie der Universität Freiburg –
begann damals eine enge Zusammenarbeit
mit dem Institut des Franzosen Gérard Orth.
Er teilte meinen Verdacht und untersuchte
den Vererbungsaspekt der HPV. Unsere beiden
Gruppen trafen sich mehrmals, um Forschungsergebnisse auszutauschen und darüber zu diskutieren. Diese Form der Zusammenarbeit war eine
fruchtbare Erfahrung.
INTERVIEW
Doch bis zum Durchbruch sollten noch viele
Jahre vergehen. Zunächst gelang es uns, die DNA
der HPV aus Plantarwarzen zu isolieren. Zu unserer großen Enttäuschung fanden wir jedoch keinerlei vergleichbare Spuren in den Biopsien von
Genitalwarzen. Damals wurde uns klar, dass es
unterschiedliche HPV-Typen geben musste. 1983
gelang es einem Studenten unseres Instituts,
Mathias Dürst, zum ersten Mal, einen neuen spezifischen Typ zu klonen, HPV 16. Es stellte sich
heraus, dass HPV 16 die direkte Ursache von fast
der Hälfte aller Gebärmutterhalskrebserkrankungen
war. Danach gelang uns auch der Nachweis des
HPV-18-Typus. Heute kennt man fast 115 unterschiedliche Papillomaviren. Es war uns gelungen,
die beiden HPV-Typen zu isolieren, die für 70 %
aller Zervixkarzinome verantwortlich sind. (3)
Seit einigen Jahren steht eine vorbeugende
Impfung gegen Gebärmutterhalskrebs zur
Verfügung, eine einmalige Sache bei Krebs.
Waren Sie an diesem langen Weg zu diesem
medizinischen Fortschritt beteiligt?
Da wir im Besitz des Genomschlüssels des HPV
waren, hätte es eigentlich uns zugestanden, einen
Impfstoff gegen dieses Virus zu entwickeln. In den
1980er Jahren habe ich Kontakt zu einem deutschen Pharmaunternehmen aufgenommen. Nach
ersten Vorgesprächen erklärte das Unternehmen
uns, dass es keinen Markt für einen solchen
Impfstoff gebe. Das war ein wenig frustrierend.
Wir hatten unsere Forschungsergebnisse bereits
veröffentlicht, einschließlich der Proben und der
Laborprotokolle. Ich war damals ein wenig naiv
und dachte nicht in Kategorien einer industriellen
Verwertung und von Technologietransfer. Die
Ergebnisse unserer Arbeiten und unsere Methoden
wurden von anderen übernommen, die sie sich
haben patentieren lassen. 1983 habe ich daher das
Deutsche Krebsforschungsinstitut in Heidelberg
gegründet, das ich 20 Jahre lang geleitet habe.
Seitdem hat sich mein Forschungshorizont in der
Krebsforschung erheblich erweitert.
Einige europäische Medien haben Zweifel
geäußert, ob die beiden vorbeugenden Impfungen
tatsächlich wirksam sind, zumal sie erst seit
Kurzem durchgeführt werden. Was denken Sie
über diese Vorbehalte?
Diese Impfungen sind eine sehr wichtige
Neuerung. Sie bieten erstmals die Möglichkeit,
einer Krebserkrankung vorzubeugen, die
durch Infektion übertragen wird – immerhin die
Ursache von 20 % aller Krebserkrankungen. Das
ist ein überaus komplexer Forschungsbereich,
denn die Möglichkeiten für eine Erstinfektion
sind zahlreich, und es kann Jahre dauern, bis
die kanzerogene Wirkung sichtbar wird.
Aber diese Impfungen sind genauso sicher
wie die anderen Impfungen von Kindern oder
Erwachsenen. Eine australische Studie, die an
über 200 000 jungen Mädchen durchgeführt
wurde, hat nur minimale Komplikationen ergeben. Was die Effizienz betrifft, so ist sie im Labor
nachgewiesen. Es ist noch zu früh, um sie in
Form von Ergebnissen zu bestätigen. Da es sich
um vorbeugende Impfungen handelt und nicht
um therapeutische, müssen sie verabreicht werden, bevor eine Ansteckungsgefahr besteht, das
heißt vor den ersten sexuellen Kontakten. Die
Latenzzeit ist sehr lang. Es kann mehr als zwei
Jahrzehnte dauern, bis die Zellen entarten und
es zur Bildung eines Zervixkarzinoms kommt.
Ob die Inzidenz des Gebärmutterhalskrebses
zurückgegangen ist, kann daher erst in einigen
Jahrzehnten festgestellt werden.
Der Widerstand gegen Impfungen, der in
Teilen der Bevölkerung anzutreffen ist, ist irrational. Beim HPV, das durch sexuelle Kontakte
übertragen wird, kommen zusätzlich noch kulturelle, soziale oder religiöse Tabus ins Spiel. Der
unmittelbare Vorteil der Impfung gegen das HPVVirus liegt darin, dass die Ansteckung und das
Auftreten von Schädigungen verhindert werden.
Längerfristig trägt die Impfung auch dazu bei, die
Zahl der operativen Entfernungen zu verringern,
die allerdings häufig nicht umfassend genug ausgeführt werden – 20 % des geschädigten Gewebes
bleibt unbemerkt – um damit vielen Frauen das
Schicksal der Unfruchtbarkeit zu ersparen.
Was allerdings durchaus ein Grund zur
Beunruhigung ist, ist der Kostenfaktor. Das ist
ein Grund, warum die Impfung gerade in
Entwicklungsländern – wo immerhin 80 % der
Gebärmutterhalskrebs-Erkrankungen vorkommen – nur selten praktiziert wird. Schätzungen
zufolge ist diese Krebserkrankung die Ursache
von 250 000 Todesfällen jährlich. Das ist
eine wirtschaftspolitische Herausforderung.
Schwellenländer wie China oder Indien könnten diese Herausforderung durchaus meistern.
Sie haben nahezu Ihre gesamte
Forscherlaufbahn an deutschen Universitäten
zugebracht. Wie sehen Sie den Europäischen
Forschungsraum?
Nach meiner Rückkehr aus den Vereinigten
Staaten bot mir das deutsche Stiftungswesen
eine große Freiheit, was die Möglichkeit der
Finanzierung der Forschungsarbeiten betraf,
denn die Ergebnisse lagen damals noch in weiter Ferne. In den USA ist die Forschung zwar
sehr erfolgreich, aber sie ist zunehmend auf
Erfolg versprechende Bereiche ausgerichtet. Ich
würde sagen, Europa war zumindest bis vor
Kurzem in der Lage, originellen Ideen etwas
mehr Raum zu lassen. Ich fürchte allerdings,
dass die Entwicklung bei uns in dieselbe
Richtung gehen wird wie in den USA.
Welche Rolle sollten Ihrer Meinung nach die
europäischen Forschungsprogramme spielen?
Das Deutsche Krebsforschungszentrum ist an
vielen europäischen Projekten beteiligt. Ich habe
manchmal mehr oder weniger eng an einer
ganzen Reihe von Projekten in Virologie,
Genomik und Molekularbiologie mitgewirkt.
Ich glaube allerdings, man muss eine Falle vermeiden. Das heißt, man sollte nicht um jeden
Preis die Welt verknüpfen und immer mehr
Netzwerke schaffen. Wissenschaftler brauchen
die Freiheit der Wahl. Sie wissen, wo ihre
Konkurrenten und wo ihre Verbündeten sind,
und sie müssen daher selbst entscheiden dürfen,
wem sie ihre Initiativen anvertrauen. Hier in
Heidelberg haben wir zum Beispiel zum ersten
Mal ein komplettes Forscherteam, das früher
im Inserm in Frankreich arbeitete, nach
Deutschland geholt, um mit uns zusammen in
unserem Zentrum zu arbeiten. Diese Art der
Wechselwirkung zwischen Exzellenzteams
erscheint mir überaus fruchtbar, auch wenn es
dabei ein paar Probleme mit der kulturellen und
materiellen Anpassung gibt.
Das Interview führte Didier Buysse.
(1) Form eines bösartigen Tumors, der bei afrikanischen
Kindern endemisch vorkommt.
(2) HPV steht für Humanes Papillomavirus.
(3) Der Begriff „Zervixkarzinom“ wird in der Medizin
für den Gebärmutterhalskrebs verwandt.
DKFZ – Deutsches Krebsforschungszentrum
www.dkfz.de/en/zurhausen/
research*eu Nr. 63 | APRIL 2010
25
REPORTAGE
© Laurence Buelens
„Meine Stimme
begleitet Sie“
Königin Fabiola von Belgien hat einen wichtigen
Beitrag geleistet, um die Anästhesie unter Hypnose
bekannt zu machen, nachdem sie sich 2009
selbst einer solchen Operation unterzogen
hatte. Das Verfahren wurde im Universitätsklinikum Lüttich (BE) entwickelt und
wird heute in vielen Ländern praktiziert,
in Frankreich, der Schweiz, den Vereinigten Staaten. Belgien spielt jedoch
nach wie vor eine Vorreiterrolle.
Reportage aus dem Universitätsklinikum Saint-Luc in Brüssel,
wo wir bei einer Operation
der Halsschlagader zusehen
konnten, die unter Hypnose
durchgeführt wurde.
S
icher ist Ihnen das auch schon einmal
passiert: Sie sitzen am Steuer Ihres
Autos. Plötzlich stellen Sie fest, dass Sie
ein ganzes Stück gefahren sind, ohne
dass Sie sich dessen bewusst wurden, dass Sie
mit Ihren Gedanken ganz woanders waren.
Dieser Zustand, der ziemlich häufig vorkommt,
ist nichts anderes als eine leichte Hypno-Trance.
Der Zustand eines modifizierten Bewusstseins,
eine veränderte Wahrnehmung der Welt, in der
das Unterbewusstsein die Regie übernimmt.
„Man muss höllisch aufpassen, was man dem
Unterbewusstsein suggeriert. Das Unterbewusstsein
versteht nämlich keine Verneinung: Wenn Sie den
Patienten fragen, ob er nicht zu viel Angst habe,
oder ob er Angst vor den Schmerzen habe, dann
26
research*eu Nr. 63 | APRIL 2010
versteht das Unterbewusstsein nur die Worte
„Angst“, „Furcht“ und „Schmerzen“, also alles
Begriffe mit einer negativen Bedeutung. Das
kann den ganzen Prozess unterbrechen“, erklärt
Christine Watremez, Anästhesistin im Saint-Luc,
bevor wir Jean treffen, der sich einer Endarteriektomie (1) unterzieht, um eine Verengung der
Halsschlagader behandeln zu lassen.
Von Angst oder Unruhe ist keine Spur, als wir
den sympathischen Rentner am Abend vor dem
Eingriff fragen, wie er sich fühlt. „Ruhig, entspannt.
Ich bin selbst überrascht. Ich habe schon einige
Eingriffe unter Vollnarkose hinter mir, aber ich
habe sie nie gut vertragen. Als man mir gesagt hat,
dass es auch die Möglichkeit einer Operation ohne
Narkose gibt, habe ich sofort zugesagt.“
Hypno-Anästhesie wird bereits seit sechs Jahren
im Saint-Luc praktiziert. Neben Christine Watremez
hat die Klinik noch drei weitere Anästhesistinnen,
die diese Technik beherrschen. Pro Tag führen
sie im Schnitt zwei Operationen unter Hypnose
durch. Laut Fabienne Roelants, eine der HypnoseAnästhesistinnen, lassen sich die Patienten in vier
Kategorien einteilen. „Es gibt Menschen wie dieser
Patient, die eine Vollnarkose nicht gut vertragen.
Dann gibt es die Selbstständigen, die so schnell wie
möglich wieder zu ihrer Arbeit zurückkehren wollen, und es gibt Patienten, die sich an uns gewandt
haben, weil ihr Gesundheitszustand so angegriffen
ist, dass niemand es wagt, sie unter Vollnarkose zu
operieren. Und dann gibt es schließlich noch diejenigen, die einfach neugierig sind!“
REPORTAGE
Wie funktioniert die
hypnotische Analgesie
© Laurence Buelens
M
Christine Watremez (links) und Fabienne Roelants, zwei der vier Spezialistinnen
des Saint-Luc-Klinikums (Brüssel), die in Hypnose-Anästhesie ausgebildet sind.
Das „pharmakologische Koma“
vermeiden
Die allgemeine Anästhesie besteht im Grunde
darin, den Patienten in ein pharmakologisches
Koma zu versetzen, das umkehrbar ist, und in
dem seine Atemfunktion und die Herzfrequenz
von medizinischen Geräten überwacht werden.
Er erhält einen Cocktail von Beruhigungsmitteln,
der zur Folge hat, dass er das Bewusstsein verliert, von Betäubungsmitteln, die die Schmerzen
betäuben, und eventuell auch noch Curare zur
besseren Muskelentspannung. Eine Vollnarkose
ist also immer ein schwerer und nicht ungefährlicher medizinischer Eingriff.
Hypnose, die man als einen subjektiven
Zustand bezeichnen kann, in dem Bewusstseinsveränderungen durch Suggestionen herbeigeführt
werden, hat ebenfalls eine analgetische Wirkung,
die seit Langem bekannt ist. Erstmals wurde sie
1830 bei chirurgischen Eingriffen angewandt. Sie
geriet jedoch schnell in Vergessenheit, als wenige
Jahre später der Äther entdeckt wurde.
1992 beginnt Marie-Elisabeth Faymonville,
Anästhesistin am Universitätsklinikum von Lüttich
(BE), sich für die Arbeit eines Schweizer Anästhesisten zu interessieren. Dieser setzte Hypnose
ein, um die Schmerzen bei großflächigen Verbrennungen zu lindern. „Ich habe festgestellt, dass
Hypnose keine Begabung ist, sondern eine
Technik, die man erlernen kann. Ich dachte mir,
dass man sie so verfeinern könnte, dass daraus
eine vollständige Anästhesietechnik wird“, erinnert sie sich. 1992 begann sie damit, HypnoseAnästhesie bei der ästhetisch-plastischen Chirurgie
einzusetzen, später in der endokrinen Chirurgie.
„Heute wird Hypnose auch bei Brustoperationen,
in der Gefäßchirurgie, bei Augenoperationen oder
bei Hals-Nasen-Ohrenoperationen angewandt.
Man kann sie sogar bei der Entfernung peripherer Tumore oder bei der Operation von Bandscheibenvorfällen einsetzen“, fügt sie hinzu. Man kann
sagen, dass Hypnose sich für alle oberflächlichen
Eingriffe eignet, bei denen eine Lokalanästhesie
möglich ist, aber nicht ausreicht, um sicherzustellen, dass der Patient während der Operation
schmerzfrei ist.
Bis heute wurden im Universitätsklinikum
Lüttich mehr als 7 000 Operationen unter
ithilfe moderner Bildgebungstechniken
wie der funktionellen Magnetresonanztomographie (fMRT) und der Positronen-Emissionstomographie (PET) konnten die
Wirkungen gemessen werden, die bei Patienten,
die unter Hypnose-Anästhesie operiert werden,
beobachtet werden.
Bei Schmerzreizen lässt sich eine völlig unterschiedliche Hirnaktivität feststellen, je nachdem,
ob der Patient unter Hypnose steht oder sich im
normalen Wachzustand befindet. Bei der Hypnose scheint der Cortex cingularis anterior (CCA) –
dem unter anderem die kognitiven Funktionen
wie Vorfreude auf Belohnung, Entscheidung,
Empathie und Emotionen zugeschrieben werden
– eine dominierende Rolle zu spielen. In der Tat
lässt sich feststellen, dass der mittlere Teil des
CCA aktiviert wird und dass es zu Veränderungen
in der Verbindung zwischen diesem Teil und den
Kortex- und Subkortexregionen kommt.
Diese Aktivierung bestimmter Hirnregionen
könnte eine bessere Verschlüsselung der Schmerz
leitenden Information ermöglichen. Einige Wissenschaftler glauben, dass die Hypnose verhindert, dass die Schmerzinformation zu den oberen
Kortexregionen gelangt, die verantwortlich sind
für die Schmerzempfindung. Andere dagegen
meinen, dass Hypnose eine bessere Reaktion
ermöglicht, indem die absteigenden hemmenden Schmerzbahnen besser aktiviert werden.
Welche Neurotransmitter dabei eine Rolle spielen, weiß man jedoch bisher nicht.
Hypnose durchgeführt, und in zahlreichen
Studien wurde die Wirkung belegt. Allein zwischen 1994 und 1997 wurden in Lüttich mehr
als 200 Schilddrüsenoperationen und in 2 Fällen
eine zervikale Exploration wegen Hyperparathyreoidismus mit Hypnosedierung durchgeführt. Alle Patienten berichten von einer
„angenehmen Erfahrung“. Im Vergleich zu einer
Operation unter Vollnarkose hatten diese
Patienten nach der Operation weniger
Schmerzen, sie brauchten weniger Betäubungsmittel, sie erholten sich schneller und
konnten schneller ihre Arbeit wieder aufnehmen. (2) Eine andere Studie, die in Boston
durchgeführt und im April (2003) in der
Fachzeitschrift The Lancet veröffentlicht wurde,
hat auch gezeigt, dass bei Operationen
research*eu Nr. 63 | APRIL 2010
27
REPORTAGE
unter Hypnose geringere Kosten anfielen, Komplikationen seltener auftraten und die
Dauer des Eingriffs kürzer war.
Marie-Elisabeth Faymonville hat in Lüttich ein
internationales Schulungszentrum eingerichtet,
an dem bis heute 450 Anästhesisten ausgebildet
wurden, unter anderem aus der Schweiz, aus
Luxemburg oder Kanada, aber vor allem auch
viele Franzosen. Frankreich hat inzwischen ein
eigenes großes Ausbildungszentrum in Rennes.
Auch in Deutschland und Österreich nimmt das
Interesse an dieser Technik zu.
1
Die verwandelte Blockade
„Können Sie mich hören? Wir hören schon Ihr
Herz. Sie hören noch andere Geräusche: eine Tür,
die sich öffnet, Leute, die hereinkommen, die
hinausgehen, die reden… Und dann natürlich die
28
research*eu Nr. 63 | APRIL 2010
2
1 2
Operation unter Hypnose im Saint-Luc-Krankenhaus.
Dr. Christine Watremez, Anästhesistin (1)
und der Chirurg Parla Astarci und
die OP-Schwester Rosie Enonyi (2).
4
© Laurence Buelens
© Laurence Buelens
3
© Laurence Buelens
Bei einer Anästhesie unter Hypnose werden
entweder überhaupt keine Beruhigungsmittel
verabreicht – in diesem Fall spricht man von
Hypnoanalgesie – oder sie werden reduziert.
Dann spricht man von Hypnosedierung. In
Lüttich wird letztere praktiziert. In Brüssel dagegen wird seit einigen Jahren die Hypnoanalgesie
bevorzugt. „Wir wollen die Hypnose nicht mit
einem Beruhigungsmittel verunreinigen. Wenn
der Patient sich wohl fühlt, ist dies nicht notwendig“, meint Christine Watremez.
Am nächsten Tag wird unser Patient also nur
Betäubungsmittel erhalten: ein lokales Präparat,
um das Operationsfeld zu desensibilisieren, und
ein leichtes Morphinpräparat, das intravenös verabreicht wird. Die Dosis kann vom Anästhesisten
nach Bedarf reduziert werden. „In der Praxis
kann die Dosis häufig reduziert werden, und
manchmal wird die Pumpe sogar ganz gestoppt“,
erklärt Christine Watremez. Jean wird im Geist in
Sizilien sein. „Bei der Vorbesprechung habe ich
ihm erklärt, was Hypnose ist. Ich habe ihm
erklärt, dass er nicht schlafen und bei Bewusstsein
bleiben würde. Ich habe ihm auch gesagt, dass
er seine Meinung ändern könne, wenn er wolle.
Ob nun aus chirurgischen Gründen oder weil
der Patient dies verlangt, muss es jederzeit möglich sein, eine Vollnarkose durchzuführen. Wir
halten immer alles bereit, und die Überwachung
ist dieselbe. Alles, was Jean tun musste, war eine
angenehme Erinnerung zu finden, die er wieder
erleben wollte. Es war seine goldene Hochzeit
im Land von Bellini.“
© Laurence Buelens
Hypnosedierung oder Hypnoanalgesie?
3
Abklemmen und Öffnen der Arterie
für die Endarteriektomie (Ausräumung der Arteriosklerose-Plaque,
die zur Einengung der Gefäßlichtung geführt hat).
4
Der Patient nach dem Aufwachen
mit der Krankenschwester
Sophie Mertz und den Ärzten
Parla Astarci und Christine
Watremez (von links nach rechts).
REPORTAGE
Das Ich-Bewusstsein – ein weites Forschungsfeld
I
n Wirklichkeit weiß man nur wenig über das, was während einer Vollnarkose mit dem Organismus passiert. Einige Patienten vertragen sie gut, andere dagegen gar nicht. Was sind die Gründe
für diese unterschiedlichen Reaktionen? Was passiert überhaupt in den Gehirnzellen? Und welches
sind die genetischen Folgen?
Weil sie auf all diese Fragen keine befriedigenden Antworten gefunden hatte, hat Marie-Elisabeth
Faymonville 1992 diese Hypnose-Anästhesie-Techniken entwickelt. Heute führt sie Forschungen zur
Kognition durch. „Was man weiß, ist, dass empfindliche Personen nach einer Vollnarkose häufig unter
Bewusstseinsstörungen leiden. Man weiß auch, dass das Arbeitsgedächtnis – das Gedächtnis, das
es uns zum Beispiel ermöglicht, die PIN-Nummer unserer Bankkarte zu behalten – nach einer Operation unter Hypnose weniger gestört ist“, erläutert die Anästhesistin.
„Wir würden gerne unsere Forschungen über die Strukturen des Ich-Bewusstseins mithilfe der
funktionellen Magnetresonanztomographie fortführen. Die Auswirkungen untersuchen, die die
Ausschaltung des Bewusstseins bei einer Operation unter Vollnarkose und bei einer Operation unter
Hypnose nach sich zieht. Inwiefern ist das Bewusstsein verändert? Beeinflusst dies den Alterungsprozess? Es wäre wunderbar, ein solches Projekt durchführen zu können.“
Solche postoperativen Forschungen durchzuführen, ist immer sehr schwierig. Denn man muss die Patienten motivieren, wiederzukommen, um nach dem Eingriff an den Tests teilzunehmen. Bei Operationen,
die unter Hypnose durchgeführt werden, gibt es jedoch noch ein anderes Problem: Man kann keine
Doppelblindstudien durchführen, da die Hypnose die aktive Teilnahme der Patienten erfordert.
Gerüche. Den normalen Krankenhausgeruch. All
diese kleinen Dinge, die unseren Alltag ausmachen und die in den nächsten Stunden zu Ihrer
Umgebung gehören werden. Die erste Infusion
ist bereits gelegt, jetzt kommt die nächste, genauso wie ich Ihnen erklärt habe. Und sobald dies
erledigt ist, werden Sie auf die Reise gehen. Sie
werden also eine kleine Reise nach Sizilien
machen, nicht wahr? Sie können natürlich Ihre
Reiseroute ändern. Ich bleibe bei Ihnen, an Ihrer
Seite. Ist alles okay? Fühlen Sie sich wohl?“ Sobald
Jean im Operationssaal angekommen ist, wird er
von Christine Watremez in Empfang genommen.
Sie informiert ihn präzise über den Ort, damit dieser ihn während der Hypnose nicht irritiert. Auch
aus diesem Grund hat der Chirurg ihm alle
Bewegungen erläutert, die er vornehmen wird.
Nichts darf ihn beunruhigen.
Etwa fünf Minuten vor der Ankunft des übrigen Operationsteams setzt sich die Anästhesistin
auf einen Hocker direkt neben dem Kopf ihres
Patienten. Sie hält seine Hand. Im Atemrhythmus
des Patienten wird ihre Stimme immer leiser, langsamer, monotoner. „Sie fixieren jetzt einen Punkt
an der Decke. Gleichzeitig konzentrieren Sie sich
auf jeden einzelnen Teil Ihres Körpers… Und bei
jedem Einatmen entspannt sich Ihr Körper… Sie
lassen die angenehmen Bilder der Reise vor Ihrem
Auge Revue passieren… Atmen Sie tief ein
und lassen Sie Ihren Geist los, ganz ruhig und
ganz entspannt, und schicken ihn auf diese angenehme und komfortable Reise. Sehr gut…“ Parla
Astarci, der Chirurg, kommt herein, grüßt alle
wortlos und beginnt damit, das Operationsfeld mit
Iso-Betadin zu bestreichen. Jean ist bereits „weg“.
Die Bewegungen des Chirurgen anpassen
Ab und zu öffnet Jean die Augen, murmelt
einige Worte, drückt die Hand der Anästhesistin
oder scheint tief zu schlafen. Aber was ist, wenn
die Hypnose nicht funktioniert? „Wenn der
Patient motiviert ist und bereit ist, mitzuarbeiten
und wenn er uns vertraut, dann funktioniert es
immer“, antworten Fabienne Roelants und
Christine Watremez. Sie erklären, dass es in
sechs Jahren noch nie Probleme gegeben habe.
Mit Ausnahme von Christine Watremez spricht
niemand – man hört hier und da ein Flüstern.
Von Zeit zu Zeit steht die Anästhesistin auf, um
zu sehen, wie weit die Operation ist. Auch das ist
völlig anders als bei einer normalen Operation.
„Diesen Eingriff muss man so inszenieren wie
ein Musiker, der ein Kunstwerk inszeniert“, sagt uns
Michel Mourad, Spezialist für endokrine Chirurgie
und der erste Arzt, der im Saint-Luc unter Hypnose
operiert hat. „Der Patient ist bei Bewusstsein, er
fühlt unsere Bewegungen, er sieht, was wir tun,
und kann unsere Gefühle erkennen. Das zwingt
uns sehr strenge Regeln auf“, erklärt er.
Technische Regeln in erster Linie. „Der Chirurg
darf zum Beispiel nicht zerren und keine abrupten
Bewegungen machen. Alles muss ruhig und sanft
ablaufen. Heute haben wir neue Instrumente für
Koagulation und Sektion, die es uns ermöglichen,
die Zahl der Bewegungen zu verringern und jeden
Lärm beim Instrumentenwechsel zu vermeiden.“
Ganz wichtig ist auch, dass der Chirurg die Ruhe
bewahrt, wenn es Komplikationen gibt. „Wenn
es zum Beispiel während einer Operation zu
Blutungen kommt, muss ich ruhig bleiben, denn
der Patient bekommt jede Hektik oder Aufregung
mit, und das könnte ihn in Angst versetzen. Wir
müssen in der Lage sein, Komplikationen auf sanfte Weise zu überwinden. Aus diesem Grund glaube ich auch, dass man über ein gewisses Maß an
Erfahrung verfügen muss, bevor man sich an eine
Hypnose-Anästhesie wagt.“
Das „Aufwachen“
Die Anästhesistin hat mit Jean während
der gesamten Operation in einer bestimmten
Stimmlage gesprochen. Sobald die Wunde vernäht ist, kehrt ihre Stimme zum normalen Tonfall
zurück. Sie erklärt: „Die Operation ist beendet.“
Er öffnet die Augen und dankt ihr. „Es kommt nur
sehr selten vor, dass Patienten sich nach einer
normalen Anästhesie bei uns bedanken. Bei einer
Hypnose-Anästhesie tun sie es immer“, stellt
Christine Watremez fest. Sie sind überrascht von
der Erfahrung, aber freuen sich, dass sie es
gewagt haben. Vor allem werden sie sich bewusst,
dass man mit ihnen nicht einfach alles machen
kann, dass man sie nicht manipulieren kann.“
Einige Augenblicke später sitzt Jean auf seinem
Bett und sagt zu Parla Astarci: „Sagen Sie, Herr
Doktor, nun, da ich die linke [HalsschlagaderOperation – Anm. d. Red.] gut überstanden habe,
könnten Sie mir nicht auch die rechte operieren?“
Landung geglückt.
Im Aufwachraum gesteht er: „Ich bin angenehm überrascht. Ich hatte nicht erwartet, dass es
so bequem sein würde, so einfach. Ich habe die
ganze Zeit an Sizilien gedacht, genauso als wäre
ich dort. Ob ich etwas gefühlt habe? Zwei oder
drei Stiche, durchaus erträglich“. Er sucht nach
Worten, um die Erfahrung zu beschreiben, die er
erlebt hat. „Ich war bei Bewusstsein. Aber ich war
ganz woanders“.
Laurence Buelens
(1) Bei der Endarteriektomie wird der Thrombus, der durch
einen erhöhten Cholesterinspiegel verursacht wird,
ausgeräumt. Anschließend erfolgt eine Dilation der
Arterie, um einem Schlaganfall vorzubeugen.
(2) T. Defechereux, M. Meurisse, E. Hamoir, L. Gollogly,
J. Joris, M.-E. Faymonville, J Altern, Hypnoanesthesia for
endocrine cervical surgery: a statement of practice,in:
Complement Med. 1999 Dez, 5(6):509-20.
(3) E. Lang et al., Adjunctive non pharmacological analgesia
for invasive medical procedures: A randomised trial, in;
Lancet 2000, 355:1486-90.
research*eu Nr. 63 | APRIL 2010
29
Blick hinter
die Kulissen der
Werkstatt des Glücks
Das Wesen des Glücks zu verstehen, um den Menschen helfen zu
können, die solche Gefühle nicht kennen. Das ist es, was Morten
Kringelbach und seine Kollegen von der TrygFonden Research
Group sich bei ihren Forschungsarbeiten vorgenommen haben.
„Das Fehlen von Glücksgefühlen ist charakteristisch für viele psychische Erkrankungen wie Depression. Wenn wir besser verstehen,
welche Gehirnkreise für das Glücksempfinden verantwortlich
sind, werden wir eines Tages vielleicht in der Lage sein, das
Gleichgewicht dieser fundamentalen Netzwerke wiederherzustellen“, betont der Neurowissenschaftler, der sowohl an der
Universität Oxford (UK) als auch an der Universität Aarhus (DK)
lehrt. Werfen wir doch einmal einen Blick hinter die Kulissen.
Essen, Sex und soziale Beziehungen
U
nsere elementaren Glücksgefühle werden von Empfindungen ausgelöst, die
eng mit Essen, Sex und den sozialen
Beziehungen zusammenhängen. Im
Gehirn werden diese Empfindungen zunächst von
sensorischen Rezeptoren entdeckt, die an allen
Stellen unseres Körpers zu finden sind. Erst danach
werden sie in den sensorischen Regionen unseres
Gehirns entschlüsselt“, erklärt der Psychiater
Morten Kringelbach. (1) Und im Gegensatz zu dem,
was man sich vorstellen könnte, lassen sich
Glücksgefühle nicht auf die Stimulation dieser
Rezeptoren reduzieren. Sie sind vielmehr das
Ergebnis eines komplexen Vorgangs aus Vorfreude,
Abwägen und Erinnerung. Glücksgefühle sind also
eine Mischung aus Verlangen, angenehmen
Gefühlen und aus Lernvorgängen.
„Bei mehreren Forschungen an Mensch und
Tier konnte festgestellt werden, welche Hirnregionen beim Zustandekommen dieser Gefühle
eine Rolle spielen. Einige dieser Regionen befinden sich tief im Inneren unseres Gehirns wie der
30
research*eu Nr. 63 | APRIL 2010
Nucleus accumbens oder der Hypothalamus,
andere dagegen befinden sich in der
Großhirnrinde.“ Genau in dieser Region des
Gehirns haben die Forscher der TrygFonden
Research Group gewissermaßen Quartier bezogen. Die aus zehn Wissenschaftlern bestehende
Forschungsgruppe der Universitäten Oxford und
Aarhus ist multidisziplinär und international. Ihr
gehören Neurowissenschaftler, Mediziner,
Psychologen, Ingenieure und Informatiker aus
Bangladesch, Dänemark, Deutschland, England,
Frankreich, Irland, Schottland und Südafrika an.
Sie alle arbeiten zusammen, um herauszufinden,
wie Glück entsteht. Unser Glück.
„Unsere Arbeiten konzentrieren sich hauptsächlich auf die Untersuchung und das
Verständnis der funktionellen Anatomie des
menschlichen Gehirns. Hierfür setzen wir
modernste Techniken der Neurobildgebung wie
das Magnetoenzephalogramm (MEG) ein“.
Mithilfe dieser Technik, so hoffen die Forscher,
würde der orbitofrontale Kortex, der sich direkt
hinter der Augenhöhle befindet, schon bald keine
© Isak Hoffmeyer
NEUROWISSENSCHAFTEN
Morten Kringelbach
Geheimnisse mehr bergen. Warum ausgerechnet
diese Region? Weil sie beim Menschen anders als
bei den übrigen Primaten besonders stark ausgeprägt ist. Aber was kann man wirklich von dieser Zone erfahren und inwiefern kann sie aus
medizinischer Sicht von Nutzen sein?
Kindergesichter
Babygesichter haben schon immer mehr
Aufmerksamkeit auf sich gezogen als Gesichter
von Erwachsenen. So geraten die meisten von uns
beim Anblick des Sprösslings eines nahen
Verwandten weitaus mehr in Verzückung als beim
Anblick des neuen Partners! Wenn man dieses
Phänomen entschlüsseln könnte, dann, so glaubte
das Team von Morten Kringelbach, müsste man
auch den Frauen helfen können, die unter postnataler Depression leiden. Mit Unterstützung seines
Mitstreiters Alan Stein und der übrigen Kollegen
hat Morten Kringelbach die Hirnaktivität von
Männern und Frauen beobachtet, denen Bilder von
Kindern und von Erwachsenen vorgelegt wurden.
Und das Ergebnis? Die Forscher stellten fest, dass
eine bestimmte Gehirnregion, der mediale orbitofrontale Kortex, beim Betrachten von Babygesichtern sehr schnell aktiviert wurde, innerhalb
einer Siebtelsekunde. Beim Betrachten von Erwachsenenporträts trat diese Reaktion nicht auf.
„Der mediale orbitofrontale Kortex hat ganz
offensichtlich die Aufgabe der Belohnung, und
es ist möglich, dass Babygesichter und befriedigende soziale Beziehungen im Allgemeinen gut
für unser Wohlbefinden sind.“ Aber was ist mit
den Frauen, die unter dem Babyblues (2) leiden?
Sie reagieren nicht wie die anderen auf die
Gesichter von Säuglingen, nicht einmal, wenn es
sich um ihr eigenes Baby handelt. „Es könnte
sein, dass sich die Aktivität in dieser Hirnregion
während der postnatalen Depression verändert.
Dies könnte im Übrigen als Alarmsignal genutzt
werden, um festzustellen, welche Frauen für
NEUROWISSENSCHAFTEN
Reaktionen beim Betrachten von Kindern
Reaktionen beim Betrachten von Erwachsenen
40
Vom Glück
zur Empathie
Frequenz (HZ)
35
30
W
25
20
15
Medialer
orbitofrontaler Kortex 10
40
Frequenz (HZ)
Quelle: Morten Kringelbach
35
Fusiformes Gesichtsareal, rechte Hälfte
30
25
20
8
15
10
0
-0,2
-0,1
0
0,1
0,2
Zeit (Sekunden)
0,3
0,4 -0,2
-0,1
0
0,1
0,2
0,3
0,4
Zeit (Sekunden)
Wenn wir ein Baby betrachten, wird ein bestimmter Bereich der medialen orbitofrontalen Region
unseres Gehirns aktiviert. Beim Betrachten von Bildern eines Erwachsenen ist dies nicht der Fall (Bilder
obere Reihe). Das Team von Morten Kringelbach sieht in diesem Signal eine „Belohnung“, die einer Art
„mütterlichem Instinkt“ entspricht, der in unseren Neuronen enthalten ist. In einer anderen Hirnregion,
dem fusiformen Gesichtsareal (Bilder untere Reihe), ist eine andere Art der Belohnung angesiedelt,
die sowohl gegenüber Erwachsenen als auch gegenüber Kindern erfolgt.
diese Art Depression anfällig sind, und um ihnen
zu helfen. Außerdem könnte man, wenn man
Frauen und Männern hilft, die unter dem
Babyblues leiden, das Risiko verringern, dass ihre
Kinder später an derselben Krankheit leiden.“
Gaumenfreuden
Kringelbach und sein Team haben sich auch
mit der wesentlichen Rolle befasst, die das Essen
in unsrem Leben und für unser Glücksempfinden
spielt. Im Rahmen dieser Arbeiten haben sie ein
Netz von Hirnregionen entdeckt, die uns veranlassen, im Essen Befriedigung zu suchen, und
auch hier spielt der orbitofrontale Kortex wieder
eine Rolle. „Es scheint, dass ein Ungleichgewicht
in diesem Teil des Gehirns Essstörungen auslöst“,
erläutert der Wissenschaftler, der auch versucht
hat, zu verstehen, warum wir auch dann, wenn
wir eigentlich schon satt sind, noch ein wenig
Platz für eine Nachspeise haben. „Wir konnten
feststellen, dass der orbitofrontale Kortex auch
hier wieder eine zentrale Rolle spielt und dass
seine Aktivität mit unsrer subjektiven Einstellung
dem Essen gegenüber zusammenhängt.“
Außerdem haben die Wissenschaftler gezeigt,
dass diese Region bei der subjektiven Erfahrung
aller Glücks- oder Lustgefühle beteiligt ist, auch
bei denjenigen, die durch Medikamente, Musik
und Orgasmus ausgelöst werden. „Eine
Feststellung, die uns zu der Schlussfolgerung veranlasst hat, dass der orbitofrontale Kortex uns bei
der Behandlung von Essstörungen und anderer
Suchtformen helfen könnte.“
Tiefe Hirnstimulation
„Werden bestimmte Regionen des Gehirns von
Menschen oder Tieren stimuliert, hat dies unmittelbare Auswirkungen auf die Glücksgefühle und
das Verlangen“. Ein Neurochirurg der Universität
Oxford, Tipu Aziz, hat gezeigt, dass bei Patienten,
die unter chronischen Schmerzen leiden, durch
eine tiefe Hirnstimulation in der grauen Materie
die Schmerzen gelindert werden konnten. Um eine
solche Entdeckung auch langfristig nutzen zu können, müsste man jedoch genau wissen, wie sich
diese Stimulation auf das Gehirn auswirkt. Die
Wissenschaftler um Morten Kringelbach haben
also mithilfe des Magnetoenzephalogramms die
tiefe Hirnstimulation direkt beobachtet und herausgefunden, dass das Hirnnetz, das bei Emotionen
beteiligt ist, besonders aktiviert wird. Auch hier
spielt der orbitofrontale Kortex eine Rolle.
„Im Rahmen dieses Projekts ist besonders interessant, dass dieselben Ergebnisse bei Personen
festgestellt wurden, die unter Depressionen leiden.“
Darüber hinaus kann die tiefe Hirnstimulation zur
ährend sich Morten Kringelbach mit
Personen beschäftigt hat, die mit der
Empfindung von Glücksgefühlen
Probleme haben, haben sich Tania Singer und ihre
Kollegen von der Universität Zürich mit Empathie
befasst. Das heißt mit der Fähigkeit, die Gefühle
anderer zu verstehen und zu teilen. Diese Forscher
sind der Meinung, dass es in einer Gesellschaft, in
der Kriminalität und die Verletzung der
Menschenrechte überhand nehmen, von Nutzen
sein könnte, diese Fähigkeiten zu beeinflussen.
Das Projekt mit dem Namen EMPATHICBRAIN
hat sich mit der Frage befasst, ob es möglich ist,
unsere Fähigkeit zu verbessern, unsere eigenen
Gefühle und die anderer Menschen zu verstehen.
Tania Singer hat sich bei ihren Arbeiten für einen
innovativen multidisziplinären Ansatz entschieden.
An EMPATHICBRAIN sind eine Reihe von Disziplinen
beteiligt, u.a. Neurowissenschaften, Wirtschaftswissenschaften, Psychologie und Psychobiologie
– die Wissenschaft von den Beziehungen zwischen
Psychismus und biologischen Funktionen.
In der ersten Etappe dieses Ausflugs mitten in die
Schaltzentrale des Gehirns sollen die funktionalen
und strukturellen Unterschiede bei Menschen mit
unterschiedlichen Empathiefähigkeiten festgestellt
werden. Allerdings geben sich die Wissenschaftler
nicht mit Beobachtungen zufrieden. Sie haben ein
Programm entwickelt, wie man empathische Freude,
Mitgefühl und liebevolle Zuneigung lernen kann.
www.forschungsportal.uzh.ch/unizh/
p11582.htm
Behandlung zahlreicher Erkrankungen genutzt
werden wie Dystonie, Parkinson, Zwangsneurosen,
Tremor usw. „Um diese Technik wirksam einsetzen
zu können, müssen wir natürlich wissen, welche
Rolle jede einzelne Zone des Gehirns spielt, und
wir müssen wissen, welche Zone stimuliert werden
kann, um die Symptome einer bestimmten
Krankheit zu lindern.“
Élise Dubuisson
(1) Alle Zitate stammen von Morten Kringelbach.
(2) Ein Begriff, mit dem häufig die postnatale Depression
beschrieben wird.
TrygFonden Research Group
www.kringelbach.dk/science.html
research*eu Nr. 63 | APRIL 2010
31
ENERGIE
U
nerschöpfliche Ressourcen, wenig
Abfall, geringe Umweltfolgen, völlige Sicherheit und Kompatibilität
mit den bestehenden Stromnetzen.
Die Fusion bietet so viele Vorteile, dass die
Menschheit darauf nicht mehr verzichten
könnte. Das Prinzip ist seit den 1950er Jahren
bekannt: Deuterium- und Tritiumkerne werden
zum Zusammenschluss gezwungen und es entstehen Helium, Neutronen und eine enorme
Menge Energie. Das Ganze ist einfach in der
Theorie, aber kompliziert in der praktischen
Umsetzung, da diese Reaktion nur bei sehr
hoher Dichte und extremen Temperaturen
ausgelöst wird.
Die theoretischen und experimentellen Studien haben zu zwei Forschungsansätzen geführt.
Zum einen gibt es das Schema eines Rings, in
dem heißes Plasma in einem Magnetfeld eingeschlossen wird – dieser Ansatz wird von ITER
verfolgt. Der alternative Weg ist der Trägheitseinschluss, auch Laserfusion genannt, bei dem
mithilfe sehr leistungsstarker Laserstrahlen zuvor
komprimierte Brennstoffpellets zur Implosion
gebracht werden. Diesen zweiten Ansatz haben
die Entwickler von HiPER gewählt.
32
research*eu Nr. 63 | APRIL 2010
Hoher Mehrwert
„Wir freuen uns, dass HiPER seit 2006 zu den
wissenschaftlichen Einrichtungen gehört, die das
ESFRI – European Strategy Forum on Research
Infrastructures – unterstützt“, erklärt Projektkoordinator Mike Dunne. „Gegenwärtig befindet
sich HiPER in der Vorbereitungsphase und wird
mit 3 Mio. EUR unter dem Themenbereich
„Infrastrukturen“ des 7. Rahmenprogramms
(RP7) sowie einem Mehrfachen dieses Betrags
von den nationalen Agenturen finanziert. Die
technische Demonstrationsphase beginnt 2011
und wird Ende des nächsten Jahrzehnts mit dem
Bau abgeschlossen, dessen Budget sich auf etwa
eine Milliarde Euro belaufen wird.“
Diese gigantischen Investitionen sind sowohl
auf die Komplexität der technischen Innovationen als auch auf die für ihre Beherrschung notwendigen Anwendungen zurückzuführen. „Die
Erfahrungen der letzten fünfzig Jahre haben
gezeigt, dass für eine selbstunterhaltende Fusion Temperaturen von bis zu 50 Millionen Grad
und eine Dichte von mindestens 1 kg/cm3, das
heißt die 50-fache Dichte von Gold, erforderlich
sind“, ergänzt Mike Dunne. „Außerdem handelt
es sich um ein repetitives Verfahren, denn die
© Agence Free Lens Philippe Labeguerie
Der Zugang zu sauberer und unerschöpflicher Energie ist keine Utopie mehr. Das behaupten jedenfalls die Befürworter der
Kernfusion, die es eindeutig begrüßen, dass das ambitiöse
Projekt HiPER – High Power Laser Energy Research Facility
– ins wissenschaftliche Blickfeld rückt. Als alternativer Ansatz
zur Nutzung von Magneten, wie sie von ITER(1) verfolgt
wird, kann die von HiPER entwickelte Trägheitsfusion ebenso
überzeugen. Der Weg ist noch weit, aber die jüngsten
Versuchsergebnisse geben Grund zu Hoffnung.
nur eine Nanosekunde langen Laserpulse müssen mit den Pellets von einem Millimeter Durchmesser ausgerichtet werden und das fünf Mal
pro Sekunde.“ Um eine kontrollierte Fusion zu
erzielen, untersuchen die Forscher folglich noch
relativ unerforschte Bereiche der Physik und die
damit verbundenen eventuellen zukünftigen
Anwendungen.
„Und die Liste wird lang!“, versichert Mike
Dunne. „Wenn es uns gelingt, die hohen Wiederholungsraten in Verbindung mit Hochenergielaser-Technologie zu kontrollieren, hat das
Auswirkungen auf die verschiedensten Aktivitäten angefangen bei der Produktion von Radioisotopen, der Onkologie oder sogar auf die
nächste Generation von Lichtquellen. Grundsätzlich sind große Fortschritte auf dem Gebiet
der extremen Materialwissenschaft, der Nuklearphysik sowie der Plasmaphysik zu erwarten.“
Hand in Hand
Um diese technologische Herausforderung zu
meistern, müssen noch zahlreiche Etappen bewältigt werden. Jede Schwierigkeit des HiPER-Verfahrens ist Gegenstand vorbereitender Studien.
Hierzu gehört auch das Projekt PETAL – Petawatt
ENERGIE
Aquitaine Laser –, das auf europäischer (Europäischer Fonds für regionale Entwicklung, EFRE),
nationaler (Frankreich) und regionaler (Aquitaine)
Ebene finanziert wird und dessen wichtigste Rolle darin besteht, den geeigneten Laseraufbau zu
entwickeln, mit dem sich die Fusionsreaktionen
auslösen lassen. Die Validierungsphase der wichtigsten technologischen Hürden – das heißt die
Überwindung der experimentellen Probleme mittels innovativer Technologien – wurde kürzlich
erfolgreich abgeschlossen und der Bau des Geräts
hat begonnen.
„Die Projektkoordinatoren beschlossen 2006,
das PETAL-Projekt auf der Roadmap des ESFRI
in HiPER zu integrieren“, erklärt Christine Labaune, Forschungsleiterin am französischen Centre
National de Recherche Scientifique (CNRS) und
Mitglied des wissenschaftlichen Ausschusses der
beiden Programme. „Aus wissenschaftlicher und
technologischer Sicht stellt PETAL die erste Phase von HiPER dar. Seit dem Projektstart koordiniert ein internationaler wissenschaftlicher
Ausschuss die Vorbereitung der Experimente,
anhand derer die Bereiche der Physik validiert
werden können, die HiPER zum Erfolg führen
werden. Außerdem wird PETAL als Bildungsplattform dienen, auf der sich Wissenschaftler
das notwendige Fachwissen für den Umgang
mit großen Lasern aneignen können. Darüber
hinaus haben alle die Möglichkeit, an einem
Programm mitzuarbeiten, wodurch Europa
gegenüber Amerika und Asien wettbewerbsfähig wird.“ Dabei muss man jedoch zugeben,
dass die Anlagen Omega EP in den USA und
FIREX in Japan bereits betriebsbereit sind,
während PETAL für 2011 geplant ist.
Technisches Können auf hohem Niveau
Noch vor wenigen Jahren glaubten die Wissenschaftler, dass eine Fusion erreicht wird,
wenn das Deuterium-Tritium-Pellet mit Pulsen
im Nanosekundenbereich so lange komprimiert
wird, bis ein „heißer Fleck“ entsteht. Allerdings
ist dieses Vorgehen wegen der zu starken Instabilität nicht möglich. Christine Labaune erklärt,
dass die Teams von PETAL und HiPER daher
beschlossen haben, einen anderen Weg einzuschlagen. „Kompressions- und Heizphase
müssen unbedingt von einander abgekoppelt
werden. Das wird Schnellzündung genannt.
Das Prinzip besteht darin, kurze Pulse im Petawattbereich(2) als Zündug zu verwenden, nachdem das Ziel mit anderen Impulsen im
Nanosekundenbereich komprimiert wurde.
Das System sollte zuverlässiger werden und
einen Energiegewinn von mehr als 1 bringen,
vielleicht von bis zu 10 oder 100.“
„Mit PETAL“, fährt Christine Labaune fort,
„wollen wir beweisen, dass wir in der Lage sind,
Technologien zu entwickeln, die energiereiche
Kurzpulse für die Zündung erzeugen. Eine
Hochenergielaser-Kette besteht aus drei Teilen.
Ein Vorverstärker-Oszillator erzeugt einen kurzen Puls mit kleinem Durchmesser. Er durchquert eine Reihe von Neodymglasplatten, die
mit Blitzlampen gepumpt werden, was zur Emission von Photonen führt. Diese werden vom
Ausgangspuls aufgenommen, der sich folglich
immer mehr verstärkt. Gleichzeitig wird der
Pulsdurchmesser vergrößert, wobei eine angemessene Energiedichte beibehalten wird, um
die optische Wirkung zu erhalten. Der nur einen
Bruchteil einer Pikosekunde(3) dauernde Puls
wird also auf der gesamten Strecke ausgedehnt
und dann kurz vor dem Ausgang durch eine
Reihe von Gittern wieder rückkomprimiert.
Dank dieses Verfahrens kann ein Ausgangspuls
von wenigen Millijoule am Ende etwa 3 500
Joules erreichen und dabei trotzdem kurz bleiben. Dadurch wird PETAL die Anlage mit dem
weltweit höchsten Leistungs-/Energieverhältnis.“
Sensibilisierung der Investoren
Angesichts der hohen Investitionen bieten
PETAL und HiPER eine gute Gelegenheit, um
ein großes Grundlagenforschungsprogramm
zur Erforschung der Materie in ihren extremen
Zuständen aufzustellen. Das Hauptziel dieser
Anlagen ist jedoch die kontrollierte Energieproduktion durch Kernfusion. Wenn man weiß,
dass das in einem Notebook-Akku enthaltene
Lithium (eine Tritiumquelle) zusammen mit dem
in einer halben Badewanne Wasser vorhandenen
Deuterium ausreichen würde, um den Strombedarf des Vereinigten Königreichs 30 Jahre lang
abzudecken, ist es nur schwer verständlich, warum sich der private Sektor mit Großinvestitionen
in diese Projekte derart zurückhält.
„Das ist natürlich bedauerlich“, bestätigt
Christine Labaune. „Die einzige langfristige und
unerschöpfliche Energie ist die Kernkraft. Da
die Kernspaltung zahlreiche Probleme im Hinblick auf radioaktive Abfälle, Sicherheit und
begrenzte Brennstoffvorkommen nach sich
zieht, bleibt der Menschheit nur noch eine
Lösung, nämlich die Kernfusion. Wir bleiben
dabei, dass sich Laser hervorragend dazu eignen,
diese Art der Energieproduktion auf der Erde zu
© Agence Free Lens Philippe Labeguerie
W Beobachtung des Oberflächenzustands
der Beugungsgitter im mechanischen
Schutzgehäuse von PETAL, wo sie
im Vakuum konditioniert sind.
Vorverstärkermodul, in dem sich die beiden
Etagen der parametrischen Verstärkung mit
großem Spektralband befinden. In der ersten
Phase des Projekts PETAL wird das Modul als Quelle
für die Demonstration des Pulskompressionsverfahrens eingesetzt.
reproduzieren. Folglich handelt es sich um angewandte Forschung. Daher sollten sich private
Organisationen für diese Problematik interessieren. Wir müssen die Industrieunternehmen finden,
die morgen unsere Kraftwerke bauen und mit
Gewinn betreiben. Wenn sie nämlich heute in diese Forschungsarbeiten investieren, kann Europa
seine Unabhängigkeit bei der Energieversorgung
bewahren. Wenn unserer wissenschaftlichen
Gemeinschaft die notwendigen Mittel nicht zur
Verfügung gestellt werden, um an der Spitze zu
bleiben, werden wir vollständig von den Ländern
abhängig sein, denen es gelungen ist, diese Technologie zu beherrschen.“
Marie-Françoise Lefèvre
(1) ITER – International Thermonuclear Experimental Reactor,
siehe Artikel Wenn ITER aus der Erde wächst, research*eu
Ausgabe 61, Juli 2009.
(2) Peta = 1015
(3) Piko = 10-12
HiPER
26 Partner, 9 Länder
(CZ-DE-ES-FR-GR-IT-PL-PT-UK)
6 Nicht-EU-Länder
(CA-CN-JP-KR-RU-US)
www.hiper.org
PETAL
http://petal.aquitaine.fr
research*eu Nr. 63 | APRIL 2010
33
PORTRÄT
© Stephen Faust/Wolfram Research.Inc.
Der Algorithmus
der Götter
Stephen Wolfram –
„Wenn man eine Idee erklärt
und daran herumfeilt, um sie
so klar wie möglich darzulegen, kann man sie viel besser
verstehen.“
A
m Tage leitet er Wolfram Research,
ein Unternehmen, das Eigentümerin
der berühmten Arithmetiksoftware
Mathematica und der neuen
Suchmaschine Wolfram Alpha ist. Nachts
ist er Forscher. Er ist ein hervorragender
und besonders erfolgreicher Wissenschaftler.
Als Mathematiker, Informatiker und Teilchenphysiker befasst er sich in seinen Forschungsarbeiten am liebsten mit zellulären Automaten.
Das sind mathematische Modelle, mit denen sich
Stephen Wolfram zufolge die Komplexität der
Welt erklären lässt. In seinem Buch A New Kind
of Science, das 2001 veröffentlicht wurde, stellt
Wolfram die Grundlagen der Wissenschaft, und
zwar sämtlicher Bereiche, infrage. Handelt es sich
um einen arroganten Größenwahnsinnigen oder
ein unverstandenes Genie?
Wunderkind
Stephen Wolfram wurde 1959 in London
geboren und ließ schon frühzeitig eine bemerkenswerte Intelligenz erkennen. Mit 13 Jahren
erhielt er ein Stipendium für das renommierte
Eton College, an dem die Elite Großbritanniens
unterrichtet wird. Ein Jahr später schrieb Wolfram
ein Buch über die Teilchenphysik. Sein erster
Fachaufsatz erschien 1975 in der Zeitschrift
Nuclear Physics. Zu diesem Zeitpunkt war er
15 Jahre alt. „Damals war die Physik einer der
innovativsten Forschungsbereiche. Dort wurde
viel Neues entdeckt, insbesondere auf dem
34
research*eu Nr. 63 | APRIL 2010
Funktioniert die Welt wie ein Computerprogramm?
Beruhen die Formen und Zustände der Natur
auf einer Grundformel? Stephen Wolfram ist davon
überzeugt und behauptet sogar, den Quellcode der
Komplexität des Universums gefunden zu haben.
Gebiet der Teilchenphysik, für die ich mich
besonders interessierte“, erzählt er. (1)
Das junge Genie setzte sein Studium an der
Universität Oxford (UK) fort und siedelte dann
nach Amerika über, wo er am California Institute
of Technology – Caltech (USA) arbeitete und
mit 20 Jahren in theoretischer Physik promovierte. Hier feierte er auch seine ersten Erfolge.
Er veröffentlichte in dieser Zeit mehr als
25 wissenschaftliche Artikel. Er ersinnt die
Fox-Wolfram-Variablen und entdeckt die
Politzer-Wolfram-Obergrenze für die Masse von
Quarks. 1981 wurde er im Alter von nur 22 Jahren
der jüngste MacArthur-Preisträger. Mit diesem
„Preis für Genies“ wird jedes Jahr ein Stipendium
an die talentiertesten Forscher vergeben.
Wolfram verließ Caltech 1982 und wechselte
zum Institute for Advanced Study in Princeton
(USA), eine Einrichtung, die sich ausschließlich
der wissenschaftlichen Forschung widmet. Hier
begann er, sich für zelluläre Automaten zu interessieren. Sein Ziel war es, die Komplexität der
Welt zu verstehen, denn auf diese Frage hatte
bisher noch keine mathematische Gleichung,
keine physikalische Theorie eine Antwort
gegeben. „Die Ursache für die Komplexität des
Universums ist ein Thema, das mich seit meiner
Kindheit fasziniert. Diese Frage stellte sich mir
nicht nur auf dem Gebiet der Kosmologie, sondern auch als ich mich mit den Neurowissenschaften oder der künstlichen Intelligenz
beschäftigte. Während ich an der Entwicklung
des späteren Softwareprogramms Mathematica
arbeitete und einfache Berechnungen entwickelte, anhand derer sich eine Reihe komplexerer
Operationen aufstellen lassen, kam mir plötzlich
die Idee, dass es ein ähnliches allgemeines Prinzip
geben könnte, auf dem die gesamte Komplexität
der Natur beruht, angefangen von der Struktur
der Galaxien bis hin zur Struktur der Neuronen.
Daher habe ich ganz einfache Operationen getestet, die zur Bildung komplexer Strukturen führen
können, und das war auch der Beginn meines
Interesses für zelluläre Automaten.“
Und was ist ein zellulärer Automat? Man nehme eine Reihe weißer und schwarzer Kästchen
und stelle sich dann vor, dass eine neue Linie
anhand einer Reihe rudimentärer Regeln erzeugt
wird. Etwa, dass sich ein weißes Kästchen niemals unter einem anderen weißen Kästchen
befinden kann, es sei denn, letzteres gehört zu
einer Diagonalen von zehn weißen Kästchen.
Das sich aus diesem Verfahren ergebende Gitter
erzeugt nach dem Zufallsprinzip Strukturen, die
extrem komplex sein können.
Der Geschäftsmann
Im Laufe der 1980er Jahre entdeckte Wolfram
die Regel 30, einen zellulären Automaten, der
Formen erstellen kann, die den Mustern einer
bestimmten Seeschnecke ähneln, der Conus textile. Er war jetzt davon überzeugt, dass er einen
Teil des Universalcodes gefunden hatte, dessen
Existenz er bereits vermutete.
PORTRÄT
Voller Begeisterung veröffentlichte er eine
Reihe von Artikeln zu diesem Thema und
widmete diesem eine neue Disziplin: die
Wissenschaft der komplexen Systeme. Er
gründete das Forschungszentrum für komplexe Systeme an der Universität Illinois (US),
unterstützte die Einrichtung einer Denkfabrik
am Santa Fe Institute (US) und rief die Fachzeitschrift Complex Systems Journal ins Leben. „Mit
diesen verschiedenen Initiativen hoffte ich,
auch andere Forscher dazu anzuregen, diesen
Weg der Forschung zu gehen. Leider konnte
die wissenschaftliche Gemeinschaft nicht mit
mir Schritt halten.“
Frustriert wandte sich Stephen Wolfram von
der akademischen Fachwelt ab, um sich voll
und ganz der Programmierung zu widmen.
„Ziel war es, eine Forschungsinfrastruktur und
ein Instrument zu schaffen, mit denen ich meine Arbeit an den komplexen Systemen fortsetzen konnte.“ 1987 gründete Wolfram das
Unternehmen Wolfram Research. Ein Jahr später brachte er das Computerprogramm
Mathematica auf den Markt, mit dem sich eine
Vielzahl von mathematischen Operationen
durchführen lassen.
Das Unternehmen ist ein voller Erfolg.
Mathematica hat heute mehr als zwei Millionen
Nutzer in 90 Ländern. Wolfram Research macht
etwa 50 Mio. US-Dollar Umsatz pro Jahr und
beschäftigt mehr als 300 Mitarbeiter. Durch seinen Umstieg vom Forscher zum Unternehmer
wurde Stephen Wolfram Millionär. Diese
Situation wurde von der akademischen
Fachwelt anfangs nicht unbedingt positiv aufgenommen. „Vor 20 Jahren waren die in den
Labors eingesetzten Computerprogramme kostenlos. Für eine Anwendung, die in der FuE
auf höchstem Niveau, also hauptsächlich an
Universitäten eingesetzt wird, eine finanzielle
Gegenleistung zu fordern, wurde größtenteils
mit Entrüstung aufgenommen. Heute hat sich
diese Einstellung grundlegend geändert.“
Hacker des Universalcodes?
Im Laufe der 1990er Jahre geriet Stephen
Wolfram in der Forschungsgemeinde in
Vergessenheit. Doch er hatte der Forschung
nicht den Rücken gekehrt. Nachts saß er in seinem Labor und setzte seine Arbeit zu den komplexen Systemen fort. Mithilfe eines Computers
testete er unaufhörlich verschiedene zelluläre
Automaten, um herauszufinden, welche die
Strukturen der Natur am besten reproduzieren.
Auf diese Weise entdeckte er zelluläre
Automaten, die in der Lage waren, die Strukturen
von Eis und bestimmten Blättern zu erzeugen.
Zehn Jahre später veröffentlichte er das
Buch A New Kind of Science, in dem er seine
Forschungsergebnisse vorstellte und zeigte, wie
seine Theorie die Grundlagen der verschiedenen wissenschaftlichen Disziplinen infrage stellt.
Er entschied sich bewusst gegen den traditionellen Weg der Veröffentlichung in einer wissenschaftlichen Fachzeitschrift. „Ich wollte, dass
meine Forschungsarbeiten einer breiten Masse
zugänglich sind. Durch dieses Konzept war es
mir außerdem möglich, meine Theorie zu testen. Wenn man eine Idee erklärt und daran
herumfeilt, um sie so klar wie möglich darzulegen, kann man sie viel besser verstehen.“
Nachdem er sich mit dem Informatikmodell
der Mathematik und der Welt beschäftigt hatte,
widmet sich Wolfram jetzt dem des Wissens.
2009 brachte er Wolfram Alpha heraus. Das ist
eine Suchmaschine, die in der Lage ist, alle
spezifischen Informationen über ein Thema
anhand einer formulierten Suche zu liefern. „Für
mich war es schon immer wichtig, nicht die
Fragen der Grundlagenforschung, die während
der Entwicklung einer Technologie aufgeworfen werden, zu verdecken, sondern im Grunde
eine integrierte Herangehensweise an die
Wissenschaft zu verfolgen. Wolfram Alpha ist
ein Projekt, das mir besonders am Herzen liegt,
und zwar weil es genau diese integrierte Version
des Wissens widerspiegelt.“
Die Doppelbelastung als Geschäftsmann und
Forscher ist einerseits faszinierend, andererseits
auch unbequem. „Im Allgemeinen unterstützen
Leute mit finanziellen Ressourcen die Forschung
indirekt, beispielsweise durch eine Stiftung. Die
Finanzierung der Grundlagenforschung und die
gleichzeitige persönliche Beteiligung an dieser
Forschung ist immer noch etwas, wovor einige
Leute zurückschrecken – auch wenn sie selbst
nicht wissen warum!“
Julie Van Rossom
(1) Alle Zitate stammen von Stephen Wolfram.
Farbige Bilder basierend auf der Regel 30
aus dem Bestseller
von Stephen Wolfram,
A New Kind of Science.
Wolfram research
www.wolfram.com
Stephen Wolfram
www.stephenwolfram.com
research*eu Nr. 63 | APRIL 2010
35
STRAFVOLLZUG
Die Auswüchse
der Gefängniswelt
Anstieg der Kriminalität,
Überbelegung der Gefängnisse,
neue Formen der Kriminalität,
gescheiterte Präventionspolitik
– die Mehrheit der westlichen
Demokratien sieht sich mit
dieser Bestandsaufnahme
konfrontiert und findet
in einem schwierigen sozioökonomischen Kontext
nur wenig überzeugende
Lösungen.
W
elchen Ausweg gibt es aus
dem Teufelskreis Delinquenz
und Strafvollzug? Ein von der
Europäischen Union unterstütztes Projekt mit dem Titel Gestion publique
de la déviance (Sozialstaat oder Strafstaat?)
befasste sich bereits mit dem Problem des
Anstiegs der Gefängnisstrafen in Europa. Mit
dem Ende des Wohlfahrtsstaates in den 1990er
Jahren stellten die Wissenschaftler einen rapiden Rückgang sozialer Maßnahmen fest.
Für viele Kriminologen wurde der Zusammenhang zwischen Wirtschaft und Strafvollzug
bereits in verschiedenen Forschungsarbeiten
klar. Charlotte Vanneste vom belgischen Institut für Kriminalistik (Institut National de
Criminalistique et de Criminologie) hat die
Wechselbeziehung zwischen den Statistiken
36
research*eu Nr. 63 | APRIL 2010
der belgischen Gefängnispopulation und der
sozioökonomischen Situation des Landes in
einem Zeitraum von 170 Jahren untersucht. (1)
Sie stellt fest, dass im Laufe der 20- bis 30-jährigen Wachstum-Rezessions-Zyklen die Gefängnispopulation stets in der Rezession ihren
zahlenmäßigen Höhepunkt erreichten und
umgekehrt. Zwischen den beiden Weltkriegen
gab es weniger Strafgefangene, was mit der
Besserung der Wirtschaftslage (günstige Konjunktur, soziale Stabilisierung, Indexbindung
der Gehälter) zusammenfiel. Andererseits war
die zweite Hälfte des 20. Jahrhunderts ganz
klar von einem Anstieg der Gefangenenraten
und Arbeitslosigkeit gekennzeichnet.
Null-Toleranz oder Prävention?
Die Antworten der europäischen Staaten – und
ihrer Bürger – auf die Kriminalität wurden von
den Forschern des Projekts CRCC (Crime repression costs in context) mit dem Ziel untersucht, die
direkten und indirekten Kosten der Kriminalität
angesichts verschiedener nationaler politischer
Ansätze abzuschätzen. Die Partner ermittelten
zwei „Hauptkulturen“. Die erste, charakteristisch
für neo-konservative Regierungen, setzt auf die
klassischen rechtlich-polizeilichen Maßnahmen, die immer stärker zu Null-Toleranz und
Schnellverfahren tendieren, ohne dabei die
sozioökonomischen Gründe des abweichenden
Verhaltens zu berücksichtigen. Die zweite – die
des fortschrittlichen Liberalismus – basiert auf
einer Verwaltung des kriminellen Risikos und
der Anwendung des Vorsorgeprinzips. Diese
Strategie soll einerseits potenzielle Straftaten
begrenzen (indem sie auf die wirtschaftlichen
Ursachen der Kriminalität setzt, das urbane Umfeld
verändert, soziale Kontrollstrategien entwickelt
usw.) und andererseits die Zahl möglicher Opfer
senken, indem die Bevölkerung dazu angehalten
wird, sich selbst zu schützen (gepanzerte Türen,
Alarmanlagen). Diese Selbstschutzmaßnahmen
verbreiten sich mit rasender Geschwindigkeit. Laut
einer europäischen Umfrage zu Sicherheit und
Kriminalität (2) hält das Vereinigte Königreich den
Weltrekord bei den Videoüberwachungssystemen
und die Niederlande den bei den Spezialtüren.
Und in einem Zehntel der zwischen 2002 und
2007 in Budapest neu errichteten Gebäude wurden verschiedenste Sicherheitsvorkehrungen
eingebaut.
Die gefühlte Unsicherheit
Die Forscher des Projekts Crimprev (3) haben
das Gefühl der Unsicherheit – das allerdings nicht
der tatsächlichen Unsicherheit entspricht – und
seine Auswirkungen auf die sozialen Beziehungen
untersucht und sich dabei insbesondere mit den
kulturellen Erscheinungsformen der Ablehnung
beschäftigt. Dieses Gefühl variiert je nach Land,
Region und Stadtteil. Haben wir Angst, wenn wir
nachts durch die Straßen laufen? In Nordeuropa
sind die Menschen deutlich weniger ängstlich als
in Süd- und Osteuropa. Die Beeinträchtigungen
des öffentlichen Lebens – vor allem durch
Drogen – und die Sichtbarkeit abweichenden
Verhaltens (Müll, Graffiti, Ansammlungen junger
Leute) spielt bei diesen Ängsten eine große Rolle.
„Die Regierungen sind sich der Bedeutung dieser sozialen aber auch wahlpolitischen Aspekte
bewusst und scheuen daher nicht davor zurück,
Maßnahmen gegen das Unsicherheitsgefühl zu
ergreifen, das manchmal als ebenso wichtig angesehen wird wie die reelle Unsicherheit, die sich
nur sehr schwer messen lässt“, erklären die
Forscher von Crimprev.
© Shutterstock/Igorsky
STRAFVOLLZUG
„Technische Überwachungssysteme, Datenbanken und private Sicherheitsfirmen haben
Angst und Beklemmung nicht ausgeräumt“,
meint Joe Sim, Professor an der Liverpool John
Moores University (4). „Ganz im Gegenteil, denn
die Vorstellung einer kurz bevorstehenden
Katastrophe hat sich verstärkt, wodurch die
Eskalation autoritärer Reaktionen auf Kriminalität und auf alles legitimiert wird, was als
Bedrohung der sozialen und öffentlichen
Ordnung angesehen wird.“ Genauso sieht es mit
der Angst der Jugendlichen aus. Verschiedenen
britischen Studien zufolge ist der Anstieg der
Jugenddelikte nur in geringem Maße auf
Kriminalität zurückzuführen.
Vergoldete Gettos
All diese Ängste und die Reaktionen darauf
wirken sich deutlich auf die soziale Ausgrenzung
und die Gestaltung der urbanen Landschaft aus.
Die „Gettobildung“ beschränkt sich nicht nur auf
die ärmsten Stadtviertel. So sind beispielsweise
seit den 1960er Jahren immer mehr „Gated
Communities“ (gesicherte, bewachte und mit
Zäunen oder Mauern umgebene Wohnkomplexe)
auf dem Vormarsch. Sie sind vor allem im
Vereinigten Königreich, in Frankreich, Portugal
oder auch in bestimmten ehemals kommunistischen Ländern verbreitet.
Dieser Selbstschutz kann als eine Form der
Vorbeugung dienen. Sie ist aber sicher nicht die
beste. In einigen europäischen Ländern wurden
im Laufe der letzten Jahre Präventionsversuche
gestartet. Hierbei wurde insbesondere mit der
Zusammenarbeit zwischen dem öffentlichen und
privaten Sektor, Verbänden, Nichtregierungsorganisationen, bürgernaher Polizei usw. experimentiert. Diese Idee hat nur selten den erwarteten
Erfolg gebracht, denn die Sozialarbeiter wollten
sich nicht zu „Spitzeln“ machen lassen. Adam
Crawford (Universität Leeds, UK), Partner von
Crimprev, räumt ein, dass diese Initiativen „zeigen, dass die Ursachen und Wirkungen der
Kriminalität außerhalb des traditionellen Anwendungsbereichs des Strafvollzugs liegen“. Außerdem
ist er der Meinung, dass „sich im Laufe der Jahre
die Schaffung präventiver Partnerschaften als völlig illusorisch herausgestellt hat“.
Was ist abzuschaffen?
Daher wird die Politik der Gefängnisstrafen
unverändert fortgesetzt, selbst wenn seit einigen
Jahren bereits Ersatzlösungen praktiziert werden.
So zum Beispiel die besonders in Nordeuropa
eingesetzte elektronische Fußfessel (die mit einem
Mikrochip ausgestattet ist, anhand dessen der
Aufenthaltsort der Person ermittelt werden kann);
gemeinnützige Arbeit (für eine Organisation, ein
Krankenhaus, die Umwelt usw.) als Ersatz für
kurze Gefängnisstrafen; oder aber das System der
Freigänger, in dem der Strafgefangene außerhalb
des Gefängnisses arbeitet und abends wieder
in den Vollzug zurückkehrt.
„Das gesellschaftliche Problem der Gefängnisse
könnte durch das, was Angela Davis abolitionistische Alternativen nannte, gelöst werden“,
meint Joe Sim. „Diese Alternativen sollten meiner
Meinung nach den Baustopp von Gefängnissen,
die Reduzierung der Mittel für die Bestrafung
von Straftaten zugunsten von Prävention, die
Schaffung von menschlicheren Systemen für
Strafgefangene, die Berücksichtigung der Schäden
durch die Machthaber und ein Ende des sozialen
Gefälles umfassen. Die Abolitionisten setzten sich,
entgegen der vorgefassten populären und politischen Meinung, nicht einfach für eine Abschaffung
der Mauern ein. Sie wünschen eine ehrlichere
Analyse des Verbrechens und der Kriminalität
sowie die Durchführung von radikalen politischen Maßnahmen, die allen Bürgern Europas,
unabhängig von ihren sozialen Bedingungen,
echten Schutz bieten.“
Christine Rugemer
(1) Charlotte Vanneste, Les chiffres des prisons – Des logiques
économiques à leur traduction pénale, L’Harmattan, 2001
(2) European Crime and Safety Survey 2005 unter der Leitung
von Jan van Dijk, Universität Tilburg (NL). Sie finden dieses
Dokument unter folgender Adresse: www.crimereduction.
homeoffice.gov.uk
(3) Crimprev (Assessing Deviance, Crime and Prevention in
Europe) ist ein Projekt, an dem 31 Partner aus zehn
europäischen Ländern beteiligt sind. Es soll für jedes dieser
Länder die Faktoren abweichenden Verhaltens, den
Kriminalisierungsprozess, die Wahrnehmung von Straftaten
sowie die öffentliche Präventionspolitik erfassen und
vergleichen. Dieses Projekt hat eine Vielzahl von Texten
(Artikel, Broschüren) hervorgebracht, die auf seiner
Website erhältlich sind: www.gern-cnrs.com/gern/index.
php?id=4
(4) Dem Strafvollzug gegenüber sehr kritisch eingestellter
Schriftsteller: Policing the crisis, Sage, 1978; Western
European Penal Systems, Sage, 1995; State Power Crime,
Sage, 2009; Punishment and Prisons, Sage, 2009.
Gestion publique de la déviance
http://ec.europa.eu/research/
social-sciences/projects/052_en.html
CRCC
www.ub.edu/ospdh/en/page/
crime-repression-cost-context-crcc
Crimprev
31 Partner – 10 Länder
(BE-DE-ES-FR-GR-IT-NL-PT-SL-UK)
www.gern-cnrs.com/gern/index.
php?id=4
Bibliografie zu diesem Thema
http://prison.eu.org/rubrique210.html
research*eu Nr. 63 | APRIL 2010
37
GEISTESWISSENSCHAFTEN
Wie lautet die Definition von Gott? Diese Absonderlichkeit hätte sich der europäische
Steuerzahler gerne erspart, meint der Daily Telegraph(1). Neben anderen Projekten,
die von der Europäischen Kommission subventioniert wurden und als kostspielig,
spinnig und sogar unnötig dargestellt werden, prangert die englische Tageszeitung
das Programm Explaining Religion (EXREL) an, das mit fast 2 Mio. EUR unterstützt
wurde. Dieses Programm will jedoch in keiner Weise „Gott definieren“, sondern versucht, die kognitiven Mechanismen zu erklären, die dem religiösen Denken und
den sozialen Verhaltensweisen zugrunde liegen, die sie nach sich ziehen.
L
ässt sich die Religion mithilfe der
Naturwissenschaften erklären? Beide
basieren auf einer Sicht der Realität, die
traditionell als grundsätzlich verschieden wahrgenommen wird. Ihre Diskrepanzen
waren im Laufe der Geschichte immer wieder
Gegenstand von Debatten, mal fruchtbar, mal
kontrovers, die zu Missverständnissen geführt
haben oder denen nachgeeifert wurde. Seit
einigen Jahren versuchen Wissenschaftler der
unterschiedlichsten Disziplinen – Historiker,
Anthropologen, Biologen, Neurowissenschaftler
oder auch Psychologen –, die Religion von
ihrem Podest zu holen, um sie empirisch zu verstehen und einen wissenschaftlichen Korpus
zum Stand der Kenntnisse auf diesem Gebiet
zusammenzustellen.
Das Programm Explaining Religion (EXREL) fügt
sich nahtlos in diese Bewegung ein und ist eines
der ehrgeizigsten Projekte auf dem Gebiet der
neuen kognitiven Religionswissenschaften. Aber
worin besteht ihr Ziel? „Wir wollen erklären, wie
religiöse Systeme entstehen und weitergegeben
werden, und die Gründe der religiösen Variationen
verstehen“, erklärt Harvey Whitehouse, Anthropologe und Projektkoordinator. EXREL ist eine interdisziplinäre Plattform, die von der Universität
Oxford (UK) koordiniert wird und an der zehn
europäische Gruppen, jeweils führend auf ihren
verschiedenen Forschungsgebieten (Biologie,
Psychologie, Anthropologie und Religionsgeschichte), teilnehmen, um gemeinsam an der
Frage des Ursprungs von Religion zu arbeiten.
38
research*eu Nr. 63 | APRIL 2010
Vertraute Universalien
Der Grundstein dieses interdisziplinären
Forschungsvorhabens, das sich über drei Jahre
(2008 – 2010) erstreckt, basiert auf folgender
Feststellung: Religiöses Denken und Handeln
weist eine Reihe universeller Merkmale auf, zu
denen der Glaube an Götter, Geister oder
Vorfahren gehört, die Ausübung von Ritualen
voller symbolischer Bedeutungen, der Glaube
an ein Leben nach dem Tod, die Überzeugung,
dass Unglück und Glück eine transzendentale
Ursache haben, die Urheberschaft von Schriften
oder anderen Zeugnissen einer göttlichen
Wesenheit sowie die Überzeugung, dass
natürliche Merkmale das Ergebnis absichtsvollen Handelns sind.
„Es ist beeindruckend festzustellen, dass
Menschen überall auf der Welt, unabhängig von
ihrem kulturellen Umfeld zu diesen Denkweisen
gelangen“, begeistert sich Harvey Whitehouse. Die
Ursprünge dieser im Verlauf der Geschichte und
der Kulturen wiederkehrenden Parameter wurden
jedoch nie systematisch untersucht und genau
diese Lücke beabsichtigt EXREL zu schließen. Dem
Forscher zufolge werden diese Denk- und
Glaubensweisen im Allgemeinen unter dem
Begriff „Religion“ zusammengefasst. Sie sind in
der Evolution der Menschheitsgeschichte
Kirchturmpolitik
N
eben dem Team von Harvey Whitehouse befassen sich auch andere Wissenschaftler mit der Frage nach den Ursprüngen von Religion. Präsenz und Fortbestand religiöser Universalien sind zwar
unbestritten, jedoch wird über ihre Herkunft weiter debattiert. Justin Barrett (1), ebenfalls
Forscher auf dem Gebiet der Anthropologie an der Universität Oxford, sieht den Grund für das Aufkommen religiöser Denkweisen beispielsweise in einem kognitiven Mechanismus, der von unserem Gehirn
angeregt wird, dem„Hypersensitive Agency Detection Device“ (HADD). Wenn das Gehirn sich außerstande sieht, eine Erscheinung intuitiv zu erklären, weist es dieses Phänomen absichtsvollen, übernatürlichen
Wesen zu (Geistern, Göttern), die ihm eine kohärente Erklärung ungewöhnlicher Ereignisse ermöglichen (Krankheit, Naturkatastrophe, unerwartetes Überleben usw.). Der Erfolg der Religion könnte
seiner Meinung nach darauf zurückzuführen sein, dass sie den HADD-Erfahrungen einen Sinn verleiht.
Der Wissenschaftsphilosoph Daniel C. Dennett (2) fasst Religion als das Ergebnis einer einfachen
kumulativen Mimikry kultureller Elemente auf – etwa Wörter, Lieder, Artefakte –, die dem gleichen
Replikationsmodus unterliegen wie die Gene. Die Duplikation der Informationen ergibt sich seiner
Meinung nach automatisch und unbewusst, ohne den geringsten Einfluss absichtsvoller Urheber.
(1) Justin L. Barrett, Why Would Anyone Believe in God?, AltaMira, 2004.
(2) Daniel C. Dennett, Breaking the Spell: Religion as a Natural Phenomenon, Viking Press, 2006.
© Shutterstock/gary yim
Woher stammt religiöses De
GEISTESWISSENSCHAFTEN
nken?
verankert und sollen das Produkt von Merkmalen
sein, die der kognitiven Entwicklung unserer
Gehirnstruktur innewohnen. Diese Hypothese
herrscht derzeit auf dem Forschungsgebiet der
kognitiven Religionswissenschaften vor. Harvey
Whitehouse und seine Kollegen stützen sich auf
diese Theorie und versuchen zu verstehen, warum
die Religion dem Bedürfnis des Homo sapiens so
gut entspricht, dass sie sogar als eines seiner
Grundmerkmale betrachtet werden kann.
Das Hauptaugenmerk von EXREL ist nun
darauf gerichtet, eine wissenschaftliche
Erklärung für die im religiösen Repertoire vorhandenen universellen Merkmale anzubieten
und latente Prozesse herauszuarbeiten, die ihre
Entwicklung und Verbreitung in der menschlichen Gesellschaft ermöglicht haben.
Das Phänomen „Religion“ unter der Lupe
Das Projekt ist in vier Teilbereiche aufgegliedert, die zu einem besseren Verständnis der zahlreichen Facetten des Phänomens „Religion“
beitragen sollen. Im ersten Teil wird eine quantifizierbare Bestandsaufnahme der wichtigsten
universellen Elemente des religiösen Repertoires
vorgenommen, ihre kulturellen Varianten werden hervorgehoben und jene Elemente nachgewiesen, die nicht zu dieser Universalität gehören,
sondern im Verlauf der Geschichte und der
Kulturen zumindest wiederholt auftreten. Mit
diesen Daten dürfte die Forschungsgruppe in
der Lage sein, in die Geschichte zurückzublicken
und einen Vorschlag zur wissenschaftlichen
© Shutterstock/Gail Johnson
Archäologen fragen sich immer noch, welche
genaue Bedeutung das jungsteinzeitliche Bauwerk in Stonehenge (UK) mit seinen zahlreichen
aufgestellten Steinblöcken hat und was hinter
den riesigen Figuren der Osterinseln (den Moai)
steckt, die von den Bewohnern der Osterinseln
seit dem 10. Jahrhundert errichtet wurden.
Wiederherstellung des religiösen Repertoires der
prähistorischen Menschheit vorzulegen. Diese
Wiederherstellung könnte neue Erkenntnisse
dazu erbringen, wie sich religiöse Konzepte und
Verhaltensweisen im Laufe der Zeit auf der ganzen Welt verbreitet haben.
Im zweiten Teil wird nach den Hauptgründen
für die Existenz und das Weiterbestehen des universellen religiösen Repertoires und nach kognitiven Mechanismen gesucht, die an diesen
Erinnerungs- und Übermittlungsprozessen beteiligt sind. EXREL wird sich umfassender mit der
Entstehung und der Besonderheit der Konzepte
des „Lebens“ nach dem Tod befassen, mit der
Bereitschaft des Menschen, den Kausalzusammenhang von Ereignissen übernatürlichen
Wesen zuzuschreiben, die damit eine Absicht
verfolgen, und mit den vom Glauben an diese
Wesen beeinflussten Verhaltensänderungen.
Im dritten Teil des Programms wird versucht,
eine Erklärung dafür zu finden, dass jedes
Element des religiösen Repertoires, je nach dem
Entwicklungsgrad und den verschiedenen religiösen Traditionen, Varianten aufweist.
Der vierte ebenso originelle wie ehrgeizige
Teil wagt einen Ausblick in die Zukunft mithilfe
von Modellen, die eine Simulation der Wege und
Wandlungen religiöser Systeme ermöglichen.
Zunächst soll eine Art „Minimalpaket“ der kognitiven Fähigkeiten und der Interaktionsgesetze
definiert werden, die für das Entstehen des religiösen Denkens in einer Gesellschaft erforderlich sind. Über die Tatsache hinaus, dass diese
Modelle eine nie da gewesene Lesart vergangener und gegenwärtiger religiöser Phänomene einführen würden, könnten ihre digitalen Avatare
die Möglichkeit bieten, zukünftige Veränderungen
der religiösen Traditionen zu simulieren. Das und
nicht weniger!
Wenn das Computer-Programm aussagekräftige Ergebnisse liefert, könnte es zu einem wertvollen Werkzeug politischer Planung werden. Denn
obwohl Religiosität für viele Menschen geistige
Gesundheit bedeutet, ist sie doch auch eine Quelle
großer Konflikte. Als Konsequenz könnte dieses
Programm also zu einem besseren Verständnis und
vielleicht sogar zur höchst willkommenen
Antizipation des Einflusses der Religion auf religiösen Extremismus und Fundamentalismus führen.
Denn unsere Gesellschaft zeigt täglich, wie aktuell
dieses Thema ist, und wie Intoleranz den Tod von
Menschen nach sich ziehen kann.
Jean-Pierre Geets, Annick M’Kele
(1) Artikel im Daily Telegraph vom 13. September 2009:
www.telegraph.co.uk/news/worldnews/europe/5268361/
EU-wasting-billions-on-projects-such-as-defining-God.html
EXREL
11 Partner – 8 Länder
(AT-BG-CH-DK-FI-FR-NL-UK)
www.cam.ox.ac.uk/research/
explaining-religion/
research*eu Nr. 63 | APRIL 2010
39
IN KÜRZE
Gorillas mit
Fernüberwachung
Courtesy UWA
Auf unserer Erde leben noch etwa
700 Berggorillas. Etwa die Hälfte
lebt im undurchdringlichen
Dschungel von Bwindi, Uganda,
und der Rest verteilt sich auf
Ruanda und die Demokratische
Republik Kongo. Im vergangenen
Jahr waren Bwindi und der nah
gelegene Nationalpark von
Mgahinga das Ziel von 600 000
Besuchern. Als geschützte Tierart,
die auf der Roten Liste steht, sind
die Gorillas eine wichtige Einnahmequelle, die von der Uganda
Wildlife Authority (UWA) verwaltet
wird, indem sie darüber wacht, dass
die Lebensräume der Tiere respektiert werden. Sie nutzt die Einnahmen aus den Nationalparks, in
denen die Tiere leben, und verteilt
einen Teil des Gewinns an die
lokale Bevölkerung zur Förderung
von Schulen, Krankenhäusern,
kleinen Viehzuchtprojekten usw.
Um ein größeres Publikum zu
erreichen, hat die UWA jetzt die
Website Friendagorilla.org gestartet, auf der die Gorillas die großen
Stars sind. Dort erfährt man vieles
40
research*eu Nr. 63 | APRIL 2010
über ihre Launen, ihre Besonderheiten in der Welt der Primaten
und man kann sogar wie Dian
Fossey eine „Freundschaft“ mit
einigen Berggorillas schließen.
Gegen die bescheidene Summe
von 1 USD pro Jahr können die
Websurfer ihre Gorillagruppe
24 Stunden am Tag verfolgen.
Mit versteckten Kameras im
Dschungel werden diese Nomaden aufgespürt, die jede Nacht
woanders schlafen.
Doch man kann sie auch vor Ort
besuchen. Allerdings kostet es ein
wenig mehr, um die Gorillas in den
Nationalparks von Mgahinga zu
besuchen. Die Fährtenleser – Tracker
genannt – werden Ihnen zeigen, wie
Sie sie entdecken können, doch eine
Garantie, sie zu sehen, gibt es nicht.
Allerdings wird die wunderschöne
Landschaft Sie über diese Enttäuschung hinwegtrösten.
www.friendagorilla.org
Spuren von
Riesenfüßen
In Plagne (FR), einem Ort zwischen
Lyon und Genf, wurden die größten Dinosaurierspuren aller Zeiten
entdeckt: Sie haben einen Durchmesser von 1,20 m bis 1,50 m und
sind auf einer Länge von mehreren
hundert Metern sichtbar. Die
Forscher der Universität Lyon 1,
Jean-Michel Mazin und Pierre
Hantzpergue erkannten die Spuren
als Abdrücke von Sauropoden.
Diese Tiere waren mehr als
25 Meter lang und konnten bis zu
40 Tonnen schwer werden. Allerdings wurde die Entdeckung nicht
© CNRS Photothèque/Hubert Raguet/UMR5125
WISSENSCHAFT
GRIFFBEREIT
Dinosaurierspuren an der paläontologischen Ausgrabungsstätte in Plagne (FR).
von den Wissenschaftlern selbst
gemacht, sondern von zwei
passionierten Amateurpaläontologen, die sich für Fossile, Vulkane
und die Natur interessieren:
Marie-Hélène Marcaud und
Patrice Landry.
Doch ihr Fund ist kein Zufall. Er
zeigt, wie Amateure zu wertvollen
Helfern von Forschern werden
können. Unsere beiden Entdecker
(sie ist Lehrerin im Ruhestand und
er Geologe) sind Mitglieder eines
Naturvereins, in dem sich passionierte Paläontologen treffen. „Wir
haben Gruppen gebildet, um
verschiedene Bereiche zu erkunden“, erklärt Patrice Landry. „Je
nach unseren Beobachtungen
und Entdeckungen haben wir
bestimmte Gesteinsmuster
bestimmt. Wir haben auch die
geologischen Karten und Luftaufnahmen studiert, um Ausbisse
zu bestimmen und wie wir
dorthin gelangen können.
Anschließend haben wir verschiedene Stellen angepeilt, die wir
bereits öfter erkundet haben.
Plagne war eine davon und wir
waren zum ersten Mal dort.“ Ein
schönes Beispiel für die Wissenschaft der Beobachtung.
www2.cnrs.fr/presse/
communique/1691.htm
Vernetzter
Wettbewerb
Man nehme drei Schlüsselworte
(Reifen, Straße, Sicherheit). Man
mische und schüttele diese und
lasse seiner Fantasie freien Lauf.
Man denke sich eine klare, originelle und durchdringende Botschaft aus, in der die Beziehung
zwischen diesen drei Elementen
in der Zeit eines Clips dargestellt
werden kann. Ergebnis? Ein Video
von maximal fünf Minuten Dauer,
das für Youtube produziert wurde
und vielleicht eine gute Zukunft
verspricht.
Mit einem solchen Video kann
man dann am Wettbewerb von
TyroSafe (Tyre and Road Surface
Optimisation for Skid Resistance
and Further Effects) teilnehmen.
Durch die Kultur
surfen
Während Google sich die Digitalisierung aller Bücher der Welt
vorgenommen hat, versucht
Europa sein eigenes Kulturerbe
unter dem Stichwort Europeana
zu vereinen. Ziel ist es, das
immense Kulturerbe der Sammlungen, die in den Bibliotheken,
Archiven und Museen Europas
konserviert werden, online
zugänglich zu machen. Diese
umfassen eine beeindruckende
Zahl von Werken und Zeitschriften
(schätzungsweise 2,5 Milliarden
Dokumente allein in den Bibliotheken) und Millionen Stunden
an Filmen und Videos zur europäischen Geschichte und Kultur.
In den Regalen dieses riesigen
virtuellen Gebäudes, das bereits
im November 2008 eröffnet
wurde, stehen bereits 4,6 Millionen digitale Objekte (Bücher,
Karten, Kunstgegenstände,
Plakate, Fotos und Audiodateien)
in 19 Sprachen.
Doch Europeana ist nicht nur eine
kulturelle Herausforderung. Auch
Benetzung einer Straße für einen Reifentest im Labor der Straßenmeisterei
von Nantes (FR).
stehen Arabisch, Chinesisch,
Englisch, Französisch, Portugiesisch,
Russisch und Spanisch zur Verfügung. Die Bibliothek soll das Volumen und die Vielfalt der kulturellen
Inhalte im Internet vergrößern und
ein Mittel zur Verringerung der
digitalen Kluft zwischen Ländern
und Regionen sein.
www.europeana.eu
www.wdl.org
Klimaerwärmung
mit offenen Karten
Auf dem Klimagipfel in Kopenhagen
haben sich die Staats- und Regierungschefs darauf geeinigt, dass die
Erwärmung unseres Planeten im
Vergleich zu den herrschenden Temperaturen vor der Industrialisierung
2 °C nicht überschreiten sollte.
Allerdings wurde nicht gesagt, wie
dieses Ziel zahlenmäßig zu erreichen sei. (1) Was wäre, wenn dies
nur ein frommer Wunsch ist, und wir
uns tatsächlich auf die 4 °C-Hürde
zubewegen? Dank einer interaktiven Weltkarte auf der Website
Act on Copenhagen der britischen
Regierung, springen die Folgen
sofort ins Auge.
Auf dieser Karte sind die neuesten
wissenschaftlichen Erkenntnisse
zur Klimaerwärmung abgebildet.
Um diese zu erkunden, wird eine
© Shutterstock/Loris
www.youtube.com/tyrosafe
http://tyrosafe.fehrl.org
Technik und Kommunikation sind
gefordert. Die Aktivierung dieses
Netzwerks, dessen zahlreiche
Zweige kulturellen Kontexten
entsprechen, die oftmals auf
unterschiedliche Weise verwaltet
werden, ist besonders kompliziert.
Wer zu diesem Netzwerk beitragen will, muss sich an die Regeln
anpassen, die für dieses gemeinsame Unternehmen herrschen.
Außerdem ist festzulegen, wie der
Zugang zu diesem Netzwerk für
sehr unterschiedliche Benutzerprofile (Forscher, Lehrer und
Schüler/Studenten, Kulturunternehmen oder einfach nur Interessierte) gewährleistet werden kann.
Der Besuch der Europeana lohnt
einen Umweg: Auf der Startseite
ist ein Drehkreuz, auf dem man
verschiedene Themen sieht, die
zum Browsen einladen. Jedes
besuchte Objekt öffnet das Tor zu
weiteren Pfaden. Hier steht auch
eine Art Zeitmaschine, mit der
man durch die Zeit browsen und
sich Bilder von Objekten aus den
Jahren 1850 bis 2009 anschauen
kann. Europeana versteht sich als
ein Ort für Inspiration und Ideen.
Die Digitale Weltbibliothek der
Unesco, die ihre Pforten im
April 2009 geöffnet hat, ist von
planetarischem Ausmaß. Sie macht
Dokumente zugänglich, die ihr
von Bibliotheken und kulturellen
Einrichtungen auf allen Kontinenten zur Verfügung gestellt werden.
Derzeit beteiligen sich 26 Institutionen aus 19 Ländern, an Sprachen
© Austrian Institute of Technology/Roland Spielhofer
Das Gewinnervideo wird auf
Kampagnen, Veranstaltungen und
Ausstellungen der Projektpartner
zu sehen sein. Die Jury besteht aus
verschiedenen Experten aus der
industriellen Forschung im Bereich
Verkehrssicherheit. Es besteht
absolute Formfreiheit (Werbespot,
Lied, Marketingvideo…) und die
Teilnehmer können das Logo und
andere optische Elemente von der
Website von TyroSafe verwenden.
Die Vorschläge können in jeder
beliebigen Sprache produziert
werden, müssen allerdings mit
englischen Untertiteln versehen
sein.
© Shutterstock/Lori Labrecque
IN KÜRZE
geografische Zone oder eine
Ursache und/oder Folge dieser
Veränderungen ausgewählt:
Auswirkungen der menschlichen
Aktivitäten, die Entwicklung der
Landwirtschaft, die Zukunft des
Amazonas, der Kohlenstoffkreislauf,
die Wasserknappheit und das
Ansteigen des Meeresspiegels.
Doch bei den Szenarien wird einem
schwindelig: 130 Millionen Überschwemmungsopfer pro Jahr, eine
Milliarde Menschen ohne Trinkwasser, ein Anstieg des Meeresspiegels
um 48 Zentimeter (derzeit leben
schätzungsweise 600 Millionen
Menschen mindestens 10 Meter
unter Meeresniveau), Trockenheit
im Amazonas. Alles nur alarmierende Hypothesen? Die Forscher
erinnern uns daran, dass 35 000
Tote auf das Konto der Hitzewelle
2003 in Europa gingen.
www.actoncopenhagen.
decc.gov.uk/en/ambition/
evidence/4-degrees-map/
(1) Siehe Interview mit Jean-Pascal van Ypersele
in dieser Ausgabe.
research*eu Nr. 63 | APRIL 2010
41
IN KÜRZE
PÄDAGOGISCHE ECKE
Tornado im Haus
E
in Topf mit kochendem
Wasser, ein Räucherstäbchen
und eine große Plexiglasscheibe. Mehr braucht man nicht,
um in der Küche einen Mini-Tornado zu erzeugen. Man zerschneide
das Plexiglas in 4 Teile, sodass sich
ein Quader von einem Meter Höhe
bilden lässt, dessen Ober- und
Unterseite offen sind. Vor dem
Zusammensetzen ist auf der
rechten Seite ein 5 cm breiter
Schlitz entlang der Ränder der vier
Flächen (siehe Abbildung) einzuschneiden. Man stelle dann den
Topf auf einen kleinen Kocher,
neben dem das bereits angezündete Räucherstäbchen platziert wird.
Das Ganze wird mit dem Quader
abgedeckt. Jetzt heißt es warten.
Nach einer Weile entsteht langsam
ein Tornado.
Zauber? Nein, Physik! Mit dieser
Vorrichtung werden gewissermaßen
die natürlichen Bedingungen
nachgebildet, die die Entstehung
von Tornados begünstigen. Kurz
über dem Topf erreicht die Luft
eine Temperatur von etwa 100 °C,
während sie im oberen Teil des
Quaders nur noch 30 °C beträgt.
Dieser Temperaturunterschied in
den verschiedenen Luftschichten
erzeugt eine Auftriebskraft nach
dem archimedischen Prinzip, was zu
einer vertikalen Beschleunigung des
Wasserdampfes führt. Gleichzeitig
verursacht diese Bewegung einen
Luftzug durch die 4 großen Schlitze,
wodurch der aufsteigende Wasserdampf in Rotation versetzt wird.
Das Räucherstäbchen gibt Staub
frei, auf dem sich die Wasserteilchen
ansammeln, sodass das Phänomen
sichtbarer wird.
42
research*eu Nr. 63 | APRIL 2010
The world in 2025
– Rising Asia and
socio-ecological
transition
2009, 28 Seiten,
ISBN 978-92-79-12485-3
Diese Veröffentlichung konzentriert sich
auf die europäische Zukunftsforschung.
Sie stellt klar und deutlich die großen
Tendenzen im Hinblick auf geopolitische Veränderungen und die Entwicklung der Wirtschaft, des internationalen
Handels und auch der Armut heraus.
Anschließend ermittelt sie mögliche
künftige Spannungsbereiche (natürliche Ressourcen, Migration, Verstädterung usw.) und schlägt mehrere Wege
für den Übergang vor.
Collaborative
cardiovascular
research
Auf der Erde bilden sich Tornados
in heißen Regionen, in denen die
Temperaturunterschiede zwischen
dem Boden und den hohen Luftschichten groß genug sind, um eine
Aufwärtsbewegung zu verursachen.
Die Drehbewegung ist auf die
Corioliskraft zurückzuführen, die
die Rotation der Erde widerspiegelt,
und von geostrophischen Effekten
überlagert wird, die mit der Bodenreibung und den Luftschichten
zusammenhängen. Durch ihre
Bauweise erzeugt die Vorrichtung
eine Aufwärtsbewegung mit einer
Drehrichtung entgegen dem
Uhrzeigersinn, was den Tornados
auf der Nordhalbkugel entspricht.
Wird der Quader umgedreht,
wechselt man praktisch die Seite
der Erdhalbkugel.
Marie-Françoise Lefèvre
2009, 88 Seiten,
ISBN 978-92-79-12802-8
Auflistung der kardiovaskulären
Forschung unter dem 7. Rahmenprogramm für Forschung der Europäischen Union zwischen 2007 und 2009.
Der erste Teil des Werkes befasst sich
mit dem Bedarf in diesem umfangreichen Forschungsbereich sowie mit
den Gelegenheiten für eine grenzüberschreitende Zusammenarbeit.
People, the economy
and our planet
2009, 36 Seiten,
ISBN 978-92-79-11952-1
Diese Veröffentlichung setzt ihren
Schwerpunkt auf den Beitrag der
europäischen Forschung im Bereich
der Sozial-, Wirtschafts- und Geisteswissenschaften zur nachhaltigen
Entwicklung. Sie stützt sich auf die
Sitzungsprotokolle der Konferenz Sustainable development: a challenge for
European research, die im Mai 2009 in
Brüssel stattgefunden hat.
ALLGEMEINE INFORMATIONEN
VERÖFFENTLICHUNGEN
Wissenschaft
Wissenschaft im
Dienste Europas
Im Dienste Europas
Eine Übersicht zum Tätigkeitsbericht 2008
der Generaldirektion Forschung
der Europäischen Kommission
2009, 90 Seiten,
ISBN 978-92-79-12959-9
Weit von einer reinen Auflistung
von Zahlen entfernt gibt dieser
Bericht einen Überblick über die
Tätigkeit der Generaldirektion
Forschung der Kommission im
Europäischen Forschungsraum im
Jahr 2008. In zwanzig Kapiteln
spricht er Themen wie Gesundheit,
Landwirtschaft, Nanotechnologien
an, angefangen bei Forschungsinfrastrukturen bis hin zu den Zusammenhängen zwischen Wissenschaft
und Gesellschaft.
The EU works for you:
environmental
research for today
and tomorrow
2009, 94 Seiten,
ISBN 978-92-79-11588-2
Dieses auf Recyclingpapier gedruckte
Werk stellt 51 wichtige Forschungsprojekte vor, die unter dem 6. Rahmenprogramm für Forschung der EU im
Bereich der Umwelt finanziert wurden.
Die Projekte sind in zehn Kategorien
eingeteilt, etwa Klimaänderungen,
Biodiversität oder auch Land- und
Stadtmanagement.
Global Governance
der Wissenschaft
2009, 52 Seiten,
ISBN 978-92-79-11307-9
Bericht der Sachverständigengruppe
zur Global Governance der Wissenschaft im Auftrag der Generaldirektion Forschung der Europäischen
Kommission. Mit Beiträgen von
Gelehrten, Soziologen, Philosophen
und Politologen aus Europa, den
Vereinigten Staaten, China und
Südafrika.
Informationen über weitere Veröffentlichungen der Europäischen
Union und Bestellmöglichkeiten bietet Ihnen der EU-Bookshop:
http://bookshop.europa.eu
IN KÜRZE
NACHWUCHSFORSCHER
Die Stimme und der Weg der Amoolya Singh
Ich arbeite an der Universität Emory
in Atlanta (USA). Nachdem ich in
Berkeley meine Doktorarbeit
verteidigt hatte, erhielt ich ein
Postdoktorandenstipendium für das
EMBL (European Molecular Biology
Laboratory) in Heidelberg (DE). Bei
meinen Forschungsarbeiten geht
es darum, die evolutiven Mechanismen der Antworten auf bakteriologischen Stress zu charakterisieren, die
bei menschlichen Krankheiten und
der biologischen Zersetzung von
Giftmüll eine wichtige Rolle spielen.
Obwohl mir meine Arbeit Spaß
macht, war mein wissenschaftlicher
Weg nicht wirklich geradlinig. Meine
Eltern waren beide Biologen und
daher wurde ich dazu angeregt,
mir Fragen zu stellen und die Natur
zu erkunden. Auch die Musik prägte
mich – sehr früh hatte ich Gesangunterricht und erlernte mehrere
Instrumente. Nach dem Abitur
in Indien fiel es mir schwer, mich
MEINUNG
Das Mea culpa eines Kommunikators
15. Oktober 2009. Le Nouvel Observateur
schreibt auf der Titelseite: „Nuklearer Zwischenfall – Plutonium in Cadarache nicht
inventarisiert“. „Damit könnte man etwa fünf
Atombomben bauen“, empört sich Greenpeace. Die Wirklichkeit ist nicht ganz so dramatisch, wirft aber Fragen zur Aufklärung der
Öffentlichkeit auf. Denn neben der Analyse seiner Auswirkungen löst ein nuklearer Zwischenfall vor allem erst einmal Empörung, Angst und
manchmal sogar Panik aus. Nun bleiben aber
Tatsachen, die uns erschüttert haben, viel stärker in unserem Gedächtnis haften.
Was ist also zu tun? Erst einmal ist zu bedenken, dass mit der Öffentlichkeit nicht über ein
Thema debattiert werden kann, das sie rein
zwischen einer Karriere als Musikerin oder Wissenschaftlerin zu
entscheiden. Dann erhielt ich ein
wissenschaftliches Stipendium
für die USA, woraufhin ich mich auf
den Weg in den Westen machte.
Dort half mir die Möglichkeit, Musik
in einer neuen Umgebung zu
spielen dabei, den Kulturschock
zu überwinden und neue Freunde zu
gewinnen. Ich habe die Zeit meines
Promotionsstudiums als eine Zeit der
Freude und Kreativität in Erinnerung.
Die drei Jahre, die ich in Europa
verbracht habe, waren für mich eine
bereichernde Übergangszeit. Ich
wechselte zum zweiten Mal in
meinem Leben den Kontinent und
musste neu anfangen. Es ist immer
beeindruckend, wenn man Tausende von Kilometer weit wegzieht,
aber das hatte ich ja bereits einmal
erlebt und war auf einen Kulturschock vorbereitet. Überraschenderweise war meine Erfahrung ganz das
Gegenteil – als alte Kultur mit einer
langen Geschichte schien mir
Europa Indien viel näher zu stehen
emotional und nicht rational erfasst hat. Obwohl
natürlich weiterhin gut dokumentierte Informationsarbeit geleistet werden sollte, lassen sich
mit diesem Ansatz nur die wissbegierigsten
Menschen erreichen. Daher muss jetzt die breite Masse der Unentschlossenen überzeugt werden, die in der Politik stark ins Gewicht fällt.
Cicero lehrte die römischen Redner, dass
man, um gehört zu werden, erst einmal begeistern, dann innerlich bewegen und schließlich
überzeugen muss. Die Atomwirtschaft hat diese Reihenfolge nie respektiert: Sie wollte vor
allem überzeugen, sie hat die breite Masse nicht
begeistert und die hervorgerufenen Emotionen
waren vor allem negativer Art. Wie könnte die
Atomwirtschaft aber die breite Masse gewinnen?
Sie muss auf die Bürger zugehen und nicht
umgekehrt. Wo ist der Bürger am besten zu
erreichen? Abends vor dem Fernseher, bei seiner Lieblingssendung. Hier müssen ihm die
Aktivitäten aus dem Bereich der Kernenergie,
die Kompetenz und die professionelle Sorgfalt
und ich fühlte mich ein bisschen wie
zu Hause, als ich die Städte mit ihren
Plätzen und Fußgängerzonen
erkundete. Ich habe festgestellt,
dass meine europäischen Kollegen
genauso produktiv sind wie die
Amerikaner, im Gegensatz zu diesen
aber in der Lage sind, ein Gleichgewicht zwischen Arbeit und Familie
zu finden, indem sie beispielsweise
jedes Jahr Urlaub nehmen. Dieses
Gleichgewicht hat mich darin
bestärkt, heiraten und eine Familie
gründen zu wollen – während ich
das in der gewinnorientierten
amerikanischen Gesellschaft zu
vermeiden suchte.
Nach meiner Rückkehr in die USA ist
mir bewusst geworden, dass diese
Überleitung (um eine Metapher aus
der Musik zu verwenden) mir zu einer
eigenen Stimme verholfen hat. Selbst
wenn es schwierig ist, sie in dem
Wirrwarr beruflicher Zwänge nicht
zu verlieren, ist es vielleicht doch der
wahre und schönste Grund, weiter zu
singen oder auch zu forschen.
Amoolya Singh
Bioinformatikerin
der Fachkräfte gezeigt werden, damit – und
das wird Jahre brauchen – das Vertrauen durch
die regelmäßige Präsenz vertrauter Personen
wieder hergestellt wird. Aber diese „nukleare“
Fernsehserie muss vor allem amüsant sein, um
über Jahre hinweg ein breites Publikum anzusprechen und auf diese Weise Stück für Stück
das Image dieser Energieform aufzupolieren.
Dieses Projekt ist nicht mehr nur Idee, sondern
eine derartige Serie wird bereits geprüft.
Alain Michel
Kommunikationsberater
(auf dem Gebiet der Kernkraft)
AGENDA
Neues aus Forschung und Entwicklung:
http://ec.europa.eu/research/headlines/
archives_diary_en.cfm
research*eu Nr. 63 | APRIL 2010
43
BILD DER WISSENSCHAFT
KIAH09063DEC
Kurz vor
dem Ausbruch
Diese Gasblasen kündigen den Ausbruch des berühmten Strokkur-Geysirs in Island
an. Das Bild wurde nur wenige Millisekunden vor der Eruption aufgenommen.
Es hat seinem Fotografen, dem 17jährigen Ela Ugur aus Dänemark, den Gold
scientifique et technique) 2009 eingebracht. Für die Veranstalter dieses jährlichen
Wettbewerbs, an dem Jugendliche unter 25 Jahren teilnehmen dürfen, besteht
das Ziel darin, „einen Raum anzubieten, in dem die Jugend kreativ sein und
in Bildern das ausdrücken kann, was sie in den Naturwissenschaften beobachtet.
Die Teilnahme ist so einfach wie das Drücken des Auslösers.“
http://europe.milset.org
Mit freundlicher Genehmigung von Ela Ugur/Milset
Award beim Fotowettbewerb der MILSET (Mouvement international pour le loisir
Herunterladen