Nr. 63 – April 2010 Europäische Kommission Reportage „Meine Stimme begleitet Sie“ Energie Laser- und Fusionstechnologie – ein perfektes Bündnis? ISSN 1830-737X Magazin des Europäischen Forschungsraums © Shutterstock/Robert HM Voors Klima Kopenhagen, eine verpasste Gelegenheit? research*eu, das Magazin des Europäischen Forschungsraums, will zur Erweiterung der demokratischen Debatte zwischen Wissenschaft und Gesellschaft beitragen. Es wird von unabhängigen Journalisten verfasst und analysiert und stellt Forschungsprojekte, Ergebnisse sowie Initiativen vor, deren Akteure, Frauen und Männer, zur Stärkung und Bündelung der wissenschaftlichen und technologischen Exzellenz Europas beitragen. research*eu wird auf Deutsch, Englisch, Französisch und Spanisch vom Referat Information und Kommunikation der GD Forschung der Europäischen Kommission herausgegeben. Es erscheint zehnmal im Jahr. research*eu Chefredakteur Michel Claessens Lektorat der Sprachversionen Gerard Bradley (EN), Tonia Jiménez-Nevado (ES), Regine Prunzel (DE) Allgemeine Koordination Jean-Pierre Geets, Charlotte Lemaitre Redaktion Jean-Pierre Geets Viele Wissenschaftler behaupten, dass Wissenschaft und Medien nicht gut zusammenpassen. Vereinfachungen bis hin zur Fälschung, Übertreibungen, Fehler: Wissenschaftsjournalismus, so diese Wissenschaftler, habe nicht viel zu tun mit „echter“ Wissenschaft. Er sei bestenfalls eine Karikatur. Dem ist jedoch nicht so. Indem Journalisten Forschungsergebnisse in eine verständliche Alltagssprache übertragen, tragen sie dazu bei, das Bild der Wissenschaft in der Öffentlichkeit zu vervollständigen, es lebendiger und menschlicher zu machen. Das tun sie ganz besonders, wenn sie über aktuelle Forschungsarbeiten berichten und die Experten ins Rampenlicht stellen. Ein besonders anschauliches Beispiel ist die Diskussion über den Klimawandel, das zentrale Thema dieser Ausgabe. Gerade hier leisten Journalisten etwas, was Wissenschaftlern heute am meisten fehlt: Sie machen die Probleme für die Öffentlichkeit und die Politik sichtbar. Ohne die Hilfe der Medien, ohne die Arbeit der Wissenschaftsjournalisten, hätte der Weltklimarat sicherlich nie die Aufmerksamkeit der Politiker gefunden. Das sieht auch sein Vorsitzender, Rajendra Kumar Pachauri, so. In einem Beitrag, der im Juni auf der Website SciDev (Réseau Sciences et Développement) veröffentlicht wurde, erklärte er: „In den letzten Jahren haben die Medien eine ganz wesentliche Rolle bei der weltweiten Sensibilisierung der Öffentlichkeit für die Folgen des Klimawandels gespielt. Das ist eine sehr gute Sache. Es ist also keineswegs übertrieben, wenn man sagt, dass die Medien dazu beigetragen haben, die öffentliche Meinung für die Unterstützung der Maßnahmen gegen den Klimawandel zu gewinnen.“ Dass wissenschaftliche Arbeit nicht umsonst ist, sondern der Gesellschaft Nutzen bringt, ohne ihr zu schaden, davon träumt jeder Wissenschaftler. Und dazu leistet der Wissenschaftsjournalismus seinen Beitrag. Michel Claessens Chefredakteur Die in diesem Editorial und den Artikeln wiedergegebenen Meinungen sind nicht bindend für die Europäische Kommission. Unter folgender Website können Sie das Magazin research*eu kostenlos abonnieren oder Ihr vorhandenes Abonnement ändern/abbestellen: http://ec.europa.eu/research/research-eu/subscribe_de Auf dieser Seite können Sie auch ältere Ausgaben kostenlos bestellen. Name: ................................................................................................................................................................. Organisation: ........................................................................................................................................ Anschrift: ...................................................................................................................................................... ........................................................................................................................................................................................... PLZ: ................................................................ Stadt: ............................................................................... Land: ..................................................................................................................................................................... Autoren Audrey Binet, Laurence Buelens, Didier Buysse, Élise Dubuisson, Stéphane Fay, Jean-Pierre Geets, Elisabeth Jeffries, Marie-Françoise Lefèvre, Annick M’Kele, Christine Rugemer, Yves Sciama, Julie Van Rossom Übersetzungen Andrea Broom (EN), Martin Clissold (EN), Silvia Ebert (DE), Michael Lomax (EN), Consuelo Manzano (ES) Aus Platzgründen und aus Gründen der Lesbarkeit wird in der deutschen Ausgabe das generische Maskulinum verwendet. Grafik Gérald Alary (Projektleiter), Olivier Moulin (Layout), Sophie Maertens (Koordination und Produktion), Daniel Wautier (Druckfahnenkorrektur FR), Richard Jones (Druckfahnenkorrektur EN), Sebastian Petrich (Druckfahnenkorrektur DE), D. A Morrell (Druckfahnenkorrektur ES) Bildauswahl Christine Rugemer Internetversion Charlotte Lemaitre Druck Bietlot, Gilly (BE) Gesamtproduktion PubliResearch Sie möchten die Druckversion von research*eu erhalten? Sie können aber auch diesen Abschnitt ausfüllen (bitte in Druckbuchstaben) und an folgende Adresse zurückschicken: research*eu ML DG1201 Boîte postale 2201 L-1022 Luxembourg Redaktioneller Berater Didier Buysse © Arion Editorial Nur eine Karikatur? Gewünschte Ausgabe: Französisch Deutsch Englisch Spanisch Wenn Sie mehrere Exemplare einer bestimmten Ausgabe erhalten wollen, schicken Sie Ihre Bestellung zusammen mit Ihrer vollständigen Anschrift und einer kurzen Begründung bitte • per E-Mail an: [email protected] • per Fax an: (+32-2-295 82 20). Falls Sie ein oder mehrere Exemplare älterer Ausgaben erhalten möchten, schicken Sie uns eine kurze Nachricht per E-Mail oder per Fax. Auf der Titelseite Packeisschmelze. ©Shutterstock/Robert HM Voors Um eine nachhaltige Bewirtschaftung unserer Wälder zu gewährleisten, wurde dieses Magazin auf PEFC-zertifiziertem (Programme for the Endorsement of Forest Certification schemes) Papier gedruckt. Auflage dieser Nummer: 126 000 Alle Ausgaben von research*eu sind auch auf der Website der GD Forschung zu finden: http://ec.europa.eu/research/research-eu Verantwortlicher Redakteur: Michel Claessens Tel.: +32 2 295 99 71 Fax: +32 2 295 82 20 E-Mail: [email protected] © Europäische Gemeinschaften, 2010 Nachdruck mit Quellenangabe gestattet. Weder die Europäische Kommission noch irgendeine Person, die im Namen der Kommission handelt, sind für die Verwendung der in dieser Publikation enthaltenen Informationen oder für eventuelle, trotz der sorgfältigen Vorbereitung der Texte noch vorhandenen Fehler verantwortlich. INHALT 4 In Kürze Im Trend DOSSIER KLIMA 20 In Kürze Neues aus Europa. Forschung unter dem Mikroskop. Interview 24 Auszeichnung eines „Grundlagenforschers“ Interview mit Harald zur Hausen, Nobelpreisträger in Medizin, dessen Entdeckung des HPV die erste präventive Impfung gegen Gebärmutterhalskrebs ermöglicht hat. Porträt 34 Der Algorithmus der Götter Der hervorragende Forscher und passionierte Geschäftsmann, Stephen Wolfram, hat die Welt der Wissenschaft mit seinen Theorien und Arbeitsmethoden erschüttert. Strafvollzug Reportage Interview 8 „Angesichts der Ausmaße des Problems haben wir entsetzlich wenig getan“ Gespräch mit Jean-Pascal van Ypersele, Vizepräsident des IPCC, Professor am Institut für Astronomie und Geophysik der Katholischen Universität Löwen (BE). Ozeane 10 Die Ozeane versauern Im Schatten der Klimaerwärmung schreitet ein weiteres Phänomen voran, das durch CO2-Emissionen des Menschen hervorgerufen wird: die Versauerung der Ozeane. Verkehr 12 Benzin und Diesel ade Ein Blick auf das NEMO-Projekt, das sich die Herstellung von Biokraftstoffen der zweiten Generation aus pflanzlichen Abfällen vorgenommen hat. 26 „Meine Stimme begleitet Sie“ Anästhesie unter Hypnose wird seit mehr als fünfzehn Jahren in Belgien praktiziert. Blick auf eine Technik, die inzwischen nicht mehr umstritten ist. Klimaskepsis 17 „Jeder Wissenschaftler muss auch Skeptiker sein“ Welche Argumente haben die Klimaskeptiker, jene Wissenschaftler, die sich gegen die meisten Klimaspezialisten auflehnen? Geisteswissenschaften Neurowissenschaften 30 Blick hinter die Kulissen der Werkstatt des Glücks Die Forscher der TrygFonden Research Group haben versucht, das Wesen des Glücks zu verstehen, um Menschen zu helfen, die diese Gefühle nicht kennen. Energie 38 Woher stammt religiöses Denken? EXREL oder wie europäische Wissenschaftler die Ursprünge der Religion erklären und ihre Entwicklungen vorherzusagen versuchen. 40 In Kürze Wissenschaft griffbereit. Pädagogische Ecke. Veröffentlichungen. Nachwuchsforscher. Meinung. Klimamodelle 14 Die Diagnosewerkzeuge Die wissenschaftlichen Voraussagen zum europäischen Klima haben eine bisher unerreichte Detailgenauigkeit erreicht. Und zum ersten Mal liegen auch Methoden vor, mit denen die Genauigkeit bewertet werden kann. 36 Die Auswüchse der Gefängniswelt Die Überbelegung der Gefängnisse, das soziale Gefälle, neue Formen der Kriminalität. Siegt der Strafvollzugsstaat über den Wohlfahrtsstaat? Die meisten Kriminologen zweifeln nicht mehr daran. Bild der Wissenschaft 32 Laser und Fusion – die perfekte Allianz? Der Zugang zu sauberer und unerschöpflicher Energie ist das ehrgeizige Ziel der Projekte PETAL und HIPER auf dem Gebiet der kontrollierten thermonuklearen Fusion. 44 Kurz vor dem Ausbruch research*eu Nr. 63 | APRIL 2010 3 IN KÜRZE Europa auf der Suche nach seinen Vorfahren © Joachim Burger Auf der Suche nach unseren Wurzeln mithilfe von Gentests scheinen sich genauso viele Geheimnisse vor uns aufzutun wie gelöst werden. Bereits im Jahr 2005 wiesen Forscher des Instituts für Anthropologie der Johannes Gutenberg-Universität in Mainz (DE) nach, dass die ersten Bauern Europas nicht die direkten Vorfahren der modernen Europäer waren. Anschließend verglichen sie in einer neuen Studie die DNA dieser Bauern mit jenen der letzten Jäger und Sammler, die Europa nach der Eiszeit bewohnten. Doch auch hier ließ sich keine Verbindung zu den ersten Bauern feststellen, genauso wenig zur heutigen europäischen DNA-Analyse in einem Labor der Universität Mainz. Bevölkerung. Damit stammt der moderne Europäer von keiner dieser beiden Gruppen ab, auch nicht aus einer Mischung dieser beiden, weil bestimmte gemeinsame DNA-Abschnitte in den untersuchten Skeletten fehlten. Was nun? Die Frage bleibt offen. 4 research*eu Nr. 63 | APRIL 2010 Doch mithilfe der Forschung ist es gelungen, erste Antworten auf die Frage, wie der Europäer sesshaft wurde, zu finden. Lange Zeit glaubte man, dass die ersten Bauern ehemalige Jäger und Sammler waren, die allmählich sesshaft werden wollten. Da es aber überhaupt keine Verbindung zwischen diesen beiden Gruppen gibt, müssen die Bauern von woanders her gekommen sein. Den Forschern ist die Lokalisierung und Datierung dieser Einwanderung gelungen: Diese Menschen stammten aus den Karpaten rund 7 500 Jahre vor unserer Zeit. Und dieser Ursprung bringt sie auch den Regionen näher, in denen die ersten Menschen sesshaft waren: im Osten und in Kleinasien. www.uni-mainz.de Stickstoff gefährdet Wüsten Forscher der amerikanischen Cornell-Universität in New Jersey (US) haben eine Entdeckung gemacht, die uns gerne erspart geblieben wäre: Stickstoffverlust in trockenen Böden. Ihre in der Mojave-Wüste im Westen der USA durchgeführten Versuche zeigen, dass der Wassermangel in Kombination mit hohen Temperaturen zum Stickstoffverlust in Gasform führt. Da Wasser und Stickstoff zwei zentrale Elemente für die biologische Aktivität der Böden sind, bedeutet dies, dass die Vegetation in trockenen Gebieten noch ärmer wird. Damit nährt dieses Phänomen einen Teufelskreis. Die Stickstoffgase führen zur Erhöhung der Ozonkonzentrationen in der Troposphäre, die die Luft verschmutzen und vor allem den Treibhauseffekt antreiben. Damit tragen sie auch zur Erwärmung bei, die für den Klimawandel verantwortlich ist, und zur Abschwächung der Regenfälle in diesen Regionen. Bisher wurde diese Form des abiotischen, nicht biologischen Verlusts in der Berechnung der Stickstoffbilanz noch niemals berücksichtigt. Deshalb bestanden die Wissenschaftler darauf, diesen neuen Faktor in die Klimamodelle zu integrieren. www.news.cornell.edu Welches ist das schönste Schweinchen? Wenn sich ein Schwein im Spiegel sieht, wird es sich wahrscheinlich auf seinen vermeintlichen Artgenossen stürzen. Das würde man jedenfalls denken. Doch die Anthropozoologen – diese Disziplin untersucht die Verbindungen zwischen Mensch und Tier – der Universität Cambridge (UK) sind da anderer Meinung. Und um zu dieser Erkenntnis zu gelangen, bedarf es ein wenig Geduld. Zwei Jahre lang sperrten die Wissenschaftler acht Schweine fünf Stun- © Shutterstock/Anat-oli IM TREND den täglich in einen Stall mit einem Spiegel. Anfangs waren die Tiere von ihrem Spiegelbild genervt und zerstörten den Spiegel jedes Mal, wenn sie ihn sahen. Doch bald schienen sie verstanden zu haben, dass im Spiegel nur das Bild ihrer Umwelt zu sehen war. Um dies zu überprüfen, stellten die Forscher einen Futtertrog in den Stall, und verteilten mithilfe eines Ventilators den Geruch. Der Trog war hinter einem Schirm verborgen, jedoch im Spiegel sichtbar. Mit Ausnahme eines Tieres konnten alle Schweine den Futtertrog innerhalb von 20 Sekunden lokalisieren. Für den Studienleiter Daniel Broom könnte diese Information vielleicht zur Verbesserung der Lebensbedingungen von Zuchtschweinen beitragen. Mit dieser intellektuellen Fähigkeit reiht sich das Schwein in den sehr kleinen Kreis der Arten ein, die ein Bewusstsein für ihr eigenes Ich haben. Elefant, Orca, Delfin, Graupapagei, Elster, verschiedene Primaten und schließlich auch der Mensch, sobald er nach seinem 18. Lebensmonat das Spiegelstadium durchlaufen hat, gehören zu diesen wenigen Auserwählten. www.vet.cam.ac.uk/research/ Escherichia Coli. Kooperation oder Tod Eine französisch-portugiesische Forschergruppe des PasteurInstituts (FR) und der Universität Lissabon hat anhand des E. ColiBakteriums untersucht, wie Bakterien miteinander kooperieren. Ihre Studie wurde in der Fachzeitschrift Current Biology veröffentlicht. Dieses Bakterium lebt in der Darmflora und verträgt sich mit dem menschlichen Organismus sehr gut. Doch sobald sich die Interaktionen mit diesem oder mit anderen Bakterien ändern, kann es gefährlich werden. Sein Sekretom – die Gesamtheit der Proteine, von denen die vitalen Funktionen abhängen – wird sehr leicht von anderen Bakterien ausgenutzt und zwar über den horizontalen Gentransfer. Dabei springen sehr mobile Gene, die im Plasmid der Zelle kodiert sind, von einem Organismus zum anderen. Und dadurch wird E. Coli zu einem möglichen Kollaborateur, auch ohne sein Zutun. Die Forscher wollten nun verstehen, warum dieses Phänomen fortbesteht, obwohl es den helfenden Organismen keine besonderen Vorteile bringt – jedenfalls, wenn es diese nicht schädigt. Der Studie zufolge ist dies durch einen dreifachen Prozess zu erklären. Zahlreiche Gene des Sekretoms verfügen über das Merkmal „Kooperation“. Sobald dieses auf andere Organismen übertragen wird, werden diese auch kooperativ. Um diese neue Population zu erhalten, haben sie sich mit anderen Genen ausgestattet, die eine Strafstrategie der Art „Kooperation oder Tod“ verfolgen. Diese genetische Ähnlichkeit der infizierten Individuen begünstigt die Weitergabe des Merkmals von einer Generation zur nächsten über die Verwandtschaftslinie. Die Untersuchung dieses Prozesses macht den Weg frei für ein besseres Verständnis des Bakterienwachstums und seiner möglichen Manipulationen. www.cell.com/current-biology/ Babys mit Akzent Aus früheren Studien wusste man bereits, dass Babys die Sprache bevorzugen, die sie bereits im Mutterleib gehört haben. Heute weiß man aber auch, dass die Schreimelodien der Neugeborenen dieser Sprache entsprechen. Eine Gruppe des Zentrums für vorsprachliche Entwicklung und Entwicklungsstörungen des Würzburger Universitätsklinikums (DE) hat die Schreimelodien von 30 französischen und 30 deutschen Neugeborenen untersucht. Es scheint, dass die französischen Neugeborenen ihren Schrei zum Ende hin betonen, wie in der französischen Sprache üblich, wogegen die deutschen Babys den Schrei am Anfang betonen. Hier liegt natürlich kein Akzent im wortwörtlichen Sinn vor, weil dieser die Betonung der Wörter betrifft. Die Studie bestätigt jedoch, wie wichtig die Sprachmelodie beim Spracherwerb ist, und zeigt deutlich, dass dieser bereits im Mutterleib beginnt, erst durch die Wahrnehmung und dann durch die Wiedergabe der gehörten Melodien. Den Forschern zufolge ist dies ein weiterer Hinweis, um das Rätsel der Sprachentstehung bei unseren Vorfahren zu lüften. www.uni-wuerzburg.de/ Der Geruch alter Bücher Der typische Schimmelgeruch, der den Charme alter Bücher ausmacht, steht im Mittelpunkt einer neuen Methode zur Bewertung der Alterung von Werken. Die Methode wurde von einer Gruppe englischer und slowenischer Forscher entwickelt und in der Fachzeitschrift Analytical Chemistry vorgestellt. Die Forscher bezeichneten diese Methode als „material degradomics“ (auf Deutsch in etwa: „Kunde der Materialauflösung“). Sie wurde am University College London und an der Universität Ljubljana entwickelt und bietet im Vergleich zu konventionellen Methoden einen wesentlichen Vorteil: Sie ist zerstörungsfrei, da sie ausschließlich den freigesetzten Geruch der analysierten Dokumente untersucht. Wenn Bücher altern, setzen sie © Shutterstock/Valentin Agapov © Inserm © Shutterstock/Ngo Thye Aun IN KÜRZE flüchtige organische Verbindungen (FOV) frei, die den typischen Geruch verursachen. Die Forscher analysierten die FOV von 72 historischen Werken, deren Zusammensetzung charakteristisch für das 19. und 20. Jahrhundert ist. Es wurden 15 FOV mit dem häufigsten Vorkommen als Marker für den Verfall ausgewählt und statistisch mit den Hauptbestandteilen des Papiers (Harz, Lignin, Carbonyl) und einigen chemischen Parametern, etwa dem pH-Wert, verglichen. Damit lieferte der Wert jedes Markers den digitalen Abdruck eines Buches zu einem bestimmten Zeitpunkt. Diese Information könnte Museen und Bibliotheken sowohl bei der Ermittlung des Restaurationsbedürfnisses von Büchern als auch bei der Verbesserung der Restaurationstechniken unterstützen. http://pubs.acs.org/journal/ research*eu Nr. 63 | APRIL 2010 5 DOSSIER KLIMA Kopenhagen, eine verpasste Gelegenheit? Der Weltklimarat (Intergovernmental Panel on nur, weil es zur Neige geht – geht auch unsere Climate Change, IPCC) musste 17 Jahre warten, Geduld langsam ihrem Ende zu. Immer mehr bevor seine Schlussfolgerungen in konkrete Zahlen Forschungen werden zu anderen Energieformen umgesetzt wurden, die berüchtigte Schwelle von 2 °C durchgeführt. Und nach dem Fehlstart mit den Temperaturanstieg. Auch wenn diese Zahl mit Biokraftstoffen der ersten Generation, der uns Vorsicht zu genießen sei, so der Vizepräsident des ziemlich teuer zu stehen gekommen wäre, ist und IPCC und Klimaforscher Jean-Pascal van Ypersele, bleibt diese Energieform ein Hoffnungsträger. sollte das Zwischenziel, das dadurch erreicht wurde, nicht heruntergespielt werden. Heute werden Doch es besteht dringender Handlungsbedarf. die Regierungen auf der ganzen Welt inständig Die Nachrichten zu den Auswirkungen der zum Handeln und zur Überarbeitung ihrer Ziele Klimaerwärmung auf die Ökosysteme häufen sich. aufgefordert, die nicht ehrgeizig genug sind. Bis vor Kurzem wusste man nicht, dass etwa Kohlendioxid die Zusammensetzung des Meer- Im Hinblick auf das Erdöl – der fossilen Energieform, wassers so verändern würde, dass die Biodiversität von der wir uns abwenden müssen, und zwar nicht und die marinen Ökosysteme gefährdet werden. 6 research*eu Nr. 63 | APRIL 2010 Jetzt erst wurde die Versauerung der Meere Die Ermahnungen für mehr politischen Willen der Liste der Umweltprobleme hinzugefügt. und eine komplette Überprüfung unserer © CNRS Photothèque/Erwan Amice Pinguine (Pygoscelis adeliae) auf einem kleinen Eisberg vor der AdelaideInsel (Antarktis). Konsumgewohnheiten haben in den vergangenen Die Zahlen werden verfeinert, die Klimamodelle Jahren zugenommen, ohne jedoch die nötige perfektioniert, die Voraussagen enthalten immer Wirkung zu zeigen. Davon zeugen auch die genauere Wahrscheinlichkeiten und werden gleich- Vereinbarungen auf dem Klimagipfel in Kopenhagen zeitig auch immer trüber. Die Wissenschaft macht im vergangenen Dezember. Doch diese Ermah- Fortschritte, ohne absolute Sicherheit zu geben, bleibt nungen haben dazu geführt, dass wir endlich also im Diskurs – und das ist auch gut so. Ein das eine Ufer verlassen haben, an dem wir uns Hinweis darauf sind auch die Wissenschaftler, die befanden, als wir noch nichts von den Folgen unter dem Begriff Klimaskeptiker zusammenge- wussten und alles verschwendet haben. Jetzt müssen fasst werden und die immer noch die menschliche wir das andere Ufer erreichen. Ursache der Erwärmung und/oder die Richtigkeit der vorgeschlagenen Maßnahmen,um die Klimaänderungen zu bekämpfen, anzweifeln. research*eu Nr. 63 | APRIL 2010 7 „Angesichts der Ausmaße des Problems haben wir entsetzlich wenig getan“ Jean-Pascal van Ypersele, Vizepräsident des IPCC(1), erklärt die wissenschaftliche Sachlage zur Klimaerwärmung, ohne die manchmal recht ungewöhnliche politische Jean-Pascal van Ypersele – „Die Physik des Klimas Interpretation zu vergessen. © Jacky Delorme (UCL) DOSSIER KLIMA INTERVIEW hat nichts mit der politischen Agenda gemein.“ Zur Frage der Klimaerwärmung scheint Konsens zu herrschen, doch ist es sicher, dass menschliche Aktivitäten dazu beitragen? Das Vertrauensniveau hinsichtlich der menschlichen Ursache des Phänomens ist sehr hoch und steigt jedes Jahr. 1995 schrieb der IPCC: „Verschiedene Elemente weisen darauf hin, dass es einen spürbaren Einfluss menschlicher Aktivitäten auf das Klima gibt.“ 2007 wurde festgestellt, dass der größte Anteil der Erwärmung in den letzten 50 Jahren mit einer Wahrscheinlichkeit von mehr als 90 % auf Treibhausgasausstöße zurückzuführen ist, die durch den Menschen verursacht werden. Diese Sicherheit gründet auf zahlreichen Argumenten. Einerseits wurden große Fortschritte bei der Klimamodellierung erzielt. Und andererseits spielt die besondere Form der Erwärmung eine Rolle: Typisch für sie ist eine erkaltende obere Atmosphäre, weil die Treibhausgase einen Teil der Wärme in der unteren Atmosphäre zurückhalten, die sich ihrerseits sehr schnell aufheizt. Wenn die Erwärmung etwa auf eine gesteigerte Sonnenaktivität zurückginge, dann wäre sie gleichmäßig und vor allem stärker in der Stratosphäre zu spüren. Außerdem kann man beobachten, dass sich die Regionen um die Pole stärker erwärmen als an 8 research*eu Nr. 63 | APRIL 2010 den Wendekreisen, was die Erklärung durch den Treibhauseffekt ebenfalls bestätigt. Welche Folgen sollten grundsätzlich angezweifelt werden? Der letzte Klimabericht fasst die Folgen auf mehreren hundert Seiten zusammen, angefangen bei Ernteausfällen in der Landwirtschaft bis hin zur Gesundheit. Ich möchte hier die Bedeutung der hydrologischen Veränderungen hervorheben: Die Modelle sehen die Austrocknung mehrerer stark besiedelter Regionen voraus, darunter auch des Mittelmeerbeckens, wo es bereits große Probleme aufgrund des Wassermangels gibt. Ein weiterer Aspekt ist das Abschmelzen der Gletscher in den Anden und im Himalaja. Diese stellen wichtige Wasserspeicher für Millionen von Menschen dar, für die die Regenzeit nur wenige Wochen bis Monate dauert. In der restlichen Zeit werden die Flüsse durch die Gletscher gespeist. Deshalb ist ihr vorprogrammiertes Verschwinden sehr besorgniserregend. Dasselbe gilt auch für den Anstieg des Meeresspiegels. Davon sind alle europäischen Küstengebiete betroffen, etwa die Niederlande, Belgien und Deutschland. Die Bodenerosion wird schneller fortschreiten, das Grundwasser wird versalzen, große Sturmschäden sind zu befürchten. Im Nildelta leben etwa zehn Millionen Menschen nur einen Meter über dem Meeresspiegel. Es ist ziemlich sicher, dass im Laufe dieses Jahrhunderts der Meeresspiegel um mindestens einen halben Meter ansteigen wird, vielleicht sogar um einen Meter. Wohin sollen all diese Menschen? Was soll man von der Risikoschwelle von 2 °C Erwärmung halten? Der Weltklimarat hat niemals behauptet, dass diese Schwelle von 2 °C nicht überschritten werden darf, noch, dass die CO2-Konzentrationen in der Atmosphäre auf unter 450 ppm (parts per million) zu stabilisieren seien. Unsere Aufgabe – die Nuance ist hier wichtig – ist es zu sagen, dass man sich für dieses oder jenes Szenario auf diese oder jene Erwärmung einigt, also auf die eine oder andere Folge. Die Politiker müssen dann die akzeptablen Folgen festlegen, weil dazu Werturteile notwendig sind, die nicht in das Ressort der Wissenschaftler fallen. Der 2 °C-Wert kam bei einer Sitzung des EU-Ministerrates auf. Er wurde dann im Klimabericht von 2001 sozusagen validiert, in dem das berühmte Diagramm Burning Embers (glühende Kohlen) veröffentlicht wurde, welches die Schwere der Folgen für verschiedene Temperaturen zusammenfasste. Seine Farben gingen von weiß bis rot bei 2 °C für die meisten Folgen und das hat dazu geführt, dass sich diese Ziffer im Gedächtnis festsetzen konnte, obwohl sie auf mehr als zehn Jahre alten Daten beruht. Wollen Sie damit sagen, dass die neusten wissenschaftlichen Informationen diesen Schwellenwert entkräften? Auf Anfrage der Politiker wurden die Folgen im Detail überarbeitet. Für die Autoren des INTERVIEW © ESO DOSSIER KLIMA Das Erdklima wird durch Sonneneruptionen – hier bei einer Sonnenfinsternis sehr gut sichtbar – sowie von der Position der Erde zur Sonne beeinflusst. Obwohl diese Parameter in großen Zeitmaßstäben variieren, reichen sie nicht aus, um den starken Temperaturanstieg seit der industriellen Revolution zu erklären. Berichts von 2007, praktisch dieselben, die schon 2001 mitgewirkt hatten, sollten die Grenzwerte um 0,5 °C gesenkt werden. Die neue Grafik [Anm.d. Red.: siehe Artikel „Die Diagnosewerkzeuge“ in dieser Ausgabe] wurde nicht im Bericht veröffentlicht, sondern 2009 in der amerikanischen Fachzeitschrift Proceedings of the National Academy of Sciences (PNAS). Ich sagte bereits, dass es mir als Vizepräsidenten des IPCC nicht zusteht, eine Gefahrengrenze festzulegen. Allerdings kann ich sagen, sollten sich die Minister, die sich vor 13 Jahren auf Grenzwerte von 2 °C und 450 ppm geeinigt haben, heute auf der Grundlage derselben Kriterien Entscheidungen treffen, würden sie sehr wahrscheinlich die Gefahrengrenze auf 1,5 °C und 350 ppm festsetzen. Welche Wirkungen hätte eine solche Änderung der Gefahrengrenze? Derzeit gibt der IPCC keine Antwort auf diese Frage, weil das vorbildlichste Szenario, dass er im Hinblick auf die Emissionen bewertet hatte, eine Erwärmung von 2 °C bis 2,4 °C annimmt. Wir haben uns daher auf eine Verallgemeinerung beschränkt, um eine Vorstellung von den Emissionen zu erhalten, die es uns ermöglichen, unter 1,5 °C zu bleiben. Ich denke, dass diese Lücke im kommenden Bericht ausgeglichen wird – sollte dies der Fall sein, müssten die Ziele zur Emissionssenkung noch strenger formuliert werden. Haben die Politiker auf den IPCC seit seinem letzten Bericht mehr gehört? Es gab eine größere positive Wendung – und das steht nicht im Widerspruch zu dem, was ich Ihnen sagen möchte –, weil das 2 °C-Ziel vor Kurzem zunächst auf dem G8- und dann auf dem G20-Gipfel übernommen wurde. Das ist sehr wichtig, trotz der Bedenken, die ich zu diesem Wert angemeldet habe, weil man sich bis dahin auf internationaler Ebene noch auf keinen Wert geeinigt hatte. Und das ist das Schlimmste! Das Rahmenübereinkommen der Vereinten Nationen über Klimaänderungen, das 1992 kurz vor dem Gipfel in Rio angenommen wurde, beschränkte sich lediglich auf „die Stabilisierung der Konzentrationen von Treibhausgasen in der Atmosphäre auf einem Stand, auf dem eine gefährliche vom Menschen verursachte Störung des Klimasystems verhindert wird.“ Was bedeutet, dass wir seit 17 Jahren ohne quantifiziertes und international anerkanntes Ziel leben. Dass ein Wert angenommen wurde, ist ein riesiger Fortschritt, weil daraus eine ganze Reihe anderer Werte folgen, insbesondere die Emissionsreduktionsziele. Kann man sagen, dass die Arbeiten des IPCC allmählich in politische Entscheidungen umgesetzt wurden? Nur dass die Interpretationen unserer Schätzungen oft selektiv sind. So haben wir gesagt, um zwischen 2 °C und 2,4 °C Erwärmung zu liegen – und wohlgemerkt nicht unter 2 °C! –, müsste unter Berücksichtigung wissenschaftlicher Unsicherheiten der weltweite Ausstoß seinen Höhepunkt „zwischen 2000 und 2015“ erreichen. Manche haben sich bereits auf 2015 festgelegt, und ich bedauere, dass der Europäische Rat vor einigen Wochen diese Frist auf „vor 2020“ erweitert hat! Vielleicht weil das europäische Klimapaket mit dem Horizont von 2020 aufgestellt wurde, doch die Physik des Klimas hat nichts mit der politischen Agenda gemein. Ein anderes Beispiel: Als kürzlich auf dem G8-Gipfel das 2 °C-Ziel verabschiedet wurde, wurde dies mit einer „Senkung der globalen Emissio- nen um 50 %“ gleichgesetzt, doch ohne das Referenz-Jahr anzugeben, was bedeuten würde, dass man sich auf aktuelle Emissionen bezieht. In seinem Bericht hatte der IPCC angegeben, dass die weltweiten Emissionen im Vergleich zu den Werten von 1990 um 50 % bis 85 % gesenkt werden müssten. Und seitdem sind die Emissionen um ungefähr 40 % gestiegen! Zusammenfassend bedeutet das, dass unabhängig davon, ob wir die Ziele überhaupt erreichen können, diese auf internationaler Ebene bereits weit über dem liegen, was nötig wäre, um die Menschen und Ökosysteme zu schützen. Was ist für die Emissionsreduktion noch zu tun? Es ist bereits viel geleistet worden, aber angesichts der Größe des Problems noch viel zu wenig. Nehmen Sie das Kyoto-Protokoll: Das Ziel ist es, die Emissionen der Industrieländer in 22 Jahren um 5 % zu senken (zwischen 1990 und 2012) und dieses Ziel wird nur knapp erreicht werden. In diesen Ländern müssen jetzt die Emissionen um 80 % bis 95 % in 40 Jahren gesenkt werden, was weltweit einer Gesamtreduktion von 50 % bis 85 % gleichkommt. Und zum Ende des Jahrhunderts sollten diese bei null liegen. Das setzt jedoch voraus, dass wir unser Konsum- und Produktionsverhalten – nicht nur für Energie, sondern für alle Güter – von Grund auf ändern müssen, wie wir uns fortbewegen, wohnen und arbeiten. Das ist eine wahre Revolution! Das Interview führte Yves Sciama (1) Zwischenstaatlicher Ausschuss für Klimaänderungen (International Panel on Climate Change, IPCC), kurz: Weltklimarat. Jean-Pascal van Ypersele ist Physiker, Klimaforscher und Professor am Institut für Astronomie und Geophysik der Katholischen Universität Löwen (BE). research*eu Nr. 63 | APRIL 2010 9 OZEANE DOSSIER KLIMA Die Ozeane versauern N Die CO2-Emissionen verstärken nicht nur den Treibhauseffekt, sie wirken sich auch auf heimtückische Weise auf den Säuregehalt der Ozeane aus. Und dieses Phänomen könnte die marinen Ökosysteme des Planeten destabilisieren. eu ist das nicht. Die Ozeane spielen eine zentrale Rolle bei der Regulierung des Klimas. Als riesige CO2Reservoire binden sie ein Viertel der Treibhausgasemissionen, die durch den Menschen seit 200 Jahren verursacht werden. Diese Absorptionsfähigkeit lässt sich durch einen physikalischen Prozess erklären (siehe Kasten). Die Natur strebt immer nach einem Gleichgewicht und da CO2 wasserlöslich ist, kann es leicht aus der Atmosphäre in die Ozeane gelangen. Ohne diese Reaktion wäre der Klimawandel noch viel größer. Aber es gibt auch eine Kehrseite: die Versauerung der Ozeane. „Bis vor Kurzem war man sich noch nicht bewusst, dass sich die chemische Zusammensetzung der Meere so weit verändern würde, dass sich dies auch auf die biologischen Funktionen von Organismen und die marinen Ökosysteme auswirken würde“, erklärt Jean-Pierre Gattuso, Ozeanograf und Koordinator von EPOCA. Dieses umfangreiche europäische Forschungsprogramm wurde 2008 gestartet, um die Auswirkungen der Versauerung der Ozeane auf marine Biotope zu ermitteln. © Jean-Louis Teyssié/International Atomic Energy Agency Ein Schneeballeffekt Im Labor: Kalzifizierung und Übertragung von Mineralspuren mithilfe von Isotopen. 10 research*eu Nr. 63 | APRIL 2010 CO2 ist ein saures Gas. Wenn es sich im Meerwasser auflöst, reagiert es mit Wasser und den Carbonat-Ionen und bildet Bicarbonat-Ionen. Durch diese Reaktion wird das Volumen der H+-Ionen im Meerwasser erhöht, wodurch der Säuregehalt steigt, was sich wiederum in einem niedrigeren pH-Wert spiegelt. Außerdem wird die Konzentration der Carbonat-Ionen gesenkt, die eine fundamentale Rolle für einen Teil der marinen Fauna spielen. Deshalb sind Korallen, Muscheln und andere Schalentiere direkt durch dieses Phänomen bedroht. Was haben sie gemeinsam? Diese Lebewesen bilden ihre Muschel oder ihr Skelett durch Aufnahme der Calcium- und der Carbonat-Ionen aus dem Meerwasser. Auf diese Weise erhalten sie die Elemente, die sie zur Bildung von Calciumcarbonat oder Kalk benötigen. Je weniger Carbonat im Meerwasser enthalten ist, umso mehr Energie müssen diese Organismen aufwenden, um sich zu entwickeln. „Anfangs dachten wir, dass die Kalzifizierung, also die Fähigkeit Kalk zu bilden, einfach nur sinken würde. Doch in Wirklichkeit ist es viel komplizierter. Während bei manchen Arten die Kalzifizierung tatsächlich langsamer abläuft, läuft sie bei anderen zwar ganz normal ab, doch zulasten anderer vitaler Funktionen, etwa dem Wachstum oder der Fortpflanzung“, erklärt Ulf Riebesell, Ozeanograf vom Leibniz-Institut für Meereswissenschaften an der Universität Kiel (DE). Er koordiniert auch das deutsche Forschungsprojekt BIOACID, das die Versauerung der Ozeane erforscht und im September 2009 gestartet wurde. Die Reaktion mancher wichtiger Kalkorganismen beunruhigt die Forscher ganz besonders. „In den kalten Meeren leben Korallengemeinschaften in sehr großen Tiefen, dort wo die Carbonatkonzentrationen von Natur aus schwach sind“, erklärt Jean-Pierre Gattuso. „Die jüngsten Ergebnisse und Voraussagemodelle zeigen, dass diese Gewässer zu sauer werden könnten und damit den Kalk auflösen würden. Mit steigender Versauerung würde nicht nur das Wachstum der Kaltwasserkorallen gebremst werden, sie würde auch zur Auflösung ihres Skeletts beitragen.“ Genauso wie die tropischen Korallen bilden auch die Kaltwasserkorallen einen privilegierten Lebens- und Fortpflanzungsraum. „Sowohl auf der Nord- als auch auf der Südhalbkugel sind viele Arten, die für die Fischerei von wirtschaftlicher Bedeutung sind, bedroht. Sollten die Korallen verschwinden, hätte dies immense sozialwirtschaftliche Folgen. Hinzu käme auch die Frage nach der Sicherheit, weil die Korallenriffe in den tropischen Gewässern die Küsten auf natürliche Weise vor den Unbilden des Meeres schützen“, unterstreicht Jean-Pierre Gattuso. Ein weiteres Sorgenkind ist die Flügelschnecke (Thecosomata, früher Pteropoda), eine Art schwimmende Schnecke. „Das Haus der Flügelschnecken besteht aus Aragonit, einer weniger stabilen Form von Kalk, die auf eine Versauerung noch empfindlicher reagiert“, erklärt Ulf Riebesell. „Die Flügelschnecken sind ein wichtiges Glied in der marinen Nahrungsmittelkette. So ernährt sich etwa der Nordpazifische Lachs während einer 2 bestimmten Wachstumsphase fast ausschließlich von diesen Tieren. Wir wissen nicht, ob diese Raubfische auf andere Arten ausweichen können oder ob der Rückgang der Flügelschnecken auch zur Zerstörung dieser Populationen beitragen wird.“ Tausende Unbekannte Außer den Kalkorganismen könnten auch andere Meeresbewohner von den Folgen der Versauerung der Ozeane direkt betroffen sein. Doch die Forschung steht immer noch ganz am Anfang. Die zunehmende Versauerung senkt auch das Schalldämpfungsvermögen der Ozeane, was dazu führen könnte, dass sich Meeressäugetiere nicht mehr richtig orientieren und sie ihre Beute nicht orten können. Es gibt auch nur wenige Untersuchungen über die Auswirkungen der Versauerung auf Fische. „Eine amerikanische Untersuchung hat einen Zusammenhang zwischen der Versauerung und der Vergrößerung von Otolithen festgestellt. Dieser Innenohrknochen spielt eine wichtige Rolle für den Gleichgewichtssinn von Fischen. Man weiß jedoch nicht, inwiefern eine anormale Entwicklung verhängnisvoll sein könnte“, erklärt Jean Pierre Gattuso. Um die Folgen der Versauerung zu verstehen, untersuchen die Forscher von EPOCA jene marinen Ökosysteme, in denen die CO2-Konzentrationen auf natürliche Weise hoch sind, etwa vor der italienischen Insel Ischia. Doch die meisten Forschungen konzentrieren sich auf die Polargebiete, die mehr CO2 aufnehmen, weil sich dieses Gas im kalten Wasser besser auflöst. „An den Polen schreitet die Versauerung schneller voran. Deshalb sind die Auswirkungen auf die Ökosysteme dort auch leichter festzustellen“, erklärt Jean-Pierre Gattuso. © David Luquet/OOV-CNRS-UPCM 4 © Steeve Comeau/LOV-CNRS 3 © Steeve Comeau/LOV-CNRS © Samir Alliouane/LOV-CNRS 1 DOSSIER KLIMA OZEANE Diese Organismen, die entweder eine Schale oder ein Kalkskelett besitzen, sind durch die Versauerung der Ozeane einem erhöhten Risiko ausgesetzt. 1 Eine erwachsene Flügelschnecke (Cavolinia inflexa) aus der Bucht von Villefranche (FR). Dieses im Wasser lebende Weichtier besitzt eine Kalkschale und reagiert sehr empfindlich auf Veränderungen des pH-Werts. 2 Junge Flügelschnecke (Cavolinia inflexa) aus dem Mittelmeer. Der grüne Teil entspricht der Schale, die mit dem Fluoreszenzfarbstoff Calcein markiert wurde. 3 Limacina helicina, schwimmende Meeresschnecke, lebt in der Arktis, am Königsfjord (Spitzbergen) entnommen. 4 Korallenalgen aus dem Mittelmeer bilden unter Wasser eine Flora, die durch die Versauerung der Ozeane besonders stark betroffen ist. Um die Säureschwelle zu ermitteln, die nicht überschritten werden darf, wenn das herrschende Gleichgewicht in den Ozeanen erhalten bleiben soll, muss man die Auswirkungen der Versauerung auf das marine Biotop verstehen. „Bisher konnte noch kein maximaler Toleranzwert festgelegt werden, weil uns nicht genügend Daten vorliegen. Die ersten Untersuchungen über die Versauerung der Meere wurden vor höchstens 15 Jahren durchgeführt“, erläutert der Forscher. Doch eines ist sicher: Die Versauerung schreitet voran, sie ist messbar und steigt zusammen mit den CO2-Emissionen an. Seit dem Beginn des Industriezeitalters ist der pH-Wert der Ozeane bereits von 8,2 auf 8,1 gesunken. Doch gibt es nur eine Lösung für dieses Problem: Die Reduzierung der CO2-Emissionen. Diese Forderung wird auch von mehr als 150 Ozeanforschern in der Erklärung von Monaco getragen. In dieser im Januar 2009 veröffentlichten Erklärung werden die politischen Entscheidungsträger aufgefordert, das Thema der Versauerung der Ozeane auch auf dem Klimagipfel in Kopenhagen auf den Tisch zu bringen. Julie Van Rossom EPOCA 27 Partner, 9 Länder (BE-CH-DE-FR-IS-NL-NO-SE-UK) www.epoca-project.eu BIOACID 19 Partner, 1 Land (DE) http://bioacid.ifm-geomar.de CARBOOCEAN 47 Partner, 14 Länder (BE-CH-DE-DKES-FR-IS-MO-NL-NO-PO-SE-UK-US) www.carboocean.org Der gesättigte Ozean D ie CO2-Aufnahme durch die Ozeane ist ein natürlicher Prozess. Die physikalische Pumpe, wie der Mechanismus gemeinhin genannt wird, steht im Zusammenhang mit einem weiteren als biologische Pumpe(1) bekannten Prozess, in dessen Zentrum Kalkalgen stehen. Diese fixieren das CO2 in ihrer Schale durch Fotosynthese und ziehen es beim Absterben auf den Meeresboden hinunter. Derzeit weiß man nicht, inwieweit die Reaktion dieser Organismen auf die Versauerung der Ozeane das Funktionieren der ozeanischen Kohlenstoffsenke beeinträchtigen könnte. Im Jahr 2009 wurde das europäische Projekt CARBOOCEAN abgeschlossen, das sich mit der Messung der Kohlenstoffspeicherkapazität der Ozeane befasst hat. Die Ergebnisse zeigen, dass sich die CO2-Aufnahmefähigkeit im Nordatlantik und im Südlichen Ozean verlangsamt hat. Die Ursache für diese Verlangsamung ist jetzt zu klären. „Diese Veränderungen könnten auf natürliche Phänomene zurückgehen, etwa auf den Temperaturanstieg oder auf veränderte Meeresströmungen. Doch sie können auch biologische Ursachen haben“, erklärt Ulf Riebesell. „Im Gegensatz zu den Mechanismen der biologischen Pumpe sind jene der physikalischen Pumpe relativ bekannt. Einige Wissenschaftler bestätigen, dass diese Pumpe durch die Versauerung wirksamer wird, andere prognostizieren das Gegenteil. Deshalb ist es besonders wichtig, diese Phänomene zu verstehen und zu quantifizieren, um die Zuverlässigkeit der benutzten Modelle zur Klimavorhersage zu erhöhen“. (1) Zum Thema physikalische und biologische Pumpen siehe auch „Das CO2 zwischen Himmel und Meer“, research*eu, Sonderausgabe Dezember 2007. research*eu Nr. 63 | APRIL 2010 11 VERKEHR DOSSIER KLIMA Benzin und Diesel ade Um die Forschungen zu den Biokraftstoffen der zweiten Generation voranzutreiben, hat Europa das NEMO-Projekt ins Leben gerufen. NEMO setzt auf Enzyme und Mikroorganismen, um aus den land- und forstwirtschaftlichen Abfällen von heute den Kraftstoff von morgen herzustellen. B ereits 2020 sollen 10 % aller im Verkehr verbrauchten Kraftstoffe in Europa aus erneuerbaren Energiequellen stammen. Um dieses Ziel zu erreichen, hat sich die Union ein neues Instrument geleistet: Das Projekt Novel high-performance enzymes and micro-organisms for conversion of lignocellulosic biomass to bioethanol (NEMO) wird von Merja Penttilä, Forscherin am Valtion Der Themenbereich „Lebensmittel, Landwirtschaft und Fischerei sowie Biotechnologie“ M it einem Budget von 1,9 Mrd. EUR gehört er zu den Themen des spezifischen Programms „Zusammenarbeit“ des 7. Rahmenprogramms (RP7). Das Hauptziel ist die Errichtung einer europäischen Wissenswirtschaft, die sich auf Nachhaltigkeit und ein gutes Management der biologischen Ressourcen stützt. Es geht vor allem darum, die Umwandlung von Biomasse zu optimieren, um Produkte mit hohem Mehrwert herzustellen. © INRA/Gérard Paillard Biomasseversuchsanlage auf dem INRA-Gelände in Estrée-Mons (FR). 12 research*eu Nr. 63 | APRIL 2010 Teknillinen Tutkimuskeskus (VTT), dem technischen Forschungszentrum von Finnland, koordiniert. Es soll die Herstellung von Biokraftstoffen der zweiten Generation aus landund forstwirtschaftlichen Abfällen fördern und sie im Vergleich zu ihren Vorgängern der ersten Generation verbessern. Diese haben nicht nur eine fragwürdige ökologische Bilanz, sie werden noch dazu meist aus Nahrungspflanzen hergestellt, etwa Getreide. Damit verursachen sie einen Preisanstieg dieser Ressource und gefährden in der Folge den sozialen Frieden und die politische Stabilität der ärmsten Länder unserer Welt. (1) Wenn die Europäische Union ihren Platz in diesem strategischen Forschungsbereich behaupten möchte, muss sie sich auch auf neue Projekte wie dieses verlassen, um die künftige Energieunabhängigkeit zu verbessern. Ziel Ökologie An NEMO sind 18 Partner in neun europäischen Ländern (Deutschland, Belgien, Finnland, Frankreich, Italien, Niederlande, Slowenien, Schweden, Schweiz) beteiligt. Es bringt Universitäten, Forschungszentren und auch Privatunternehmen wie die kleine deutsche Firma Green Sugar zusammen. „Dank unserer Kontakte zur Universität Frankfurt (DE) wurden wir zu einer Besprechung des NEMO-Projekts eingeladen und stellten fest, dass wir gemeinsame Interessen hatten“, berichtet Frank Kose, Projektleiter bei Green Sugar. Das Forschungsbudget beläuft sich auf 8,25 Mio. EUR für vier Jahre. Davon stammen 5,9 Mio. EUR aus dem Themenbereich „Lebensmittel, Landwirtschaft und Fischerei sowie Biotechnologie“ des 7. Rahmenprogramms (RP7), der sich auf die Entwicklung der Biowirtschaft konzentriert. Die Biokraftstoffe der zweiten Generation, die NEMO entwickeln möchte, werden auf der Grundlage von Lignozellulose hergestellt. Diese kommt vor allem in Pflanzenzellen vor, weshalb die Verwendung aller Pflanzenteile möglich ist: Blätter, Stiele, Stroh oder auch Grünschnittabfälle. Damit ist es nicht mehr nötig, nur auf den essbaren Pflanzenteil zurückzugreifen, um Biokraftstoff herzustellen, und es zeigt sich ein Ausweg aus dem Zwiespalt „essen oder fahren“ der ersten Generation von Biokraftstoffen. Außerdem bietet die Verwertung pflanzlicher Abfälle auch Vorteile im Hinblick auf die Rentabilität. Umwandlung grüner Abfälle Die Forscher wollen neue Verfahren zur Umwandlung von Lignozellulose (die aus Lignin, Zellulose und Hemizellulose besteht) aus land- und forstwirtschaftlichen Abfällen in Biokraftstoff entwickeln. Diese Umwandlung erfolgt normalerweise in vier Phasen: Vorbehandlung, Extraktion, Fermentation und Destillation. Die Vorbehandlung der Lignozellulose dient der Aufspaltung des Lignins, um diesem die Zellulose- und Hemizellulosemoleküle zu entziehen und daraus Glukose zu gewinnen. Durch Fermentation von Glukose mithilfe von Hefen entsteht Ethanol, ein Alkohol, aus dem Biokraftstoff destilliert wird. NEMO wird sich hauptsächlich auf die erste Phase konzentrieren. „Hierbei geht es vor allem darum, die Kohlenstoffketten der Zellulose und Hemizellulose mithilfe neuer Enzyme in ihre Bestandteile aufzuspalten – das heißt in Zucker wie Glukose. Das wird Zuckerbildung genannt“, erklärt Frank Kose. Enzyme sind Proteine, die chemische Reaktionen beschleunigen und die Molekülstruktur verändern können. Ein weiterer Vorteil ist, dass die Bakterien, die den Fermentationsprozess der Glukose aufrechterhalten, nur schwach toxisch sind. „Bei jedem neuen Enzymansatz muss die Biomasse auf die Aktion der Enzyme vorbereitet werden. Bei der von Green Sugar entwickelten Technologie werden anorganische Säuren verwendet, um ihre Wirksamkeit zu erhöhen“, erklärt der Projektleiter. Neben den wissenschaftlichen Zielen will NEMO überprüfen, ob die in den Labors entwickelten Enzyme auch wirksam genug sind, um in industriellen Verfahren eingesetzt zu werden. „Unser Engagement wird natürlich von wirtschaftlichen Erwägungen geleitet“, erklärt Frank Kose. „Wir wollen eine Technologie zur Verzuckerung des Pflanzenmaterials entwickeln, die künftig in Produktionsanlagen mit einer jährlichen Kapazität von 50 000 bis 100 000 Tonnen eingesetzt werden kann. Dazu brauchen wir starke Industriepartner. Wenn NEMO eine neue Technologie entwickelt, um Zellulose mithilfe von Enzymen umzuwandeln, und wenn dabei die Technologie von Green Sugar zum Einsatz kommt, dann werden sich die Industrieunternehmen, die sich am Projekt beteiligen, dieser Technologie bedienen. Und das ist, als ob wir ihnen unser Know-how verkaufen würden.“ Damit ist NEMO sowohl für Industrieunternehmen als auch für Forscher interessant. Denn über die Hoffnung hinaus, zur Lösung des weltweiten Energieproblems beizutragen, geht es auch darum, sich ein Stück vom derzeit boomenden Markt für Bioenergiequellen zu sichern. Doch noch bevor NEMO seine Versprechungen erfüllen kann, naht bereits eine dritte Generation von Biokraftstoffen heran. Sie stützt sich auf den Auszug von Öl aus Algen und wagt gerade erste Schritte auf dem Weg aus dem Labor in die Praxis. Stéphane Fay (1) Siehe Artikel Auf die Hoffnung folgen Zweifel in unserer Sonderausgabe Abschied vom Erdöl?, März 2008. NEMO 18 Partner, 9 Länder (BE-CH-DE-FI-FR-IT-NL-SI-SE) www.vtt.fi/news/?lang=en DOSSIER KLIMA VERKEHR Gemeinsame Initiative für Brennstoffzellen und Wasserstoff E uropa erforscht auch andere Wege, um sich mit erneuerbaren Energiequellen auszustatten. Das ist der Fall bei Brennstoffzellen und der Wasserstofftechnologie, die beide Energie aus Wasserstoff liefern. Sie stehen im Mittelpunkt der neuen gemeinsamen Technologieinitiative (JTI) Brennstoffzellen und Wasserstoff (Fuel cells and hydrogen, FCH) – einer Partnerschaft zwischen der Europäischen Kommission, Privatunternehmen und mehreren Universitäten und Forschungsinstituten. Auch hier geht es um die Senkung des Kohlendioxidausstoßes und eine geringere Abhängigkeit Europas von Kohlenwasserstoffen, wobei gleichzeitig auch ein Beitrag zum Wirtschaftswachstum geleistet wird. Der Vorteil der JTI ist es, dass sie alle Akteure und Mittel in einer gemeinsamen Anstrengung zusammenführt. So sind etwa die Technologien, die zur Verbreitung von Brennstoffzellen notwendig sind, noch nicht marktreif und können auch nur schwerlich von einem auf sich allein gestellten Akteur entwickelt werden. Die erste Aufforderung zur Einreichung von Vorschlägen der JTI FCH wurde 2008 veröffentlicht und von der Kommission mit 28 Mio. EUR ausgestattet. Eine zweite Aufforderung zur Einreichung von Vorschlägen wurde bis zum 15. Oktober 2009 durchgeführt. Das Budget beträgt 70 Mio. EUR. http://ec.europa.eu/research/fch/ Kleines Lexikon Biokraftstoff: Ersatzkraftstoff, der auf der Basis von pflanzlichen Rohstoffen hergestellt wird. Bioethanol: Ethanol aus der Vergärung von pflanzlichen Rohstoffen. Ethanol ist in allen alkoholhaltigen Getränken enthalten. Anorganische Säure: Säure, die keinen Kohlenstoff enthält. research*eu Nr. 63 | APRIL 2010 13 KLIMAMODELLE I DOSSIER KLIMA Die Diagnosewerkzeuge Angesichts der verrücktesten Katastrophenszenarien, die zurzeit zirkulieren, benötigen wir ausgefeilte Techniken zur Klimavoraussage, wenn wir die richtigen Entscheidungen treffen wollen. Durch ein neues großes Klimamodell ist es heute möglich, gewisse Unsicherheiten über das Klima im Europa des 21. Jahrhunderts aus dem Weg zu räumen. Es liefert das bislang genaueste Bild unserer Klimazukunft. m Umweltfilm The Age of Stupid (deutsch: Das Zeitalter der Dummheit), der 2009 in die Kinos kam, spielt Pete Postlethwaite die Rolle des letzten Überlebenden einer Klimakatastrophe im Jahr 2055. Vom letzten Stockwerk eines Hochhauses aus betrachtet er eine zerstörte Welt, umgeben von klassischen Denkmälern und Kulturschätzen, die riesige Überschwemmungen überlebt haben. Und er fragt sich, warum ein halbes Jahrhundert vorher die Menschen sich nicht zusammengetan haben, um diese Katastrophe zu verhindern. Auch wenn der Film die Fantasie der Zuschauer stark beflügelt, würden zahlreiche Wissenschaftler sicherlich den gewählten Zeitpunkt des Weltuntergangs kritisieren. Das Ende der Welt im Jahr 2055? Die jüngsten Voraussagen des Weltklimarats (IPCC) – der vierte Bericht aus dem Jahr 2007 – liefern Klimamodelle, die von der Vorstellung des Filmproduzenten gar nicht so weit entfernt liegen. Sie stellen eine mögliche Temperaturerwärmung auf der Grundlage der besonderen Emissionsbedingungen dar, die unter anderem von der erfolgreichen Durchführung der Strategien für den Umweltschutz und die grünen Energieformen sowie vom Bevölkerungswachs- Sturmwarnung A © CNRS Photothèque/Françoise Guichard, Laurent Kergoat © Eumetsat m Nachmittag des 18. Januars 2007 wütete ein schwerer Orkan über Europa. Der Wind fegte mit bis zu 202 km/h über Deutschland hinweg und steigerte sich, bis er die Tschechische Republik erreichte. Bei den Versicherungen wurden Schäden in Millionenhöhe angemeldet, Sturmtief Kyrill, Anfang 2007. die an Gebäuden und durch umgestürzte Bäume verursacht worden waren. Im Vereinigten Königreich und in Deutschland waren Tausende Haushalte ohne Strom. Der Orkan Kyrill hatte seinen Anfang über Neufundland in Kanada genommen, bevor er den Atlantik überquerte, um anschließend über die Britischen Inseln und dann über Nord- und Mitteleuropa hinwegzuziehen. Der Weg und die Form von Kyrill sind typisch für Winterorkane, die sich nicht über tropischen Regionen bilden. Diese Orkane entstehen in Regionen mit großen Temperaturunterschieden, wie zwischen Florida und Grönland, und beginnen in der Regel an der nordamerikanischen Küste. Durch die Temperaturunterschiede werden Luftmassen bewegt und es entstehen Winde, die sich zu einem starken Sturm entwickeln können. Seit 40 Jahren lassen sich etwa fünf Orkane pro Jahrzehnt beobachten. Es stellt sich die Frage, ob diese wegen der Temperaturveränderungen vermehrt auftreten werden, was für die Wirtschaft und die Regierungen nicht unproblematisch wäre. Laut ENSEMBLES liegt unter Berücksichtigung des Emissionsszenarios A1B die Wahrscheinlichkeit bei 90 %, dass in Süddeutschland die Schäden, die zwischen 2017 und 2100 durch Stürme verursacht werden, um 13 % bis 37 % im Vergleich zum Zeitraum 1961 bis 2000 ansteigen werden. 14 research*eu Nr. 63 | APRIL 2010 tum abhängen. Ein Modell ist ein Computerprogramm, welches die Entwicklung des Klimas ab einem bestimmten Zeitpunkt sowie eine Reihe von Szenarien, die mit den Emissionsbedingungen zusammenhängen, simuliert. Je komplizierter die Daten umso komplexer auch die Modelle. Sie können aus bis zu 30 Parametern wie etwa Windgeschwindigkeit, Luft- und Bodenfeuchtigkeit oder Taupunkt bestehen. Ein Modell kann Millionen Zeilen Quellcode enthalten, für die mehrere Monate Entwicklungszeit benötigt werden, zu denen noch längere Analysezeiten hinzukommen, was auch erklärt, weshalb weltweit nur 25 globale Modelle existieren. In seinem günstigsten Szenario (schwacher Treibhausgasausstoß) rechnet der IPCC besten Schätzungen zufolge mit einer Temperaturerhöhung von 1,8 °C in den Jahren 2090-2100 im Vergleich zu 1990 (die Temperatur ist seit dem Beginn der industriellen Revolution um 0,7 °C gestiegen) und einem Anstieg des Meeresspiegels um 18 bis 38 Zentimeter. Das ungünstigste Szenario (hohe Emissionen) sieht nach dem heutigen Stand des Wissens eine Temperaturerhöhung von 4 °C und einen Anstieg der Meere um 26 bis 59 Zentimeter voraus. Unabhängig vom Szenario sagt der IPCC mehr Schäden durch Überschwemmungen und Stürme voraus. Ein Anstieg von 3 °C würde damit einem Verlust von 30 % der Küstenfeuchtgebiete entsprechen. Doch nirgendwo ist die Rede von einer globalen Überschwemmung im Jahr 2055. Ein europäisches Megamodell Diese Form der Klimamodellierung wird ständig verbessert. Sie ist sehr nützlich, wenn alarmierende Nachrichten zu widerlegen sind, aber auch, um gegen jene Stimmen anzugehen, die behaupten, dass es keinen Klimawandel gebe, sodass die Öffentlichkeit korrekt informiert werden kann. In den vergangenen Jahrhunderten wurden die Mess- und Modellierungstechniken immer weiter verbessert. Die ältesten Daten stammen von einem Klimathermometer, das im Zentrum Englands Ende des 17. Jahrhunderts stand. Im 19. Jahrhundert waren meteorologische Beobachtungen überall verbreitet. In den 1920er Jahren ließ man Ballons, die mit zahlreichen Messinstrumenten ausgestattet waren, in die Luft aufsteigen. Dreißig Jahre später wurden Flugzeuge zur Messung der Atmosphäre benutzt und am Nord- und am Südpol wurden Wetter- stationen aufgebaut. Heute erfolgt die Datensammlung per Satellit. Das Projekt ENSEMBLES, das mit 15 Mio. EUR aus dem 6. Rahmenprogramm (RP6) finanziert wird, bedient sich einer Reihe neuer aufwändiger Klimamodelle. Seine Voraussagen besitzen ein größeres Maß an Sicherheit, weniger aufgrund der Genauigkeit der Beobachtungen als aufgrund der Qualität und Tiefe der Modellbildung. Die Klimaforscher bestätigen damit, dass sie im Vergleich zu vorangegangenen Modellen, die aus Daten von globalen Klimamodellen entwickelt worden waren, das genauste und detaillierteste Bild von Europa zum Ende des Jahrhunderts gezeichnet haben. So zeigen etwa die mittleren Ergebnisse einer Prognose von ENSEMBLES, die auf dem Emissionsszenario A1B basieren – gleichgewichtete Verwendung fossiler Brennstoffe und anderer Energieformen, darunter auch erneuerbarer –, dass zwischen 2080 und 2090 die Temperaturen während der Sommermonate im Südwesten Frankreichs im Vergleich zum Referenzzeitraum 1961 bis 1990 um 6 °C höher und die Niederschläge um 50 % niedriger liegen werden. Die Detailgenauigkeit der neuen Modelle gehört zu den wichtigen Beiträgen des Projekts zur Klimamodellierung. „Wir erreichen eine weit höhere Auflösung als alle bisherigen Modelle. Das ist ein riesiger Sprung nach vorne“, bestätigt Paul van der Linden, Leiter von ENSEMBLES, das im Hadley-Zentrum für Klimaänderungen in Exeter (UK) untergebracht ist. Es sind die Resultate aus fünf Jahren harter Arbeit in einer recht undurchsichtigen Wissenschaft. Die Geschichtsprüfung bestehen Derzeit werden sechs (von 40) Szenarien des IPCC in den Modellen verwendet. Sie beschreiben verschiedene künftige Emissionsniveaus und wurden aufgrund von sozio-ökonomischen Hypothesen und Vermutungen zur Handhabung des Klimaproblems aufgestellt. Einige gehen von Business-as-usual aus und präsentieren sich eher negativ. Andere gründen auf fruchtbareren Energiestrategien. Sie berücksichtigen auch Einschätzungen zur Sonnenstrahlung und zu den Aerosolen. Ihre Reichweite variiert je nachdem, ob sie die Daten für einen, zwei oder zehn bis fünfzehn Schadstoffe einbeziehen. Die Modelle sind im Laufe mehrerer Jahrzehnte in 12 verschiedenen Forschungszentren entwickelt worden. Die sieben europäischen Zentren wurden in ENSEMBLES zusammengeführt. Unter den 66 Partnern befinden sich auch außereuropäische Institute. Die Forscher rastern die Weltkugel zunächst grob. Anschließend werden die Modelle auf Weltebene hochgerechnet und die Werte jedes Rasters oder jeder Zelle werden rekonstruiert. Je nach Forschungsziel werden unterschiedliche Modelle verwendet: entweder nur für die Atmosphäre, den Ozean oder beides. Über die globalen Merkmale des Klimawandels hinaus können die Wissenschaftler auch die Folgen modellieren. Alte und neue Daten zu Temperaturen und Niederschlägen werden verwendet, um das Modell anhand des als „Hindcasting“ (rückwirkende Simulation) bezeichneten Verfahrens im Hinblick auf die Klimageschichte zu testen. „Wir wollen wissen, wie leistungsfähig das Modell ist, und es im Zusammenhang mit den Klimabeobachtungen sowie den Treibhausgasmessungen der Vergangenheit bewerten“, erklärt Paul van der Linden. Sollte der Test von den historischen Daten stark abweichen, so ist das Modell schwach. Da die Erstellung eines globalen Modells sehr viel Zeit kostet, können nur bestimmte Teile für einen eingegrenzten Zeitraum getestet werden. Unzählige Simulationen Eine einzige Prognose aus einem Modell reicht nicht aus. Um die Genauigkeit zu verbessern, lassen die Klimaforscher dasselbe Model Tausende Male mit jeweils unterschiedlichen Daten laufen, oder mehrere Modelle mehrmals mit denselben Daten. Mit diesem sogenannten Gesamtmodell wird ein zuverlässigeres Ergebnis erzielt, weil die Mittelwerte mehrerer Modelle genauer sind als das Ergebnis eines einzigen. Das ist auch der Punkt, in dem sich ENSEMBLES von vorangegangenen Projekten unterscheidet. „Es ist das größte Projekt seiner Art“, bestätigt Paul van der Linden. Die Prognostiker aus ganz Europa haben ein enormes Mehrfachmodell erstellt, das sieben europäische Gesamtmodelle miteinander kombiniert. Durch seine Größe kann es eine Detailgenauigkeit liefern, die jeden vorangegangenen Versuch übertrifft. Außerdem unterscheidet es sich von seinen Vorläufern, weil es ein Gesamtmodell aus 15 regionalen Modellen zusammenstellt, die in den sieben globalen Modellen untergebracht sind. Die Forscher haben die möglichen Folgen des Klimawandels an 14 Standorten in research*eu Nr. 63 | APRIL 2010 15 DOSSIER KLIMA KLIMAMODELLE KLIMAMODELLE 5 Starke Steigerung Negativ für die meisten Regionen Negativ in allen Messungen Hoch DOSSIER KLIMA 4 3 Zukunft Geringes Risiko Steigerung Negativ für einige Regionen, positiv für andere Negative oder positive Auswirkungen auf den Markt; Mehrheit der Menschen 2 1 Niedrig Quelle: IPCC 0 Vergangenheit Mittlerer Temperaturanstieg über dem Niveau von 1990 (°C) Hohes Risiko W Burning embers (glühende Kohlen) Von schwachem Gelb bis zum kräftigen Rot zeigt diese Grafik des IPCC den Aufstieg von fünf Risikokategorien, die mit verschiedenen Stufen der Erwärmung des Planeten zusammenhängen. Diese Grafik wurde zum ersten Mal 2001 veröffentlicht. 2007 wurde sie aktualisiert, wobei die Alarmstufe erheblich angehoben wurde. 1 Risiken für bestimmte Ökosysteme (Korallenriffe, Gletscher, Lebewesen usw.). 2 Extreme Wetterrisiken (Hitzewellen, Überschwemmungen, Trockenheit, Brände, Orkane usw.). 3 Ausweitung der Folgen der Disparitäten und der regionalen Gefährdung (in Gelb: gewisse Bereiche, die von der Erwärmung profitieren, können im Kontrast zu denen stehen, die darunter leiden; doch im roten Bereich sind die negativen Auswirkungen generell spürbar). 4 Risiken mit Auswirkungen auf Wirtschaft und Märkte (siehe Bemerkung oben). 5 Risiken großer Veränderungen (beschleunigter Anstieg der Meere, Versauerung der Ozeane, extreme Hitze). -0.6 1 2 3 4 5 Europa untersucht. Sie können auch die Auswirkungen einer durchschnittlichen Erwärmung um 2 °C in Europa auf die Landwirtschaft, die Gesundheit, Energie, Wasserressourcen und auf die Versicherungen simulieren. „Unser Ansatz ist eher horizontal als vertikal“, erklärt Paul van der Linden. Eine weitere Innovation: die Entwicklung eines neuen Szenarios mit dem Namen E1, das mithilfe einer Gruppe globaler Klimamodelle getestet wurde. Es geht davon aus, dass die politischen Anstrengungen zur Emissionssenkung greifen und die Emissionsziele erreicht werden. Dieser Ansatz nimmt sich Szenarien des IPCC in umgekehrter Form vor. Er geht also von den erzielten Temperaturen aus, um die Emissionen zu berechnen. So gelangt er zu einem CO2-Niveau, das sich auf 450 ppm im Jahr 2140 stabilisiert hat – dieser Betrag wurde von den Entscheidungsträgern als höchster Schwellenwert festgelegt, damit die Temperaturen um nicht mehr als 2 °C steigen. Die Ergebnisse implizieren, dass die Emissionen bis Ende des Jahrhunderts auf null fallen müssen, nachdem sie 2010 eine Spitze von ungefähr 12 Gigatonnen Kohlenstoffäquivalent erreicht haben. 16 research*eu Nr. 63 | APRIL 2010 Der nächste IPCC-Bericht sollte ein Modell enthalten, das nach dem E1-Szenario funktioniert. Ausgefeilte Wahrscheinlichkeiten Jedenfalls sollte man nicht vergessen, dass unabhängig von der Anzahl der Durchläufe diese Modelle auch weiterhin Projektionen bleiben und niemals Sicherheit liefern können. Doch auch in dieser Hinsicht ist der Forschungsgruppe von ENSEMBLES eine Premiere gelungen. Das Projekt erstellt eine Reihe von Prognosen, anhand derer entschieden werden kann, welche Ergebnisse wahrscheinlicher sind als andere. Die Forscher bestätigen, dass sie die Wahrscheinlichkeit der Genauigkeit einer bestimmten Prognose messen können und zwar dank des Mehrfachmodells dieses Projektes. „Vorher konnte man etwa sagen, dass die Zahl der Stürme bis zu einem bestimmten Datum um 20 % ansteigen werde. Heute können wir sagen, dass 95 % der Ergebnisse zeigen, dass sich die Stürme um 5 % bis 20 % vermehren werden“, erklärt Gregor Leckebusch, Klimaforscher am Institut für Meteorologie der Freien Universität Berlin. Quelle: IPCC X Voraussichtlicher Temperaturanstieg im letzten Jahrzehnt des Jahrhunderts (2090-2099) nach dem IPCC-Szenario, dass das Wirtschaftswachstum ansteigt und auf einen Energiemix aus fossilen und nicht fossilen Brennstoffen zurückgegriffen wird. Für Paul van der Linden stellt dieses Modell einen großen Fortschritt für die Gemeinschaft der Klimamodellierer dar. „Zum ersten Mal verfügen wir über Wahrscheinlichkeiten und die Forscher können nunmehr auf diese Datenbank zurückgreifen, um ihre eigenen Modelle laufen zu lassen.“ Nur die Realität wird jetzt noch die besten Modelle infrage stellen. Der in den letzten Jahren festgestellte Rückgang des arktischen Schelfeises während der Sommermonate würde bei den früheren Modellen erst ganz zum Schluss berücksichtigt werden. Das lässt befürchten, dass die Entwicklung des Klimas wahrscheinlich unterschätzt wurde und dass wir neue Prognosen aufstellen müssen. Elisabeth Jeffries ENSEMBLES 79 Partner – 18 Länder (AT-BE-CH-CZ-DE-DK-ES-FI-FRGR-IE-IT-NL-NO-PL-RO-SE-UK) 2 nicht europäische Länder (AU-US) http://ensembles-eu.metoffice.com/ index.html „Jeder Wissenschaftler muss auch Skeptiker sein“ Während die Wissenschaftler des IPCC Studien bewerten und erstellen, mit denen das Wissen zur Frage des Klimawandels erweitert werden soll, werden Zweifel an den Ergebnissen des Weltklimarates laut. W © Shutterstock/Trance Drumer Sind die Aktivitäten des Menschen an der Erwärmung schuld? Die Debatte ist noch lange nicht zu Ende. enn in der Wissenschaft eine Mehrheit etwas behauptet, bedeutet das noch lange nicht, dass diese Behauptung wahr sein muss. Obwohl die meisten Klimaexperten die generelle These des Weltklimarates (IPCC) unterschreiben, welche besagt, dass die gefährliche Klimaerwärmung wahrscheinlich auf menschliche Aktivitäten zurückzuführen ist, wird diese These regelmäßig von den Klimaskeptikern zurückgewiesen. Der Laie, dem ein umfassendes Wissen zur Klimaforschung fehlt, ist angesichts der oftmals widersprüchlichen Argumente hilflos. Und manche Medien, denen an Polemik mehr liegt als an echter Information, tragen ihren Teil zur Konfusion bei. Nimmt man jetzt noch jene heraus, die – mithilfe von Desinformationsstrategien wie jenen der Zigarettenindustrie in der 1980er Jahren – besondere Interessen verfolgen, und jene, die im IPCC nur den verlängerten Arm eines weltweiten politisch-ökologischen Komplotts sehen, dann bleiben noch jene sicherlich ehrlichen Skeptiker übrig, deren Äußerungen sich auf eine wissenschaftliche Argumentation stützen. Obwohl die Argumente in alle Richtungen weisen, lassen sich die Skeptiker grob in zwei große Kategorien einteilen: jene, die den menschlichen Ursprung der Erwärmung verneinen oder herabspielen, und jene, die dem Ernst der Lage widersprechen. Die ersten legen Belege vor, mit denen sie beweisen wollen, dass die Treibhausgasemissionen, die aus menschlichen Aktivitäten stammen, nur wenig oder gar nicht für die seit der Mitte des 20. Jahrhunderts beobachtete Erwärmung verantwortlich sind. Sie sollen vor allem mit natürlichen Faktoren zusammenhängen. Die zweite Gruppe, die sich von der ersten kaum unterscheidet, zweifelt die wissenschaftlichen Grundlagen der Vorhersagen und der dort genannten erwarteten Konsequenzen der Erwärmung an. Mit welchen Argumenten widersprechen sie der Meinung der Mehrzahl der Klimaexperten? Der Ursprung aller Fragen und Unsicherheiten, die noch zu Ursache und Folgen der Klimaerwärmung bestehen, liegt in der Komplexität des Systems Erde und seiner Zusammenhänge mit dem Universum. Die Sonne – Triebfeder der Erwärmung Das häufigste Argument gegen die These der menschlichen Ursache der Erwärmung betrifft die Position der Erde im Verhältnis zur Sonne und ihre Aktivität. Zu allen Zeiten soll die Intensität der Sonnenaktivität, die Form der Umlaufbahn der Erde um die Sonne und die Neigung unseres Planeten auf dieser die Temperaturen bestimmt haben. „Schaut man sich die vergangenen 800 000 Jahre an, ohne die letzten 200 zu berücksichtigen, so sieht man, dass die Klimaveränderungen der Vergangenheit durch natürliche Faktoren wie die allmähliche Veränderung der Erdumlaufbahn und die Position der Erde auf dieser ausgelöst wurden“, räumt Jean-Pascal van Ypersele ein, Vizepräsident des IPCC und Klimaforscher an der Katholischen Universität Löwen (BE). Doch auch wenn diese Parameter im Laufe langer Zeitabschnitte variieren, reichen sie nicht aus, um den starken Temperaturanstieg seit der industriellen Revolution zu erklären. „Wir dürfen sehr unterschiedliche Zeitskalen nicht miteinander vermischen.“ (1) research*eu Nr. 63 | APRIL 2010 17 DOSSIER KLIMA KLIMASKEPSIS © CNRS Photothèque/John Pusceddu 35 Meter hoher Turm im Wald von Barbeau (FR), zur Messung der Kohlenstoff- und Wasserströme zwischen einem Waldökosystem und der Atmosphäre. Probenentnahme aus dem Mittelmeer im Rahmen des Epoca-Projekts, mit dem die Versauerung der Ozeane beleuchtet werden soll. Das Meerwasser nimmt hohe Mengen an Kohlendioxid aus der Atmosphäre auf, was zur Versauerung führt. Auch wenn das CO2 sicherlich nicht der einzige Ursachenfaktor ist, hätte es sehr wohl zur Ausweitung der Folgen durch die Veränderungen bei der Verteilung und der Gesamtmenge der auf der Erdoberfläche verfügbaren Sonnenenergie beitragen können. „Ausgangspunkt sind die astronomischen Faktoren. Es ist durchaus wahrscheinlich, dass der Kohlenstoffkreislauf durch kleine Klimaveränderungen, die durch diese Fluktuationen hervorgerufen wurden, beeinflusst wurde. Und das wiederum hat sich auf das Klima der Vergangenheit ausgewirkt“. Das Ei oder die Henne? Hier trifft man auf einen wunden Punkt: der Zusammenhang zwischen der CO2-Konzentration in der Atmosphäre und den Temperaturveränderungen. Während die meisten Klimaforscher sagen, dass ein Anstieg der CO2-Konzentrationen zur Erwärmung der Erdatmosphäre beiträgt, betonen andere mithilfe von Grafiken, dass es in den geologischen Zeiten der Erde eher der Temperaturanstieg war, der zu hohen CO2-Konzentrationen geführt hat und nicht umgekehrt. „Tatsache ist, dass sich die Ozeane nach einem Temperaturanstieg, der durch astronomische Faktoren hervorgerufen wurde, erwärmen und damit weniger CO2 aus der Atmosphäre aufnehmen können. Das ist ein chemisches Gesetz: CO2 löst sich in kaltem Wasser besser auf als in warmem. Damit verbleibt ein größerer Anteil dieses Gases in der Atmosphäre.“ 18 © CNRS Photothèque/Claude Delhaye Auf der ganzen Welt wird der CO2-Ausstoß gemessen, doch mit unterschiedlichen Methoden. © CNRS Photothèque/Jean-Yves Pontailler DOSSIER KLIMA KLIMASKEPSIS research*eu Nr. 63 | APRIL 2010 Die Temperatur wirkt sich also auf die CO2Konzentrationen aus. „Die Skeptiker haben recht, wenn sie sagen, dass das CO2 in der Vergangenheit dem Temperaturanstieg folgte. Doch sobald es sich häuft, verstärkt es den natürlichen Treibhauseffekt und führt zu einer weiteren Erwärmung. Wird die CO2-Schicht in der Atmosphäre dicker, ist es, als ob man sich eine weitere Decke über das Bett legt, wodurch einem wärmer wird!“ Schwerer Staub Doch scheinen die Zusammenhänge zwischen astronomischen Faktoren und der CO2-Konzentration in der Atmosphäre, die einerseits von den „Klimaskeptikern“ und andererseits von denen, die sich haben überzeugen lassen, genannt werden, nicht diametral entgegengesetzt zu sein, wenn sie erst einmal analysiert wurden. Die Frage hieße also, welche Auswirkungen die durch den Menschen verursachten Treibhausgase auf das komplizierte System Erde haben. Und auch an diesem Punkt scheiden sich die Geister. Für die einen spielt dieser Beitrag eine untergeordnete Rolle, für die anderen ist er wesentlich. „Die CO2-Konzentration in der Atmosphäre ist im Vergleich zur Wasserdampfkonzentration, dem Hauptverursacher des Treibhauseffekts, lächerlich. Und der natürliche CO2-Ausstoß liegt wesentlich höher als der, der durch den Menschen verursacht wird“, so wird von den Skeptikern regelmäßig argumentiert. Durch das natürliche Phänomen des Treibhauseffekts wird Messinstrumente an einem Drachen, mit denen der Wind und die CO2-Mengen in 100 m und 200 m Höhe gemessen werden. Dieses Experiment wurde im Rahmen der Amma-Kampagne (Analyses multidisciplinaires de la mousson africaine) in Benin durchgeführt. Leben auf der Erde erst möglich. Ohne dieses läge die Durchschnittstemperatur auf der Erde bei -18 °C anstelle von +15 °C. „Und Wasserdampf ist tatsächlich das primäre Treibhausgas. Doch das Problem ist nicht der Treibhauseffekt an sich, sondern seine Verstärkung, die seit mehr als 40 Jahren von Satelliten gemessen und dokumentiert wird und die auf die Aktivität des Menschen zurückgeht. Die Isotopenanalysen des atmosphärischen CO2 beweisen, dass der Ursprung für die Zunahme dieses Gases in der Atmosphäre auf die Nutzung fossiler Brennstoffe zurückzuführen ist.“ Es stimmt, dass die natürlichen CO2-Emissionen viel höher sind als jene, die durch den Menschen verursacht werden. „In einem Vortrag zum Kohlenstoffkreislauf vor dem belgischen Erdölverband 1997 erwähnte ein Klimaforscher, dass der natürliche Kohlenstoffstrom bei etwa 200 Milliarden Tonnen pro Jahr liege im Vergleich zu 8 Milliarden Tonnen Kohlenstoff menschlichen Ursprungs. Daher sei es seiner Ansicht nach lächerlich, die mageren 4 Prozent aus menschlichen Aktivitäten anzugreifen.“ Aber es ist nur eine Frage des Gleichgewichts. „Er hat allerdings nicht gesagt, dass die natürlichen Systeme ihre Emissionen recyceln, vor allem durch Fotosynthese.“ Damit absorbieren diese Systeme das Kohlendioxid, das sie ausstoßen. „Das ist wie bei einer Waage, die sich im Gleichgewicht befindet: Wenn man auf der einen Seite Staub hinzufügt – hier das durch den Menschen verursachte CO2 – dann kippt das Gleichgewicht.“ Und dabei wurde Wenn der IPCC die Tür zuschlägt Auch die Klimamodelle(2), auf die sich der IPCC für seine Prognosen stützt, stehen zur Debatte. Sind sie zuverlässig? Die größten Skeptiker schätzen, dass es für Schlussfolgerungen nicht ausreicht, nur die Parameter zu kennen, die das Klima auf der Erde beeinflussen. „In der Wissenschaft gibt es keine Sicherheit, doch im Gegensatz zu dem, was sie vorgeben, sind die Klimamodelle keine einfachen statistischen Extrapolationen.“ Auf der Grundlage physikalischer, chemischer und biologischer Gesetzmäßigkeiten müssen diese Modelle zunächst das aktuelle Klima simulieren können. Im nächsten Schritt muss verifiziert werden, dass sie auch das Klima der Vergangenheit simulieren können. „Damit wird es möglich, das Werkzeug zu validieren, mit dem Beobachtungen zum Klima der vergangenen hundert, tausend oder hunderttausend Jahre mithilfe von Eisproben gemacht werden. Anschließend können diese Modelle zur Erstellung von Projektionen genutzt werden, und nicht zur Voraussage des künftigen Klimas, denn das ist nicht möglich.“ Glaubt man den Modellen, variieren diese Projektionen je nach Zukunftsszenario für die Treibhausemissionen erheblich. Im Dokumentarfilm The Great Global Warming Swindle von Martin Durkin sind Wissenschaftler zu sehen, die aus dem IPCC ausgetreten sind, weil sie mit den Projektionen der für die politischen Entscheidungsträger vorgesehenen Berichte nicht einverstanden waren. Klimaexperten drehen ihren Kollegen den Rücken zu und das nährt bei allen den Zweifel. „Obwohl die Gruppe aus zwischenstaatlichen Experten besteht, ist der Erstellungsprozess der Berichte sehr unabhängig. Die Autoren verfassen die Texte auf der Grundlage der wissenschaftlichen Literatur und diese Texte durchlaufen drei Korrekturrunden durch Experten und Regierungen.“ Jeder Kommentar zu einer Zeile oder einem Paragrafen wird in eine Tabelle eingetragen, und zu jedem Kommentar geben die Autoren anschließend eine Rückmeldung. Die Lektoren wachen darüber, dass jeder Kommentar von den Autoren ehrlich bewertet wird. Und damit das alles auch transparent ist, sind diese Tabellen auf der Website des IPCC zugänglich. „Ein Bericht bedeutet Hunderte Autoren und insgesamt 2 500 Experten, die sich am Lektorat Tausend Jahre Klima in Europa I m Rahmen des RP6-Projekts Millennium European Climate soll ermittelt werden, ob die aktuellen klimatischen Veränderungen über die normale Variationsbreite des Klimas hinausgehen, das im vergangenen Jahrtausend in Europa beobachtet wurde. Die beteiligten Forscher der 40 Universitäten und Forschungseinrichtungen haben ihre Entnahme einer Eisprobe unterschiedlichen Kompetenzen gebündelt, um das Klima in der Antarktis im Rahmen des Europas der Vergangenheit zu rekonstruieren. „Es ist ein EPICA-Programms. multidisziplinäres Projekt, in dem verschiedene Ansätze verwendet werden, etwa die Analyse historischer Archive, Jahresringe von Bäumen, Sedimente aus Seen, Eisproben sowie Modellierungen“, erklärt Rob Wilson, Paläoklimatologe an der Universität Saint Andrews in Schottland (UK). „Jeder Ansatz hat seine Stärken und Schwächen, und wir setzen die Stärken jedes Datentyps ein, um die Geschichte des Klimas in Europa der letzten 1 000 Jahre zu rekonstruieren.“ Sobald die Daten gesammelt und analysiert wurden, werden sie mit den Ergebnissen aus den Modellen verglichen. „Wenn diese beiden unabhängigen Informationsquellen sich decken, wird dadurch nicht nur ein besseres Verständnis der klimatischen Veränderungen der Vergangenheit möglich, sondern auch die Ermittlung der dominierenden Faktoren der Veränderungen in den verschiedenen Perioden“, erklärt der Forscher. Ein halbes Jahr vor Ende von Millennium European Climate liegen die Abschlussergebnisse noch nicht vor. Jedoch liegen die vorläufigen Analysen „allgemein auf einer Linie mit den Schlussfolgerungen des IPCC“, erläutert Rob Wilson. http://137.44.8.181/millennium beteiligen. Dass sich manche zu einem bestimmten Zeitpunkt unbehaglich fühlen – und das ändert auch nichts daran, dass es sich um gute Wissenschaftler handelt –, weil sie ihre Ideen nicht durchsetzen können, ohne dass diese mit anderen Aspekten in der Literatur oder Kommentaren zusammenstoßen, das ist unvermeidlich.“ Skepsis oder doch nicht? Ist das einfach nur ein Meinungsstreit unter Experten? Die Debatte wird allerdings manchmal mit erstaunlicher Heftigkeit geführt. Manche Skeptiker zögern auch nicht, das „einheitliche Denken“ des IPCC infrage zu stellen und werden dann selbst als „Leugner“ oder „Revisionisten“ bezeichnet. Die Dramatisierung der Kontroverse in gewissen Medien und auf manchen Blogs trägt dazu bei, dass die Sichtweisen unvereinbar erscheinen, als ob es eine Glaubensfrage wäre. Angesichts der Unstimmigkeit weiß die Öffentlichkeit nicht mehr, wem sie eigentlich glauben soll und vergisst wahrscheinlich auch, dass der Zweifel und die Suche nach der Wahrheit immer zusammengehören. „Alle Wissenschaftler müssen skeptisch sein. Ich sehe nicht ein, weshalb manche die Skepsis monopolisieren müssen.“ Die wirtschaftlichen, politischen und gesellschaftlichen Folgen sind natürlich immens. Sollte der Einfluss der menschlichen Aktivitäten auf das Klima zu vernachlässigen sein, dann sind viele Anstrengungen womöglich umsonst gewesen – selbst wenn die, die dem Versiegen der fossilen Ressourcen entgegenwirken sollten, Auswirkungen auf unsere Energieversorgung der Zukunft haben. Wenn dagegen der menschliche Faktor das natürliche Gleichgewicht so stark stört, dass es sich nicht mehr erholen kann, dann wäre ein passives Verhalten, also nichts zu tun, um diesen Zustand zu ändern und sich auf die Folgen vorzubereiten, in den Augen der uns folgenden Generationen eine grobe Fahrlässigkeit. Audrey Binet, Jean-Pierre Geets (1) Alle Zitate von Jean-Pascal van Ypersele. (2) Siehe Artikel Die Diagnosewerkzeuge in dieser Ausgabe. IPCC www.ipcc.ch RealClimate: Infos zur Klimaforschung www.realclimate.org research*eu Nr. 63 | APRIL 2010 19 DOSSIER KLIMA noch nicht mal die massive Entwaldung hinzugerechnet, die das Gewicht auf der anderen Seite der Waage verändert. © CNRS Photothèque/IPEV/Claude Delhaye KLIMASKEPSIS IN KÜRZE NEUES AUS EUROPA Genangriff auf die Alzheimersche Krankheit www.eso.org Ein Meeresbakterium gegen den Krebs Ein Bakterium hat die Aufmerksamkeit des Unternehmens Nereus Pharmaceuticals in San Diego (USA) und von Biochemikern der TU München (DE) erregt. Salinispora tropica ist der lateinische Name des Meeresbakteriums. Es produziert © Inserm/Catherine Fallet-Bianco © ESO/L.Calçada Fragmente von Krebszellen. Zerebraler Cortex. Beta-Amyloid nach sich, welches das Nervensystem zerstört und sich im Gehirn der betroffenen Patienten ablagert. Damit wäre jede Forschung, die zur Unterdrückung dieses Peptids führt, ein Fortschritt auf dem Weg zu einer Therapie. Im gleichen Zeitraum hat sich eine britische Forschergruppe unter der Leitung von Julie Williams vom Alzheimer’s Research Trust (UK) auch mit dem CLU-Gen beschäftigt 20 www.univ-lille2.fr www.alzheimers-research.org.uk Mechanismus zerstört. Diese Feststellung könnte der kleinen Gemeinschaft der Exoplanetenjäger Auftrieb verleihen, weil der Lithiummangel von Sternen derzeit ein sachliches Indiz auf die Existenz dieser extrasolaren Planeten ist. © Inserm/Jenny Valladeau Zwei in der Zeitschrift Nature veröffentlichten Studien ist es gelungen, drei neue Gene zu identifizieren, die im Zusammenhang mit Alzheimer stehen. Zwei davon, Clusterine (CLU) und CR1, wurden von der Gruppe von Philippe Amouyel, Professor für Epidemiologie und öffentliche Gesundheit an der Universität Lille 2 (FR), bestimmt. Mutationen dieser Gene ziehen wahrscheinlich Probleme bei der Eliminierung des Peptids und mit einem dritten Gen mit der Bezeichnung PICALM. Mit den für diese Forschung verwendeten DNA-Chips konnte der Grad der Genexpression von 20 000 gesunden und kranken Personen bestimmt werden. Obwohl durch diese Analysen die Beteiligung des Gens PICALM an dieser Form der Demenz ans Licht gebracht wurde, muss seine Rolle noch genau bestimmt werden. für Astrophysik der Kanaren (ES) in der Zeitschrift Nature eine Studie, der zufolge das Geheimnis gelöst scheint: Der Grund ist, dass unser Stern von anderen Planeten umgeben ist. Seit mehreren Jahren beobachtet die Europäische Südsternwarte (ESO) mithilfe des High Accuracy Radial Velocity Planet Searcher (HARPS) 500 Sterne, von denen 70 von Planeten umgeben sind. Dieser Spektrograf befindet sich am 3,6-Meter-Teleskop in La Silla in Chile. Garik Israelian und seine Mannschaft untersuchten nur Sterne, die unserer Sonne ähnlich sind. Ein Viertel der Proben zeigte, dass die meisten Sterne, die von Planeten umgeben sind, ungefähr 100-mal weniger Lithium enthalten als die anderen. research*eu Nr. 63 | APRIL 2010 Exoplanet Gliese 581. Künstlerische Darstellung. Vom Mysterium des Lithiums zu den Expoplaneten Seit 60 Jahren stellt die Wissenschaft die Frage, weshalb die Sonne viel weniger Lithium enthält als ähnliche Sterne. Doch im November 2009 veröffentlichte eine Forschungsgruppe des Astrophysikers Garik Israelian vom Institut Lithium, ein leichtes Element aus drei Protonen und vier Neutronen, ist aller Wahrscheinlichkeit nach kurze Zeit nach dem Big Bang vor 13,7 Milliarden Jahren entstanden und müsste in ähnlichen Mengen in allen Sternen vorhanden sein. Es scheint daher, dass die Bildung oder die Präsenz von Planeten rund um einen Stern dazu führt, dass dieser sein eigenes Lithium mittels eines noch unbekannten ein Molekül, welches Proteasome zerstört und dadurch die entsprechenden Medikamente ersetzen könnte. Diese werden gegen die Verbreitung von Krebszellen eingesetzt und haben sehr schwere Nebenwirkungen, weil sie auch gesunde Zellen zerstören. Proteasome sind die Müllverwertungsanlagen von Zellen. Werden diese deaktiviert, ersticken die Zellen an ihrem eigenen Müll. Salinispora tropica produziert ein Killermolekül, welches genau so wirkt. Es bricht das Proteasom auf und zerstört es anschließend, wie ein zerbrochener Schlüssel in einem Schloss. Den Forschern zufolge ist dies die beste Methode, das Proteasom zu blockieren. Da jetzt der Mechanismus im Detail bekannt ist, kann er gezielt variiert werden, um ein wirksames Medikament zu entwickeln. http://portal.mytum.de/ welcome/ Ewige Erinnerungen © Shutterstock/Lulu Duraud Warum bleiben manche Erinnerungen auf ewig in unserem Gedächtnis, während andere sich verflüchtigen? Alles hängt von der Kapazität unseres Gehirns ab, neue Eindrücke in dauerhafte Erinnerungen umzuwandeln. Die erste Etappe in diesem Prozess besteht darin, Erinnerungen einige Stunden lang zu speichern. Dabei wird die neuronale Übertragung durch eine Reihe chemischer Veränderungen an den Synapsen variiert. Doch wie verankern sich diese Kurzzeiterinnerungen dauerhaft im zerebralen Cortex? Forschern des Karolinska Institutet (SE) ist es in Zusammenarbeit mit „Und mit einem Mal war die Erinnerung da. Der Geschmack war der jenes kleinen Stücks einer Madeleine.“ (Marcel Proust) dem amerikanischen National Institute on Drug Abuse (NIDA) gelungen, bei gentechnisch veränderten Mäusen die Fähigkeit für Langzeiterinnerungen zu aktivieren und zu deaktivieren. Damit konnten sie die Rolle des Rezeptormoleküls nogo receptor 1 (NgR1) beleuchten. Wenn Nervenzellen aktiviert werden, wird das für NgR1 zuständige Gen abgeschaltet und man nimmt an, dass dies mit der Bildung von Langzeiterinnerungen zusammenhängt. Die Forscher testeten ihre Hypothese, indem sie Mäuse mit einem zusätzlichen NgR1-Gen schufen, das aktiv blieb, wenn das normale NgR1-Gen abgeschaltet wurde. Mit dieser Entdeckung wurde ein weiterer Schritt bei der Suche nach Behandlungsmöglichkeiten von Gedächtnisstörungen getan. © Shutterstock/Sebastian Kaulitzki IN KÜRZE Anstieg der Fehl- und Totgeburten. Sollten diese Ergebnisse auch auf den Menschen übertragbar sein, könnten sie auch Implikationen für künstliche Befruchtungstechniken haben. Sie könnten zum Schutz der Samenzellen beitragen, die beim Auftauen vor der künstlichen Befruchtung einem starken oxidativen Stress ausgesetzt sind. www.inserm.fr …und empfindlichen sterilen Von empfindlichen Männern Samenzellen… http://ki.se Forscher des Labors für Genetik, Fortpflanzung und Entwicklung des Inserm, das Wissenschaftler aus mehreren französischen Forschungseinrichtungen vereint, haben ein antioxidatives Protein entdeckt, das wahrscheinlich die Samenzellen schützt. Samenzellen reifen in den Nebenhoden heran und erhalten dort ihre Befruchtungsfähigkeit. Dennoch kann es gerade bei sehr empfindlichen Samenzellen passieren, dass ihre DNA durch einen oxidativen Stress fragmentiert wird. Und hier greift das Protein GPx5 ein. Die Forscher haben entdeckt, dass männliche Mäuse, denen dieses Protein fehlte, morphologisch normale Samenzellen besitzen. Doch bei der Befruchtung weiblicher Zellen treten Entwicklungsfehler auf und es kommt zu einem Schenkt man einer Veröffentlichung in der Fachzeitschrift European Urology vom Dezember 2009 Glauben, haben unfruchtbare Männer eine viel empfindlichere Gesundheit als fruchtbare. Der Artikel stützt sich auf eine prospektive Studie, die zwischen September 2006 und 2007 an der Universität Mailand durchgeführt wurde. Die dortige Forschungsgruppe des Urologen Andrea Salonia untersuchte 344 unfruchtbare Männer im Alter von 18 bis 60 Jahren. Aus dem Vergleich mit der Kontrollgruppe, die aus 293 Männern derselben Altersgruppe bestand, geht hervor, dass weniger fruchtbare Männer auf der Charlson-Skala eine wesentlich höhere Komorbidität aufweisen. Damit werden diagnostisch abgrenzbare Krankheitsbilder bezeichnet, die beim Patienten zur gleichen Zeit auftreten. Das bedeutet in diesem Fall, dass diese Patienten im Vergleich zur fruchtbaren Bevölkerung neben der Unfruchtbarkeit in größerem Maße auch an anderen gesundheitlichen Störungen leiden. Angesichts der Probengröße ist es für Verallgemeinerungen allerdings noch zu früh und es sind größere Studien notwendig, um diese Ergebnisse zu bestätigen. www.europeanurology.com Die dunkle Materie im anderen Licht Seit einigen Jahren versuchen Astrophysiker den Ursprung der Elektronen- und Positronenströme herauszufinden, die in der Milchstraße entdeckt wurden. Bislang gingen die Wissenschaftler davon aus, dass diese ihren Ursprung in der dunklen Materie haben. Doch laut einer in der Zeitschrift Physical Review Letters im August 2009 veröffentlichten Studie, die von der Forschungsgruppe der Astrophysikerin Julia Becker von der Ruhr-Universität Bochum und dem Physiker Wolfgang Rohde von der Technischen Universität Dortmund in Deutschland geleitet wurde, verhält es sich ganz anders. Danach stammen die entdeckten Teilchenströme aus dem Plasma, das bei der Explosion gigantischer Sterne, die mehr als das 15-Fache der Masse unserer Sonne besitzen, in den Weltraum geschleudert wird. Das beschleunigte Plasma kollidiert mit dem Sternenwind, der aus Teilchen aus früheren Explosionen besteht, und es entsteht eine Schockfront. Wenn sich die Schockfront zum Magnetfeld des Sterns ausrichtet, ist das ausgestrahlte Signal mal schwach und mal energiereich. Dieses Modell passt genau zu den Beobachtungen, was research*eu Nr. 63 | APRIL 2010 21 Zentrum der Milchstraße. Mäuselunge. also bedeutet, dass der Beweis für die Existenz der dunklen Materie woanders zu suchen ist. nen ausgesetzt ist, wird das Immunsystem der Lungen aktiviert, was zur Verengung der Bronchien und damit zu einer schlechten Sauerstoffversorgung führt. Das führt zur Annahme, dass sich Asthma aus einer Defizienz der Makrophagen an einem bestimmten Zeitpunkt im Leben eines Individuums heraus entwickelt. www.ruhr-uni-bochum.de www.tu-dortmund.de Zellen, die sich gegen Asthma wehren www.ulg.ac.be Eine Forschungsgruppe der Interdisziplinären Gruppe für angewandte Genoproteomik an der Universität Lüttich (BE) unter der Leitung des Biologen und Tierarztes Fabrice Bureau hat in Mäuselungen Zellen entdeckt, die eine asthmatische Reaktion verhindern können. Diese Zellen, bei denen es sich um Makrophagen handelt, sind mit den Dendriten in der Lunge verbunden und leiten Antigene an die T-Lymphozyten in den Lymphknoten weiter. Die Makrophagen entdecken ununterbrochen Antigene in der eingeatmeten Luft sowie die immunstimulierenden Moleküle, die diese begleiten, und verhindern die Wanderung der Dendritenzellen zu den Lymphknoten und damit die Reaktion des Immunsystems auf diese ungefährlichen Allergene. Die Immunreaktion von Asthmatikern auf Allergene in der Luft ist allerdings gefährlich. Jedes Mal, wenn der Patient diesen Allerge- 22 research*eu Nr. 63 | APRIL 2010 Der gute Treibhauseffekt Vor vier Milliarden Jahren war die Sonne noch ein junger Stern und um ein Drittel kälter als heute. Ohne Treibhauseffekt wäre also ein Leben auf der Erde gar nicht möglich gewesen. Das Leben verdankt die Erde dem Carbonylsulfid (COS), das aus der vulkanischen Aktivität während mehrerer Millionen Jahre entstanden ist. Zu diesem Ergebnis gelangt eine Studie, die im August 2009 in der Zeitschrift Proceedings of the National Academy of Sciences (PNAS) veröffentlicht wurde. Die Autoren, der Chemiker Matthew Johnson und seine Kollegen von der Universität Kopenhagen sowie eine Forschungsgruppe vom Tokioer Technologieinstitut, haben in sehr altem Gestein eine eigenartige Schwefelisotopenverteilung entdeckt, die nicht aus einem geologischen Prozess stammt. Davon überzeugt, dass ein Atmosphärenfaktor im Spiel sein kann, haben sie Schwefeldioxid (SO2) mit Sonnenlicht unterschiedlicher Wellenlänge bestrahlt. Damit ist es ihnen gelungen, die Verteilung der Schwefelisotope im Gestein ganz genau zu reproduzieren. Für die Forscher weisen diese Ergebnisse das Carbonylsulfid, das sich aus Schwefel aus den Vulkaneruptionen gebildet hat, als den besten Kandidaten für die Erklärung des Treibhauseffektes aus, den es seit den Anfängen der Erde gab. Sie nehmen an, dass eine atmosphärische Decke aus COS, das wirksamer ist als CO2, bereits ausgereicht hätte, um 30 % der Energie zu kompensieren, die von der Sonne nicht geliefert wurde. Damit hatte es das Entstehen von Leben begünstigt, das es zerstört, wie das Ozon (O3) die ultraviolette Strahlung. Doch wie lässt sich die Vereisung der Erde vor 2,5 Milliarden Jahren mit einer solchen Decke erklären? Durch das Entstehen von Leben, durch welches große Mengen an Sauerstoff freigesetzt wurden. In einer oxidierten Atmosphäre kann kein COS aus Schwefel mehr entstehen, sondern nur noch Sulfat-Aerosole, die eine umgekehrte Wirkung haben. Man muss also alle Gase in der Atmosphäre berücksichtigen. www.chem.ku.dk Neue Erkenntnisse zum HI-Virus Das grün fluoreszierende Protein, dessen Entdeckung mit dem Nobelpreis für Chemie 2008 belohnt wurde, hat bereits zu neuen Fortschritten in der AIDS- Forschung geführt. So ist es Forschern der Universitäten München und Heidelberg (DE) gelungen, den Replikationsprozess des HI-Virus in allen Einzelheiten und in Echtzeit sowie den Prozess zu beobachten, durch den die neuen Viren freigesetzt werden, und die Nachbarzellen infizieren. Dazu hat Biophysiker und Forschungsleiter Don Lamb von der Universität München Zellkulturen verwendet, die 8 von 9 Genen des HIV-1 enthalten, wobei eines davon verändert wurde, um eine fluoreszierende Form des GAG-Proteins zu erhalten (group-specific antigen), aus welchem die Virushülle, das Capsid, besteht. Die Studie, die teilweise durch das 7. Rahmenprogramm unterstützt und in PloS (Public library of Science) Pathogens veröffentlicht wurde, zeigte, dass die Membran der Wirtszelle in ein bis maximal zwei Stunden nach Aktivierung des Replikationsprozesses des © Inserm/Philippe Roingeard © ESO/S.Gillessen et al. © Inserm/Michel Depardieu IN KÜRZE Ansetzen des HI-Virus. Das Virus kommt aus der infizierten Zelle mithilfe zellulärer Partner des Zytoskeletts heraus, die an den sogenannten Filopoden, Zellverlängerungen, auftreten. HIV-1 mit Viren bedeckt ist. Jedes Virus wird einzeln zusammengebaut, nicht, wie bisher vermutet, auf einer Art zellulärer Plattform. Es dauert rund 15 Minuten bis das fertige Virus aus der Abdruck der Grafik mit freundlicher Genehmigung des Physikalischen Instituts der Universität Stuttgart. IN KÜRZE FORSCHUNG UNTER DEM MIKROSKOP Wirtszelle entlassen wird. Die Forscher konnten auch bestimmen, ob die Viren auf der Oberfläche einer Wirtszelle von dieser hergestellt wurden oder ob sie von infizierten Nachbarzellen stammen. Bis zu diesem Zeitpunkt war nur wenig über die interzellulären Kontaminationsmechanismen des HI-Virus bekannt. Diese Entdeckungen bringen eine neue Sichtweise ein. www.cup.uni-muenchen.de www.plospathogens.org Das Paradoxon der Löcher Macht man Löcher in einen feinen Goldfilm, der bereits fast durchsichtig ist, wird der Film undurchsichtig! Das ist das Ergebnis der Forschungsgruppe des Physikalischen Instituts der Universität Stuttgart (DE). Erstaunlich? Ein wenig, denn man weiß auch, dass Lichtwellen keine Löcher durchdringen können, die kleiner als die Wellenlänge sind. Doch Metalle machen von dieser Regel manchmal eine Ausnahme. Vor einem Jahrzehnt hatten Forscher bereits nachgewiesen, dass sich bei einer bestimmten Anordnung der Löcher die einfallenden Lichtwellen über die gesamte Oberfläche ausbreiten. Durch die Interaktion dieser Plasmonen mit dem Licht kann das Licht den Film durchdringen. Der verwendete Goldfilm – 20 nm dick und mit Löchern von 200 nm Durchmesser – war für die Versuchsbedingungen geeignet, doch er ließ weniger Licht durch als erwartet. Die Wissenschaftler zweifelten die Halbdurchlässigkeit des Films an, der 40 % des Lichts durchlässt. Die restlichen 60 % schienen nicht auszureichen, damit die Plasmonen wirken konnten. Außerdem schien die Durchlässigkeitsrate von der Wellenlänge abhängig zu sein, weil Infrarotstrahlen eine sehr starke Absorption nach sich ziehen. Die deutsche Studie trägt also mit neuem Wissen zu diesem Forschungsgebiet bei. Die Beherrschung dieser besonderen Interaktionen könnte zur Entwicklung von integrierten Plasmonenchips führen, um bestimmte Wellenlängen herauszufiltern. www.uni-stuttgart.de Neue Wissenschaften?? In einem in der Zeitschrift Minerva veröffentlichten Artikel versucht Andrea Bonaccorsi, Professor für Innovationswirtschaft und Wissenschaftssoziologie an der Universität Pisa, zu beschreiben, was er „neue Wissenschaften“ nennt, das heißt das organisierte Wissen, das sich nach dem Zweiten Weltkrieg herausgebildet hat: Informationswissenschaften, Materialwissenschaften und Biowissenschaften auf der Grundlage der Molekularbiologie, die sich ihm zufolge strukturell von den klassischen Disziplinen, wie Physik, Chemie oder Astronomie, unterscheiden. Im Gegensatz zu den gängigen Behauptungen ist er der Meinung, dass das Konzept der neuen Wissenschaften ebenso wie das der alten vom „Reduktionismus“ geprägt wird, also dem Wunsch, „das komplexe Sichtbare durch etwas einfaches Unsichtbares zu ersetzen“, um es mit den Worten des berühmten französischen Physikers Jean Perrin auszudrücken. Doch als Antwort auf die sozialen Bedürfnisse und wirtschaftlichen Zwänge zeichnen sich diese Wissenschaften jedoch weder durch eine größere Interdisziplinarität aus, noch sind sie stärker auf die Anwendung hin orientiert, jedenfalls nicht grundlegend. Bonaccorsi zufolge sind sie hauptsächlich von der Form der hier herrschenden Forschungsdynamik geprägt. Es ist eine Dynamik mit industriellem Tempo, die sich durch schnelles Wachstum und hohe Diversifikation in Verbindung mit einer Tendenz zur Divergenz der Fragestellungen charakterisiert. Jede Erklärungshypothese führt zu einem neuen Forschungsprogramm. Zur Begründung seiner These nutzt Bonaccorsi die Ergebnisse einer Vergleichsanalyse zur Häufigkeit neuer Wörter in wissenschaftlichen Publikationen, die einerseits aus diesen drei Forschungsgebieten und andererseits aus dem traditionellen Bereich der Hochenergiephysik stammen. Interessante Ansichten wie diese müssen jedoch differenziert und ergänzt werden. Darüber hinaus wäre es sicher möglich gewesen, all das verständlicher und einfacher auszudrücken. Beklagen wir uns aber nicht: Im Vergleich zu vielen seiner Hochschulkollegen ist der Stil von Andrea Bonaccorsi (beinahe) der von Voltaire. Michel André research*eu Nr. 63 | APRIL 2010 23 INTERVIEW Das Foto wurde uns freundlicherweise vom Deutschen Krebsforschungszentrum überlassen Auszeichnung eines „Grundlagenforschers“ Harald zur Hausen – „Da wir den Genomschlüssel des Humanen Papillomvirus nachgewiesen haben, hätte die Entwicklung eines Impfstoffs eigentlich uns zugestanden.“ Ihr Nobelpreis ist die Krönung des Lebenswerks eines „Grundlagenforschers“, der sein Leben der Krebsforschung gewidmet hat, vor allem der Erforschung von Tumorviren. Wie kommt es, dass Sie sich für diesen Weg entschieden haben? Seit meiner Doktorarbeit in Medizin in den 1960er Jahren habe ich mich dafür interessiert, welche Rolle Viren bei der Entstehung von Krebs spielen können. Obwohl bereits seit Anfang des 20. Jahrhunderts die infektiöse Ursache bestimmter Tumore bei Tieren bekannt war, tappte man noch völlig im Dunkeln, was die Rolle von Viren bei der Entstehung von Tumoren beim Menschen betraf. Ich begann, mit Gertrude und Werner Henle in den Vereinigten Staaten über BurkittLymphome (1) zu arbeiten. Die beiden englischen Biologen Michael Epstein und Yvonne Barr stellten 1964 einen Zusammenhang zwischen dem Herpesvirus EBV (Epstein-Barr-Virus), das auch ihren Namen trägt, und der Entstehung des Burkitt-Lymphoms fest. Für mich war die zentrale Frage, welche Rolle dieses Virus im Genom der 24 research*eu Nr. 63 | APRIL 2010 Der Nobelpreis für Medizin 2008 hebt die Bedeutung von drei europäischen Pionieren hervor, die einen entscheidenden Beitrag zum Kampf gegen zwei schlimme Infektionskrankheiten geleistet haben: der beiden Franzosen Luc Montagnier und Françoise Barré-Sinoussi, Entdecker des HI-Virus, und des deutschen Virologen Harald zur Hausen, der den Nachweis erbracht hat, dass Papillomaviren Gebärmutterhalskrebs auslösen können. Ein Gespräch mit dem Wissenschaftler, dessen Entdeckung die Entwicklung der ersten vorbeugenden Impfung gegen diese Krebsform ermöglicht hat. Epithelzellen spielt. Nach meiner Rückkehr nach Deutschland konnte ich eine Forschungsgruppe am Institut für Virologie in Würzburg zusammenstellen. Bei unseren Arbeiten entdeckten wir, dass bereits bei einer Ansteckung die DNA des EpsteinBarr-Virus in den Zellen des Burkitt-Lymphoms nachweisbar ist, obwohl sie dieses Virus noch nicht produzieren. Das war ein wichtiges Resultat, denn es zeigte, dass das weitere Wachstum der Tumore auf ein Genom zurückzuführen war. Haben Sie damals beschlossen, sich auf die Erforschung des Gebärmutterhalskrebses zu konzentrieren? Ich habe in der Tat mit diesen Ergebnissen im Gepäck angefangen, über Gebärmutterhalskrebs zu arbeiten – immerhin die zweithäufigste Krebsursache bei Frauen. Damals ging man davon aus, dass diese Krankheit durch Herpessimplex-Viren ausgelöst wurde, die durch sexuelle Kontakte übertragen werden. Die Verfahren für den Nachweis von DNA, über die wir damals verfügten, bestätigten diese Hypothese allerdings nicht. Nachdem sich dies als Irrweg erwiesen hatte, begann ich, mich für Berichte über „kleinere medizinische Eingriffe“ (einige gingen sogar bis auf das 19. Jahrhundert zurück) bei Krankheiten zu interessieren, die von Genitalwarzen verursacht werden und die wir einem anderen noch weitgehend unbekannten Virus zuschrieben, dem Papillomavirus oder HPV(2). Damals war das noch weitgehend Neuland. Als ich 1974 in einem Vortrag auf einer Virologie-Konferenz in Florida über diese Genitalwarzen die Hypothese des Herpes-simplex-Erregers zu widerlegen versuchte, wurde ich nicht ernst genommen. Unsere Gruppe – ich war damals Leiter des Instituts für Virologie der Universität Freiburg – begann damals eine enge Zusammenarbeit mit dem Institut des Franzosen Gérard Orth. Er teilte meinen Verdacht und untersuchte den Vererbungsaspekt der HPV. Unsere beiden Gruppen trafen sich mehrmals, um Forschungsergebnisse auszutauschen und darüber zu diskutieren. Diese Form der Zusammenarbeit war eine fruchtbare Erfahrung. INTERVIEW Doch bis zum Durchbruch sollten noch viele Jahre vergehen. Zunächst gelang es uns, die DNA der HPV aus Plantarwarzen zu isolieren. Zu unserer großen Enttäuschung fanden wir jedoch keinerlei vergleichbare Spuren in den Biopsien von Genitalwarzen. Damals wurde uns klar, dass es unterschiedliche HPV-Typen geben musste. 1983 gelang es einem Studenten unseres Instituts, Mathias Dürst, zum ersten Mal, einen neuen spezifischen Typ zu klonen, HPV 16. Es stellte sich heraus, dass HPV 16 die direkte Ursache von fast der Hälfte aller Gebärmutterhalskrebserkrankungen war. Danach gelang uns auch der Nachweis des HPV-18-Typus. Heute kennt man fast 115 unterschiedliche Papillomaviren. Es war uns gelungen, die beiden HPV-Typen zu isolieren, die für 70 % aller Zervixkarzinome verantwortlich sind. (3) Seit einigen Jahren steht eine vorbeugende Impfung gegen Gebärmutterhalskrebs zur Verfügung, eine einmalige Sache bei Krebs. Waren Sie an diesem langen Weg zu diesem medizinischen Fortschritt beteiligt? Da wir im Besitz des Genomschlüssels des HPV waren, hätte es eigentlich uns zugestanden, einen Impfstoff gegen dieses Virus zu entwickeln. In den 1980er Jahren habe ich Kontakt zu einem deutschen Pharmaunternehmen aufgenommen. Nach ersten Vorgesprächen erklärte das Unternehmen uns, dass es keinen Markt für einen solchen Impfstoff gebe. Das war ein wenig frustrierend. Wir hatten unsere Forschungsergebnisse bereits veröffentlicht, einschließlich der Proben und der Laborprotokolle. Ich war damals ein wenig naiv und dachte nicht in Kategorien einer industriellen Verwertung und von Technologietransfer. Die Ergebnisse unserer Arbeiten und unsere Methoden wurden von anderen übernommen, die sie sich haben patentieren lassen. 1983 habe ich daher das Deutsche Krebsforschungsinstitut in Heidelberg gegründet, das ich 20 Jahre lang geleitet habe. Seitdem hat sich mein Forschungshorizont in der Krebsforschung erheblich erweitert. Einige europäische Medien haben Zweifel geäußert, ob die beiden vorbeugenden Impfungen tatsächlich wirksam sind, zumal sie erst seit Kurzem durchgeführt werden. Was denken Sie über diese Vorbehalte? Diese Impfungen sind eine sehr wichtige Neuerung. Sie bieten erstmals die Möglichkeit, einer Krebserkrankung vorzubeugen, die durch Infektion übertragen wird – immerhin die Ursache von 20 % aller Krebserkrankungen. Das ist ein überaus komplexer Forschungsbereich, denn die Möglichkeiten für eine Erstinfektion sind zahlreich, und es kann Jahre dauern, bis die kanzerogene Wirkung sichtbar wird. Aber diese Impfungen sind genauso sicher wie die anderen Impfungen von Kindern oder Erwachsenen. Eine australische Studie, die an über 200 000 jungen Mädchen durchgeführt wurde, hat nur minimale Komplikationen ergeben. Was die Effizienz betrifft, so ist sie im Labor nachgewiesen. Es ist noch zu früh, um sie in Form von Ergebnissen zu bestätigen. Da es sich um vorbeugende Impfungen handelt und nicht um therapeutische, müssen sie verabreicht werden, bevor eine Ansteckungsgefahr besteht, das heißt vor den ersten sexuellen Kontakten. Die Latenzzeit ist sehr lang. Es kann mehr als zwei Jahrzehnte dauern, bis die Zellen entarten und es zur Bildung eines Zervixkarzinoms kommt. Ob die Inzidenz des Gebärmutterhalskrebses zurückgegangen ist, kann daher erst in einigen Jahrzehnten festgestellt werden. Der Widerstand gegen Impfungen, der in Teilen der Bevölkerung anzutreffen ist, ist irrational. Beim HPV, das durch sexuelle Kontakte übertragen wird, kommen zusätzlich noch kulturelle, soziale oder religiöse Tabus ins Spiel. Der unmittelbare Vorteil der Impfung gegen das HPVVirus liegt darin, dass die Ansteckung und das Auftreten von Schädigungen verhindert werden. Längerfristig trägt die Impfung auch dazu bei, die Zahl der operativen Entfernungen zu verringern, die allerdings häufig nicht umfassend genug ausgeführt werden – 20 % des geschädigten Gewebes bleibt unbemerkt – um damit vielen Frauen das Schicksal der Unfruchtbarkeit zu ersparen. Was allerdings durchaus ein Grund zur Beunruhigung ist, ist der Kostenfaktor. Das ist ein Grund, warum die Impfung gerade in Entwicklungsländern – wo immerhin 80 % der Gebärmutterhalskrebs-Erkrankungen vorkommen – nur selten praktiziert wird. Schätzungen zufolge ist diese Krebserkrankung die Ursache von 250 000 Todesfällen jährlich. Das ist eine wirtschaftspolitische Herausforderung. Schwellenländer wie China oder Indien könnten diese Herausforderung durchaus meistern. Sie haben nahezu Ihre gesamte Forscherlaufbahn an deutschen Universitäten zugebracht. Wie sehen Sie den Europäischen Forschungsraum? Nach meiner Rückkehr aus den Vereinigten Staaten bot mir das deutsche Stiftungswesen eine große Freiheit, was die Möglichkeit der Finanzierung der Forschungsarbeiten betraf, denn die Ergebnisse lagen damals noch in weiter Ferne. In den USA ist die Forschung zwar sehr erfolgreich, aber sie ist zunehmend auf Erfolg versprechende Bereiche ausgerichtet. Ich würde sagen, Europa war zumindest bis vor Kurzem in der Lage, originellen Ideen etwas mehr Raum zu lassen. Ich fürchte allerdings, dass die Entwicklung bei uns in dieselbe Richtung gehen wird wie in den USA. Welche Rolle sollten Ihrer Meinung nach die europäischen Forschungsprogramme spielen? Das Deutsche Krebsforschungszentrum ist an vielen europäischen Projekten beteiligt. Ich habe manchmal mehr oder weniger eng an einer ganzen Reihe von Projekten in Virologie, Genomik und Molekularbiologie mitgewirkt. Ich glaube allerdings, man muss eine Falle vermeiden. Das heißt, man sollte nicht um jeden Preis die Welt verknüpfen und immer mehr Netzwerke schaffen. Wissenschaftler brauchen die Freiheit der Wahl. Sie wissen, wo ihre Konkurrenten und wo ihre Verbündeten sind, und sie müssen daher selbst entscheiden dürfen, wem sie ihre Initiativen anvertrauen. Hier in Heidelberg haben wir zum Beispiel zum ersten Mal ein komplettes Forscherteam, das früher im Inserm in Frankreich arbeitete, nach Deutschland geholt, um mit uns zusammen in unserem Zentrum zu arbeiten. Diese Art der Wechselwirkung zwischen Exzellenzteams erscheint mir überaus fruchtbar, auch wenn es dabei ein paar Probleme mit der kulturellen und materiellen Anpassung gibt. Das Interview führte Didier Buysse. (1) Form eines bösartigen Tumors, der bei afrikanischen Kindern endemisch vorkommt. (2) HPV steht für Humanes Papillomavirus. (3) Der Begriff „Zervixkarzinom“ wird in der Medizin für den Gebärmutterhalskrebs verwandt. DKFZ – Deutsches Krebsforschungszentrum www.dkfz.de/en/zurhausen/ research*eu Nr. 63 | APRIL 2010 25 REPORTAGE © Laurence Buelens „Meine Stimme begleitet Sie“ Königin Fabiola von Belgien hat einen wichtigen Beitrag geleistet, um die Anästhesie unter Hypnose bekannt zu machen, nachdem sie sich 2009 selbst einer solchen Operation unterzogen hatte. Das Verfahren wurde im Universitätsklinikum Lüttich (BE) entwickelt und wird heute in vielen Ländern praktiziert, in Frankreich, der Schweiz, den Vereinigten Staaten. Belgien spielt jedoch nach wie vor eine Vorreiterrolle. Reportage aus dem Universitätsklinikum Saint-Luc in Brüssel, wo wir bei einer Operation der Halsschlagader zusehen konnten, die unter Hypnose durchgeführt wurde. S icher ist Ihnen das auch schon einmal passiert: Sie sitzen am Steuer Ihres Autos. Plötzlich stellen Sie fest, dass Sie ein ganzes Stück gefahren sind, ohne dass Sie sich dessen bewusst wurden, dass Sie mit Ihren Gedanken ganz woanders waren. Dieser Zustand, der ziemlich häufig vorkommt, ist nichts anderes als eine leichte Hypno-Trance. Der Zustand eines modifizierten Bewusstseins, eine veränderte Wahrnehmung der Welt, in der das Unterbewusstsein die Regie übernimmt. „Man muss höllisch aufpassen, was man dem Unterbewusstsein suggeriert. Das Unterbewusstsein versteht nämlich keine Verneinung: Wenn Sie den Patienten fragen, ob er nicht zu viel Angst habe, oder ob er Angst vor den Schmerzen habe, dann 26 research*eu Nr. 63 | APRIL 2010 versteht das Unterbewusstsein nur die Worte „Angst“, „Furcht“ und „Schmerzen“, also alles Begriffe mit einer negativen Bedeutung. Das kann den ganzen Prozess unterbrechen“, erklärt Christine Watremez, Anästhesistin im Saint-Luc, bevor wir Jean treffen, der sich einer Endarteriektomie (1) unterzieht, um eine Verengung der Halsschlagader behandeln zu lassen. Von Angst oder Unruhe ist keine Spur, als wir den sympathischen Rentner am Abend vor dem Eingriff fragen, wie er sich fühlt. „Ruhig, entspannt. Ich bin selbst überrascht. Ich habe schon einige Eingriffe unter Vollnarkose hinter mir, aber ich habe sie nie gut vertragen. Als man mir gesagt hat, dass es auch die Möglichkeit einer Operation ohne Narkose gibt, habe ich sofort zugesagt.“ Hypno-Anästhesie wird bereits seit sechs Jahren im Saint-Luc praktiziert. Neben Christine Watremez hat die Klinik noch drei weitere Anästhesistinnen, die diese Technik beherrschen. Pro Tag führen sie im Schnitt zwei Operationen unter Hypnose durch. Laut Fabienne Roelants, eine der HypnoseAnästhesistinnen, lassen sich die Patienten in vier Kategorien einteilen. „Es gibt Menschen wie dieser Patient, die eine Vollnarkose nicht gut vertragen. Dann gibt es die Selbstständigen, die so schnell wie möglich wieder zu ihrer Arbeit zurückkehren wollen, und es gibt Patienten, die sich an uns gewandt haben, weil ihr Gesundheitszustand so angegriffen ist, dass niemand es wagt, sie unter Vollnarkose zu operieren. Und dann gibt es schließlich noch diejenigen, die einfach neugierig sind!“ REPORTAGE Wie funktioniert die hypnotische Analgesie © Laurence Buelens M Christine Watremez (links) und Fabienne Roelants, zwei der vier Spezialistinnen des Saint-Luc-Klinikums (Brüssel), die in Hypnose-Anästhesie ausgebildet sind. Das „pharmakologische Koma“ vermeiden Die allgemeine Anästhesie besteht im Grunde darin, den Patienten in ein pharmakologisches Koma zu versetzen, das umkehrbar ist, und in dem seine Atemfunktion und die Herzfrequenz von medizinischen Geräten überwacht werden. Er erhält einen Cocktail von Beruhigungsmitteln, der zur Folge hat, dass er das Bewusstsein verliert, von Betäubungsmitteln, die die Schmerzen betäuben, und eventuell auch noch Curare zur besseren Muskelentspannung. Eine Vollnarkose ist also immer ein schwerer und nicht ungefährlicher medizinischer Eingriff. Hypnose, die man als einen subjektiven Zustand bezeichnen kann, in dem Bewusstseinsveränderungen durch Suggestionen herbeigeführt werden, hat ebenfalls eine analgetische Wirkung, die seit Langem bekannt ist. Erstmals wurde sie 1830 bei chirurgischen Eingriffen angewandt. Sie geriet jedoch schnell in Vergessenheit, als wenige Jahre später der Äther entdeckt wurde. 1992 beginnt Marie-Elisabeth Faymonville, Anästhesistin am Universitätsklinikum von Lüttich (BE), sich für die Arbeit eines Schweizer Anästhesisten zu interessieren. Dieser setzte Hypnose ein, um die Schmerzen bei großflächigen Verbrennungen zu lindern. „Ich habe festgestellt, dass Hypnose keine Begabung ist, sondern eine Technik, die man erlernen kann. Ich dachte mir, dass man sie so verfeinern könnte, dass daraus eine vollständige Anästhesietechnik wird“, erinnert sie sich. 1992 begann sie damit, HypnoseAnästhesie bei der ästhetisch-plastischen Chirurgie einzusetzen, später in der endokrinen Chirurgie. „Heute wird Hypnose auch bei Brustoperationen, in der Gefäßchirurgie, bei Augenoperationen oder bei Hals-Nasen-Ohrenoperationen angewandt. Man kann sie sogar bei der Entfernung peripherer Tumore oder bei der Operation von Bandscheibenvorfällen einsetzen“, fügt sie hinzu. Man kann sagen, dass Hypnose sich für alle oberflächlichen Eingriffe eignet, bei denen eine Lokalanästhesie möglich ist, aber nicht ausreicht, um sicherzustellen, dass der Patient während der Operation schmerzfrei ist. Bis heute wurden im Universitätsklinikum Lüttich mehr als 7 000 Operationen unter ithilfe moderner Bildgebungstechniken wie der funktionellen Magnetresonanztomographie (fMRT) und der Positronen-Emissionstomographie (PET) konnten die Wirkungen gemessen werden, die bei Patienten, die unter Hypnose-Anästhesie operiert werden, beobachtet werden. Bei Schmerzreizen lässt sich eine völlig unterschiedliche Hirnaktivität feststellen, je nachdem, ob der Patient unter Hypnose steht oder sich im normalen Wachzustand befindet. Bei der Hypnose scheint der Cortex cingularis anterior (CCA) – dem unter anderem die kognitiven Funktionen wie Vorfreude auf Belohnung, Entscheidung, Empathie und Emotionen zugeschrieben werden – eine dominierende Rolle zu spielen. In der Tat lässt sich feststellen, dass der mittlere Teil des CCA aktiviert wird und dass es zu Veränderungen in der Verbindung zwischen diesem Teil und den Kortex- und Subkortexregionen kommt. Diese Aktivierung bestimmter Hirnregionen könnte eine bessere Verschlüsselung der Schmerz leitenden Information ermöglichen. Einige Wissenschaftler glauben, dass die Hypnose verhindert, dass die Schmerzinformation zu den oberen Kortexregionen gelangt, die verantwortlich sind für die Schmerzempfindung. Andere dagegen meinen, dass Hypnose eine bessere Reaktion ermöglicht, indem die absteigenden hemmenden Schmerzbahnen besser aktiviert werden. Welche Neurotransmitter dabei eine Rolle spielen, weiß man jedoch bisher nicht. Hypnose durchgeführt, und in zahlreichen Studien wurde die Wirkung belegt. Allein zwischen 1994 und 1997 wurden in Lüttich mehr als 200 Schilddrüsenoperationen und in 2 Fällen eine zervikale Exploration wegen Hyperparathyreoidismus mit Hypnosedierung durchgeführt. Alle Patienten berichten von einer „angenehmen Erfahrung“. Im Vergleich zu einer Operation unter Vollnarkose hatten diese Patienten nach der Operation weniger Schmerzen, sie brauchten weniger Betäubungsmittel, sie erholten sich schneller und konnten schneller ihre Arbeit wieder aufnehmen. (2) Eine andere Studie, die in Boston durchgeführt und im April (2003) in der Fachzeitschrift The Lancet veröffentlicht wurde, hat auch gezeigt, dass bei Operationen research*eu Nr. 63 | APRIL 2010 27 REPORTAGE unter Hypnose geringere Kosten anfielen, Komplikationen seltener auftraten und die Dauer des Eingriffs kürzer war. Marie-Elisabeth Faymonville hat in Lüttich ein internationales Schulungszentrum eingerichtet, an dem bis heute 450 Anästhesisten ausgebildet wurden, unter anderem aus der Schweiz, aus Luxemburg oder Kanada, aber vor allem auch viele Franzosen. Frankreich hat inzwischen ein eigenes großes Ausbildungszentrum in Rennes. Auch in Deutschland und Österreich nimmt das Interesse an dieser Technik zu. 1 Die verwandelte Blockade „Können Sie mich hören? Wir hören schon Ihr Herz. Sie hören noch andere Geräusche: eine Tür, die sich öffnet, Leute, die hereinkommen, die hinausgehen, die reden… Und dann natürlich die 28 research*eu Nr. 63 | APRIL 2010 2 1 2 Operation unter Hypnose im Saint-Luc-Krankenhaus. Dr. Christine Watremez, Anästhesistin (1) und der Chirurg Parla Astarci und die OP-Schwester Rosie Enonyi (2). 4 © Laurence Buelens © Laurence Buelens 3 © Laurence Buelens Bei einer Anästhesie unter Hypnose werden entweder überhaupt keine Beruhigungsmittel verabreicht – in diesem Fall spricht man von Hypnoanalgesie – oder sie werden reduziert. Dann spricht man von Hypnosedierung. In Lüttich wird letztere praktiziert. In Brüssel dagegen wird seit einigen Jahren die Hypnoanalgesie bevorzugt. „Wir wollen die Hypnose nicht mit einem Beruhigungsmittel verunreinigen. Wenn der Patient sich wohl fühlt, ist dies nicht notwendig“, meint Christine Watremez. Am nächsten Tag wird unser Patient also nur Betäubungsmittel erhalten: ein lokales Präparat, um das Operationsfeld zu desensibilisieren, und ein leichtes Morphinpräparat, das intravenös verabreicht wird. Die Dosis kann vom Anästhesisten nach Bedarf reduziert werden. „In der Praxis kann die Dosis häufig reduziert werden, und manchmal wird die Pumpe sogar ganz gestoppt“, erklärt Christine Watremez. Jean wird im Geist in Sizilien sein. „Bei der Vorbesprechung habe ich ihm erklärt, was Hypnose ist. Ich habe ihm erklärt, dass er nicht schlafen und bei Bewusstsein bleiben würde. Ich habe ihm auch gesagt, dass er seine Meinung ändern könne, wenn er wolle. Ob nun aus chirurgischen Gründen oder weil der Patient dies verlangt, muss es jederzeit möglich sein, eine Vollnarkose durchzuführen. Wir halten immer alles bereit, und die Überwachung ist dieselbe. Alles, was Jean tun musste, war eine angenehme Erinnerung zu finden, die er wieder erleben wollte. Es war seine goldene Hochzeit im Land von Bellini.“ © Laurence Buelens Hypnosedierung oder Hypnoanalgesie? 3 Abklemmen und Öffnen der Arterie für die Endarteriektomie (Ausräumung der Arteriosklerose-Plaque, die zur Einengung der Gefäßlichtung geführt hat). 4 Der Patient nach dem Aufwachen mit der Krankenschwester Sophie Mertz und den Ärzten Parla Astarci und Christine Watremez (von links nach rechts). REPORTAGE Das Ich-Bewusstsein – ein weites Forschungsfeld I n Wirklichkeit weiß man nur wenig über das, was während einer Vollnarkose mit dem Organismus passiert. Einige Patienten vertragen sie gut, andere dagegen gar nicht. Was sind die Gründe für diese unterschiedlichen Reaktionen? Was passiert überhaupt in den Gehirnzellen? Und welches sind die genetischen Folgen? Weil sie auf all diese Fragen keine befriedigenden Antworten gefunden hatte, hat Marie-Elisabeth Faymonville 1992 diese Hypnose-Anästhesie-Techniken entwickelt. Heute führt sie Forschungen zur Kognition durch. „Was man weiß, ist, dass empfindliche Personen nach einer Vollnarkose häufig unter Bewusstseinsstörungen leiden. Man weiß auch, dass das Arbeitsgedächtnis – das Gedächtnis, das es uns zum Beispiel ermöglicht, die PIN-Nummer unserer Bankkarte zu behalten – nach einer Operation unter Hypnose weniger gestört ist“, erläutert die Anästhesistin. „Wir würden gerne unsere Forschungen über die Strukturen des Ich-Bewusstseins mithilfe der funktionellen Magnetresonanztomographie fortführen. Die Auswirkungen untersuchen, die die Ausschaltung des Bewusstseins bei einer Operation unter Vollnarkose und bei einer Operation unter Hypnose nach sich zieht. Inwiefern ist das Bewusstsein verändert? Beeinflusst dies den Alterungsprozess? Es wäre wunderbar, ein solches Projekt durchführen zu können.“ Solche postoperativen Forschungen durchzuführen, ist immer sehr schwierig. Denn man muss die Patienten motivieren, wiederzukommen, um nach dem Eingriff an den Tests teilzunehmen. Bei Operationen, die unter Hypnose durchgeführt werden, gibt es jedoch noch ein anderes Problem: Man kann keine Doppelblindstudien durchführen, da die Hypnose die aktive Teilnahme der Patienten erfordert. Gerüche. Den normalen Krankenhausgeruch. All diese kleinen Dinge, die unseren Alltag ausmachen und die in den nächsten Stunden zu Ihrer Umgebung gehören werden. Die erste Infusion ist bereits gelegt, jetzt kommt die nächste, genauso wie ich Ihnen erklärt habe. Und sobald dies erledigt ist, werden Sie auf die Reise gehen. Sie werden also eine kleine Reise nach Sizilien machen, nicht wahr? Sie können natürlich Ihre Reiseroute ändern. Ich bleibe bei Ihnen, an Ihrer Seite. Ist alles okay? Fühlen Sie sich wohl?“ Sobald Jean im Operationssaal angekommen ist, wird er von Christine Watremez in Empfang genommen. Sie informiert ihn präzise über den Ort, damit dieser ihn während der Hypnose nicht irritiert. Auch aus diesem Grund hat der Chirurg ihm alle Bewegungen erläutert, die er vornehmen wird. Nichts darf ihn beunruhigen. Etwa fünf Minuten vor der Ankunft des übrigen Operationsteams setzt sich die Anästhesistin auf einen Hocker direkt neben dem Kopf ihres Patienten. Sie hält seine Hand. Im Atemrhythmus des Patienten wird ihre Stimme immer leiser, langsamer, monotoner. „Sie fixieren jetzt einen Punkt an der Decke. Gleichzeitig konzentrieren Sie sich auf jeden einzelnen Teil Ihres Körpers… Und bei jedem Einatmen entspannt sich Ihr Körper… Sie lassen die angenehmen Bilder der Reise vor Ihrem Auge Revue passieren… Atmen Sie tief ein und lassen Sie Ihren Geist los, ganz ruhig und ganz entspannt, und schicken ihn auf diese angenehme und komfortable Reise. Sehr gut…“ Parla Astarci, der Chirurg, kommt herein, grüßt alle wortlos und beginnt damit, das Operationsfeld mit Iso-Betadin zu bestreichen. Jean ist bereits „weg“. Die Bewegungen des Chirurgen anpassen Ab und zu öffnet Jean die Augen, murmelt einige Worte, drückt die Hand der Anästhesistin oder scheint tief zu schlafen. Aber was ist, wenn die Hypnose nicht funktioniert? „Wenn der Patient motiviert ist und bereit ist, mitzuarbeiten und wenn er uns vertraut, dann funktioniert es immer“, antworten Fabienne Roelants und Christine Watremez. Sie erklären, dass es in sechs Jahren noch nie Probleme gegeben habe. Mit Ausnahme von Christine Watremez spricht niemand – man hört hier und da ein Flüstern. Von Zeit zu Zeit steht die Anästhesistin auf, um zu sehen, wie weit die Operation ist. Auch das ist völlig anders als bei einer normalen Operation. „Diesen Eingriff muss man so inszenieren wie ein Musiker, der ein Kunstwerk inszeniert“, sagt uns Michel Mourad, Spezialist für endokrine Chirurgie und der erste Arzt, der im Saint-Luc unter Hypnose operiert hat. „Der Patient ist bei Bewusstsein, er fühlt unsere Bewegungen, er sieht, was wir tun, und kann unsere Gefühle erkennen. Das zwingt uns sehr strenge Regeln auf“, erklärt er. Technische Regeln in erster Linie. „Der Chirurg darf zum Beispiel nicht zerren und keine abrupten Bewegungen machen. Alles muss ruhig und sanft ablaufen. Heute haben wir neue Instrumente für Koagulation und Sektion, die es uns ermöglichen, die Zahl der Bewegungen zu verringern und jeden Lärm beim Instrumentenwechsel zu vermeiden.“ Ganz wichtig ist auch, dass der Chirurg die Ruhe bewahrt, wenn es Komplikationen gibt. „Wenn es zum Beispiel während einer Operation zu Blutungen kommt, muss ich ruhig bleiben, denn der Patient bekommt jede Hektik oder Aufregung mit, und das könnte ihn in Angst versetzen. Wir müssen in der Lage sein, Komplikationen auf sanfte Weise zu überwinden. Aus diesem Grund glaube ich auch, dass man über ein gewisses Maß an Erfahrung verfügen muss, bevor man sich an eine Hypnose-Anästhesie wagt.“ Das „Aufwachen“ Die Anästhesistin hat mit Jean während der gesamten Operation in einer bestimmten Stimmlage gesprochen. Sobald die Wunde vernäht ist, kehrt ihre Stimme zum normalen Tonfall zurück. Sie erklärt: „Die Operation ist beendet.“ Er öffnet die Augen und dankt ihr. „Es kommt nur sehr selten vor, dass Patienten sich nach einer normalen Anästhesie bei uns bedanken. Bei einer Hypnose-Anästhesie tun sie es immer“, stellt Christine Watremez fest. Sie sind überrascht von der Erfahrung, aber freuen sich, dass sie es gewagt haben. Vor allem werden sie sich bewusst, dass man mit ihnen nicht einfach alles machen kann, dass man sie nicht manipulieren kann.“ Einige Augenblicke später sitzt Jean auf seinem Bett und sagt zu Parla Astarci: „Sagen Sie, Herr Doktor, nun, da ich die linke [HalsschlagaderOperation – Anm. d. Red.] gut überstanden habe, könnten Sie mir nicht auch die rechte operieren?“ Landung geglückt. Im Aufwachraum gesteht er: „Ich bin angenehm überrascht. Ich hatte nicht erwartet, dass es so bequem sein würde, so einfach. Ich habe die ganze Zeit an Sizilien gedacht, genauso als wäre ich dort. Ob ich etwas gefühlt habe? Zwei oder drei Stiche, durchaus erträglich“. Er sucht nach Worten, um die Erfahrung zu beschreiben, die er erlebt hat. „Ich war bei Bewusstsein. Aber ich war ganz woanders“. Laurence Buelens (1) Bei der Endarteriektomie wird der Thrombus, der durch einen erhöhten Cholesterinspiegel verursacht wird, ausgeräumt. Anschließend erfolgt eine Dilation der Arterie, um einem Schlaganfall vorzubeugen. (2) T. Defechereux, M. Meurisse, E. Hamoir, L. Gollogly, J. Joris, M.-E. Faymonville, J Altern, Hypnoanesthesia for endocrine cervical surgery: a statement of practice,in: Complement Med. 1999 Dez, 5(6):509-20. (3) E. Lang et al., Adjunctive non pharmacological analgesia for invasive medical procedures: A randomised trial, in; Lancet 2000, 355:1486-90. research*eu Nr. 63 | APRIL 2010 29 Blick hinter die Kulissen der Werkstatt des Glücks Das Wesen des Glücks zu verstehen, um den Menschen helfen zu können, die solche Gefühle nicht kennen. Das ist es, was Morten Kringelbach und seine Kollegen von der TrygFonden Research Group sich bei ihren Forschungsarbeiten vorgenommen haben. „Das Fehlen von Glücksgefühlen ist charakteristisch für viele psychische Erkrankungen wie Depression. Wenn wir besser verstehen, welche Gehirnkreise für das Glücksempfinden verantwortlich sind, werden wir eines Tages vielleicht in der Lage sein, das Gleichgewicht dieser fundamentalen Netzwerke wiederherzustellen“, betont der Neurowissenschaftler, der sowohl an der Universität Oxford (UK) als auch an der Universität Aarhus (DK) lehrt. Werfen wir doch einmal einen Blick hinter die Kulissen. Essen, Sex und soziale Beziehungen U nsere elementaren Glücksgefühle werden von Empfindungen ausgelöst, die eng mit Essen, Sex und den sozialen Beziehungen zusammenhängen. Im Gehirn werden diese Empfindungen zunächst von sensorischen Rezeptoren entdeckt, die an allen Stellen unseres Körpers zu finden sind. Erst danach werden sie in den sensorischen Regionen unseres Gehirns entschlüsselt“, erklärt der Psychiater Morten Kringelbach. (1) Und im Gegensatz zu dem, was man sich vorstellen könnte, lassen sich Glücksgefühle nicht auf die Stimulation dieser Rezeptoren reduzieren. Sie sind vielmehr das Ergebnis eines komplexen Vorgangs aus Vorfreude, Abwägen und Erinnerung. Glücksgefühle sind also eine Mischung aus Verlangen, angenehmen Gefühlen und aus Lernvorgängen. „Bei mehreren Forschungen an Mensch und Tier konnte festgestellt werden, welche Hirnregionen beim Zustandekommen dieser Gefühle eine Rolle spielen. Einige dieser Regionen befinden sich tief im Inneren unseres Gehirns wie der 30 research*eu Nr. 63 | APRIL 2010 Nucleus accumbens oder der Hypothalamus, andere dagegen befinden sich in der Großhirnrinde.“ Genau in dieser Region des Gehirns haben die Forscher der TrygFonden Research Group gewissermaßen Quartier bezogen. Die aus zehn Wissenschaftlern bestehende Forschungsgruppe der Universitäten Oxford und Aarhus ist multidisziplinär und international. Ihr gehören Neurowissenschaftler, Mediziner, Psychologen, Ingenieure und Informatiker aus Bangladesch, Dänemark, Deutschland, England, Frankreich, Irland, Schottland und Südafrika an. Sie alle arbeiten zusammen, um herauszufinden, wie Glück entsteht. Unser Glück. „Unsere Arbeiten konzentrieren sich hauptsächlich auf die Untersuchung und das Verständnis der funktionellen Anatomie des menschlichen Gehirns. Hierfür setzen wir modernste Techniken der Neurobildgebung wie das Magnetoenzephalogramm (MEG) ein“. Mithilfe dieser Technik, so hoffen die Forscher, würde der orbitofrontale Kortex, der sich direkt hinter der Augenhöhle befindet, schon bald keine © Isak Hoffmeyer NEUROWISSENSCHAFTEN Morten Kringelbach Geheimnisse mehr bergen. Warum ausgerechnet diese Region? Weil sie beim Menschen anders als bei den übrigen Primaten besonders stark ausgeprägt ist. Aber was kann man wirklich von dieser Zone erfahren und inwiefern kann sie aus medizinischer Sicht von Nutzen sein? Kindergesichter Babygesichter haben schon immer mehr Aufmerksamkeit auf sich gezogen als Gesichter von Erwachsenen. So geraten die meisten von uns beim Anblick des Sprösslings eines nahen Verwandten weitaus mehr in Verzückung als beim Anblick des neuen Partners! Wenn man dieses Phänomen entschlüsseln könnte, dann, so glaubte das Team von Morten Kringelbach, müsste man auch den Frauen helfen können, die unter postnataler Depression leiden. Mit Unterstützung seines Mitstreiters Alan Stein und der übrigen Kollegen hat Morten Kringelbach die Hirnaktivität von Männern und Frauen beobachtet, denen Bilder von Kindern und von Erwachsenen vorgelegt wurden. Und das Ergebnis? Die Forscher stellten fest, dass eine bestimmte Gehirnregion, der mediale orbitofrontale Kortex, beim Betrachten von Babygesichtern sehr schnell aktiviert wurde, innerhalb einer Siebtelsekunde. Beim Betrachten von Erwachsenenporträts trat diese Reaktion nicht auf. „Der mediale orbitofrontale Kortex hat ganz offensichtlich die Aufgabe der Belohnung, und es ist möglich, dass Babygesichter und befriedigende soziale Beziehungen im Allgemeinen gut für unser Wohlbefinden sind.“ Aber was ist mit den Frauen, die unter dem Babyblues (2) leiden? Sie reagieren nicht wie die anderen auf die Gesichter von Säuglingen, nicht einmal, wenn es sich um ihr eigenes Baby handelt. „Es könnte sein, dass sich die Aktivität in dieser Hirnregion während der postnatalen Depression verändert. Dies könnte im Übrigen als Alarmsignal genutzt werden, um festzustellen, welche Frauen für NEUROWISSENSCHAFTEN Reaktionen beim Betrachten von Kindern Reaktionen beim Betrachten von Erwachsenen 40 Vom Glück zur Empathie Frequenz (HZ) 35 30 W 25 20 15 Medialer orbitofrontaler Kortex 10 40 Frequenz (HZ) Quelle: Morten Kringelbach 35 Fusiformes Gesichtsareal, rechte Hälfte 30 25 20 8 15 10 0 -0,2 -0,1 0 0,1 0,2 Zeit (Sekunden) 0,3 0,4 -0,2 -0,1 0 0,1 0,2 0,3 0,4 Zeit (Sekunden) Wenn wir ein Baby betrachten, wird ein bestimmter Bereich der medialen orbitofrontalen Region unseres Gehirns aktiviert. Beim Betrachten von Bildern eines Erwachsenen ist dies nicht der Fall (Bilder obere Reihe). Das Team von Morten Kringelbach sieht in diesem Signal eine „Belohnung“, die einer Art „mütterlichem Instinkt“ entspricht, der in unseren Neuronen enthalten ist. In einer anderen Hirnregion, dem fusiformen Gesichtsareal (Bilder untere Reihe), ist eine andere Art der Belohnung angesiedelt, die sowohl gegenüber Erwachsenen als auch gegenüber Kindern erfolgt. diese Art Depression anfällig sind, und um ihnen zu helfen. Außerdem könnte man, wenn man Frauen und Männern hilft, die unter dem Babyblues leiden, das Risiko verringern, dass ihre Kinder später an derselben Krankheit leiden.“ Gaumenfreuden Kringelbach und sein Team haben sich auch mit der wesentlichen Rolle befasst, die das Essen in unsrem Leben und für unser Glücksempfinden spielt. Im Rahmen dieser Arbeiten haben sie ein Netz von Hirnregionen entdeckt, die uns veranlassen, im Essen Befriedigung zu suchen, und auch hier spielt der orbitofrontale Kortex wieder eine Rolle. „Es scheint, dass ein Ungleichgewicht in diesem Teil des Gehirns Essstörungen auslöst“, erläutert der Wissenschaftler, der auch versucht hat, zu verstehen, warum wir auch dann, wenn wir eigentlich schon satt sind, noch ein wenig Platz für eine Nachspeise haben. „Wir konnten feststellen, dass der orbitofrontale Kortex auch hier wieder eine zentrale Rolle spielt und dass seine Aktivität mit unsrer subjektiven Einstellung dem Essen gegenüber zusammenhängt.“ Außerdem haben die Wissenschaftler gezeigt, dass diese Region bei der subjektiven Erfahrung aller Glücks- oder Lustgefühle beteiligt ist, auch bei denjenigen, die durch Medikamente, Musik und Orgasmus ausgelöst werden. „Eine Feststellung, die uns zu der Schlussfolgerung veranlasst hat, dass der orbitofrontale Kortex uns bei der Behandlung von Essstörungen und anderer Suchtformen helfen könnte.“ Tiefe Hirnstimulation „Werden bestimmte Regionen des Gehirns von Menschen oder Tieren stimuliert, hat dies unmittelbare Auswirkungen auf die Glücksgefühle und das Verlangen“. Ein Neurochirurg der Universität Oxford, Tipu Aziz, hat gezeigt, dass bei Patienten, die unter chronischen Schmerzen leiden, durch eine tiefe Hirnstimulation in der grauen Materie die Schmerzen gelindert werden konnten. Um eine solche Entdeckung auch langfristig nutzen zu können, müsste man jedoch genau wissen, wie sich diese Stimulation auf das Gehirn auswirkt. Die Wissenschaftler um Morten Kringelbach haben also mithilfe des Magnetoenzephalogramms die tiefe Hirnstimulation direkt beobachtet und herausgefunden, dass das Hirnnetz, das bei Emotionen beteiligt ist, besonders aktiviert wird. Auch hier spielt der orbitofrontale Kortex eine Rolle. „Im Rahmen dieses Projekts ist besonders interessant, dass dieselben Ergebnisse bei Personen festgestellt wurden, die unter Depressionen leiden.“ Darüber hinaus kann die tiefe Hirnstimulation zur ährend sich Morten Kringelbach mit Personen beschäftigt hat, die mit der Empfindung von Glücksgefühlen Probleme haben, haben sich Tania Singer und ihre Kollegen von der Universität Zürich mit Empathie befasst. Das heißt mit der Fähigkeit, die Gefühle anderer zu verstehen und zu teilen. Diese Forscher sind der Meinung, dass es in einer Gesellschaft, in der Kriminalität und die Verletzung der Menschenrechte überhand nehmen, von Nutzen sein könnte, diese Fähigkeiten zu beeinflussen. Das Projekt mit dem Namen EMPATHICBRAIN hat sich mit der Frage befasst, ob es möglich ist, unsere Fähigkeit zu verbessern, unsere eigenen Gefühle und die anderer Menschen zu verstehen. Tania Singer hat sich bei ihren Arbeiten für einen innovativen multidisziplinären Ansatz entschieden. An EMPATHICBRAIN sind eine Reihe von Disziplinen beteiligt, u.a. Neurowissenschaften, Wirtschaftswissenschaften, Psychologie und Psychobiologie – die Wissenschaft von den Beziehungen zwischen Psychismus und biologischen Funktionen. In der ersten Etappe dieses Ausflugs mitten in die Schaltzentrale des Gehirns sollen die funktionalen und strukturellen Unterschiede bei Menschen mit unterschiedlichen Empathiefähigkeiten festgestellt werden. Allerdings geben sich die Wissenschaftler nicht mit Beobachtungen zufrieden. Sie haben ein Programm entwickelt, wie man empathische Freude, Mitgefühl und liebevolle Zuneigung lernen kann. www.forschungsportal.uzh.ch/unizh/ p11582.htm Behandlung zahlreicher Erkrankungen genutzt werden wie Dystonie, Parkinson, Zwangsneurosen, Tremor usw. „Um diese Technik wirksam einsetzen zu können, müssen wir natürlich wissen, welche Rolle jede einzelne Zone des Gehirns spielt, und wir müssen wissen, welche Zone stimuliert werden kann, um die Symptome einer bestimmten Krankheit zu lindern.“ Élise Dubuisson (1) Alle Zitate stammen von Morten Kringelbach. (2) Ein Begriff, mit dem häufig die postnatale Depression beschrieben wird. TrygFonden Research Group www.kringelbach.dk/science.html research*eu Nr. 63 | APRIL 2010 31 ENERGIE U nerschöpfliche Ressourcen, wenig Abfall, geringe Umweltfolgen, völlige Sicherheit und Kompatibilität mit den bestehenden Stromnetzen. Die Fusion bietet so viele Vorteile, dass die Menschheit darauf nicht mehr verzichten könnte. Das Prinzip ist seit den 1950er Jahren bekannt: Deuterium- und Tritiumkerne werden zum Zusammenschluss gezwungen und es entstehen Helium, Neutronen und eine enorme Menge Energie. Das Ganze ist einfach in der Theorie, aber kompliziert in der praktischen Umsetzung, da diese Reaktion nur bei sehr hoher Dichte und extremen Temperaturen ausgelöst wird. Die theoretischen und experimentellen Studien haben zu zwei Forschungsansätzen geführt. Zum einen gibt es das Schema eines Rings, in dem heißes Plasma in einem Magnetfeld eingeschlossen wird – dieser Ansatz wird von ITER verfolgt. Der alternative Weg ist der Trägheitseinschluss, auch Laserfusion genannt, bei dem mithilfe sehr leistungsstarker Laserstrahlen zuvor komprimierte Brennstoffpellets zur Implosion gebracht werden. Diesen zweiten Ansatz haben die Entwickler von HiPER gewählt. 32 research*eu Nr. 63 | APRIL 2010 Hoher Mehrwert „Wir freuen uns, dass HiPER seit 2006 zu den wissenschaftlichen Einrichtungen gehört, die das ESFRI – European Strategy Forum on Research Infrastructures – unterstützt“, erklärt Projektkoordinator Mike Dunne. „Gegenwärtig befindet sich HiPER in der Vorbereitungsphase und wird mit 3 Mio. EUR unter dem Themenbereich „Infrastrukturen“ des 7. Rahmenprogramms (RP7) sowie einem Mehrfachen dieses Betrags von den nationalen Agenturen finanziert. Die technische Demonstrationsphase beginnt 2011 und wird Ende des nächsten Jahrzehnts mit dem Bau abgeschlossen, dessen Budget sich auf etwa eine Milliarde Euro belaufen wird.“ Diese gigantischen Investitionen sind sowohl auf die Komplexität der technischen Innovationen als auch auf die für ihre Beherrschung notwendigen Anwendungen zurückzuführen. „Die Erfahrungen der letzten fünfzig Jahre haben gezeigt, dass für eine selbstunterhaltende Fusion Temperaturen von bis zu 50 Millionen Grad und eine Dichte von mindestens 1 kg/cm3, das heißt die 50-fache Dichte von Gold, erforderlich sind“, ergänzt Mike Dunne. „Außerdem handelt es sich um ein repetitives Verfahren, denn die © Agence Free Lens Philippe Labeguerie Der Zugang zu sauberer und unerschöpflicher Energie ist keine Utopie mehr. Das behaupten jedenfalls die Befürworter der Kernfusion, die es eindeutig begrüßen, dass das ambitiöse Projekt HiPER – High Power Laser Energy Research Facility – ins wissenschaftliche Blickfeld rückt. Als alternativer Ansatz zur Nutzung von Magneten, wie sie von ITER(1) verfolgt wird, kann die von HiPER entwickelte Trägheitsfusion ebenso überzeugen. Der Weg ist noch weit, aber die jüngsten Versuchsergebnisse geben Grund zu Hoffnung. nur eine Nanosekunde langen Laserpulse müssen mit den Pellets von einem Millimeter Durchmesser ausgerichtet werden und das fünf Mal pro Sekunde.“ Um eine kontrollierte Fusion zu erzielen, untersuchen die Forscher folglich noch relativ unerforschte Bereiche der Physik und die damit verbundenen eventuellen zukünftigen Anwendungen. „Und die Liste wird lang!“, versichert Mike Dunne. „Wenn es uns gelingt, die hohen Wiederholungsraten in Verbindung mit Hochenergielaser-Technologie zu kontrollieren, hat das Auswirkungen auf die verschiedensten Aktivitäten angefangen bei der Produktion von Radioisotopen, der Onkologie oder sogar auf die nächste Generation von Lichtquellen. Grundsätzlich sind große Fortschritte auf dem Gebiet der extremen Materialwissenschaft, der Nuklearphysik sowie der Plasmaphysik zu erwarten.“ Hand in Hand Um diese technologische Herausforderung zu meistern, müssen noch zahlreiche Etappen bewältigt werden. Jede Schwierigkeit des HiPER-Verfahrens ist Gegenstand vorbereitender Studien. Hierzu gehört auch das Projekt PETAL – Petawatt ENERGIE Aquitaine Laser –, das auf europäischer (Europäischer Fonds für regionale Entwicklung, EFRE), nationaler (Frankreich) und regionaler (Aquitaine) Ebene finanziert wird und dessen wichtigste Rolle darin besteht, den geeigneten Laseraufbau zu entwickeln, mit dem sich die Fusionsreaktionen auslösen lassen. Die Validierungsphase der wichtigsten technologischen Hürden – das heißt die Überwindung der experimentellen Probleme mittels innovativer Technologien – wurde kürzlich erfolgreich abgeschlossen und der Bau des Geräts hat begonnen. „Die Projektkoordinatoren beschlossen 2006, das PETAL-Projekt auf der Roadmap des ESFRI in HiPER zu integrieren“, erklärt Christine Labaune, Forschungsleiterin am französischen Centre National de Recherche Scientifique (CNRS) und Mitglied des wissenschaftlichen Ausschusses der beiden Programme. „Aus wissenschaftlicher und technologischer Sicht stellt PETAL die erste Phase von HiPER dar. Seit dem Projektstart koordiniert ein internationaler wissenschaftlicher Ausschuss die Vorbereitung der Experimente, anhand derer die Bereiche der Physik validiert werden können, die HiPER zum Erfolg führen werden. Außerdem wird PETAL als Bildungsplattform dienen, auf der sich Wissenschaftler das notwendige Fachwissen für den Umgang mit großen Lasern aneignen können. Darüber hinaus haben alle die Möglichkeit, an einem Programm mitzuarbeiten, wodurch Europa gegenüber Amerika und Asien wettbewerbsfähig wird.“ Dabei muss man jedoch zugeben, dass die Anlagen Omega EP in den USA und FIREX in Japan bereits betriebsbereit sind, während PETAL für 2011 geplant ist. Technisches Können auf hohem Niveau Noch vor wenigen Jahren glaubten die Wissenschaftler, dass eine Fusion erreicht wird, wenn das Deuterium-Tritium-Pellet mit Pulsen im Nanosekundenbereich so lange komprimiert wird, bis ein „heißer Fleck“ entsteht. Allerdings ist dieses Vorgehen wegen der zu starken Instabilität nicht möglich. Christine Labaune erklärt, dass die Teams von PETAL und HiPER daher beschlossen haben, einen anderen Weg einzuschlagen. „Kompressions- und Heizphase müssen unbedingt von einander abgekoppelt werden. Das wird Schnellzündung genannt. Das Prinzip besteht darin, kurze Pulse im Petawattbereich(2) als Zündug zu verwenden, nachdem das Ziel mit anderen Impulsen im Nanosekundenbereich komprimiert wurde. Das System sollte zuverlässiger werden und einen Energiegewinn von mehr als 1 bringen, vielleicht von bis zu 10 oder 100.“ „Mit PETAL“, fährt Christine Labaune fort, „wollen wir beweisen, dass wir in der Lage sind, Technologien zu entwickeln, die energiereiche Kurzpulse für die Zündung erzeugen. Eine Hochenergielaser-Kette besteht aus drei Teilen. Ein Vorverstärker-Oszillator erzeugt einen kurzen Puls mit kleinem Durchmesser. Er durchquert eine Reihe von Neodymglasplatten, die mit Blitzlampen gepumpt werden, was zur Emission von Photonen führt. Diese werden vom Ausgangspuls aufgenommen, der sich folglich immer mehr verstärkt. Gleichzeitig wird der Pulsdurchmesser vergrößert, wobei eine angemessene Energiedichte beibehalten wird, um die optische Wirkung zu erhalten. Der nur einen Bruchteil einer Pikosekunde(3) dauernde Puls wird also auf der gesamten Strecke ausgedehnt und dann kurz vor dem Ausgang durch eine Reihe von Gittern wieder rückkomprimiert. Dank dieses Verfahrens kann ein Ausgangspuls von wenigen Millijoule am Ende etwa 3 500 Joules erreichen und dabei trotzdem kurz bleiben. Dadurch wird PETAL die Anlage mit dem weltweit höchsten Leistungs-/Energieverhältnis.“ Sensibilisierung der Investoren Angesichts der hohen Investitionen bieten PETAL und HiPER eine gute Gelegenheit, um ein großes Grundlagenforschungsprogramm zur Erforschung der Materie in ihren extremen Zuständen aufzustellen. Das Hauptziel dieser Anlagen ist jedoch die kontrollierte Energieproduktion durch Kernfusion. Wenn man weiß, dass das in einem Notebook-Akku enthaltene Lithium (eine Tritiumquelle) zusammen mit dem in einer halben Badewanne Wasser vorhandenen Deuterium ausreichen würde, um den Strombedarf des Vereinigten Königreichs 30 Jahre lang abzudecken, ist es nur schwer verständlich, warum sich der private Sektor mit Großinvestitionen in diese Projekte derart zurückhält. „Das ist natürlich bedauerlich“, bestätigt Christine Labaune. „Die einzige langfristige und unerschöpfliche Energie ist die Kernkraft. Da die Kernspaltung zahlreiche Probleme im Hinblick auf radioaktive Abfälle, Sicherheit und begrenzte Brennstoffvorkommen nach sich zieht, bleibt der Menschheit nur noch eine Lösung, nämlich die Kernfusion. Wir bleiben dabei, dass sich Laser hervorragend dazu eignen, diese Art der Energieproduktion auf der Erde zu © Agence Free Lens Philippe Labeguerie W Beobachtung des Oberflächenzustands der Beugungsgitter im mechanischen Schutzgehäuse von PETAL, wo sie im Vakuum konditioniert sind. Vorverstärkermodul, in dem sich die beiden Etagen der parametrischen Verstärkung mit großem Spektralband befinden. In der ersten Phase des Projekts PETAL wird das Modul als Quelle für die Demonstration des Pulskompressionsverfahrens eingesetzt. reproduzieren. Folglich handelt es sich um angewandte Forschung. Daher sollten sich private Organisationen für diese Problematik interessieren. Wir müssen die Industrieunternehmen finden, die morgen unsere Kraftwerke bauen und mit Gewinn betreiben. Wenn sie nämlich heute in diese Forschungsarbeiten investieren, kann Europa seine Unabhängigkeit bei der Energieversorgung bewahren. Wenn unserer wissenschaftlichen Gemeinschaft die notwendigen Mittel nicht zur Verfügung gestellt werden, um an der Spitze zu bleiben, werden wir vollständig von den Ländern abhängig sein, denen es gelungen ist, diese Technologie zu beherrschen.“ Marie-Françoise Lefèvre (1) ITER – International Thermonuclear Experimental Reactor, siehe Artikel Wenn ITER aus der Erde wächst, research*eu Ausgabe 61, Juli 2009. (2) Peta = 1015 (3) Piko = 10-12 HiPER 26 Partner, 9 Länder (CZ-DE-ES-FR-GR-IT-PL-PT-UK) 6 Nicht-EU-Länder (CA-CN-JP-KR-RU-US) www.hiper.org PETAL http://petal.aquitaine.fr research*eu Nr. 63 | APRIL 2010 33 PORTRÄT © Stephen Faust/Wolfram Research.Inc. Der Algorithmus der Götter Stephen Wolfram – „Wenn man eine Idee erklärt und daran herumfeilt, um sie so klar wie möglich darzulegen, kann man sie viel besser verstehen.“ A m Tage leitet er Wolfram Research, ein Unternehmen, das Eigentümerin der berühmten Arithmetiksoftware Mathematica und der neuen Suchmaschine Wolfram Alpha ist. Nachts ist er Forscher. Er ist ein hervorragender und besonders erfolgreicher Wissenschaftler. Als Mathematiker, Informatiker und Teilchenphysiker befasst er sich in seinen Forschungsarbeiten am liebsten mit zellulären Automaten. Das sind mathematische Modelle, mit denen sich Stephen Wolfram zufolge die Komplexität der Welt erklären lässt. In seinem Buch A New Kind of Science, das 2001 veröffentlicht wurde, stellt Wolfram die Grundlagen der Wissenschaft, und zwar sämtlicher Bereiche, infrage. Handelt es sich um einen arroganten Größenwahnsinnigen oder ein unverstandenes Genie? Wunderkind Stephen Wolfram wurde 1959 in London geboren und ließ schon frühzeitig eine bemerkenswerte Intelligenz erkennen. Mit 13 Jahren erhielt er ein Stipendium für das renommierte Eton College, an dem die Elite Großbritanniens unterrichtet wird. Ein Jahr später schrieb Wolfram ein Buch über die Teilchenphysik. Sein erster Fachaufsatz erschien 1975 in der Zeitschrift Nuclear Physics. Zu diesem Zeitpunkt war er 15 Jahre alt. „Damals war die Physik einer der innovativsten Forschungsbereiche. Dort wurde viel Neues entdeckt, insbesondere auf dem 34 research*eu Nr. 63 | APRIL 2010 Funktioniert die Welt wie ein Computerprogramm? Beruhen die Formen und Zustände der Natur auf einer Grundformel? Stephen Wolfram ist davon überzeugt und behauptet sogar, den Quellcode der Komplexität des Universums gefunden zu haben. Gebiet der Teilchenphysik, für die ich mich besonders interessierte“, erzählt er. (1) Das junge Genie setzte sein Studium an der Universität Oxford (UK) fort und siedelte dann nach Amerika über, wo er am California Institute of Technology – Caltech (USA) arbeitete und mit 20 Jahren in theoretischer Physik promovierte. Hier feierte er auch seine ersten Erfolge. Er veröffentlichte in dieser Zeit mehr als 25 wissenschaftliche Artikel. Er ersinnt die Fox-Wolfram-Variablen und entdeckt die Politzer-Wolfram-Obergrenze für die Masse von Quarks. 1981 wurde er im Alter von nur 22 Jahren der jüngste MacArthur-Preisträger. Mit diesem „Preis für Genies“ wird jedes Jahr ein Stipendium an die talentiertesten Forscher vergeben. Wolfram verließ Caltech 1982 und wechselte zum Institute for Advanced Study in Princeton (USA), eine Einrichtung, die sich ausschließlich der wissenschaftlichen Forschung widmet. Hier begann er, sich für zelluläre Automaten zu interessieren. Sein Ziel war es, die Komplexität der Welt zu verstehen, denn auf diese Frage hatte bisher noch keine mathematische Gleichung, keine physikalische Theorie eine Antwort gegeben. „Die Ursache für die Komplexität des Universums ist ein Thema, das mich seit meiner Kindheit fasziniert. Diese Frage stellte sich mir nicht nur auf dem Gebiet der Kosmologie, sondern auch als ich mich mit den Neurowissenschaften oder der künstlichen Intelligenz beschäftigte. Während ich an der Entwicklung des späteren Softwareprogramms Mathematica arbeitete und einfache Berechnungen entwickelte, anhand derer sich eine Reihe komplexerer Operationen aufstellen lassen, kam mir plötzlich die Idee, dass es ein ähnliches allgemeines Prinzip geben könnte, auf dem die gesamte Komplexität der Natur beruht, angefangen von der Struktur der Galaxien bis hin zur Struktur der Neuronen. Daher habe ich ganz einfache Operationen getestet, die zur Bildung komplexer Strukturen führen können, und das war auch der Beginn meines Interesses für zelluläre Automaten.“ Und was ist ein zellulärer Automat? Man nehme eine Reihe weißer und schwarzer Kästchen und stelle sich dann vor, dass eine neue Linie anhand einer Reihe rudimentärer Regeln erzeugt wird. Etwa, dass sich ein weißes Kästchen niemals unter einem anderen weißen Kästchen befinden kann, es sei denn, letzteres gehört zu einer Diagonalen von zehn weißen Kästchen. Das sich aus diesem Verfahren ergebende Gitter erzeugt nach dem Zufallsprinzip Strukturen, die extrem komplex sein können. Der Geschäftsmann Im Laufe der 1980er Jahre entdeckte Wolfram die Regel 30, einen zellulären Automaten, der Formen erstellen kann, die den Mustern einer bestimmten Seeschnecke ähneln, der Conus textile. Er war jetzt davon überzeugt, dass er einen Teil des Universalcodes gefunden hatte, dessen Existenz er bereits vermutete. PORTRÄT Voller Begeisterung veröffentlichte er eine Reihe von Artikeln zu diesem Thema und widmete diesem eine neue Disziplin: die Wissenschaft der komplexen Systeme. Er gründete das Forschungszentrum für komplexe Systeme an der Universität Illinois (US), unterstützte die Einrichtung einer Denkfabrik am Santa Fe Institute (US) und rief die Fachzeitschrift Complex Systems Journal ins Leben. „Mit diesen verschiedenen Initiativen hoffte ich, auch andere Forscher dazu anzuregen, diesen Weg der Forschung zu gehen. Leider konnte die wissenschaftliche Gemeinschaft nicht mit mir Schritt halten.“ Frustriert wandte sich Stephen Wolfram von der akademischen Fachwelt ab, um sich voll und ganz der Programmierung zu widmen. „Ziel war es, eine Forschungsinfrastruktur und ein Instrument zu schaffen, mit denen ich meine Arbeit an den komplexen Systemen fortsetzen konnte.“ 1987 gründete Wolfram das Unternehmen Wolfram Research. Ein Jahr später brachte er das Computerprogramm Mathematica auf den Markt, mit dem sich eine Vielzahl von mathematischen Operationen durchführen lassen. Das Unternehmen ist ein voller Erfolg. Mathematica hat heute mehr als zwei Millionen Nutzer in 90 Ländern. Wolfram Research macht etwa 50 Mio. US-Dollar Umsatz pro Jahr und beschäftigt mehr als 300 Mitarbeiter. Durch seinen Umstieg vom Forscher zum Unternehmer wurde Stephen Wolfram Millionär. Diese Situation wurde von der akademischen Fachwelt anfangs nicht unbedingt positiv aufgenommen. „Vor 20 Jahren waren die in den Labors eingesetzten Computerprogramme kostenlos. Für eine Anwendung, die in der FuE auf höchstem Niveau, also hauptsächlich an Universitäten eingesetzt wird, eine finanzielle Gegenleistung zu fordern, wurde größtenteils mit Entrüstung aufgenommen. Heute hat sich diese Einstellung grundlegend geändert.“ Hacker des Universalcodes? Im Laufe der 1990er Jahre geriet Stephen Wolfram in der Forschungsgemeinde in Vergessenheit. Doch er hatte der Forschung nicht den Rücken gekehrt. Nachts saß er in seinem Labor und setzte seine Arbeit zu den komplexen Systemen fort. Mithilfe eines Computers testete er unaufhörlich verschiedene zelluläre Automaten, um herauszufinden, welche die Strukturen der Natur am besten reproduzieren. Auf diese Weise entdeckte er zelluläre Automaten, die in der Lage waren, die Strukturen von Eis und bestimmten Blättern zu erzeugen. Zehn Jahre später veröffentlichte er das Buch A New Kind of Science, in dem er seine Forschungsergebnisse vorstellte und zeigte, wie seine Theorie die Grundlagen der verschiedenen wissenschaftlichen Disziplinen infrage stellt. Er entschied sich bewusst gegen den traditionellen Weg der Veröffentlichung in einer wissenschaftlichen Fachzeitschrift. „Ich wollte, dass meine Forschungsarbeiten einer breiten Masse zugänglich sind. Durch dieses Konzept war es mir außerdem möglich, meine Theorie zu testen. Wenn man eine Idee erklärt und daran herumfeilt, um sie so klar wie möglich darzulegen, kann man sie viel besser verstehen.“ Nachdem er sich mit dem Informatikmodell der Mathematik und der Welt beschäftigt hatte, widmet sich Wolfram jetzt dem des Wissens. 2009 brachte er Wolfram Alpha heraus. Das ist eine Suchmaschine, die in der Lage ist, alle spezifischen Informationen über ein Thema anhand einer formulierten Suche zu liefern. „Für mich war es schon immer wichtig, nicht die Fragen der Grundlagenforschung, die während der Entwicklung einer Technologie aufgeworfen werden, zu verdecken, sondern im Grunde eine integrierte Herangehensweise an die Wissenschaft zu verfolgen. Wolfram Alpha ist ein Projekt, das mir besonders am Herzen liegt, und zwar weil es genau diese integrierte Version des Wissens widerspiegelt.“ Die Doppelbelastung als Geschäftsmann und Forscher ist einerseits faszinierend, andererseits auch unbequem. „Im Allgemeinen unterstützen Leute mit finanziellen Ressourcen die Forschung indirekt, beispielsweise durch eine Stiftung. Die Finanzierung der Grundlagenforschung und die gleichzeitige persönliche Beteiligung an dieser Forschung ist immer noch etwas, wovor einige Leute zurückschrecken – auch wenn sie selbst nicht wissen warum!“ Julie Van Rossom (1) Alle Zitate stammen von Stephen Wolfram. Farbige Bilder basierend auf der Regel 30 aus dem Bestseller von Stephen Wolfram, A New Kind of Science. Wolfram research www.wolfram.com Stephen Wolfram www.stephenwolfram.com research*eu Nr. 63 | APRIL 2010 35 STRAFVOLLZUG Die Auswüchse der Gefängniswelt Anstieg der Kriminalität, Überbelegung der Gefängnisse, neue Formen der Kriminalität, gescheiterte Präventionspolitik – die Mehrheit der westlichen Demokratien sieht sich mit dieser Bestandsaufnahme konfrontiert und findet in einem schwierigen sozioökonomischen Kontext nur wenig überzeugende Lösungen. W elchen Ausweg gibt es aus dem Teufelskreis Delinquenz und Strafvollzug? Ein von der Europäischen Union unterstütztes Projekt mit dem Titel Gestion publique de la déviance (Sozialstaat oder Strafstaat?) befasste sich bereits mit dem Problem des Anstiegs der Gefängnisstrafen in Europa. Mit dem Ende des Wohlfahrtsstaates in den 1990er Jahren stellten die Wissenschaftler einen rapiden Rückgang sozialer Maßnahmen fest. Für viele Kriminologen wurde der Zusammenhang zwischen Wirtschaft und Strafvollzug bereits in verschiedenen Forschungsarbeiten klar. Charlotte Vanneste vom belgischen Institut für Kriminalistik (Institut National de Criminalistique et de Criminologie) hat die Wechselbeziehung zwischen den Statistiken 36 research*eu Nr. 63 | APRIL 2010 der belgischen Gefängnispopulation und der sozioökonomischen Situation des Landes in einem Zeitraum von 170 Jahren untersucht. (1) Sie stellt fest, dass im Laufe der 20- bis 30-jährigen Wachstum-Rezessions-Zyklen die Gefängnispopulation stets in der Rezession ihren zahlenmäßigen Höhepunkt erreichten und umgekehrt. Zwischen den beiden Weltkriegen gab es weniger Strafgefangene, was mit der Besserung der Wirtschaftslage (günstige Konjunktur, soziale Stabilisierung, Indexbindung der Gehälter) zusammenfiel. Andererseits war die zweite Hälfte des 20. Jahrhunderts ganz klar von einem Anstieg der Gefangenenraten und Arbeitslosigkeit gekennzeichnet. Null-Toleranz oder Prävention? Die Antworten der europäischen Staaten – und ihrer Bürger – auf die Kriminalität wurden von den Forschern des Projekts CRCC (Crime repression costs in context) mit dem Ziel untersucht, die direkten und indirekten Kosten der Kriminalität angesichts verschiedener nationaler politischer Ansätze abzuschätzen. Die Partner ermittelten zwei „Hauptkulturen“. Die erste, charakteristisch für neo-konservative Regierungen, setzt auf die klassischen rechtlich-polizeilichen Maßnahmen, die immer stärker zu Null-Toleranz und Schnellverfahren tendieren, ohne dabei die sozioökonomischen Gründe des abweichenden Verhaltens zu berücksichtigen. Die zweite – die des fortschrittlichen Liberalismus – basiert auf einer Verwaltung des kriminellen Risikos und der Anwendung des Vorsorgeprinzips. Diese Strategie soll einerseits potenzielle Straftaten begrenzen (indem sie auf die wirtschaftlichen Ursachen der Kriminalität setzt, das urbane Umfeld verändert, soziale Kontrollstrategien entwickelt usw.) und andererseits die Zahl möglicher Opfer senken, indem die Bevölkerung dazu angehalten wird, sich selbst zu schützen (gepanzerte Türen, Alarmanlagen). Diese Selbstschutzmaßnahmen verbreiten sich mit rasender Geschwindigkeit. Laut einer europäischen Umfrage zu Sicherheit und Kriminalität (2) hält das Vereinigte Königreich den Weltrekord bei den Videoüberwachungssystemen und die Niederlande den bei den Spezialtüren. Und in einem Zehntel der zwischen 2002 und 2007 in Budapest neu errichteten Gebäude wurden verschiedenste Sicherheitsvorkehrungen eingebaut. Die gefühlte Unsicherheit Die Forscher des Projekts Crimprev (3) haben das Gefühl der Unsicherheit – das allerdings nicht der tatsächlichen Unsicherheit entspricht – und seine Auswirkungen auf die sozialen Beziehungen untersucht und sich dabei insbesondere mit den kulturellen Erscheinungsformen der Ablehnung beschäftigt. Dieses Gefühl variiert je nach Land, Region und Stadtteil. Haben wir Angst, wenn wir nachts durch die Straßen laufen? In Nordeuropa sind die Menschen deutlich weniger ängstlich als in Süd- und Osteuropa. Die Beeinträchtigungen des öffentlichen Lebens – vor allem durch Drogen – und die Sichtbarkeit abweichenden Verhaltens (Müll, Graffiti, Ansammlungen junger Leute) spielt bei diesen Ängsten eine große Rolle. „Die Regierungen sind sich der Bedeutung dieser sozialen aber auch wahlpolitischen Aspekte bewusst und scheuen daher nicht davor zurück, Maßnahmen gegen das Unsicherheitsgefühl zu ergreifen, das manchmal als ebenso wichtig angesehen wird wie die reelle Unsicherheit, die sich nur sehr schwer messen lässt“, erklären die Forscher von Crimprev. © Shutterstock/Igorsky STRAFVOLLZUG „Technische Überwachungssysteme, Datenbanken und private Sicherheitsfirmen haben Angst und Beklemmung nicht ausgeräumt“, meint Joe Sim, Professor an der Liverpool John Moores University (4). „Ganz im Gegenteil, denn die Vorstellung einer kurz bevorstehenden Katastrophe hat sich verstärkt, wodurch die Eskalation autoritärer Reaktionen auf Kriminalität und auf alles legitimiert wird, was als Bedrohung der sozialen und öffentlichen Ordnung angesehen wird.“ Genauso sieht es mit der Angst der Jugendlichen aus. Verschiedenen britischen Studien zufolge ist der Anstieg der Jugenddelikte nur in geringem Maße auf Kriminalität zurückzuführen. Vergoldete Gettos All diese Ängste und die Reaktionen darauf wirken sich deutlich auf die soziale Ausgrenzung und die Gestaltung der urbanen Landschaft aus. Die „Gettobildung“ beschränkt sich nicht nur auf die ärmsten Stadtviertel. So sind beispielsweise seit den 1960er Jahren immer mehr „Gated Communities“ (gesicherte, bewachte und mit Zäunen oder Mauern umgebene Wohnkomplexe) auf dem Vormarsch. Sie sind vor allem im Vereinigten Königreich, in Frankreich, Portugal oder auch in bestimmten ehemals kommunistischen Ländern verbreitet. Dieser Selbstschutz kann als eine Form der Vorbeugung dienen. Sie ist aber sicher nicht die beste. In einigen europäischen Ländern wurden im Laufe der letzten Jahre Präventionsversuche gestartet. Hierbei wurde insbesondere mit der Zusammenarbeit zwischen dem öffentlichen und privaten Sektor, Verbänden, Nichtregierungsorganisationen, bürgernaher Polizei usw. experimentiert. Diese Idee hat nur selten den erwarteten Erfolg gebracht, denn die Sozialarbeiter wollten sich nicht zu „Spitzeln“ machen lassen. Adam Crawford (Universität Leeds, UK), Partner von Crimprev, räumt ein, dass diese Initiativen „zeigen, dass die Ursachen und Wirkungen der Kriminalität außerhalb des traditionellen Anwendungsbereichs des Strafvollzugs liegen“. Außerdem ist er der Meinung, dass „sich im Laufe der Jahre die Schaffung präventiver Partnerschaften als völlig illusorisch herausgestellt hat“. Was ist abzuschaffen? Daher wird die Politik der Gefängnisstrafen unverändert fortgesetzt, selbst wenn seit einigen Jahren bereits Ersatzlösungen praktiziert werden. So zum Beispiel die besonders in Nordeuropa eingesetzte elektronische Fußfessel (die mit einem Mikrochip ausgestattet ist, anhand dessen der Aufenthaltsort der Person ermittelt werden kann); gemeinnützige Arbeit (für eine Organisation, ein Krankenhaus, die Umwelt usw.) als Ersatz für kurze Gefängnisstrafen; oder aber das System der Freigänger, in dem der Strafgefangene außerhalb des Gefängnisses arbeitet und abends wieder in den Vollzug zurückkehrt. „Das gesellschaftliche Problem der Gefängnisse könnte durch das, was Angela Davis abolitionistische Alternativen nannte, gelöst werden“, meint Joe Sim. „Diese Alternativen sollten meiner Meinung nach den Baustopp von Gefängnissen, die Reduzierung der Mittel für die Bestrafung von Straftaten zugunsten von Prävention, die Schaffung von menschlicheren Systemen für Strafgefangene, die Berücksichtigung der Schäden durch die Machthaber und ein Ende des sozialen Gefälles umfassen. Die Abolitionisten setzten sich, entgegen der vorgefassten populären und politischen Meinung, nicht einfach für eine Abschaffung der Mauern ein. Sie wünschen eine ehrlichere Analyse des Verbrechens und der Kriminalität sowie die Durchführung von radikalen politischen Maßnahmen, die allen Bürgern Europas, unabhängig von ihren sozialen Bedingungen, echten Schutz bieten.“ Christine Rugemer (1) Charlotte Vanneste, Les chiffres des prisons – Des logiques économiques à leur traduction pénale, L’Harmattan, 2001 (2) European Crime and Safety Survey 2005 unter der Leitung von Jan van Dijk, Universität Tilburg (NL). Sie finden dieses Dokument unter folgender Adresse: www.crimereduction. homeoffice.gov.uk (3) Crimprev (Assessing Deviance, Crime and Prevention in Europe) ist ein Projekt, an dem 31 Partner aus zehn europäischen Ländern beteiligt sind. Es soll für jedes dieser Länder die Faktoren abweichenden Verhaltens, den Kriminalisierungsprozess, die Wahrnehmung von Straftaten sowie die öffentliche Präventionspolitik erfassen und vergleichen. Dieses Projekt hat eine Vielzahl von Texten (Artikel, Broschüren) hervorgebracht, die auf seiner Website erhältlich sind: www.gern-cnrs.com/gern/index. php?id=4 (4) Dem Strafvollzug gegenüber sehr kritisch eingestellter Schriftsteller: Policing the crisis, Sage, 1978; Western European Penal Systems, Sage, 1995; State Power Crime, Sage, 2009; Punishment and Prisons, Sage, 2009. Gestion publique de la déviance http://ec.europa.eu/research/ social-sciences/projects/052_en.html CRCC www.ub.edu/ospdh/en/page/ crime-repression-cost-context-crcc Crimprev 31 Partner – 10 Länder (BE-DE-ES-FR-GR-IT-NL-PT-SL-UK) www.gern-cnrs.com/gern/index. php?id=4 Bibliografie zu diesem Thema http://prison.eu.org/rubrique210.html research*eu Nr. 63 | APRIL 2010 37 GEISTESWISSENSCHAFTEN Wie lautet die Definition von Gott? Diese Absonderlichkeit hätte sich der europäische Steuerzahler gerne erspart, meint der Daily Telegraph(1). Neben anderen Projekten, die von der Europäischen Kommission subventioniert wurden und als kostspielig, spinnig und sogar unnötig dargestellt werden, prangert die englische Tageszeitung das Programm Explaining Religion (EXREL) an, das mit fast 2 Mio. EUR unterstützt wurde. Dieses Programm will jedoch in keiner Weise „Gott definieren“, sondern versucht, die kognitiven Mechanismen zu erklären, die dem religiösen Denken und den sozialen Verhaltensweisen zugrunde liegen, die sie nach sich ziehen. L ässt sich die Religion mithilfe der Naturwissenschaften erklären? Beide basieren auf einer Sicht der Realität, die traditionell als grundsätzlich verschieden wahrgenommen wird. Ihre Diskrepanzen waren im Laufe der Geschichte immer wieder Gegenstand von Debatten, mal fruchtbar, mal kontrovers, die zu Missverständnissen geführt haben oder denen nachgeeifert wurde. Seit einigen Jahren versuchen Wissenschaftler der unterschiedlichsten Disziplinen – Historiker, Anthropologen, Biologen, Neurowissenschaftler oder auch Psychologen –, die Religion von ihrem Podest zu holen, um sie empirisch zu verstehen und einen wissenschaftlichen Korpus zum Stand der Kenntnisse auf diesem Gebiet zusammenzustellen. Das Programm Explaining Religion (EXREL) fügt sich nahtlos in diese Bewegung ein und ist eines der ehrgeizigsten Projekte auf dem Gebiet der neuen kognitiven Religionswissenschaften. Aber worin besteht ihr Ziel? „Wir wollen erklären, wie religiöse Systeme entstehen und weitergegeben werden, und die Gründe der religiösen Variationen verstehen“, erklärt Harvey Whitehouse, Anthropologe und Projektkoordinator. EXREL ist eine interdisziplinäre Plattform, die von der Universität Oxford (UK) koordiniert wird und an der zehn europäische Gruppen, jeweils führend auf ihren verschiedenen Forschungsgebieten (Biologie, Psychologie, Anthropologie und Religionsgeschichte), teilnehmen, um gemeinsam an der Frage des Ursprungs von Religion zu arbeiten. 38 research*eu Nr. 63 | APRIL 2010 Vertraute Universalien Der Grundstein dieses interdisziplinären Forschungsvorhabens, das sich über drei Jahre (2008 – 2010) erstreckt, basiert auf folgender Feststellung: Religiöses Denken und Handeln weist eine Reihe universeller Merkmale auf, zu denen der Glaube an Götter, Geister oder Vorfahren gehört, die Ausübung von Ritualen voller symbolischer Bedeutungen, der Glaube an ein Leben nach dem Tod, die Überzeugung, dass Unglück und Glück eine transzendentale Ursache haben, die Urheberschaft von Schriften oder anderen Zeugnissen einer göttlichen Wesenheit sowie die Überzeugung, dass natürliche Merkmale das Ergebnis absichtsvollen Handelns sind. „Es ist beeindruckend festzustellen, dass Menschen überall auf der Welt, unabhängig von ihrem kulturellen Umfeld zu diesen Denkweisen gelangen“, begeistert sich Harvey Whitehouse. Die Ursprünge dieser im Verlauf der Geschichte und der Kulturen wiederkehrenden Parameter wurden jedoch nie systematisch untersucht und genau diese Lücke beabsichtigt EXREL zu schließen. Dem Forscher zufolge werden diese Denk- und Glaubensweisen im Allgemeinen unter dem Begriff „Religion“ zusammengefasst. Sie sind in der Evolution der Menschheitsgeschichte Kirchturmpolitik N eben dem Team von Harvey Whitehouse befassen sich auch andere Wissenschaftler mit der Frage nach den Ursprüngen von Religion. Präsenz und Fortbestand religiöser Universalien sind zwar unbestritten, jedoch wird über ihre Herkunft weiter debattiert. Justin Barrett (1), ebenfalls Forscher auf dem Gebiet der Anthropologie an der Universität Oxford, sieht den Grund für das Aufkommen religiöser Denkweisen beispielsweise in einem kognitiven Mechanismus, der von unserem Gehirn angeregt wird, dem„Hypersensitive Agency Detection Device“ (HADD). Wenn das Gehirn sich außerstande sieht, eine Erscheinung intuitiv zu erklären, weist es dieses Phänomen absichtsvollen, übernatürlichen Wesen zu (Geistern, Göttern), die ihm eine kohärente Erklärung ungewöhnlicher Ereignisse ermöglichen (Krankheit, Naturkatastrophe, unerwartetes Überleben usw.). Der Erfolg der Religion könnte seiner Meinung nach darauf zurückzuführen sein, dass sie den HADD-Erfahrungen einen Sinn verleiht. Der Wissenschaftsphilosoph Daniel C. Dennett (2) fasst Religion als das Ergebnis einer einfachen kumulativen Mimikry kultureller Elemente auf – etwa Wörter, Lieder, Artefakte –, die dem gleichen Replikationsmodus unterliegen wie die Gene. Die Duplikation der Informationen ergibt sich seiner Meinung nach automatisch und unbewusst, ohne den geringsten Einfluss absichtsvoller Urheber. (1) Justin L. Barrett, Why Would Anyone Believe in God?, AltaMira, 2004. (2) Daniel C. Dennett, Breaking the Spell: Religion as a Natural Phenomenon, Viking Press, 2006. © Shutterstock/gary yim Woher stammt religiöses De GEISTESWISSENSCHAFTEN nken? verankert und sollen das Produkt von Merkmalen sein, die der kognitiven Entwicklung unserer Gehirnstruktur innewohnen. Diese Hypothese herrscht derzeit auf dem Forschungsgebiet der kognitiven Religionswissenschaften vor. Harvey Whitehouse und seine Kollegen stützen sich auf diese Theorie und versuchen zu verstehen, warum die Religion dem Bedürfnis des Homo sapiens so gut entspricht, dass sie sogar als eines seiner Grundmerkmale betrachtet werden kann. Das Hauptaugenmerk von EXREL ist nun darauf gerichtet, eine wissenschaftliche Erklärung für die im religiösen Repertoire vorhandenen universellen Merkmale anzubieten und latente Prozesse herauszuarbeiten, die ihre Entwicklung und Verbreitung in der menschlichen Gesellschaft ermöglicht haben. Das Phänomen „Religion“ unter der Lupe Das Projekt ist in vier Teilbereiche aufgegliedert, die zu einem besseren Verständnis der zahlreichen Facetten des Phänomens „Religion“ beitragen sollen. Im ersten Teil wird eine quantifizierbare Bestandsaufnahme der wichtigsten universellen Elemente des religiösen Repertoires vorgenommen, ihre kulturellen Varianten werden hervorgehoben und jene Elemente nachgewiesen, die nicht zu dieser Universalität gehören, sondern im Verlauf der Geschichte und der Kulturen zumindest wiederholt auftreten. Mit diesen Daten dürfte die Forschungsgruppe in der Lage sein, in die Geschichte zurückzublicken und einen Vorschlag zur wissenschaftlichen © Shutterstock/Gail Johnson Archäologen fragen sich immer noch, welche genaue Bedeutung das jungsteinzeitliche Bauwerk in Stonehenge (UK) mit seinen zahlreichen aufgestellten Steinblöcken hat und was hinter den riesigen Figuren der Osterinseln (den Moai) steckt, die von den Bewohnern der Osterinseln seit dem 10. Jahrhundert errichtet wurden. Wiederherstellung des religiösen Repertoires der prähistorischen Menschheit vorzulegen. Diese Wiederherstellung könnte neue Erkenntnisse dazu erbringen, wie sich religiöse Konzepte und Verhaltensweisen im Laufe der Zeit auf der ganzen Welt verbreitet haben. Im zweiten Teil wird nach den Hauptgründen für die Existenz und das Weiterbestehen des universellen religiösen Repertoires und nach kognitiven Mechanismen gesucht, die an diesen Erinnerungs- und Übermittlungsprozessen beteiligt sind. EXREL wird sich umfassender mit der Entstehung und der Besonderheit der Konzepte des „Lebens“ nach dem Tod befassen, mit der Bereitschaft des Menschen, den Kausalzusammenhang von Ereignissen übernatürlichen Wesen zuzuschreiben, die damit eine Absicht verfolgen, und mit den vom Glauben an diese Wesen beeinflussten Verhaltensänderungen. Im dritten Teil des Programms wird versucht, eine Erklärung dafür zu finden, dass jedes Element des religiösen Repertoires, je nach dem Entwicklungsgrad und den verschiedenen religiösen Traditionen, Varianten aufweist. Der vierte ebenso originelle wie ehrgeizige Teil wagt einen Ausblick in die Zukunft mithilfe von Modellen, die eine Simulation der Wege und Wandlungen religiöser Systeme ermöglichen. Zunächst soll eine Art „Minimalpaket“ der kognitiven Fähigkeiten und der Interaktionsgesetze definiert werden, die für das Entstehen des religiösen Denkens in einer Gesellschaft erforderlich sind. Über die Tatsache hinaus, dass diese Modelle eine nie da gewesene Lesart vergangener und gegenwärtiger religiöser Phänomene einführen würden, könnten ihre digitalen Avatare die Möglichkeit bieten, zukünftige Veränderungen der religiösen Traditionen zu simulieren. Das und nicht weniger! Wenn das Computer-Programm aussagekräftige Ergebnisse liefert, könnte es zu einem wertvollen Werkzeug politischer Planung werden. Denn obwohl Religiosität für viele Menschen geistige Gesundheit bedeutet, ist sie doch auch eine Quelle großer Konflikte. Als Konsequenz könnte dieses Programm also zu einem besseren Verständnis und vielleicht sogar zur höchst willkommenen Antizipation des Einflusses der Religion auf religiösen Extremismus und Fundamentalismus führen. Denn unsere Gesellschaft zeigt täglich, wie aktuell dieses Thema ist, und wie Intoleranz den Tod von Menschen nach sich ziehen kann. Jean-Pierre Geets, Annick M’Kele (1) Artikel im Daily Telegraph vom 13. September 2009: www.telegraph.co.uk/news/worldnews/europe/5268361/ EU-wasting-billions-on-projects-such-as-defining-God.html EXREL 11 Partner – 8 Länder (AT-BG-CH-DK-FI-FR-NL-UK) www.cam.ox.ac.uk/research/ explaining-religion/ research*eu Nr. 63 | APRIL 2010 39 IN KÜRZE Gorillas mit Fernüberwachung Courtesy UWA Auf unserer Erde leben noch etwa 700 Berggorillas. Etwa die Hälfte lebt im undurchdringlichen Dschungel von Bwindi, Uganda, und der Rest verteilt sich auf Ruanda und die Demokratische Republik Kongo. Im vergangenen Jahr waren Bwindi und der nah gelegene Nationalpark von Mgahinga das Ziel von 600 000 Besuchern. Als geschützte Tierart, die auf der Roten Liste steht, sind die Gorillas eine wichtige Einnahmequelle, die von der Uganda Wildlife Authority (UWA) verwaltet wird, indem sie darüber wacht, dass die Lebensräume der Tiere respektiert werden. Sie nutzt die Einnahmen aus den Nationalparks, in denen die Tiere leben, und verteilt einen Teil des Gewinns an die lokale Bevölkerung zur Förderung von Schulen, Krankenhäusern, kleinen Viehzuchtprojekten usw. Um ein größeres Publikum zu erreichen, hat die UWA jetzt die Website Friendagorilla.org gestartet, auf der die Gorillas die großen Stars sind. Dort erfährt man vieles 40 research*eu Nr. 63 | APRIL 2010 über ihre Launen, ihre Besonderheiten in der Welt der Primaten und man kann sogar wie Dian Fossey eine „Freundschaft“ mit einigen Berggorillas schließen. Gegen die bescheidene Summe von 1 USD pro Jahr können die Websurfer ihre Gorillagruppe 24 Stunden am Tag verfolgen. Mit versteckten Kameras im Dschungel werden diese Nomaden aufgespürt, die jede Nacht woanders schlafen. Doch man kann sie auch vor Ort besuchen. Allerdings kostet es ein wenig mehr, um die Gorillas in den Nationalparks von Mgahinga zu besuchen. Die Fährtenleser – Tracker genannt – werden Ihnen zeigen, wie Sie sie entdecken können, doch eine Garantie, sie zu sehen, gibt es nicht. Allerdings wird die wunderschöne Landschaft Sie über diese Enttäuschung hinwegtrösten. www.friendagorilla.org Spuren von Riesenfüßen In Plagne (FR), einem Ort zwischen Lyon und Genf, wurden die größten Dinosaurierspuren aller Zeiten entdeckt: Sie haben einen Durchmesser von 1,20 m bis 1,50 m und sind auf einer Länge von mehreren hundert Metern sichtbar. Die Forscher der Universität Lyon 1, Jean-Michel Mazin und Pierre Hantzpergue erkannten die Spuren als Abdrücke von Sauropoden. Diese Tiere waren mehr als 25 Meter lang und konnten bis zu 40 Tonnen schwer werden. Allerdings wurde die Entdeckung nicht © CNRS Photothèque/Hubert Raguet/UMR5125 WISSENSCHAFT GRIFFBEREIT Dinosaurierspuren an der paläontologischen Ausgrabungsstätte in Plagne (FR). von den Wissenschaftlern selbst gemacht, sondern von zwei passionierten Amateurpaläontologen, die sich für Fossile, Vulkane und die Natur interessieren: Marie-Hélène Marcaud und Patrice Landry. Doch ihr Fund ist kein Zufall. Er zeigt, wie Amateure zu wertvollen Helfern von Forschern werden können. Unsere beiden Entdecker (sie ist Lehrerin im Ruhestand und er Geologe) sind Mitglieder eines Naturvereins, in dem sich passionierte Paläontologen treffen. „Wir haben Gruppen gebildet, um verschiedene Bereiche zu erkunden“, erklärt Patrice Landry. „Je nach unseren Beobachtungen und Entdeckungen haben wir bestimmte Gesteinsmuster bestimmt. Wir haben auch die geologischen Karten und Luftaufnahmen studiert, um Ausbisse zu bestimmen und wie wir dorthin gelangen können. Anschließend haben wir verschiedene Stellen angepeilt, die wir bereits öfter erkundet haben. Plagne war eine davon und wir waren zum ersten Mal dort.“ Ein schönes Beispiel für die Wissenschaft der Beobachtung. www2.cnrs.fr/presse/ communique/1691.htm Vernetzter Wettbewerb Man nehme drei Schlüsselworte (Reifen, Straße, Sicherheit). Man mische und schüttele diese und lasse seiner Fantasie freien Lauf. Man denke sich eine klare, originelle und durchdringende Botschaft aus, in der die Beziehung zwischen diesen drei Elementen in der Zeit eines Clips dargestellt werden kann. Ergebnis? Ein Video von maximal fünf Minuten Dauer, das für Youtube produziert wurde und vielleicht eine gute Zukunft verspricht. Mit einem solchen Video kann man dann am Wettbewerb von TyroSafe (Tyre and Road Surface Optimisation for Skid Resistance and Further Effects) teilnehmen. Durch die Kultur surfen Während Google sich die Digitalisierung aller Bücher der Welt vorgenommen hat, versucht Europa sein eigenes Kulturerbe unter dem Stichwort Europeana zu vereinen. Ziel ist es, das immense Kulturerbe der Sammlungen, die in den Bibliotheken, Archiven und Museen Europas konserviert werden, online zugänglich zu machen. Diese umfassen eine beeindruckende Zahl von Werken und Zeitschriften (schätzungsweise 2,5 Milliarden Dokumente allein in den Bibliotheken) und Millionen Stunden an Filmen und Videos zur europäischen Geschichte und Kultur. In den Regalen dieses riesigen virtuellen Gebäudes, das bereits im November 2008 eröffnet wurde, stehen bereits 4,6 Millionen digitale Objekte (Bücher, Karten, Kunstgegenstände, Plakate, Fotos und Audiodateien) in 19 Sprachen. Doch Europeana ist nicht nur eine kulturelle Herausforderung. Auch Benetzung einer Straße für einen Reifentest im Labor der Straßenmeisterei von Nantes (FR). stehen Arabisch, Chinesisch, Englisch, Französisch, Portugiesisch, Russisch und Spanisch zur Verfügung. Die Bibliothek soll das Volumen und die Vielfalt der kulturellen Inhalte im Internet vergrößern und ein Mittel zur Verringerung der digitalen Kluft zwischen Ländern und Regionen sein. www.europeana.eu www.wdl.org Klimaerwärmung mit offenen Karten Auf dem Klimagipfel in Kopenhagen haben sich die Staats- und Regierungschefs darauf geeinigt, dass die Erwärmung unseres Planeten im Vergleich zu den herrschenden Temperaturen vor der Industrialisierung 2 °C nicht überschreiten sollte. Allerdings wurde nicht gesagt, wie dieses Ziel zahlenmäßig zu erreichen sei. (1) Was wäre, wenn dies nur ein frommer Wunsch ist, und wir uns tatsächlich auf die 4 °C-Hürde zubewegen? Dank einer interaktiven Weltkarte auf der Website Act on Copenhagen der britischen Regierung, springen die Folgen sofort ins Auge. Auf dieser Karte sind die neuesten wissenschaftlichen Erkenntnisse zur Klimaerwärmung abgebildet. Um diese zu erkunden, wird eine © Shutterstock/Loris www.youtube.com/tyrosafe http://tyrosafe.fehrl.org Technik und Kommunikation sind gefordert. Die Aktivierung dieses Netzwerks, dessen zahlreiche Zweige kulturellen Kontexten entsprechen, die oftmals auf unterschiedliche Weise verwaltet werden, ist besonders kompliziert. Wer zu diesem Netzwerk beitragen will, muss sich an die Regeln anpassen, die für dieses gemeinsame Unternehmen herrschen. Außerdem ist festzulegen, wie der Zugang zu diesem Netzwerk für sehr unterschiedliche Benutzerprofile (Forscher, Lehrer und Schüler/Studenten, Kulturunternehmen oder einfach nur Interessierte) gewährleistet werden kann. Der Besuch der Europeana lohnt einen Umweg: Auf der Startseite ist ein Drehkreuz, auf dem man verschiedene Themen sieht, die zum Browsen einladen. Jedes besuchte Objekt öffnet das Tor zu weiteren Pfaden. Hier steht auch eine Art Zeitmaschine, mit der man durch die Zeit browsen und sich Bilder von Objekten aus den Jahren 1850 bis 2009 anschauen kann. Europeana versteht sich als ein Ort für Inspiration und Ideen. Die Digitale Weltbibliothek der Unesco, die ihre Pforten im April 2009 geöffnet hat, ist von planetarischem Ausmaß. Sie macht Dokumente zugänglich, die ihr von Bibliotheken und kulturellen Einrichtungen auf allen Kontinenten zur Verfügung gestellt werden. Derzeit beteiligen sich 26 Institutionen aus 19 Ländern, an Sprachen © Austrian Institute of Technology/Roland Spielhofer Das Gewinnervideo wird auf Kampagnen, Veranstaltungen und Ausstellungen der Projektpartner zu sehen sein. Die Jury besteht aus verschiedenen Experten aus der industriellen Forschung im Bereich Verkehrssicherheit. Es besteht absolute Formfreiheit (Werbespot, Lied, Marketingvideo…) und die Teilnehmer können das Logo und andere optische Elemente von der Website von TyroSafe verwenden. Die Vorschläge können in jeder beliebigen Sprache produziert werden, müssen allerdings mit englischen Untertiteln versehen sein. © Shutterstock/Lori Labrecque IN KÜRZE geografische Zone oder eine Ursache und/oder Folge dieser Veränderungen ausgewählt: Auswirkungen der menschlichen Aktivitäten, die Entwicklung der Landwirtschaft, die Zukunft des Amazonas, der Kohlenstoffkreislauf, die Wasserknappheit und das Ansteigen des Meeresspiegels. Doch bei den Szenarien wird einem schwindelig: 130 Millionen Überschwemmungsopfer pro Jahr, eine Milliarde Menschen ohne Trinkwasser, ein Anstieg des Meeresspiegels um 48 Zentimeter (derzeit leben schätzungsweise 600 Millionen Menschen mindestens 10 Meter unter Meeresniveau), Trockenheit im Amazonas. Alles nur alarmierende Hypothesen? Die Forscher erinnern uns daran, dass 35 000 Tote auf das Konto der Hitzewelle 2003 in Europa gingen. www.actoncopenhagen. decc.gov.uk/en/ambition/ evidence/4-degrees-map/ (1) Siehe Interview mit Jean-Pascal van Ypersele in dieser Ausgabe. research*eu Nr. 63 | APRIL 2010 41 IN KÜRZE PÄDAGOGISCHE ECKE Tornado im Haus E in Topf mit kochendem Wasser, ein Räucherstäbchen und eine große Plexiglasscheibe. Mehr braucht man nicht, um in der Küche einen Mini-Tornado zu erzeugen. Man zerschneide das Plexiglas in 4 Teile, sodass sich ein Quader von einem Meter Höhe bilden lässt, dessen Ober- und Unterseite offen sind. Vor dem Zusammensetzen ist auf der rechten Seite ein 5 cm breiter Schlitz entlang der Ränder der vier Flächen (siehe Abbildung) einzuschneiden. Man stelle dann den Topf auf einen kleinen Kocher, neben dem das bereits angezündete Räucherstäbchen platziert wird. Das Ganze wird mit dem Quader abgedeckt. Jetzt heißt es warten. Nach einer Weile entsteht langsam ein Tornado. Zauber? Nein, Physik! Mit dieser Vorrichtung werden gewissermaßen die natürlichen Bedingungen nachgebildet, die die Entstehung von Tornados begünstigen. Kurz über dem Topf erreicht die Luft eine Temperatur von etwa 100 °C, während sie im oberen Teil des Quaders nur noch 30 °C beträgt. Dieser Temperaturunterschied in den verschiedenen Luftschichten erzeugt eine Auftriebskraft nach dem archimedischen Prinzip, was zu einer vertikalen Beschleunigung des Wasserdampfes führt. Gleichzeitig verursacht diese Bewegung einen Luftzug durch die 4 großen Schlitze, wodurch der aufsteigende Wasserdampf in Rotation versetzt wird. Das Räucherstäbchen gibt Staub frei, auf dem sich die Wasserteilchen ansammeln, sodass das Phänomen sichtbarer wird. 42 research*eu Nr. 63 | APRIL 2010 The world in 2025 – Rising Asia and socio-ecological transition 2009, 28 Seiten, ISBN 978-92-79-12485-3 Diese Veröffentlichung konzentriert sich auf die europäische Zukunftsforschung. Sie stellt klar und deutlich die großen Tendenzen im Hinblick auf geopolitische Veränderungen und die Entwicklung der Wirtschaft, des internationalen Handels und auch der Armut heraus. Anschließend ermittelt sie mögliche künftige Spannungsbereiche (natürliche Ressourcen, Migration, Verstädterung usw.) und schlägt mehrere Wege für den Übergang vor. Collaborative cardiovascular research Auf der Erde bilden sich Tornados in heißen Regionen, in denen die Temperaturunterschiede zwischen dem Boden und den hohen Luftschichten groß genug sind, um eine Aufwärtsbewegung zu verursachen. Die Drehbewegung ist auf die Corioliskraft zurückzuführen, die die Rotation der Erde widerspiegelt, und von geostrophischen Effekten überlagert wird, die mit der Bodenreibung und den Luftschichten zusammenhängen. Durch ihre Bauweise erzeugt die Vorrichtung eine Aufwärtsbewegung mit einer Drehrichtung entgegen dem Uhrzeigersinn, was den Tornados auf der Nordhalbkugel entspricht. Wird der Quader umgedreht, wechselt man praktisch die Seite der Erdhalbkugel. Marie-Françoise Lefèvre 2009, 88 Seiten, ISBN 978-92-79-12802-8 Auflistung der kardiovaskulären Forschung unter dem 7. Rahmenprogramm für Forschung der Europäischen Union zwischen 2007 und 2009. Der erste Teil des Werkes befasst sich mit dem Bedarf in diesem umfangreichen Forschungsbereich sowie mit den Gelegenheiten für eine grenzüberschreitende Zusammenarbeit. People, the economy and our planet 2009, 36 Seiten, ISBN 978-92-79-11952-1 Diese Veröffentlichung setzt ihren Schwerpunkt auf den Beitrag der europäischen Forschung im Bereich der Sozial-, Wirtschafts- und Geisteswissenschaften zur nachhaltigen Entwicklung. Sie stützt sich auf die Sitzungsprotokolle der Konferenz Sustainable development: a challenge for European research, die im Mai 2009 in Brüssel stattgefunden hat. ALLGEMEINE INFORMATIONEN VERÖFFENTLICHUNGEN Wissenschaft Wissenschaft im Dienste Europas Im Dienste Europas Eine Übersicht zum Tätigkeitsbericht 2008 der Generaldirektion Forschung der Europäischen Kommission 2009, 90 Seiten, ISBN 978-92-79-12959-9 Weit von einer reinen Auflistung von Zahlen entfernt gibt dieser Bericht einen Überblick über die Tätigkeit der Generaldirektion Forschung der Kommission im Europäischen Forschungsraum im Jahr 2008. In zwanzig Kapiteln spricht er Themen wie Gesundheit, Landwirtschaft, Nanotechnologien an, angefangen bei Forschungsinfrastrukturen bis hin zu den Zusammenhängen zwischen Wissenschaft und Gesellschaft. The EU works for you: environmental research for today and tomorrow 2009, 94 Seiten, ISBN 978-92-79-11588-2 Dieses auf Recyclingpapier gedruckte Werk stellt 51 wichtige Forschungsprojekte vor, die unter dem 6. Rahmenprogramm für Forschung der EU im Bereich der Umwelt finanziert wurden. Die Projekte sind in zehn Kategorien eingeteilt, etwa Klimaänderungen, Biodiversität oder auch Land- und Stadtmanagement. Global Governance der Wissenschaft 2009, 52 Seiten, ISBN 978-92-79-11307-9 Bericht der Sachverständigengruppe zur Global Governance der Wissenschaft im Auftrag der Generaldirektion Forschung der Europäischen Kommission. Mit Beiträgen von Gelehrten, Soziologen, Philosophen und Politologen aus Europa, den Vereinigten Staaten, China und Südafrika. Informationen über weitere Veröffentlichungen der Europäischen Union und Bestellmöglichkeiten bietet Ihnen der EU-Bookshop: http://bookshop.europa.eu IN KÜRZE NACHWUCHSFORSCHER Die Stimme und der Weg der Amoolya Singh Ich arbeite an der Universität Emory in Atlanta (USA). Nachdem ich in Berkeley meine Doktorarbeit verteidigt hatte, erhielt ich ein Postdoktorandenstipendium für das EMBL (European Molecular Biology Laboratory) in Heidelberg (DE). Bei meinen Forschungsarbeiten geht es darum, die evolutiven Mechanismen der Antworten auf bakteriologischen Stress zu charakterisieren, die bei menschlichen Krankheiten und der biologischen Zersetzung von Giftmüll eine wichtige Rolle spielen. Obwohl mir meine Arbeit Spaß macht, war mein wissenschaftlicher Weg nicht wirklich geradlinig. Meine Eltern waren beide Biologen und daher wurde ich dazu angeregt, mir Fragen zu stellen und die Natur zu erkunden. Auch die Musik prägte mich – sehr früh hatte ich Gesangunterricht und erlernte mehrere Instrumente. Nach dem Abitur in Indien fiel es mir schwer, mich MEINUNG Das Mea culpa eines Kommunikators 15. Oktober 2009. Le Nouvel Observateur schreibt auf der Titelseite: „Nuklearer Zwischenfall – Plutonium in Cadarache nicht inventarisiert“. „Damit könnte man etwa fünf Atombomben bauen“, empört sich Greenpeace. Die Wirklichkeit ist nicht ganz so dramatisch, wirft aber Fragen zur Aufklärung der Öffentlichkeit auf. Denn neben der Analyse seiner Auswirkungen löst ein nuklearer Zwischenfall vor allem erst einmal Empörung, Angst und manchmal sogar Panik aus. Nun bleiben aber Tatsachen, die uns erschüttert haben, viel stärker in unserem Gedächtnis haften. Was ist also zu tun? Erst einmal ist zu bedenken, dass mit der Öffentlichkeit nicht über ein Thema debattiert werden kann, das sie rein zwischen einer Karriere als Musikerin oder Wissenschaftlerin zu entscheiden. Dann erhielt ich ein wissenschaftliches Stipendium für die USA, woraufhin ich mich auf den Weg in den Westen machte. Dort half mir die Möglichkeit, Musik in einer neuen Umgebung zu spielen dabei, den Kulturschock zu überwinden und neue Freunde zu gewinnen. Ich habe die Zeit meines Promotionsstudiums als eine Zeit der Freude und Kreativität in Erinnerung. Die drei Jahre, die ich in Europa verbracht habe, waren für mich eine bereichernde Übergangszeit. Ich wechselte zum zweiten Mal in meinem Leben den Kontinent und musste neu anfangen. Es ist immer beeindruckend, wenn man Tausende von Kilometer weit wegzieht, aber das hatte ich ja bereits einmal erlebt und war auf einen Kulturschock vorbereitet. Überraschenderweise war meine Erfahrung ganz das Gegenteil – als alte Kultur mit einer langen Geschichte schien mir Europa Indien viel näher zu stehen emotional und nicht rational erfasst hat. Obwohl natürlich weiterhin gut dokumentierte Informationsarbeit geleistet werden sollte, lassen sich mit diesem Ansatz nur die wissbegierigsten Menschen erreichen. Daher muss jetzt die breite Masse der Unentschlossenen überzeugt werden, die in der Politik stark ins Gewicht fällt. Cicero lehrte die römischen Redner, dass man, um gehört zu werden, erst einmal begeistern, dann innerlich bewegen und schließlich überzeugen muss. Die Atomwirtschaft hat diese Reihenfolge nie respektiert: Sie wollte vor allem überzeugen, sie hat die breite Masse nicht begeistert und die hervorgerufenen Emotionen waren vor allem negativer Art. Wie könnte die Atomwirtschaft aber die breite Masse gewinnen? Sie muss auf die Bürger zugehen und nicht umgekehrt. Wo ist der Bürger am besten zu erreichen? Abends vor dem Fernseher, bei seiner Lieblingssendung. Hier müssen ihm die Aktivitäten aus dem Bereich der Kernenergie, die Kompetenz und die professionelle Sorgfalt und ich fühlte mich ein bisschen wie zu Hause, als ich die Städte mit ihren Plätzen und Fußgängerzonen erkundete. Ich habe festgestellt, dass meine europäischen Kollegen genauso produktiv sind wie die Amerikaner, im Gegensatz zu diesen aber in der Lage sind, ein Gleichgewicht zwischen Arbeit und Familie zu finden, indem sie beispielsweise jedes Jahr Urlaub nehmen. Dieses Gleichgewicht hat mich darin bestärkt, heiraten und eine Familie gründen zu wollen – während ich das in der gewinnorientierten amerikanischen Gesellschaft zu vermeiden suchte. Nach meiner Rückkehr in die USA ist mir bewusst geworden, dass diese Überleitung (um eine Metapher aus der Musik zu verwenden) mir zu einer eigenen Stimme verholfen hat. Selbst wenn es schwierig ist, sie in dem Wirrwarr beruflicher Zwänge nicht zu verlieren, ist es vielleicht doch der wahre und schönste Grund, weiter zu singen oder auch zu forschen. Amoolya Singh Bioinformatikerin der Fachkräfte gezeigt werden, damit – und das wird Jahre brauchen – das Vertrauen durch die regelmäßige Präsenz vertrauter Personen wieder hergestellt wird. Aber diese „nukleare“ Fernsehserie muss vor allem amüsant sein, um über Jahre hinweg ein breites Publikum anzusprechen und auf diese Weise Stück für Stück das Image dieser Energieform aufzupolieren. Dieses Projekt ist nicht mehr nur Idee, sondern eine derartige Serie wird bereits geprüft. Alain Michel Kommunikationsberater (auf dem Gebiet der Kernkraft) AGENDA Neues aus Forschung und Entwicklung: http://ec.europa.eu/research/headlines/ archives_diary_en.cfm research*eu Nr. 63 | APRIL 2010 43 BILD DER WISSENSCHAFT KIAH09063DEC Kurz vor dem Ausbruch Diese Gasblasen kündigen den Ausbruch des berühmten Strokkur-Geysirs in Island an. Das Bild wurde nur wenige Millisekunden vor der Eruption aufgenommen. Es hat seinem Fotografen, dem 17jährigen Ela Ugur aus Dänemark, den Gold scientifique et technique) 2009 eingebracht. Für die Veranstalter dieses jährlichen Wettbewerbs, an dem Jugendliche unter 25 Jahren teilnehmen dürfen, besteht das Ziel darin, „einen Raum anzubieten, in dem die Jugend kreativ sein und in Bildern das ausdrücken kann, was sie in den Naturwissenschaften beobachtet. Die Teilnahme ist so einfach wie das Drücken des Auslösers.“ http://europe.milset.org Mit freundlicher Genehmigung von Ela Ugur/Milset Award beim Fotowettbewerb der MILSET (Mouvement international pour le loisir