Realitätscheck für den Klimaschutz Globale Klimapolitik zwischen Anspruch und Wirklichkeit Herausgeber Steffen Hentrich Holger Krahmer Realitätscheck für den Klimaschutz Realitätscheck für den Klimaschutz Globale Klimapolitik zwischen Anspruch und Wirklichkeit Eine vernünftige Klimapolitik in einer Welt voller Unsicherheiten Ross McKitrick Die EU-Klimapolitik: Teuer und ineffektiv Manuel Frondel Herausgeber Steffen Hentrich Holger Krahmer © 2011 Steffen Hentrich Die Autoren und Herausgeber Friedrich-Naumann-Stiftung für die Freiheit Liberales Institut Herausgeber Referent | Senior Research Fellow Steffen Hentrich Karl-Marx-Straße 2 Holger Krahmer 14482 Potsdam Telefon +49 331 7019129 Autoren [email protected] Ross McKitrick www.freiheit.org Manuel Frondel Holger Krahmer Titelgestaltung, Layout, Satz Mitglied des Europäischen Parlaments RAUM II Abgeordnetenbüro ‘krahmerladen’ Agentur für visuelle Kommunikation Nonnenmühlgasse 1 Christoph Jahn | Frank Ekelmann 04109 Leipzig www.raum-zwei.com Telefon +49 341 2535580 [email protected] Übersetzung aus dem Englischen www.holger-krahmer.de Tanja Felder www.sprachfelder.de Erste Auflage Alle Rechte vorbehalten. Lektorat Ewald Oetzel Dieses Werk oder Teile des Werkes dürfen nicht ohne die schriftliche Genehmigung der Druck Herausgeber vervielfältigt, in Datenbanken Förster & Borries GmbH & Co. KG gespeichert oder in irgendeiner Form www.foebo.de übertragen werden. Papier ISBN 978-3-00-036040-4 | Print Inhalt: Profibulk 1.3, 115 g/m² ISBN 978-3-00-03604 1- 1 | eBook Bezug: Profisilk, 140 g/m² Printed in Germany Inhalt Vorwort 7 Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 13 Ross McKitrick 1.Einleitung 15 2. Theoretische Grundlagen der Klimapolitik 3. Unsicherheit bezüglich des Grenzschadens 4. Die Berücksichtigung neuer Erkenntnisse Literatur 47 79 bei der Gestaltung künftiger Emissionspreise 5. Schlussfolgerungen 29 91 95 Die EU-Klimapolitik: Teuer und ineffektiv 103 Manuel Frondel 1.Einleitung 105 2. Der geringe Effekt der 109 Treibhausgasminderungspolitik der EU 119 3. Kontraproduktive internationale Rückwirkungen 4. Mangelnde Kosteneffizienz der 5. Schlechte Chancen für ein globales 123 Treibhausgasminderungspolitik der EU 135 Klimaabkommen zur Treibhausgasminderung 6. Erfolgsträchtigere Alternativen 141 7. Anpassung an die globale Erwärmung Literatur 155 159 Die Autoren und Herausgeber 149 8. Zusammenfassung und Schlussfolgerung 167 Vorwort Steffen Hentrich | Holger Krahmer Die derzeitige klimapolitische Diskussion geht von der Prämisse aus, dass die wissenschaftlichen Erkenntnisse über das globale Klima und den darauf wirkenden Einfluss des Menschen hinreichend sind, um daraus schon heute klare Handlungsempfehlungen für eine langfristige Klimapolitik ableiten zu können. Ebenso vorherrschend ist der Glaube, dass internationale Abkommen möglich und derzeit praktizierte und geplante Klimaschutzmaßnahmen wirksam sind. Bei näherer Betrachtung wird jedoch die Realitätsferne dieser Annahmen offensichtlich. Tatsächlich gehen die Einschätzungen über die Validität der herrschenden wissenschaftlichen Lehre über die Ursachen und das Ausmaß des Klimawandels unter den Experten der unterschiedlichsten wissenschaftlichen Disziplinen weit auseinander. Um Klimamodelle und Klimadaten gibt es einen intensiven wissenschaftlichen Disput. Doch nicht nur die naturwissenschaftliche Dimension des Klimawandels ist heiß umstritten, sondern auch die Frage nach einer angemessenen Reaktion auf die globalen Klimaveränderungen und die geeignete Implementierung klimapolitischer Maßnahmen. Obwohl sich Klimawissenschaftler ebenso wie Umweltpolitiker der herrschenden Unsicherheiten bewusst sein sollten, werden die damit verbundenen Herausforderungen für die menschliche Handlungsfähigkeit in der internationalen Klimapolitikarena selten zugegeben. Hinter dieser Kulisse der Sicherheit sind die unterschiedlichsten Interessengruppen schon längst dabei, die Löcher der wissenschaftlichen Erkenntnis mit Vorwort 7 den notwendigen Zutaten für die Durchsetzung ihrer eigenen Interessen zu stopfen. Kein Wunder, dass es dem Sammelsurium der derzeitig praktizierten Klimaschutzinstrumente an Effektivität und Effizienz fehlt. Selbst in der heilen Welt des Klimakonsenses kommt man nicht umhin, die Risse in der Fassade der wackligen Konstruktion internationaler Vereinbarungen anzuerkennen. Wo politische Entscheidungslogik, Lobbyismus und der Glaube an eine ökologisch motivierte Wirtschaftslenkung geprägte Ideologie regiert, ist wenig Platz für Rationalität und wirtschaftliche Freiheit. 8 Rationale Klimapolitik muss sich der Herausforderung der naturwissenschaftlichen und sozioökonomischen Unsicherheiten stellen, nicht nur um den derzeitigen Stillstand der internationalen Klimaverhandlungen zu beenden. Der Wohlstand der Menschen in der entwickelten Welt steht ebenso auf dem Spiel wie die Entwicklungsoptionen in den ärmsten Regionen unseres Planeten. Unter den gegebenen technologischen Bedingungen ist die künstliche Verknappung von reichlich vorhandenen und kostengünstig nutzbaren fossilen Energieträgern ein nicht zu unterschätzendes Hemmnis für Produktivitätsfortschritte, die notwendig sind, Millionen Menschen auf der Erde angemessen zu ernähren sowie menschenwürdige Lebensbedingungen und realistische Entwicklungschancen zu ermöglichen. Wir wissen bis heute nicht, ob eine Konzentration auf die Vermeidung von Treibhausgasemissionen in der Klimapolitik ein wirksamer Weg zur Verhinderung der befürchteten Folgen eines globalen Klimawandels ist. Unter den Bedingungen ungenauer Kenntnis der Zusammenhänge zwischen klimatischen Veränderungen und wirtschaftlichen Aktivitäten und den hohen Unsicherheiten über die Dynamik der wirtschaftlichen Entwicklung ist ein verantwortlicher Umgang mit knappen Ressourcen unumgänglich, will eine Gesellschaft Hemmnisse für ihre zukünftigen Entwicklung möglichst gering halten. Mehr Wohlstand und weniger Umweltverschmutzung sind gemeinsam nur zu erreichen, wenn wir mit den uns zur Verfügung stehenden Mitteln so effizient wie möglich Steffen Hentrich | Holger Krahmer umgehen. Wenn nicht, riskieren wir wertvolle Entwicklungsoptionen für die heute lebenden Menschen und zukünftige Generationen. Doch nicht nur die sozioökonomischen Folgen des herrschenden klimapolitischen Paradigmas geben Anlass zur Sorge, auch die im Namen des Klimaschutzes immer stärker um sich greifende Erosion bürgerlicher Freiheiten ist alarmierend. Grundlegende Menschenrechte stehen ebenso auf dem Spiel wie Entwicklung und Fortschritt. Auch aus diesem Grund ist eine flexiblere und effiziente Klimapolitik unumgänglich, eine Klimapolitik, die sich statt an starren Zielen am sich wandelnden Wissen orientiert und sich auf Maßnahmen beschränkt, die nachweislich die Belastungen für die Bürger minimieren. Das bedeutet eine Kombination eines maßvollen Einsatzes effizienter Instrumente zur Vermeidung von Treibhausgasemissionen und von Maßnahmen zur Anpassung an den Klimawandel, die mit einem Minimum an Eingriffen in Märkte und die individuellen Rechte der Bürger auskommen. Dieses Buch versucht die Lücke zwischen dem Allmachtsanspruch der Klimapolitik und dem nach menschlichem Ermessen sinnvollen Beitrag zur Vorsorge in einer Welt unsicherer zukünftiger Entwicklungen zu schließen, offensichtliche Schwächen der Klimapolitik aufzudecken und Alternativen zu beschreiben. Ross McKitrick analysiert hierzu die wohlfahrtsökonomischen Voraussetzungen der Klimapolitik unter naturwissenschaftlichen und sozioökonomischen Unsicherheiten, zeigt diese anhand jüngster Ergebnisse der empirischen und modellorientierten Klimaforschung auf und zieht daraus Schlussfolgerungen für die praktische Klimapolitik. Kern seiner Empfehlung ist eine Emissionsabgabe, deren Höhe entsprechend einer transparent nachvollziehbaren Entscheidungsregel flexibel an beobachtbare Temperaturentwicklungen angepasst werden kann. Ein derartiges Klimaschutzinstrument vermeidet die Gefahr politischer Überreaktionen oder systematischer Fehleinschätzungen des notwendigen Umfangs von Vermeidungsmaßnahmen und veranlasst die be- Vorwort 9 troffenen Akteure eigene Prognosen klimatischer Veränderungen ohne interessengeleitete Manipulation der Ergebnisse zur Verfügung zu stellen. Eine derartige Abgabe zeichnet sich nicht nur durch ökonomische Vorteile gegenüber der heutigen Mengensteuerung in der Klimapolitik aus, sondern vermag auch der sich immer weiter verschärfenden Politisierung der Klimawissenschaft entgegenzuwirken. Manuel Frondel arbeitet sich durch die Defizite der Klimapolitik der Europäischen Union und zeigt die Ursachen für ihren Mangel an Wirksamkeit und Effizienz auf. Wirtschaftswissenschaftliche Überle10 gungen und praktische Beobachtungen zeigen dabei eindrucksvoll, welche gefährlichen Folgen der Glaube an eine europäische Vorreiterrolle in der Klimapolitik haben kann. Klimapolitischer Pragmatismus würde dahingegen viel stärker auf sich evolutionär entwickelnde Strategien setzen, die sich auf regional wirksame Anpassungsmaßnahmen und die Förderung von Forschung und Entwicklung im Bereich emissionsreduzierender Energieumwandlungstechnologien konzentrieren. Rationale Klimapolitik kann ohne Opfer an Wohlstand und Freiheit auskommen. Doch für den dazu notwendigen Politikwandel ist eine offene Debatte über Ursachen und Lösungsalternativen der Probleme des Klimawandels unumgänglich. Dieser Herausforderung will sich dieses Buch stellen. Steffen Hentrich | Potsdam Holger Krahmer | Leipzig Juli 2011 Steffen Hentrich | Holger Krahmer Mit besonderem Dank der Herausgeber an die Friedrich-Naumann-Stiftung für die Freiheit Ross McKitrick Eine vernünftige Klimapolitik in einer Welt voller Unsicherheiten 1. Einleitung Zwanzig Jahre Misserfolg „Wir müssen der unschönen Wahrheit ins Auge blicken und erkennen, dass der klimapolitische Prozess am Ende ist. 2012 läuft das einzige Abkommen zur Begrenzung der Treibhausgasemissionen – das Kyoto-Protokoll – aus. Die Hoffnung auf den Abschluss eines Nachfolgeabkommens vor diesem Zeitpunkt ist nicht realistisch: Über das bestehende Abkommen wurde fünf lange Jahre verhandelt; acht weitere gingen ins Land, bevor es schließlich in Kraft trat. Hinsichtlich einer echten Hoffnung auf globales Handeln gegen den Klimawandel liegen wir heute weit hinter dem Stand von 1997 oder sogar 1992 zurück. Und dabei geht es nicht nur darum, dass wir 18 wertvolle Jahre verloren haben. In der Zeit der guten Absichten und großen Worte haben wir letztlich sogar Rückschritte gemacht. |...| Wie sollen wir mit der Tatsache umgehen, die wir zu verdrängen suchten, nämlich dass in 18 Jahren vollmundiger Versprechungen und großer Töne nichts geschehen ist?“ George Monbiot Guardian Newspaper | 20. September 2010 In diesem Beitrag geht es um die Gestaltung einer Politik zur Bekämpfung der globalen Erwärmung durch eine Reduzierung von Treibhausgasemissionen (THG), insbesondere Kohlendioxid (CO2). Mit dem Erdgipfel der Vereinten Nationen in Rio de Janeiro im Jahr 1992 erlangte das Thema große politische Aufmerksamkeit. Doch trotz zwanzig Jahre intensiver Arbeit, die durch ein annähernd globales Einvernehmen der politischen und gesellschaftlichen Eliten darüber geprägt war, dass es sich bei der globalen Erwärmung um eine Krise handelt, die ein unverzügliches und weit reichendes Eingreifen erfordert, so- Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 15 wie wiederholter Äußerungen von Spitzenpolitikern, entschlossen handeln zu wollen, wurden letztlich kaum kohärente politische Maßnahmen auf den Weg gebracht. Im Gegenteil: Die Staaten scheiterten mehrfach in dem Versuch, sich auf Abkommen oder andere Koordinierungsmechanismen zu einigen, und auch darüber, was in absehbarer Zukunft getan werden könnte oder sollte, scheint nur wenig Einigkeit zu herrschen. Dieser Umstand ist meiner Meinung nach im Wesentlichen darauf zurückzuführen, dass es in der Vergangenheit nicht gelungen ist, die 16 Klimapolitik auf eine ökonomisch vernünftige Grundlage zu stellen. Ein Großteil der populärsten klimapolitischen Ideen ist aus ökonomischer Sicht nicht durchführbar und alle dahingehenden Bestrebungen legen letztlich nur das Fundament für ihr späteres Scheitern. Ein zufriedenstellender Fortschritt in der Klimapolitik ist daher nicht absehbar, solange wir uns nicht eingestehen, dass die bestehenden globalen Initiativen auf tönernen Füßen stehen und eine grundlegend andere Richtung eingeschlagen wird. In diesem Beitrag möchte ich zunächst die meines Erachtens bestehenden vier grundlegenden Mängel der aktuellen Klimapolitik darlegen: Erstens haben weder die Bürokratie noch die Politik erkannt, dass es sich bei CO2 um einen Sonderfall handelt, der nicht in eine Reihe mit den vorherrschenden Umweltthemen der 1970er und 1980er Jahre wie Schwefeldioxid-Emissionen (SO2) und Fluorchlorkohlenwasserstoff-Emissionen (FCKW) gestellt werden kann, zu deren wirksamer Bekämpfung konventionelle Institutionen ausreichend waren. Die Verhandlungsmechanismen und politischen Initiativen zur Lösung dieser Probleme wurden einfach auf die CO2-Problematik übertragen, ohne für diese jedoch passende Lösungen bieten zu können. Zweitens ist es der Politik nicht gelungen, mit dem Anstieg der in der Ökonomie als Grenzvermeidungskostenkurve (GVK) bezeichneten Kostenfunktion der Klimapolitik angemessen umzugehen, d. h. zu verstehen, in welchem Maße die Kosten für die Optionen zur Vermeidung Einleitung von CO2 bei Ausweitung der Ziele zur Emissionsreduzierung steigen. Das führt dazu, dass politische Ziele verfolgt werden, die höhere Kosten verursachen, als die Öffentlichkeit zu akzeptieren bereit ist. Einige Verfechter dieses politischen Vorgehens versuchten zu zeigen, dass die Politik zur Reduzierung von Treibhausgasen ökonomische Vorteile mit sich bringen kann. Tatsächlich fußt ein Großteil der Rhetorik der jüngsten Vergangenheit in Bezug auf eine „grüne Ökonomie“ auf dieser irrigen Behauptung. In Wahrheit verhält es sich jedoch so, dass politische Maßnahmen, die ausreichen würden, um die allgemein vorgebrachten Ziele zur Emissionsreduzierung zu erreichen, mit den aktuell existierenden Technologien deutlich höhere Kosten verursachen würden, als die Öffentlichkeit zu tragen bereit ist, und auch deutlich höhere Kosten, als die Politiker, die diesen Weg verfechten, sich vor Augen zu führen scheinen. Die Art der von der Politik regelmäßig vereinbarten Ziele entbehrt folglich, angesichts des dabei ausbleibenden Erfolgs, diese zu erreichen, jeglicher demokratischen Legitimation. Drittens zeigt eine ökonomische Analyse, dass die Politik zur Reduzierung der Treibhausgase Emissionspreise anstelle von Emissionsgrenzen festsetzen sollte. Die Regulierungsbehörden haben die Wahl, ob sie einen Preis für Emissionen fixieren und den Markt über die Menge entscheiden lassen oder ob sie es bevorzugen, ein Emissionsziel vorzuschreiben und den Markt den Preis bestimmen zu lassen – beides zugleich geht nicht. Aus technischen Gründen wissenschaftlicher und ökonomischer Natur sind Preismechanismen geeigneter als eine Strategie zur Regulierung von Treibhausgasen. Alle bis heute durchgeführten größeren globalen Initiativen, einschließlich des Kyoto-Protokolls und ähnlicher Instrumente, legten ihren Schwerpunkt dennoch auf Mengenbegrenzungen. Eine Begrenzung der Emissionsmengen oder, noch schlimmer, indirekte regulatorische Maßnahmen zur Veränderung des Energieverbrauchsverhaltens sind kostenintensiv, intrusiv und häufig nutzlos. Eine große Herausforderung, beim Versuch, die globale Klimapolitik auf eine vernünftige Grundlage zu stellen, liegt Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 17 also darin, die Diskussion auf die Wahl einer Preis- statt einer Mengensteuerung umzulenken. Richtet sich das Augenmerk hingegen weiter auf Mengenbegrenzungen, steht fest, dass die kommenden zwanzig Jahre ein ebenso kostenintensiver Misserfolg sein werden wie die vergangenen. Schließlich ergibt sich für die Politik aus den großen Unsicherheiten, den langen Planungshorizonten sowie der Erwartung, dass in den kommenden Jahren einschlägige neue Informationen über das Ausmaß der Umweltschädigung durch Treibhausgasemissionen und 18 die Kosten zu deren Vermeidung vorliegen werden, die Notwendigkeit, sich primär auf zustandsabhängige (bzw. anpassungsfähige) Preisregelungen anstatt auf starre, langfristige Verpflichtungen zur Emissionsbegrenzung zu konzentrieren. Ziel dieses Beitrags ist es, die konventionelle Auffassung von der globalen Klimapolitik grundlegend in Frage zu stellen. Wer sich dem aktuellen politischen Handlungsrahmen stark verbunden fühlt und eine solch umfassende Neubewertung ablehnt oder diese für nachteilig erachtet, sollte versuchen, seine Zweifel über Bord zu werfen und sich offen auf die Argumente einzulassen. Wer sich ernsthaft eine vernünftige und wirksame Klimapolitik wünscht, kann mit den letzten zwei Jahrzehnten nicht zufrieden sein. Die Zeit ist reif für eine tiefgreifende Neugestaltung. Emissionsvermeidungspolitik vs. ‘Klimapolitik’ Ich möchte diesen Beitrag ungeachtet des Titels damit beginnen, zunächst Kritik an dem unpassenden Begriff der „Klimapolitik“ anzubringen, die meines Erachtens besser als Treibhausgas-Emissionsvermeidungspolitik bezeichnet würde. Diese Unterscheidung ist von großer Bedeutung. Politiker können zwar langfristig betrachtet den Emissionsverlauf der Wirtschaft beeinflussen; das Klima zu verändern, ist hingegen niemand in der Lage. Einleitung Die diesbezügliche Verwirrung führt bisweilen zu einer eigenartigen Rhetorik. In einer Rede vor dem Toronto Economic Club am 30. Mai 2007 rühmte sich der damalige kalifornische Gouverneur Arnold Schwarzenegger der starken Begrenzung der Treibhausgasemissionen, zu der sich sein Bundesstaat verpflichtet hatte (Erreichen der Ziele von 1990 bis 2020); er sagte: „Ich bin überzeugt, dass wir das Klima dieses Planeten reparieren können.“ Dieser Ausspruch fand sich am 31. Mai 2007 auf dem Titel der National Post wieder. Die Aussage, staatliche Politik könne das Klima des Planeten „reparieren“, ist grotesk. Es ist vielleicht möglich, das Erscheinungsbild eines Stuhls oder eines Paars Schuhe zu verändern, wobei auch in diesen Fällen versucht wird, ein ursprüngliches Erscheinungsbild neu nachzubilden. Doch welches sind die ursprünglichen Bedingungen für das Erdklima, wenn es denn tatsächlich möglich sein sollte, diese zu erreichen? Gemessen an einer geologischen Zeitskala wären als Ziel tropische Bedingungen an den Polen oder eine globale Eiszeit vorstellbar – oder auch irgendetwas dazwischen. Und selbst wenn das Ziel lautete, zu den klimatischen Bedingungen des vergangenen Jahrhunderts zurückzugelangen, bleibt unklar, wonach genau wir streben. Eine Entscheidung bspw. für den Status quo der 1930er, 1950er oder 1970er Jahre würde voraussetzen, man sitze dem Irrtum auf, es gäbe einen optimalen Klimazustand und jegliches Abweichen von diesem, in welch geringem Maße auch immer, käme einer Katastrophe gleich. Was Gouverneur Schwarzenegger offenkundig meinte war, dass die von ihm vorgeschlagenen Treibhausgasemissionsziele seiner Ansicht nach erreichbar wären. Das mag richtig sein, ist jedoch mit hohem Kostenaufwand verbunden. In weiten Teilen seiner Rede lobte Schwarzenegger die Marktchancen für neue Technologien (wie Elektroautos und Solarzellen), deren Einsatz in Kalifornien er fördern wollte. Doch zeigt seine eigene Politik, dass zu ihrer Umsetzung höhere Subventionen und strenge gesetzliche Vorgaben vonnöten wären, und zwar aus dem einfachen Grund, dass sie nicht profitabel bzw. ganz ein- Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 19 fach teuer sind. Das Erreichen dieser Ziele erfordert mehr als einige kleinere Verbesserungen bei der Energieeffizienz und optimistische Rhetorik; um diese Ziele zu erreichen, müssen die Menschen bereit sein, enorme Kosten zu tragen. Ein weitaus gravierenderes Problem in der Denkweise von Arnold Schwarzenegger (und vielen anderen Spitzenpolitikern auf dieser Welt) liegt darin, dass die tatsächliche Emissionsreduzierung im Rahmen eines jeden Ziels, das vernünftigerweise als bezahlbar erachtet werden kann, so gering ausfällt, dass die Folgen für das Klimasystem nahezu 20 unbemerkt bleiben. In diesem Sinne gibt es so etwas wie „Klimapolitik“ nicht. Niemand kann das Klima direkt beeinflussen. Wenn diejenigen also, die spezifische Maßnahmen vorschlagen, von „Klimapolitik“ sprechen, erwecken sie den Eindruck, ihre Ideen hätten direkten, vorhersagbaren und unmittelbaren Einfluss auf das globale Klima. Im Ergebnis werden die möglichen Kosten des globalen Klimawandels bisweilen mit den Kosten der jeweiligen lokalen Politikmaßnahmen zur Emissionskontrolle verglichen und, wenn letztere gegenüber ersteren gering ausfallen, von den Urhebern dieser Politik als Beleg dafür herangezogen, dass diese umgesetzt werden sollte. Diese Argumentation lässt sich jedoch nicht aufrechterhalten, da die lokale Politik zur Emissionskontrolle im Allgemeinen geringen bzw. überhaupt keinen Einfluss auf die künftige Entwicklung des globalen Klimas hat. Selbst wenn multilaterale Abkommen wie das Kyoto-Protokoll umgesetzt würden, so wäre der Nutzen für das Klima äußerst gering. Belegt wird dies in komplexen Modellsimulationen (z. B. Wigley et al. 1998), doch ist die dem zugrundeliegende Argumentation leicht nachvollziehbar. >> Der Einfluss von Treibhausgasen auf die Veränderung des Klimas ist von der in der Atmosphäre vorhandenen Menge dieser Gase abhängig, nicht von den jährlichen Emissionen. >> Aktuell befinden sich etwa 750 Gigatonnen CO2 (in Kohlenstoffäquivalent) in der Atmosphäre (Houghton 1997). Einleitung >> Die weltweiten jährlichen Emissionen liegen bei 8,4 Gigatonnen, von denen etwa 3 auf natürliche Weise sequestriert werden (Marland et al. 2010). >> Von den etwa 5,4 Gigatonnen Nettoemissionen stammt die Hälfte aus den Industriestaaten. >> Diese 2,7 Gigatonnen an Emissionen sollten laut Kyoto-Protokoll auf etwa 5 % unter das Emissionsniveau von 1990 bzw. um etwa 0,7 Gigatonnen ausgehend vom heutigen Stand reduziert werden. >> Es wird erwartet, dass auch wenn die Teilnehmer des Kyoto-Protokolls ihre Pflichten vollständig erfüllen, ein Teil dieser Emissionen durch das Phänomen der Carbon Leakage – das Entstehen höherer Emissionen andernorts durch die Verlagerung von Produktionsprozessen in Länder ohne Emissionsbeschränkungen – aufgewogen wird. Veröffentlichte Schätzungen dieser Leckrate reichen je nach angenommenen Marktstrukturen und Merkmalen der Brennstoffbeschaffung von Null bis über 100 %. Wenn wir von einer Leckrate von 20 % ausgehen, entspräche dies einer Reduzierung des Emissionsvolumens durch das Kyoto-Protokoll um etwa 0,6 Gigatonnen und damit einer Reduzierung des in der Atmosphäre gespeicherten Kohlenstoffs um etwa 0,08 %. Selbst wenn also die Vorgaben des Kyoto-Protokolls eingehalten würden, hätte dies nur geringe Emissionsreduzierungen mit minimalen Auswirkungen auf die globale Kohlendioxidkonzentration zur Folge. Und für die meisten Länder erwies sich die Umsetzung des Kyoto-Protokolls als zu kostspielig und schwierig. Ich wiederhole noch einmal: Ziele zur Emissionsreduzierung, die hinreichend weit angelegt sind, um spürbare Auswirkungen zu zeitigen, sind in ihrer Umsetzung zu teuer. Das bedeutet selbstverständlich nicht, dass nichts getan werden sollte; doch es bedeutet sehr wohl, dass die gesetzten Ziele und Fristen sich an der Realität orientieren müssen und nicht bloße Rhetorik oder Wunschdenken sein sollten. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 21 Es ist falsch, auf die potenziellen Kosten des globalen Klimawandels zu verweisen und diese mit den potenziellen Kosten lokaler politischer Maßnahmen zur Reduzierung der Emissionen zu vergleichen. Richtig wäre es hingegen, die Kosten der lokalen politischen Maßnahmen zur Emissionsreduzierung zu ermitteln und diese mit den Vorteilen der anzunehmenden Veränderungen einer potenziellen künftigen Entwicklung des globalen Klimas zu vergleichen. Erzielt eine Politik zur Emissionsreduzierung solch geringe Auswirkungen auf die globale Atmosphäre, dass ein Land daraus in der Zukunft keinen Einfluss auf 22 das Klima erwarten kann, liegt der Nutzen einer solchen Politik in Bezug auf die Verringerung klimabedingter Schäden bei null. Die besonderen Herausforderungen der Kontrolle von CO2-Emissionen Es mag allzu pessimistisch erscheinen zu sagen, dass die finanzierbaren Ziele zur Emissionsreduzierung nicht weit genug reichen, um spürbare Auswirkungen auf das Klima zu zeitigen. Doch spiegelt diese Aussage die Wirklichkeit für Kohlendioxid – im Gegensatz zu anderen Formen der Luftverschmutzung – wider. So ist es in Nordamerika und Europa beispielsweise gelungen, die Schwefeldioxid-Problematik erfolgreich in den Griff zu bekommen. Politische Maßnahmen, die sowohl auf lokaler als auch auf nationaler Ebene umgesetzt wurden, führten seit den 1970er Jahren zu einer umfangreichen Reduzierung der SO2-Emissionen und -Konzentrationen zu durchaus erschwinglichen Kosten. Vor diesem Hintergrund könnte man der Versuchung erliegen zu glauben, auch für CO2 ließen sich zu geringen Kosten Programme zur Reduzierung der Emissionen mit ähnlich überzeugenden Ergebnissen auflegen. Doch dieses Argument hinkt, da es für CO2 im Vergleich zu SO2 nur sehr wenige Möglichkeiten gibt, die Emissionen zu reduzieren. Tabelle 1 zeigt die wesentlichen Optionen zur Emissionsreduzierung sowie deren Verfügbarkeit in Bezug auf CO2 und SO2. Einleitung VERMEIDUNGSOPTIONEN UND -KOSTEN Vermeidungsoption Verfügbarkeit Relative Kosten SO2CO2 Schornsteine mit Abluftwäscher Niedrig Ja Nein Umstieg auf sauberere Version desselben Brennstoffs Niedrig Ja Nein Umstieg auf anderen Brennstoff Hoch Ja Ja Gesamtverbrauch senken Hoch Ja Ja 23 Die vier verfügbaren Vermeidungsoptionen sind: Installation von Abluftwäschern auf Schornsteinen, Umstieg auf eine sauberere Version desselben Brennstoffs (z. B. von stark schwefelhaltiger Kohle auf schwach schwefelhaltige Kohle), Umstieg auf einen anderen Brennstoff (z. B. von Kohle auf Erdgas) und Einschränkung des Umfangs der produktiven Tätigkeit. Die beiden ersten sind die billigsten Optionen. Im Falle der Erfüllung der Clean Air Act Amendments von 1990 (USLuftreinhaltungsgesetze), in deren Rahmen die Schwefelemissionen in den USA um etwa 40 % gesenkt wurden, nahmen die Installation von Abluftwäschern sowie der Umstieg auf andere Kohlearten 45 bzw. 55 % der gesamten in Phase I erzielten Emissionssenkungen, insbesondere des starken Emissionsrückgangs zwischen 1994 und 1996, ein (Schmalensee et al. 1998). Doch stehen alle genannten Optionen, auf die damals zur Senkung der SO2-Emissionen zurückgegriffen wurde, für die CO2-Kontrolle nicht zur Verfügung: >> Schwach schwefelhaltige Kohle existiert, schwach kohlenstoffhaltige Kohle dagegen nicht. >> Für CO2 gibt es keine Abluftwäscher. Der zweite Punkt ist den Kraftwerksbetreibern wohlbekannt. In einer Studie über die Optionen zur Vermeidung luftverschmutzender Emis- Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten sionen kam die Ontario Power Authority (2007) zu dem Schluss, dass simulierte CO2-Emissionsveränderungen vollständig durch geschätzte Veränderungen der Ausstoßniveaus verursacht wurden: „[Geplante] Reduzierungen der CO2-Emissionen zwischen 2010 und 2014 wurden viel mehr durch Reduzierungen der kohle[-befeuerten Elektrizitäts-] Produktion erzielt als durch Emissionskontrollen. Es gibt derzeit keine realisierbare Kontrolltechnologie zur Reduzierung der CO2-Emissionen aus Kohlekraftwerken. Die CO2-Reduzierungen sind daher bei allen Alternativen identisch.“ OPA | 2007 | Seite 5 24 Ausgehend davon sind die einzigen Möglichkeiten, die CO2-Emissionen einzudämmen, die kostenintensiveren Optionen des Umstiegs auf andere Brennstoffe und der Senkung des Verbrauchs. Kraftwerke können Kessel durch gasbefeuerte Anlagen ersetzen oder den Gesamtbrennstoffverbrauch senken, was im Allgemeinen eine Reduzierung der gesamten Energieproduktion erfordert. Der Umstieg von Kohle auf andere Brennstoffe ist nicht nur aufgrund der Kapitalkosten teuer, sondern auch wegen des langfristigen Anstiegs der Erdöl- und Gaspreise gegenüber Kohle. Abbildung 1 zeigt die (inflationsbereinigten) jeweils auf den Wert 100 indexierten Realpreise der drei zentralen fossilen Energiequellen auf dem US-Markt zwischen 1949 und 2009. Die Kohlepreise haben sich danach kaum verändert, wohingegen der Gaspreis nach seinem jüngsten, um das 18-Fache höheren Spitzenwert achtmal höher liegt. Der Ölpreis hat sich nach einem um das Fünffache höher liegenden Spitzenwert gegenüber Kohle verdoppelt. Bezogen auf die relativen Kosten und die preisliche Volatilität ist Kohle damit nach wie vor die beste Energiequelle. Einleitung Reale Preise von Kohle, Erdgas und Erdöl 1949 – 2009, indexiert auf 1949 = 100 Abbildung 1 2.000 1.800 1.600 Kohle Erdgas Erdöl 1.400 1.200 25 1.000 800 600 400 200 0 1949195419591964196919741979198419891994199920042009P Quelle: US Energy Information Administration | http://www.eia.doe.gov/overview_hd.html (Daten für 2009, vorläufig [P]) Europa vs. USA: andere Rhetorik, gleiches Ergebnis Die Europäische Union unterzeichnete und ratifizierte das KyotoProtokoll 2002 mit dem Versprechen, die Treibhausgasemissionen bis 2008 gegenüber dem Stand von 1990 um 8 % zu senken. Die USA haben dies nicht getan und sich auf keine verbindlichen Ziele zur Senkung der Emissionen eingelassen. Stattdessen kündigte der damalige Präsident George W. Bush 2002 das unverbindliche Ziel an, die Emissionsintensität (Treibhausgase je Dollar BIP) bis 2012 um 18 % gegenüber dem Stand von 2002 zu senken – was allein durch Beibehaltung des nach den 1980er Jahren eingeschlagenen Entwicklungstrends der Emissionen erreicht werden konnte. Die beiden genannten großen Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten Akteure haben somit nahezu das gesamte vergangene Jahrzehnt zwei völlig unterschiedliche Ziele verfolgt: Business as usual in den USA, tiefgreifende Emissionseinschnitte in der EU. Ein Blick auf die Daten zeigt jedoch, dass beide Regionen hinsichtlich der Emissionsintensität nicht allzu unterschiedlich abgeschnitten haben. Zwischen 1995 und 2007 ging die Treibhausgasemissionsintensität in der gesamten EU (einschließlich Deutschland) um etwa 32 % zurück (Marland et al. 2010). In den USA sank die Emissionsintensität innerhalb desselben Zeitraums um 23 %. Ohne es überhaupt zu ver26 suchen, ist es den USA gelungen, die Emissionsintensität ihrer Produktion annähernd so weit zu senken wie in Europa. Wie Abbildung 2 zeigt, besteht der einzige Unterschied zwischen den USA und Europa hinsichtlich der Emissionsintensität ausschließlich in der Geschwindigkeit, nicht in der Richtung. Treibhausgasemissionsintensität in den USA und Europa (EU-25) EU Abbildung 2 USA 100,0 100,0 96,5 98,4 90,6 96,8 86,5 92,9 83,4 89,8 81,1 89,1 81,2 86,4 78,5 85,9 76,9 83,7 73,4 82,4 71,9 80,5 70,5 77,3 67,8 76,7 120,0 100,0 80,0 60,0 40,0 20,0 0,0 199519961997 199819992000 20012002200320042005 20062007 Quelle: EU http://epp.eurostat.ec.europa.eu | USA http://www.gpoaccess.gov/eop/tables10.html und http://cdiac.ornl.gov/trends/emis/usa.html | Berechnungen des Verfassers Einleitung Wie oben erwähnt, setzt eine Senkung der CO2-Emissionen eine Senkung des Energieverbrauchs voraus. Was bedeutet das für das Wirtschaftswachstum? Zentrale Frage hierbei ist, ob ein höherer Energieverbrauch einen Anstieg des BIP bedingt oder durch einen Anstieg des BIP bedingt wird. Diese Unterscheidung ist von großer Bedeutung. Ist ein höherer Energieverbrauch eine bloße Nebenerscheinung von Wachstum, könnte er gedeckelt und ohne Beeinträchtigung des Wirtschaftswachstums gesenkt werden. Wirkt ein höherer Energieverbrauch hingegen wachstumsfördernd, ist eine Abkoppelung des einen 27 vom anderen nicht ohne weiteres möglich. Um in Zeitreihendaten eine Kausalitätsrichtung (bzw. „GrangerKausalität“, wie sie in der Ökonomie fachsprachlich bezeichnet wird) erkennen zu können, sind statistische Techniken wie die so genannte Kointegrationsanalyse und die Vektorautoregression erforderlich. Mithilfe dieser Techniken wurden Daten aus den USA (Stern 2000), Kanada (Ghali und El-Sakka 2004) und anderen Ländern ausgewertet. Die Ergebnisse zeigen, dass der Energieverbrauch das Wirtschaftswachstum bedingt und die Kausalität in einzelnen Fällen in beide Richtungen verläuft. Das Magazin Stern zieht daraus folgenden Schluss: „Die multivariate Analyse zeigt, dass die Energie das BIP wie in dem ersten der drei untersuchten Modelle entweder einseitig oder möglicherweise in einer wechselseitig kausalen Beziehung im Sinne der Granger-Kausalität bedingt. |...| Die in diesem Beitrag vorgestellten Ergebnisse stärken meinen früheren Schluss, dass Energie ein das Wirtschaftswachstum begrenzender Faktor ist. Auf die Energieversorgung einwirkende Schocks werden die Produktion daher eher einschränken.“ Stern | 2000 | Seite 281 Der Satz „Energie ist ein das Wirtschaftswachstum begrenzender Faktor“ ist dabei besonders wichtig. Der Energieverbrauch ist keine bloße Nebenerscheinung, die vom BIP-Wachstum abgekoppelt werden kann. Eine bewusste Senkung des Energieverbrauchs wird das Wirtschafts- Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten wachstum voraussichtlich ausbremsen und dabei die negativen Folgen für Politiker steigern, die versuchen, entsprechende politische Maßnahmen umzusetzen. Ferner wirken die steigenden Elektrizitätspreise regressiv, sodass die Kostenlast Haushalte mit geringerem Einkommen im Verhältnis stärker trifft als Haushalte mit höherem Einkommen. Einige Untersuchungen über Kohlenstoffsteuern (Jorgensen et al. 1992) haben sich mit der Frage der Regressivität befasst und herausgefunden, dass die Tatsache, ob eine Kohlenstoffsteuer regressiv wirkt oder nicht, davon 28 abhängt, wie sie umgesetzt (und wie Ungleichheit gemessen) wird. Dinan und Rogers (2002) zeigten, dass die Einführung eines Capand-Trade-Systems mit gratis zu vergebenden Genehmigungen für die gesamte US-Wirtschaft höchst regressiv wirken würde, wobei die ärmsten Haushalte jährlich 500 USD verlieren, die reichsten dagegen jährlich 1.000 USD gewinnen würden. Der finanzielle Vorteil für die Haushalte mit höherem Einkommen ergäbe sich dabei daraus, dass ihnen die Unternehmen, die die wertvollen Genehmigungen entgeltlos erhielten, gehören. Einleitung 2. Theoretische Grundlagen der Klimapolitik Grenzschäden und Grenzvermeidungskosten Um das Versagen der Klimapolitik in vollem Umfang verstehen zu können, muss man zunächst einige der Anreizmechanismen verstehen, welche die Volkswirtschaften mit der Umwelt verbinden. Treibende Kraft der wirtschaftlichen Entwicklung ist in erster Linie die Interaktion zwischen „Konsumentenpräferenzen und Technologie“, anders gesagt, der beständige Fluss von Signalen zwischen den Präferenzen der Verbraucher und den Kapazitäten der Produzenten. Verbraucher verlangen nach Waren und Dienstleistungen, die ihre Wünsche und Bedürfnisse erfüllen. Unternehmen entwerfen Produktionspläne, um ihren Gewinn zu maximieren. Diese Kräfte von Angebot und Nachfrage bilden die Grundlage des preisbasierten Marktsystems. Die ökonomische Umweltanalyse betrachtet Umweltverschmutzung als ein „Versagen des Marktes“. Unternehmen können ihre Gewinne durch eine stärkere Verursachung von Umweltverschmutzung (anders formuliert: dadurch, dass sie kein Geld für die Vermeidung von Verschmutzung ausgeben) steigern, während Verbraucher weniger Verschmutzung bevorzugen. Da den Verbrauchern kein Mechanismus zur Verfügung steht, Unternehmen für ihre Verschmutzung bezahlen zu lassen, gibt es keine Preissignale und es kommt zu einer übermäßigen Verschmutzung. Dieses Standardargument für ein Eingreifen des Staates bietet jedoch keine Begründung für ein unbegrenztes Eingreifen. Vor Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 29 allen Dingen rechtfertigt die ökonomische Analyse von Umweltproblemen keine Politiken, die mehr kosten als nutzen. Der Staat ist vielmehr angehalten ein deutliches Preissignal zu setzen oder die Umweltverschmutzung auf ein Niveau zu regulieren, das bei Vorliegen eines angemessenen Marktpreissignals erreicht worden wäre. Um eine Aussage über die optimale Form politischen Eingreifens treffen zu können, müssen wir verstehen, auf welche Weise der Markt ein Preissignal für Umweltschäden aussenden würde, wenn die Mechanismen von Angebot und Nachfrage tatsächlich greifen würden. 30 Die Analyse von Angebot und Nachfrage beruht auf der Untersuchung schrittweiser Veränderungen, da es immer einen Ausgangspunkt gibt, von dem aus der Weg in eine bestimmte Richtung führt. Hinsichtlich der Verschmutzung geht es für die Regulierer für gewöhnlich darum, ob die zulässigen Grenzwerte gegenüber dem aktuellen Stand erhöht oder gesenkt werden sollten. Es wird daher unterschieden zwischen Grenzschäden, d. h. den zusätzlichen Kosten einer geringfügig höheren Verschmutzung für die Gesellschaft, und Grenzvermeidungskosten, also dem Kostenzuwachs (aus Sicht der Gesellschaft), der eine geringfügige Reduzierung der Verschmutzung mit sich bringt. Beide Konzepte sind in Abbildung 3 grafisch dargestellt, Emissionen (e) auf der horizontalen, der Wert in Dollar (bzw. Euro) je Emissionseinheit auf der vertikalen Achse. Die ansteigende Grenzschadenkurve (GS) gibt an, dass mit steigenden Emissionen die gesellschaftlichen Kosten für jede weitere höhere Verschmutzungseinheit ebenfalls zunehmen. Die Grenzvermeidungskostenkurve (GVK) fällt von links nach rechts betrachtet ab. Von rechts nach links gesehen ist diese Kurve ansteigend und gibt an, dass mit sinkenden Emissionen die Grenzkosten weiterer Emissionsreduzierungen ansteigen. Theoretische Grundlagen der Klimapolitik Grenzschaden, Grenzvermeidungskosten und optimales Emissionsniveau Abbildung 3 USD pro Tonne P* Grenzvermeidungskosten GVK Grenzschäden GS c 31 a b e* ē Emissionen Beide Kurven können in Abhängigkeit vom Emissionsniveau jeweils als aufsteigend bzw. als abfallend gelesen werden. Formal betrachtet entspricht die GS-Kurve nicht den Kosten für die Beseitigung der Schäden der Verschmutzung, sondern einer auf mikroökonomischen Modellen öffentlicher Güter beruhenden konzeptuellen Größe. In aufsteigender Richtung betrachtet lautet die ökonomische Definition von Grenzschäden, dass diese der Höhe des zusätzlichen Einkommens entsprechen, das die von der Verschmutzung betroffenen Personen erhalten müssten, um mit den zusätzlichen Emissionen ebenso gut dazustehen wie ohne sie. Mit anderen Worten handelt es sich hierbei um eine Kompensationsmaßnahme, und der Bereich unterhalb der GS-Kurve innerhalb eines bestimmten Intervalls gibt an, welche Kompensation angesichts des Umfangs steigender Emissionen, wie ihn das Intervall darstellt, erforderlich wäre. Vergleichen wir beispielsweise den Anfangspunkt der Kurve mit dem Emissionsniveau e*, gibt das Feld a an, welche Kompensation für die dargestellte Gesellschaft insgesamt erforderlich wäre, um mit Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten Emissionen e* ebenso gut dazustehen wie ohne. Steigen die Emissionen um eine Einheit, gibt die Höhe der Grenzschadenskurve an, welche zusätzliche Kompensation, in diesem Falle P*, erforderlich ist. Steigen die Emissionen auf ē, müsste die zusätzliche Kompensation b+c betragen. Liest man die GVK-Kurve von links nach rechts, gibt sie den Grenznutzen an, der sich für den Verursacher (üblicherweise ein Unternehmen oder Industriebetrieb) aus der Erlaubnis ergibt, seine Emissionen um eine Einheit zu erhöhen. Für aktuelle Emissionen im Umfang von 32 e* ergeben sich für das Unternehmen aus der Notwendigkeit, seine Emissionen um eine Einheit zu senken, die Kosten P*; umgekehrt beläuft sich der Nutzen für das Unternehmen durch die Erlaubnis, eine Einheit mehr auszustoßen, auf P*. Nutzen bzw. Kosten bezeichnen hierbei nicht nur die Aufwendungen, die für die Anschaffung von Ausrüstungen zur Emissionsvermeidung anfallen, sondern die Veränderung des Unternehmensgewinns insgesamt. Diese Veränderung ergibt sich teilweise aus der Anschaffung von Ausrüstungen zur Emissionsvermeidung, umfasst jedoch auch die Folgen der Anpassung des Investitions- bzw. Produktionsniveaus. Die Veränderung des Unternehmensgewinns ist aus zwei Gründen ein Hinweis auf die gesellschaftlichen Kosten eines Wechsels in der Umweltpolitik: Zum einen steigen die Gewinne eines Unternehmens immer dann, wenn seine Produktion mehr einbringt, als es dafür an Produktionsfaktoren aufwenden muss. Der Markt sendet so das Signal aus, dass das Unternehmen den Haushalten einen Nettonutzen verschafft. In diesem Sinne sind Gewinne kein Signal dafür, dass Unternehmen der Gesellschaft Wohlstand entziehen – im Gegenteil: es zeigt, dass die Unternehmen den von ihnen genutzten Produktionsfaktoren einen Mehrwert hinzufügen. Eine Drosselung der Tätigkeit, die einen Mehrwert schafft, kommt für eine Gesellschaft allgemein einem Verlust gleich. Zum anderen werden Gewinne als Einkünfte an Anteilseigner, wie etwa Investoren oder Beziehern von Firmenrenten, Theoretische Grundlagen der Klimapolitik weitergegeben. Sinkende Gewinne sind demnach in Form geringerer Einkünfte für Anteilseigner spürbar. Angenommen, ein Verschmutzung verursachendes Unternehmen wird zunächst verpflichtet, seine Emissionen auf das Niveau e* zu beschränken, und anschließend werden alle Emissionsbeschränkungen aufgehoben. Das Unternehmen wird beginnen, seine Emissionen zu steigern, da der Grenznutzen einer solchen Maßnahme positiv ist, nämlich P*. Die Emissionen werden daraufhin so lange weiter steigen, bis der Grenznutzen den Wert null erreicht, also bis zu dem Punkt, an dem die GVK-Kurve die horizontale Achse bei ē schneidet. Der Gesamtnutzen, der sich für das Unternehmen aus der Erlaubnis ergibt, seine Emissionen von e* auf ē zu steigern, beläuft sich auf den zwischen diesen beiden Punkten liegenden Bereich b unterhalb der GVK-Kurve. Müsste das Unternehmen hingegen seine Emissionen von ē auf e* senken, lägen die Grenzvermeidungskosten insgesamt bei b. Bei einem Emissionsniveau von ē, also einem Emissionsniveau ohne Regulierung, sind die Grenzschäden gegenüber den Grenzvermeidungskosten vergleichsweise hoch. Folglich ist es gesellschaftlich erstrebenswert, die Emissionen zu senken. Dies bleibt so bis zum Erreichen des Emissionswerts e*. An diesem Punkt belaufen sich die Grenzvermeidungskosten der letzten Einheit der Emissionsreduzierung auf P* und entsprechen damit der Reduzierung des Grenzschadens. Werden die Emissionen unter diesen Punkt reduziert, würden die dafür entstehenden Grenzvermeidungskosten den Nutzen (der Reduzierung des Grenzschadens) übersteigen. Das gesellschaftlich optimale Emissionsreduzierungsziel in diesem Fall ist folglich e*. Liegen die Emissionen hingegen anfänglich bei null, ist es ratsam, eine Zunahme der Emissionen zu gestatten, da die Grenzvermeidungskosten über dem Grenzschaden liegen bzw., anders gesagt, der Grenznutzen der Emissionen höher ist als der Grenzschaden. Eine solche Emissionssteigerung ist bis zu e* ratsam, da an diesem Punkt der Grenznutzen der Emissionen genau mit den Grenzkosten P* zusam- Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 33 menfällt. Über diesem Punkt verursachen zusätzliche Emissionen einen Grenzschaden, der über dem entsprechenden Nutzen (GVK) liegt, sodass eine weitere Zunahme nicht empfehlenswert ist. Nehmen wir e* als optimales Emissionsniveau an. Es handelt sich dabei um das Niveau, bei dem die Nettogewinne der verschmutzenden Tätigkeit bzw. der Nettonutzen der Verschmutzungsreduzierung ihren Höchststand erreichen. Jedem Punkt auf der GS- und der GVK-Kurve ist ein Preis zugeordnet. Dies ist eine der wichtigsten prinzipiellen Unterscheidungen der 34 ökonomischen Analyse von Umweltverschmutzungen und der Umweltschutzanalyse in den Umwelt-, Rechts- oder Politikwissenschaften. Die ökonomische Analyse der Umweltverschmutzung geht bei der Wahl eines bestimmten Emissionsniveaus e von einem entsprechenden Preis entsprechend der Position auf der GS- und der GVK-Kurve aus. Die Antwort eines Emittenten auf umweltpolitische Maßnahmen wird durch die Kurve der Grenzvermeidungskosten (GVK) bestimmt. Angesichts einer Emissionssteuer in Höhe von P* würden Unternehmen bis zum Punkt e*, jedoch nicht darüber hinaus Emissionen ausstoßen. Andernfalls würde der Grenznutzen für die Unternehmen – abzulesen an der GVK-Kurve – unter den Betrag P* je Emissionseinheit fallen, den sie an Steuern auf die zusätzlichen Emissionen zahlen müssten. Mit anderen Worten: Sie könnten Vermeidungsstrategien anwenden, die weniger kosten als die Steuern, und einen finanziellen Vorteil aus der Senkung der Emissionen ziehen. Statt eine Emissionssteuer von bspw. 50 USD/Tonne zu bezahlen, werden Unternehmen es vorziehen, Vermeidungsoptionen zu wählen, solange diese weniger als 50 USD/Tonne kosten. Der Emissionssteuersatz gibt folglich den zusätzlichen Wert an, der sich für ein Unternehmen aus der Möglichkeit, seine Emissionen um eine weitere Einheit erhöhen zu dürfen, ergibt. So gesehen entspricht die GVK-Kurve im Grunde einer Nachfragekurve für Emissionen, wie sie in jedem volkswirtschaftlichen Einführungswerk zu finden ist. Theoretische Grundlagen der Klimapolitik Das der GS-Kurve entsprechende Preisniveau gibt den Geldbetrag an, der als Kompensation für eine weitere Einheit Verschmutzung erforderlich wäre. In dieser Hinsicht entspricht die GS-Kurve einer konventionellen Angebotskurve, die den Betrag angibt, der bezahlt werden müsste, damit die Menschen bereit wären, eine Erlaubnis für eine weitere Verschmutzungseinheit „anzubieten“. Durch die Kombination aus Preis- und Mengenachse sieht Abbildung 3 wie ein herkömmliches Angebots- und Nachfragemodell aus jedem Wirtschaftslehrbuch aus. Wie bereits angedeutet, ist diese Ähnlichkeit nicht dem bloßen Zufall geschuldet. Die ansteigende GS-Kurve gleicht einer Angebotskurve, die abfallende GVK-Kurve einer Nachfragekurve. Der Unterschied gegenüber gewöhnlichen Angebots- und Nachfragekurven besteht darin, dass in einem regulären Markt Produktions- und Verbrauchsentscheidungen durch das Preissignal hin zu dem Punkt geführt werden, an dem sich die Kurven schneiden. Im Falle von Schadstoffemissionen hingegen wird kein Preissignal ausgesendet, sodass eine Koordinierung der Emissionsniveaus nicht möglich ist. Die Politik sollte daher nach Möglichkeit darauf abzielen, das Versagen des Marktes durch die Einführung eines Preismechanismus zu korrigieren, der den Menschen ermöglicht ihre eigenen Reaktionen auf die Preissignale zu finden. Eine auf Grundlage von marktwirtschaftlichen Prinzipien gestaltete Politik wird sich im Ergebnis dem optimalen Emissionsniveau e* annähern. Etwas komplexer wird die Angelegenheit, wenn, wie in Abschnitt 4 erläutert, darüber hinaus Unsicherheit, Dynamik und ähnliche Faktoren berücksichtigt werden. Als Grundgedanke der ökonomischen Betrachtung umweltpolitischer Fragen gilt, dass die Lösung für das Verschmutzungsproblem entweder in der Einrichtung geeigneter Preissignale oder in der Festlegung einer Emissionsmenge liegt, die sich aus der Existenz eines Marktpreissignals ergeben hätte. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 35 Preisregulierung vs. Mengenregulierung Ein Preissignal kann entweder durch die Festlegung eines Emissionspreises (mit Hilfe einer Schadstoffsteuer bzw. -abgabe) oder durch die Begrenzung der Emissionsmenge ausgesendet werden. Dies erfolgt über eine Emissionssteuer bzw. die Ausgabe einer fixen Anzahl von Genehmigungen, für die sich anschließend durch einen Handel auf dem Markt ein Preis herausbildet. Anders ausgedrückt: Der Regulierer kann einen Preis bestimmen und den Markt die Menge festlegen lassen oder 36 umgekehrt eine Menge bestimmen und dem Markt die Preisfindung überlassen. Beides gleichzeitig ist nicht möglich. Wie bereits erwähnt, werden Unternehmen im Falle der Festsetzung einer Emissionssteuer in Höhe P* maximal eine Menge e* emittieren. Werden demgegenüber Emissionsgenehmigungen bis zu einer Menge e* ausgegeben, werden die Unternehmen für diese bereit sein auf dem Markt den Gleichgewichtspreis P* zu bieten. Mehr als diesen Preis werden sie nicht zu bezahlen bereit sein, da sie ihre Emissionen auch unter Aufwendung von Grenzkosten in Höhe von P* selbst vermeiden könnten, anstatt zu einem höheren Preis eine weitere Emissionsgenehmigung zu erwerben. Andererseits wird auf dem Markt auch kein niedrigerer Preis Bestand haben, da die Unternehmen eher die günstigere Genehmigung kaufen würden, als Grenzvermeidungskosten in Höhe von P* einzugehen. Liegt die Menge der Genehmigungen bei e*, beträgt der sich daraus ergebende Marktpreis P*. Da die vorliegende Argumentation genau derjenigen einer beliebigen anderen Nachfragekurve entspricht, kann die GVK-Kurve als die „Nachfragekurve für Emissionen“ bezeichnet werden. Aufgrund der bestehenden Unsicherheiten ist es jedoch wichtig, sich vor Augen zu führen, über welche Informationen ein Regulierer bei der Wahl des geeigneten Umweltschutzinstruments realistischerweise verfügen kann. In den meisten Umweltfragen kann der Regulierer sich bestenfalls einiger weniger wichtiger Details sicher sein. Es sind dies: Theoretische Grundlagen der Klimapolitik A die aktuelle Emissionsmenge, B die ungefähre Steigung der Grenzvermeidungskostenkurve bei sinkenden Emissionen, C die annähernde Steigung der Grenzschadenskurve bei steigenden Emissionen. Der erste Punkt wird durch einfache Beobachtung ermittelt. Der zweite Punkt kann anhand technischer bzw. ökonomischer Analysen oder auf Grundlage von Informationen von Unternehmen, die mit einer möglichen Regulierung konfrontiert sind, geschätzt werden. Bisweilen, jedoch nicht in jedem Fall, können Unternehmen versucht sein, ihre Vermeidungskosten zu übertreiben.1 Der dritte Punkt kann durch Analysen ermittelt werden, die ökologische Informationen mit ökonomischen Daten kombinieren, z. B. durch die so genannte kontingente Bewertungsmethode oder andere empirische Modellversuche. Die Regulierer können typischerweise keine präzisen Informationen bezüglich der Werte auf der vertikalen Achse der dargestellten Diagramme erhalten. So ist zwar möglicherweise bekannt, dass die GSKurve im Rahmen des zu regulierenden Emissionsintervalls eher flach verläuft. Eine genauere Aussage über die Höhe des Wertes ist jedoch nicht möglich, sodass sich lediglich eine Spannweite, die zwischen 10 und 30 USD/Tonne liegen dürfte, angeben lässt. Nichtsdestoweniger sind die unter a bis c genannten Parameter ausreichend, um zu entscheiden, ob eine Regulierung des Emissionspreises oder der Emissionsmenge vorzuziehen ist. Der Ökonom, der dies zuerst formulierte, war Martin Weitzman (1974), und seine Analyse wurde seither umfassend rezipiert. Sein Ansatz ist folgender: 1 Dies ist von der Art der Politik abhängig, die Unternehmen erwarten. Siehe McKitrick (2010a), Kapitel 5.1. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 37 Angenommen, die Situation stellt sich wie in Abbildung 4 dar, in welcher die Steigung der GS-Kurve gegenüber dem Anstieg der GVKKurve über dem für den Regulierer relevanten Emissionsbereich als verhältnismäßig flach angenommen wird. Das optimale Emissionsniveau liegt bei e*; wo genau sich dieses Niveau befindet, ist jedoch unbekannt. Unternimmt man den Versuch, die richtige Emissionsmenge zu erraten, führen geringfügige Fehler im Umfeld von e* (horizontaler Pfeil) zu groben Fehlern in Bezug auf den optimalen Preis (vertikaler Pfeil), d. h. den entsprechenden Preisbereich auf der GVK- bzw. Emis38 sionsnachfragekurve. Das große Ausmaß dieser Fehler schlägt sich in unerwartet hohen Risiken für emittierende Unternehmen und die Wirtschaft allgemein nieder. Der durch die Pfeile abgegrenzte Bereich spiegelt den Bereich wider, in dem sich die Emissionspolitik als störend, kostspielig und chaotisch für die Wirtschaft erweist. Im Gegensatz dazu führen Fehler auf der Preisachse jedoch bei einem beliebig gewählten Preis lediglich zu relativ geringfügigen Fehlern auf der Mengenachse. Ist die Festlegung des optimalen Preises für Emissionen fehlerbehaftet (Abweichung nach oben oder unten), kommt das Ergebnis dem optimalen Emissionsniveau gleichwohl recht nah und die Gefahr einer unerwartet hohen Volatilität ist relativ gering. Es ist daher besser zu versuchen, den Preis möglichst genau zu schätzen und den Markt die Menge bestimmen zu lassen, als umgekehrt. Verläuft die GVK-Kurve relativ flach, geht die Argumentation in die andere Richtung, d. h., es wäre besser zu versuchen, die optimale Emissionsmenge zu ermitteln und den Markt den Preis bestimmen zu lassen, anstatt einen Preis festzulegen und möglicherweise starke und teure Ausschläge auf der Mengenachse in Kauf zu nehmen. Theoretische Grundlagen der Klimapolitik In Abbildung 4 ist die Situation für CO2 schematisch dargestellt. >> Die GS-Kurve verläuft relativ flach, da es sich bei CO2 um ein globales Gas handelt, d. h. das Klima wird nicht durch örtliche Emissionen in Mitleidenschaft gezogen, sondern durch den global vorhandenen Bestand. Hinsichtlich der Emissionen einer einzelnen Nation wird der Grenzschaden der ersten Emissionseinheit derjenigen der letzten Einheit entsprechen, da sich die global vorhandene Treibhausgasmenge infolge der jährlichen Emissionen eines Landes, wenn über39 haupt, nur unwesentlich verändert. Wahlmöglichkeiten der Politik angesichts bestehender Unsicherheiten Abbildung 4 USD pro Tonne Grenzvermeidungskosten GVK P* Grenzschäden GS e* ē Emissionen >> Die GVK-Kurve verläuft sehr steil, da, wie oben erläutert, nur sehr wenige Kontrollmöglichkeiten zur Verfügung stehen. Kurzfristig besteht für Haushalte und Unternehmen der einzige Weg, ihre Emissionen zu senken, darin, ihren Energieverbrauch zu senken. Längerfristig wird die Reduzierung der Emissionen angesichts teurerer Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten Brennstoffe oder alternativer Energien höhere Kapitalinvestitionen erforderlich machen. Zwei Indikatoren legen eine steile GVK-Kurve nahe. Erstens hat der europäische Emissionsmarkt angesichts einer vergleichsweise geringen Mengenvolatilität eine recht hohe Preisvolatilität gezeigt (Ellerman und Joskow 2008), wobei dies jedoch teilweise darauf zurückzuführen war, dass in der ersten Phase des europäischen Programms keine Genehmigungen auf spätere Handelsperioden übertragen werden konnten. Und zweitens haben sich die europäischen Emissionen trotz jahrelanger Bemühungen kaum ver40 ändert. Dieser Umstand wird durch den Zusammenbruch der DDR und anderer Übergangswirtschaften sowie durch die Umstellung der Energiewirtschaft Großbritanniens von Kohle auf Gas in den frühen 1990er Jahren verschleiert, wodurch die CO2-Emissionen eine einmalige Reduzierung erfuhren. Diakoulaki und Madaraka (2007) haben die steigenden CO2-Emissionswerte aus 14 EU-Ländern im Zeitraum 1990 bis 2003 unter Berücksichtigung der von allen Ländern außer Spanien umgesetzten politischen Maßnahmen untersucht. In allen Ländern, außer Großbritannien und Deutschland, wo sich alle fertigungsbedingten Reduzierungen vor 1997 vollzogen und anschließend ein Anstieg zu verzeichnen war, wurden gleichbleibende oder steigende Emissionen verzeichnet. Die Autoren kamen zu dem Schluss, „dass keine systematischen Anzeichen dafür vorliegen, das sich das Verhalten der untersuchten Länder in der Zeit vor und nach Kyoto unterscheidet“ (Seite 655). Angesichts der Tatsache, dass Emissionspolitik unter unsicheren Bedingungen gemacht wird, wäre es folglich besser, statt einer Menge einen Preis festzulegen. Für eine Preissteuerung der Emissionen anstelle einer Emissionsgrenze sprechen zudem zwei weitere Gründe. Erstens gestaltet sich die Verwaltung eines Systems handelbarer Genehmigungen deutlich schwieriger, da der Regulierer zunächst eine Theoretische Grundlagen der Klimapolitik Erstzuweisung (mittels einer Auktion, einer Bestandsregelung oder einer anderen Methode) vornehmen und die für den Handel mit diesen Genehmigungen entstehenden Märkte einer Prüfung unterziehen muss. Zweitens haben Regierungen die Genehmigungen in der Praxis für gewöhnlich kostenlos ausgegeben, anstatt eine Auktion durchzuführen, was sowohl im Falle des US-Marktes für Schwefeldioxidgenehmigungen als auch im Falle des neuen EU-Marktes für Kohlenstoff-Emissionszertifikate so geschah. Die heute übliche Vorstellung einer „doppelten Dividende“ beruht darauf, dass die durch die Verschmutzungspolitik erhöhten Einnahmen des Staates darauf verwendet werden können, die Steuerlast an anderer Stelle zu reduzieren. Ein System handelbarer Genehmigungen jedoch, in dem Genehmigungen kostenlos an die Verursacher von Verschmutzung ausgegeben werden, steht dem im Wege, sodass keine steuerliche Verrechnung möglich ist. Empirische Arbeiten in Bezug auf die USA haben verdeutlicht, dass nicht auf dem Wege einer Auktion vergebene CO2-Emissionsquoten die gesellschaftlichen Kosten der Politik drastisch erhöhen (Parry 2003, 2004). Die Quoten schaffen ähnlich wie bei Marketing-Gesellschaften für landwirtschaftliche Erzeugnisse und städtischen Vergabesystemen für Taxilizenzen Kartell­ einkünfte für die Empfänger und erhöhen im Grunde die finanzielle Belastung der Haushalte durch die Förderung von Marktlagengewinnen (sogenannte „Windfall Profits“) für Emittenten. Fünf Grundsätze rationaler Klimapolitik Die obige Analyse führt uns zu fünf wesentlichen ökonomischen Grundsätzen einer rationalen Klimapolitik: 1 PREISGESTALTUNG: Eine Politik zur Senkung der Treibhausgasemissionen ist weniger marktverzerrend und kostspielig, wenn sie auf einem festgelegten Emissionspreis anstatt auf einem festgelegten Ziel zur Emissionsreduzierung beruht. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 41 2 REALISMUS: Da die GVK-Kurve aktuell sehr steil verläuft, liegt das optimale Emissionsniveau derzeit nicht weit unter dem unregulierten Emissionsniveau. Jedes Mal, wenn die Politik neue Pläne offenlegt, die Emissionsgrenzen zu verschärfen, steigen die ökonomischen Kosten der Vermeidung rasant an und führen zu heftigen Reaktionen auf jeden Versuch, über das optimale Ziel der Emissionsreduzierung hinauszugehen. Es wäre demnach besser, den Anstieg der GVK-Kurve durch die Beobachtung der Mengenanpassung als Reaktion auf ein bestimmtes Preissignal zu ermitteln, anstatt 42 tiefgreifende Emissionseinschnitte vorzuschreiben und angesichts einer irrational hohen Kostenexplosion sehenden Auges in eine unvermeidbare Krise zu schlittern. 3 REDUNDANZVERMEIDUNG: Marktmechanismen sollten anstelle von regulatorischen Mechanismen zum Einsatz kommen, nicht ergänzend dazu. Nach der Festlegung eines Emissionspreises (bzw. einer Emissionsmenge) durch die Politik, sollte von weiteren überflüssigen technischen Regulierungen und Verhaltenskontrollen zur Überwachung der Einhaltung der bestehenden politischen Maßnahmen Abstand genommen werden. Wird Kraftwerken beispielsweise der Erwerb von Emissionszertifikaten vorgeschrieben, so reicht diese Maßnahme aus, ihre Emissionen zu regulieren. Darüber hinaus weitere Vorschriften zu erlassen, in denen Haushalten vorgeschrieben wird, welche Glühbirnen oder Haushaltsgeräte sie verwenden dürfen, oder Kraftwerksbetreibern vorzuschreiben, dass sie einen bestimmten Anteil ihrer Energie über den Ankauf von Windenergie abdecken müssen, ist redundant. Das einzige, was dadurch erreicht wird, sind höhere Kosten und eine verständliche Ablehnung des gesamten Konzepts der Klimapolitik durch die Bevölkerung. Theoretische Grundlagen der Klimapolitik 4 KOSTENEFFIZIENZ: Um die mögliche Vermeidung mithilfe der begrenzten Ressourcen, die eine Gesellschaft dafür zu geben bereit ist, zu maximieren, müssen die Vermeidungsoptionen ohne Wenn und Aber dahingehend überprüft werden, ob die Grenzkosten die besten Schätzungen der Grenzschäden übersteigen. Bei Vorliegen eines Preisgestaltungsinstruments erfolgt dies automatisch in umfassender Weise. Angesichts der aktuellen technologischen Vermeidungsmöglichkeiten ergibt sich daraus eine vermutlich eher geringe Vermeidung; doch mit zunehmender technologischer Entwicklung und Abflachung der GVK-Kurve wird auch das Emissionsniveau automatisch sinken. 5 ZIELAUSRICHTUNG: Politische Maßnahmen einschließlich von Preisgestaltungsinstrumenten sollten an der jeweiligen Zielvariablen ausgerichtet werden, in diesem Zusammenhang, an den CO2-Emissionen. Allzu häufig wenden Politiker Regeln auf andere Variablen (z. B. Kraftstoffverbrauchsregeln, Größe von Haushaltsgeräten, Art der zu verwendenden Glühbirnen usw.) an, die nur indirekt mit dem eigentlichen Umweltproblem verbunden sind. Die Emissionsreduzierung wird dadurch nur unnötig verteuert und verliert an Effizienz. Die Irrationalität der ‘grünen Ökonomie’ Dank obiger Analyse können wir nun das Problem der weit verbreiteten Vorstellung einer „grünen Ökonomie“ verstehen. Der Begriff der „grünen Ökonomie“ bezeichnet Tendenzen zahlreicher Länder auf der ganzen Welt – vor allem der Industrienationen –, sich spezieller Vorschriften und Subventionen zu bedienen, um den Übergang von konventionellen Energieträgern auf alternative Quellen wie Wind- und Solarenergie zu fördern und auf kleinerer Ebene den Elektrizitäts- und Brennstoffverbrauch der Haushalte durch detaillierte Beschränkungen der zulässigen Geräte, Fahrzeuge und anderen Bedarfsartikel vorzuschreiben. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 43 Die Motivation für diese Art von Politik ist nicht ganz klar. Manchmal wird behauptet, das Ziel sei die Schaffung von Arbeitsplätzen. Die Behauptung, dass durch Subventionen oder Vorschriften Arbeitsplätze in einer bestimmten Branche geschaffen werden könnten, ist alt und stößt immer wieder auf dieselben Schwierigkeiten. Arbeitet die Industrie profitabel, braucht sie keine Subventionen oder speziellen Vorschriften, um zu wachsen. Ist sie nicht profitabel, sollte sie vom Staat nicht subventioniert oder begünstigt werden. Unter normalen Umständen zeigt ein Unternehmen dadurch, dass es kontinuierlich 44 Geld verliert, dass seine Erzeugnisse weniger wert sind als die Mittel, die es in seinen Produktionsprozess investiert hat. Zwingt die Politik die Industrie nun, dennoch zu wachsen, muss dies zwangsläufig zu einer Zerstörung von Wohlstand in der Wirtschaft führen. Berücksichtigt man diesen Wohlstandsverlust sowie die Kosten, die den Steuerzahlern aufgebürdet werden, das Subventionsprogramm zu finanzieren, zeigt sich in der Regel, dass durch derlei Maßnahmen mehr Arbeitsplätze verloren gehen, als neue geschaffen werden. Wenn die subventionsbzw. regulierungsgesteuerte Ausweitung einer Branche tatsächlich ein verlässlicher Mechanismus zur Schaffung von Arbeitsplätzen wäre, dürfte es angesichts der häufigen Versuche vieler Regierungen schon längst keine Arbeitslosigkeit mehr geben. Bisweilen geben Politiker vor, die „grüne Ökonomie“ ziele darauf ab, die Vorteile revolutionärer neuer Technologien zu nutzen, um nicht Gefahr zu laufen, im Wettbewerb um deren Einführung „ins Hintertreffen zu geraten“. Gelegentlich treten tatsächlich echte neue Technologien auf den Plan – wie beispielsweise das Internet oder der Verbrennungsmotor oder tragbare Computer. Doch die Produktion und Nutzung solcher Güter findet allein aufgrund der Tatsache weltweite Verbreitung, dass die Menschen diese kaufen wollen und Unternehmer davon profitieren, in Unternehmen zu investieren, die diese anbieten können. Zu einer Verbreitung neuer Technologien kommt es für gewöhnlich nicht, weil der entsprechende Industriezweig von der Theoretische Grundlagen der Klimapolitik Regierung gefördert wird. Handelt es sich um echte brauchbare Innovationen, regeln Angebot und Nachfrage den Markt von selbst. Anders gesagt: echte brauchbare Technologien finden den Weg zu den geeigneten Nutzern über den Markt. Gelingt es der Technologie nicht, sich allein durchzusetzen, steht zu vermuten, dass es sich entweder technologisch oder wirtschaftlich – oder aus beiderlei Hinsicht – nicht um eine brauchbare Technologie handelt. Schließlich wird die „grüne Ökonomie“ häufig als eine Form der Umweltpolitik angepriesen, deren Ziel in der Regel die Reduzierung der Treibhausgasemissionen ist. In diesem Fall jedoch verdeutlicht die Tatsache, dass sie den oben genannten fünf Grundsätzen zuwiderläuft, dass es sich um ein für den gewünschten Zweck im Grunde äußerst unwirksames Instrument handelt. Die Subventionierungen industrieller Windkraftanlagen und riesiger Solarparks sind indirekte Maßnahmen zur Umsetzung willkürlicher Mengenziele (wie bspw. die Forderung, 10 % der Elektrizität müssten aus Windenergie stammen), die ungeachtet dessen verfolgt werden, ob die Grenzkosten den Grenznutzen übersteigen und sie angesichts anderer Maßnahmen zur direkten Emissionsbegrenzung redundant sind. Geht es der Politik tatsächlich um Treibhausgasemissionen, sollte sie eine auf Treibhausgasemissionen ausgerichtete Preispolitik gestalten. Maßnahmen im Rahmen einer „grünen Ökonomie“ sind bestenfalls überflüssig, schlimmstenfalls verschwenderisch und wirtschaftsschädigend. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 45 3. Unsicherheit bezüglich des Grenzschadens Wenden wir uns nun einer genaueren Diskussion der Grenzschadenskurve (GS-Kurve) zu. Angenommen, die optimale Politik besteht in einer Emissionssteuer, so stehen wir dennoch vor der großen Herausforderung, uns nicht nur darüber zu einigen, auf welchem Niveau diese Steuer einsetzen, sondern auch wie sie sich mit der Zeit entwickeln sollte. Um diese Fragen beantworten zu können, ist eine Betrachtung der potenziellen Schäden erforderlich, die durch CO2-Emissionen verursacht werden können. Dieses Kapitel befasst sich mit der allgemeinen Frage, ob CO2-Emissionen als extreme Gefahr, die ein drastisches Eingreifen erfordert, als triviale Erscheinung, die ignoriert werden kann, oder als irgendetwas dazwischen betrachtet werden sollten. Ich argumentiere wie folgt: 1 Es gibt genügend Anlass, CO2-Emissionen als Besorgnis erregend zu betrachten, auch wenn nicht feststeht, in welchem Maße. 2 Die Auswirkungen der CO2-Emissionen (und anderer Treibhausgase) auf die Umwelt sind von komplexen natürlichen Rückkopplungen abhängig, deren Ausmaß nicht einfach anhand bekannter physikalischer Grundprinzipien ermittelt werden kann und damit zwangsläufig auf Modellannahmen beruht. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 47 3 Modellannahmen sind für sich genommen kein Beweis für das Ausmaß der gesamten ökologischen Auswirkungen von CO2 und müssen anhand konkreter Daten überprüft werden. 4 Die verfügbaren Daten variieren in Bezug auf Qualität und Zeitraum ihrer Verfügbarkeit. Die längsten Datenreihen sind für gewöhnlich von geringerer Qualität und umgekehrt. Einige der hochwertigsten Datenreihen sind inzwischen allerdings ausreichend lang, um eine aussagekräftige Überprüfung von Modellannahmen 48 zu ermöglichen. 5 Zwischen den Klimamodellprognosen und den Beobachtungen bestehen signifikante statistische (und klimatologische) Diskrepanzen, die darauf hinweisen, dass die Rückkopplungen geringer ausfallen als in den Klimamodellen angenommen. 6 Die derzeit existierenden Überwachungssysteme werden innerhalb des nächsten Jahrzehnts ausreichend Daten hoher Qualität bieten, um die bestehenden Fragen bezüglich der Auswirkungen von CO2 auf das globale Klima zu beantworten. In den folgenden Abschnitten werden die genannten Fragen genauer erörtert. CO2-bedingte Erwärmung und Rückkopplungen Die Energie der Sonne erwärmt die Erd- und die Meeresoberfläche. Um das energetische Gleichgewicht zu wahren, muss die Erde dieselbe Menge Energie wieder abgeben, die sie von der Sonne erhält. Die Erdund Meeresoberflächen der Erde geben auf zweierlei Arten Energie ab: durch Radiation und durch Konvektion. Bei Radiation handelt es sich um die Emission von Infrarotenergie in die Atmosphäre. Konvektion Unsicherheit bezüglich des Grenzschadens entsteht durch den Austausch von Warmluft nahe der Erdoberfläche und Kaltluft aus den oberen Schichten der Atmosphäre, wodurch Luftströmungsmuster, Windsysteme, Wolken und Stürme sowie andere Wettererscheinungen entstehen (Held und Soden 2000, Houghton 1997, Essex 1991). CO2-Emissionen und andere Treibhausgase lassen die Luft für Infrarotstrahlen undurchlässiger werden, wodurch die Effizienz der Atmosphäre bei der Abgabe von Energie an den Weltraum gemindert wird. Eine Aufrechterhaltung der Emissionsintensität verursacht einen Anstieg der atmosphärischen Temperatur und Veränderungen der konvektiven Aktivität. Während die Temperaturveränderung für gewöhnlich als relativ vorhersagbar gilt, ergeben sich aus den Veränderungen der konvektiven und zirkulativen Aktivität Turbulenzprobleme, die anhand der bekannten Grundprinzipien der Atmosphärenphysik nicht vorhergesagt werden können. Aus diesem Grund kommen numerische Klimamodelle oder allgemeine Zirkulationsmodelle (General Circulation Models, GCM) zum Einsatz. Das auch den Modellen des IPCC-Berichts von 2007 zugrundeliegende aktuelle Schema geht davon aus, dass eine Verdoppelung der in der Atmosphäre vorhandenen CO2-Menge einen relativ geringen Anstieg der Durchschnittstemperatur um etwa 1 °C (siehe Held und Soden 2000) nach sich ziehen würde. Das wiederum führt zu einer Erhöhung des Wasserdampfgehalts der Atmosphäre und nach Berücksichtigung der Rückkopplungsprozesse, insbesondere eben dieser Ansammlung von Wasserdampf in der Atmosphäre, zu einer mindestens doppelt so hohen Erwärmung von zwei bis vier Grad. Ein Großteil der Sorgen in der Politik bezüglich der CO2-Emissionen ist auf das Ausmaß der potenziellen Rückkopplungsprozesse zurückzuführen und weniger auf die Folgen von CO2 selbst. Klimamodelle rechnen nicht einfach auf Grundlage der zugrundeliegenden physikalisch-theoretischen Formeln, da die Bewegungsgleichungen zwar auf lokaler Ebene wie bspw. in Bezug auf ideale Gase oder isolierte Volumina Gültigkeit haben, nicht jedoch in bekannter Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 49 Form auf globaler Ebene anwendbar sind. Die Modelle beruhen daher immer auf vereinfachten Darstellungen, so genannten „Parametrisierungen“, die einfache Näherungswerte unter Verwendung von empirischen oder auf Grundlage von Näherungsprozessen hergeleiteten Koeffizienten heranziehen (Knutti 2008). Wolken beispielsweise entstehen durch Tröpfchenbildung auf molekularer Ebene. Da die Gleichungen, anhand derer die Tröpfchenbildung beschrieben wird, nicht für allgemeingültige Aussagen bezüglich der durchschnittlichen Wolkendecke herangezogen werden 50 können, müssen empirische Näherungsmodelle entwickelt werden, die von anderen in der Atmosphäre über einer bestimmten Region herrschenden Bedingungen wie Temperatur, Windmuster, Atmosphärenchemie usw. ausgehen, um die durchschnittliche Wolkendecke über großen Regionen und lange Zeiträume vorherzusagen. Schwankungen in der modellhaften Darstellung des Wolkenverhaltens sind die Ursache für einige der größten Abweichungen von einem Modell zum anderen (Kiehl 2007, CCSP 2008, Seite 41). Bereits geringfügige Schwankungen beim Ausmaß der Rückkopplungsprozesse können zu großen Abweichungen bei der simulierten Klimasensitivität gegenüber Treibhausgasen führen. Da viele der Prozesse, die für das Ausmaß der Rückkopplung grundlegend sind, auf empirischen Näherungswerten beruhen, ist eine Prüfung der GCM-Ergebnisse in Bezug auf Daten aus Beobachtungen für die Bestätigung oder Ablehnung der den GCM in Form von Parametrisierungen zugrundeliegenden Annahmen von wesentlicher Bedeutung. Weder können Modellversuche als Prüfung für die Gültigkeit von Modellen dienen, noch kann die Ähnlichkeit von Modellversuchen in verschiedenen Modellgruppen als Nachweis für die Gültigkeit von Modellen dienen, da allen dieselben Fehler zugrundeliegen können. Modelle müssen daher immer in Bezug auf aus Beobachtungen gewonnenen Daten geprüft werden. Unsicherheit bezüglich des Grenzschadens Klimadaten Um überhaupt eine Aussage über potenzielle Schäden treffen zu können, die auf die globale Erwärmung zurückzuführen sind, ist eine Messung der Klimaveränderungen erforderlich. Nachfolgend werden die im Allgemeinen herangezogenen Datenquellen untersucht.2 Daten in Bezug auf die Erdoberfläche Bezüglich der Erdoberfläche gibt es drei zentrale globale Temperaturdatenreihen. Das Institut für Klimaforschung der Universität von East Anglia (Climate Research Unit, CRU) veröffentlicht die CRUTEM-Daten, die in Jones et al. (1999) beschrieben sind, sowie die aktualisierten Fassungen CRUTEM2 (Jones und Moberg 2003) und CRUTEM3 (Brohan et al. 2006). Die abweichungsbereinigte Fassung ist unter der Bezeichnung CRUTEM3v bekannt. Eine weitere Datenreihe stammt vom Goddard Institute of Space Studies (GISS) der NASA, eine dritte von der USamerikanischen National Oceanic and Atmospheric Administration (NOAA). Alle drei Datenreihen greifen auf das als GHCN – Global Historical Climatology Network – bekannte Wetterdatenarchiv zurück.3 2 Dieser Abschnitt greift auf zuvor in McKitrick (2010d) veröffentlichte Daten zurück. 3 Die Internetadresse des GHCN lautet http://www.ncdc.noaa.gov/oa/climate/ghcn-monthly/ index.php. Eine Liste der Quellen findet sich unter http://www.ncdc.noaa.gov/oa/climate/ghcnmonthly/source-table1.html. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 51 GHCN-Zahlung der Wetterstationen Abbildung 5 Unbereinigte GHCN-Daten Um fehlende Daten und Mehrfachzählungen bereinigte GHCN-Daten 6.000 Global 6.000 Nördliche Hemisphäre 6.000 4.500 4.500 4.500 3.000 3.000 3.000 1.500 1.500 1.500 Südliche Hemisphäre 52 0 0 191019501990 0 191019501990 Datenquelle: GHCN | Für detailierte Berechnungen vgl. McKitrick (2010d) Unsicherheit bezüglich des Grenzschadens 191019501990 Das GHCN wurde in den frühen 1990er Jahren als Kooperationsprojekt des Carbon Dioxide Information and Analysis Center (CDIAC) und des National Climatic Data Center (NCDC) ins Leben gerufen. Ziel war der Aufbau eines gegenüber den damals über das CRU oder andere Forschungsinstitute erhältlichen Daten umfassenderen Temperaturdatenarchivs. Die erste Version wurde im Jahr 1992 (Vose et al. 1992) auf Grundlage von Bestandsdaten ohne Korrektur von Inhomogenitäten veröffentlicht4. Die zweite Version (GHCN v2) erschien im Jahr 1997 und ist in Peterson und Vose (1997) beschrieben. Erläuterungen zu den Methoden der Qualitätssicherung finden sich in Peterson et al. (1998). Während der Vorbereitung von GHCN v2 nahmen die Autoren einige Korrekturen von Inhomogenitäten vor und ergänzten die Daten der Messstationen im Hinblick auf ein besseres Verständnis der Quellenqualität durch die Nutzer um Metadaten wie die umliegende Bevölkerung sowie um genaue Informationen zu den Standorten der einzelnen Messstationen. Wie Abbildung 5 zeigt, stehen für die nördliche Hemisphäre fünfmal mehr Wetteraufzeichnungen zur Verfügung als für die südliche Hemisphäre. Die Gesamtanzahl der Wetteraufzeichnungen des GHCN erreichte in den 1960er und 1970er Jahren einen Höhepunkt und nahm seitdem in beiden Hemisphären deutlich ab. Dieser Trend setzte sich nach 1989 fort, bis schließlich im Jahr 2005 ein schwerer Einbruch zu verzeichnen war. Der mittlere bzw. linke Teil der Abbildung 4 Der Begriff „Inhomogenitäten“ ist in Bezug auf Temperaturdaten eher untechnisch definiert und bezeichnet ursprünglich eine durch Veränderungen der Gerätschaften, Veränderungen der Beobachtungszeit, die Verlegung einer Wetterstation o. Ä. hervorgerufene Messdiskontinuität. Einige Autoren verwenden den Begriff auch, um Messabweichungen aufgrund von Urbanisierung, Veränderungen der Landnutzung und anderen nichtklimatischen Einflüssen abzubilden, auch wenn hierfür viele Autoren auf eine unterschiedliche Begrifflichkeit zurückgreifen. Wenn also in Bezug auf ein Archiv wie dem GHCN von einer „Korrektur von Inhomogenitäten“ die Rede ist, kann dies daher als „Korrektur von Messdiskontinuitäten“, nicht notwendigerweise jedoch als „Korrektur von durch lokale, nichtklimatische Einflüsse hervorgerufenen Messabweichungen“ ausgelegt werden. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 53 zeigt die nördliche bzw. südliche Hemisphäre und belegt, dass es sich bei der sinkenden Anzahl von Wetterstationen um ein globales Phänomen handelte. Der Messumfang ist von seinem Höhepunkt Anfang der 1970er Jahre um etwa 75 % auf den tiefsten Wert seit dem Ende des neunzehnten Jahrhunderts gesunken. Aktuell erfasst das GHCN weniger Temperaturdaten als zu Ende des Ersten Weltkrieges. Während GHCN v2 zumindest über Daten aus nahezu allen Gegenden der Welt verfügt, liegen für das gesamte 20. Jahrhundert weitestgehend auf die USA, Südkanada, Europa und einige wenige andere 54 Standorte beschränkte Daten vor. Die globale Abdeckung mit vollständigen täglichen Aufzeichnungen (einschließlich der Ablesung der Höchst- und Tiefstwerte sowie von Durchschnittswerten) ist seit 1900 äußerst unvollständig. Abgesehen von den USA, Südkanada und den australischen Küstenregionen liegen nur wenige entsprechende Aufzeichnungen, für das Landesinnere ganzer Teile von Südamerika, Afrika, Europa und Asien überhaupt keine Beobachtungen vor (Peterson und Vose 1997, Abbildungen 3 und 4). Von den 31 für das GHCN herangezogenen Datenquellen sind nur für drei regelmäßige monatliche Aktualisierungen erhältlich. Bei zweien davon handelt es sich um US-Netzwerke, bei dem dritten um ein aus 1.500 Stationen bestehendes Netzwerk, das über das so genannte CLIMAT-Netzwerk automatisch Wetterdaten übermittelt. Die Veränderung der verwendeten Datenquellen erfolgte in Bezug auf die Art der Quellen nicht einheitlich. So haben sich die Messungen beispielsweise hin zu Flughafenstandorten verlagert, die dem Problem unterworfen sind, dass sie sich häufig an urbanen oder suburbanen Standorten befinden, die in den vergangenen Jahrzehnten errichtet wurden. Zudem hat der zunehmende globale Luftverkehr zu einer Erwärmung durch Faktoren wie Verkehr, Straßenwege, Gebäude und Abfall geführt, die ausnahmslos nur schwer aus den Temperaturaufzeichnungen herausgenommen werden können. Wie Abbildung 6 zu entnehmen ist, kam es infolge der oben gezeigten Stationsverluste Unsicherheit bezüglich des Grenzschadens zu einer Zunahme der Beobachtungen von Flughafenstandorten. Die meisten Regionen wiesen hier mit 40 % oder mehr im Jahr 1980 bereits zu Beginn hohe Werte auf. Gegenüber knapp über 20 % in den späten 1920er Jahren stammt heute mindestens die Hälfte der regionalen Messungen von Flughäfen. Die CRUTEM-Daten beruhen fast vollständig auf dem GHCN. Infolge eines 2007 gestellten Antrags gemäß dem Freedom of Information Act5 , der allen US-Bürgern freien Zugang zu den Akten, Unterlagen und Informationen der Verwaltung gewährt, gab das CRU offiziell an, dass die von ihm verwendeten Stationsdaten aus zwei Quellen stammten: dem GHCN und dem US-amerikanischen National Center for Atmospheric Research (NCAR) in Form der Datensätze ds540.0 und ds570.0. Auf der NCAR-Website entspricht ds540.0 im Wesentlichen dem GHCN v2 (http://dss.ucar.edu/datasets/ds564.0/). Bei dem Datensatz ds570.0 handelt es sich um die World Monthly Surface Station Climatology (http://dss.ucar.edu/datasets/ds570.0/), die größte Einzelkomponente des GHCN-v2-Archivs (Peterson und Vose (1997), Tabelle 1). In einer weiteren Darstellung gab das CRU den Anteil der aus diesen Quellen stammenden Daten mit etwa 98 % an. 5 Das Korrespondenzarchiv findet sich im Internet unter http://climateaudit.files.wordpress. com/2008/05/cru.correspondence.pdf. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 55 Anzahl GHCN-Stationen an Flughäfen in Prozent im Zeitraum 1890 – 2009 80 Global 80 Nördliche Hemisphäre Abbildung 6 80 60 60 60 40 40 40 20 20 20 Südliche Hemisphäre 56 0 0 1890193019702010 0 1890193019702010 1890193019702010 Quelle: GHCN | Für detaillierte Berechnungen siehe McKitrick (2010d) Die globalen Temperaturdaten des Goddard Institute of Space Studies der NASA gehen auf drei Ausgangsarchive zurück: GHCN v2 für die gesamte Welt mit Ausnahme der USA und der Antarktis, das US Historical Climatology Network (USHCN, ebenfalls ein NCDC-Produkt) sowie ein Archiv der Antarktisstationen des Scientific Committee on Antarctic Research6. Der größte Teil der von den USA in das GHCN eingespeisten Daten stammt aus dem USHCN, das jedoch auch seine eigenen Anpassungen zur Qualitätssicherung vornimmt. 6http://data.giss.nasa.gov/gistemp/sources/gistemp.html Unsicherheit bezüglich des Grenzschadens Die NOAA veröffentlicht monatlich eine Übersicht über globale Temperaturanomalien (http://www.ncdc.noaa.gov/cmb-faq/anomalies.html). Auf der NOAA-Website findet sich der Hinweis, dass die Landaufzeichnungen aus dem GHCN-Archiv stammen. Weitere Quellen sind nicht aufgeführt. Die drei zentralen Rasterdatensätze in Bezug auf globale Temperaturanomalien beruhen daher ausschließlich bzw. nahezu ausschließlich auf Daten aus dem GHCN-Archiv. Die Probleme des GHCN wie Messdiskontinuitäten und Verunreinigungen durch Urbanisierung und andere Formen veränderter Landnutzung wirken sich daher auch auf die Daten des CRU, des GISS und der NOAA aus. Die mit der Zeit abnehmende Qualität der GHCN-Daten führt damit zu einer ebenfalls abnehmenden Qualität der Datensätze des CRU, des GISS und der NOAA sowie zu einem stärkeren Einfluss durch Datenanpassungen zum Ausgleich von Messabweichungen. Daten in Bezug auf die Meeresoberfläche Alle historischen Daten bezüglich der Meeresoberflächentemperatur (Sea Surface Temperature, SST) sind dem International Comprehensive Ocean-Atmosphere Data Set (ICOADS, http://icoads.noaa.gov/) oder einem seiner Vorgängerarchive entnommen. Das ICOADS kombiniert etwa 125 Millionen SST-Datensätze aus Schiffsaufzeichnungen sowie weitere 60 Millionen Werte aus Bojen und anderen Quellen (Woodruff et al. 2005). Das ICOADS stützt sich auf eine große Sammlung von Eingangsdaten, wobei jedoch darauf hingewiesen werden sollte, dass sich bspw. aufgrund von Veränderungen der räumlichen Abdeckung, der Beobachtungsinstrumente und der Messzeiten sowie der Größe und Geschwindigkeit des Schiffes gravierende Schwierigkeiten ergeben. Im Grunde handelt es sich bei den ICOADS-Datensätzen um eine große Ansammlung problematischer Daten. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 57 Das britische Hadley Centre erstellt hinsichtlich der Meeresoberflächentemperatur zwei gerasterte Datensatzsammlungen: HADSST2 und HADISST (Beschreibungen finden sich unter www.hadobs.org). Die in der Sammlung HADSST2 verzeichneten Datensätze werden mit den CRUTEM-Daten für die Erdoberfläche zu dem so genannten globalen HADCRU-Datensatz kombiniert. Die HADSST2 zugrundeliegenden Methoden sind in Rayner et al. (2006) dargestellt. Bis 1997 verwendete HADSST2 die ICOADS-Daten, 1998 erfolgte die Umstellung auf ein ICOADS-Teilsystem namens Near Real-Time (NRT) Mari58 ne Observations (http://icoads.noaa.gov/nrt.html). Das ICOADS weist darauf hin, dass beide nicht vollständig konsistent sind (siehe http:// icoads.noaa.gov/products.html). Ende 2010 läuft das NRT-System aus, da das ICOADS-System nunmehr hinreichend automatisiert ist, um kontinuierlich aktualisiert werden zu können; das Hadley Centre wird in der Folge vermutlich wieder auf die ICOADS-Daten als Quelle zurückgreifen. Die HADSST2-Datensatzsammlung weist Lücken und spärliche Daten in der Oberflächenabdeckung auf. Die HADISST-Datensatzsammlung bietet unter Verwendung von Interpolationsmethoden eine „vollständige“ globale Abdeckung bzw. anders ausgedrückt Zahlen für jede Rasterzelle. Wichtigste Datenquelle ist die britische Met Office’s Marine Data Bank, die bis 1995 durch ICOADS-Daten aufgefüllt wurde. Fehlende Rasterzellen werden durch eine auf Hauptkomponentenanalysen beruhende numerische Methode ergänzt. Nach 1982 flossen Satellitendaten in den Interpolationsalgorithmus ein. Die NOAA verwendet zur Ermittlung der so genannten Extended Reconstruction Sea Surface Temperature (ERSST) ICOADS-Daten. Seit 1985 griff die NOAA zur Abdeckung in den Polargebieten auf Satellitenbeobachtungen des Advanced Very High Resolution Radiometer (AVHRR) zurück, stellte dabei jedoch einen leichten Rückgang des Trends fest und führte diesen Effekt auf systematisch zu niedrig gemessene Temperaturen (Cold Bias) zurück, sodass die Satellitendaten in der Unsicherheit bezüglich des Grenzschadens Folge entfernt wurden (siehe http://www.ncdc.noaa.gov/oa/climate/ research/sst/ersstv3.php). Das GISS verwendet andere NOAA-Daten, nämlich die Optimal Interpolation Version 2 (OI.v2) Datenbank von Reynolds et al. (2008), die bis 1998 auf ICOADS-Daten beruhte. Anschließend erfolgte wie beim Hadley Centre eine Umstellung auf ein kontinuierlich aktualisiertes Teilsystem, wodurch mit einem Mal etwa 20 % der Messungen verloren gingen. Das aktualisierte Teilsystem wird durch Bojendaten ergänzt, da viele Schiffsaufzeichnungen nur als Hardcopy vorgelegt werden. Die OI.v2-Datenbank greift zudem auf AVHRR-Satellitendaten zurück, um die Interpolation für Regionen, in denen keine Messungen stattfinden, zu verbessern. Im Gegensatz zum ERSST-Datensatz finden die Satellitendaten in den OI.v2-Datensatz nach wie vor Eingang. Bis in die 1930er Jahre beschränkte sich die Meeresdatenerfassung auf die Gebiete, in denen Schiffsverkehr herrschte. In den meisten Regionen des Südpazifik, in etwa in dem Bereich südlich einer Linie von der Halbinsel Baja California bis zur Südspitze Afrikas, wurden innerhalb eines Jahrzehnts weniger als 99, in vielen Gebieten überhaupt keine Messungen durchgeführt. In den 1970er Jahren war die Abdeckung mit Ausnahme von Südaustralien, Südamerika und Afrika nahezu komplett. Heute fehlen auf der Karte nur noch einige Polargebiete (Woodruff et al. 2008, Abbildung 5). Die Daten für die Zeit vor 1978 stammen nahezu vollständig aus Schiffsaufzeichnungen. Seit 1978 erfolgt die Datenerfassung hauptsächlich mittels Treib- und Mooringbojen (Woodruff et al. 2008). Messungen auf Schiffen und Bojen werden als In-Situ-Messungen bezeichnet. Eine weitere Datenquelle, die in den vergangenen Jahrzehnten an Bedeutung gewann, sind Satellitenbeobachtungen der Meeresoberfläche, die dazu dienen, die Abdeckung auch auf Gebiete außerhalb der In-Situ-Gebiete auszuweiten. Rayner et al. (2003) weisen jedoch darauf hin, dass auch Satellitensysteme mit Schwierigkeiten verbunden sind. Satellitenmessungen der Meeresoberflächentemperatur weisen Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 59 Ungenauigkeiten auf, sobald eine Wolkendecke vorhanden ist und es zu Schwankungen hinsichtlich des Staubs und der Aerosole in der Atmosphäre kommt. Infrarotdaten aus dem AVHRR-System können die SST zwar exakt messen, müssen jedoch gegenüber den bestehenden SST-Datensätzen kalibriert werden, um Messgeräteabweichungen zu vermeiden. Bei tief hängenden Wolkendecken und hoher Aerosolbelastung sind die Messungen unzuverlässig. Neue Satellitenplattformen wie die Tropical Rainfall Measuring Mission (TRMM) und das Advanced Microwave Scanning Radiometer (AMSR-E) haben in den vergan60 genen Jahren die Möglichkeiten der Datenerfassung bei Vorliegen von Wolken und Aerosolen deutlich verbessert. Schiffsdaten werden aufgrund der Vermischung von zwei unterschiedlichen Messtypen skeptisch beäugt. Früher wurde zur Messung der SST ein Eimer Wasser von der Meeresoberfläche an Deck eines Schiffes gezogen und die Temperatur des Wassers mit einem Thermometer gemessen. Je nachdem, was für ein Eimer dafür verwendet wurde – bspw. ein Holzeimer oder ein vom Wetteramt ausgegebener Segeltucheimer –, wurden verschiedene Messergebnisse erzielt, die in Bezug auf die tatsächliche Temperatur häufig nach unten abwichen (Thompson et al. 2008). Zu Beginn des 20. Jahrhunderts erfolgten die Messungen angesichts der Ablösung von Segelschiffen durch Motorschiffe zunehmend über Sensoren, welche die Temperatur des in das Motorkühlsystem eingesaugten Wassers überwachten. Diese Daten weichen gegenüber der tatsächlichen SST für gewöhnlich nach oben ab (Thompson et al. 2008). Insgesamt wird davon ausgegangen, dass US-amerikanische Schiffe recht schnell auf diese motorgetriebenen Ansaugsysteme umgestellt haben, wohingegen britische Schiffe ihre Messungen deutlich länger mithilfe der Eimermethode durchführten. In jüngerer Zeit wurden von einigen Schiffen über Rumpfsensoren ermittelte Messdaten übermittelt, und durch veränderte Schiffsgrößen fanden zudem künstliche Trends Eingang in die ICOADS-Datensätze (Kent et al. 2007). Unsicherheit bezüglich des Grenzschadens Bis vor kurzem ging man davon aus, dass der Übergang von unisolierten bzw. teilisolierten Eimern hin zu Ansaugsystemen plötzlich im Dezember 1941 mit Eintritt der USA in den Zweiten Weltkrieg erfolgte (Folland und Parker 1995). Das Hadley Centre korrigierte daraufhin seine SST-Daten aus der Zeit vor 1941 aufgrund der Annahme, die Eimermessung sei zu diesem Zeitpunkt eingestellt worden, nach oben. Als Kent et al. (2007) jedoch kürzlich Schiffsmetadaten zusammentrugen, stießen sie darauf, dass in den von Schiffen stammenden ICOADS-Daten im Jahr 1980 nach wie vor etwa die Hälfte aus solchen Eimermessungen stammte. Bei der Verwendung der Kent-Daten legten Thompson et al. (2008) ein weiteres Problem im Zusammenhang mit den SST-Daten in den Jahren 1945 und 1946 offen: zwischen 1940 und 1945 war der Anteil der von US-Schiffen stammenden Daten explosionsartig auf mehr als 80 % der Proben angestiegen; mit dem Ende des Zweiten Weltkrieges hingegen stieg der Anteil der Daten aus Großbritannien innerhalb eines Jahres von etwa 0 % auf etwa 50 % der Gesamtdaten an, wohingegen die USA weniger Daten lieferten als zuvor. Gleichzeitig fiel der ICOADS-Durchschnitt um etwa 0,5 °C, was einer starken Verfälschung gleichkommt, die in den veröffentlichten globalen Temperaturreihen sichtbar wird. Thompson et al. weisen darauf hin, dass die Auswirkungen der Korrektur dieses Temperaturknicks in der Mitte des Jahrhunderts erheblich sein können. Wird diese Diskontinuität zur Anpassung an die vor 1945 erfassten Datenreihen durch Erhöhung der nach 1945 erhobenen Daten gelöst, flachen die Reihen ab und lassen für den Zeitraum von etwa 1940 bis in die späten 1990er Jahre keinerlei Rückschlüsse auf eine Erwärmung zu. Das im 20. Jahrhundert vorherrschende Verständnis der Erderwärmung wird dadurch drastisch verändert. Wird die Diskontinuität hingegen gelöst, indem die nach 1945 erfassten Datenreihen durch eine Verringerung der vor 1945 erhobenen Daten harmonisiert werden, führt dies zu einem deutlich längeren und über das gesamte 20. Jahrhundert anhaltenden Erwärmungstrend Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 61 als angenommen. In beiden Fällen wird die wie auch immer geartete Entscheidung über die Beseitigung dieser kürzlich entdeckten schwer identifizierbaren Diskontinuität in den SST-Datenreihen eine weit gefasste Überprüfung des aktuellen Verständnisses der globalen Erwärmung zur Folge haben. Eine weitere Schwierigkeit zeigt sich, ähnlich wie bei den Erdoberflächendaten, in einem beständigen Rückgang der Anzahl von Schiffen, die sich in den vergangenen Jahren bereit erklärt haben, Daten für das ICOADS zu liefern. Die neue weltweite ARGO-Flotte (www.argo.net) 62 deckt seit 2003 für die gesamten Weltmeere bis in eine Tiefe von 2.000 Metern die Messungen von Temperatur, Salzgehalt und Strömungen ab. Einen vollständigen Ausgleich der immer weniger werdenden Schiffsdaten kann diese Flotte jedoch nicht leisten, da sie keine direkten Messungen der SST vornimmt. Stattdessen beginnt ihr Profiling in einer Tiefe von 10 Metern unter dem Meeresspiegel, wohingegen ihre Ansaugpumpen in einer Tiefe von 8 Metern unter dem Meeresspiegel automatisch abschalten. Eine weitere Herausforderung stellt das Meereis dar. Die Schifffahrt in eisbedeckten Regionen ist gefährlich, sodass aus der Zeit vor dem Einsatz von Satelliten (etwa ab 1978) nur spärliche Daten vorliegen. Für die Zeit zwischen 1901 und 1995 liegen zwar Diagramme über die Meereiskonzentration in der nördlichen Hemisphäre vor, doch können nur die Ränder beobachtet werden und die darüber hinausgehende Abdeckung ist als einheitlich anzunehmen (Rayner et al. 2003). Eine weitere Schwierigkeit besteht darin, dass für die Herbstund Wintermonate (September bis März) überhaupt keine Daten vorliegen, sodass die Meereiskonzentration in den Randgebieten auf Grundlage der Daten aus den Sommermonaten geschätzt werden muss. Daten über das in der Antarktis vorhandene Meereis wurden erst ab 1973 mit Beginn der Satellitenbeobachtungen verfügbar. Aus früheren Jahren liegen nur einige Beobachtungen von Forschungsexpeditionen vor. Die HADISST-Datenreihe des Hadley Centre greift für Unsicherheit bezüglich des Grenzschadens die Jahre zwischen 1929 und 1939 auf Daten aus Deutschland zurück und rechnet auf deren Grundlage zurück bis in das Jahr 1871. Für den Zeitraum 1947 – 1962 dienen russische Forschungsdaten als Grundlage, Daten für andere Jahre wurden bis zu den ersten Satellitenmessungen durch Interpolation gewonnen. Für die Erstellung globaler Datensätze wird die SST in der Annahme mit den GHCN-Daten für die Erdoberfläche kombiniert, beide zusammen ergeben einen Durchschnittswert für die oberflächennahe Lufttemperatur. Aufzeichnungen der Meereslufttemperatur (Marine Air Temperature [MAT] im Gegensatz zur SST) gibt es nur sehr wenige, die zudem durch die im Verlaufe des Jahrhunderts zunehmende Schiffshöhe beeinträchtigt wurden und daher im Zeitverlauf, außer in den Fällen, in denen die Messung auf gleicher Höhe erfolgt ist, nicht streng vergleichbar sind. Die Übereinstimmung zwischen SST- und Lufttemperaturtrends wurde in einigen wenigen Fällen untersucht. Christy et. al. (2001) konzentrierten sich dabei auf Standorte, an denen sie die Luft- und die SST-Messungen an ein und demselben Ort direkt miteinander vergleichen konnten. Die Untersuchung umfasste von Schiffen erfasste Daten bezüglich der Meereslufttemperatur sowie Daten von Wettersatelliten, Wetterballons und einer Reihe von Bojen im tropischen Pazifik. Die Daten aus dem Bojennetz sind dabei besonders hilfreich, da diese an ein und demselben Ort sowohl die Temperatur einen Meter unter der Oberfläche als auch drei Meter über der Oberfläche messen. Bei allen Vergleichen der SST mit der Lufttemperatur trat zutage, dass das Meer sich gegenüber der Luft erwärmt hat, was darauf hindeutet, dass die SST gegenüber den Lufttemperaturtrends zu hoch angegeben wurde. Darüber hinaus weisen drei der Lufttemperatur-Datensätze (Satellit, Ballon und Reanalyse) darauf hin, dass sich die Meereslufttemperatur direkt über der Meeresoberfläche in den Tropen seit 1979 alle zehn Jahre um durchschnittlich 0,01 bis 0,06 °C abgekühlt hat, während die SST-Daten auf eine Erwärmung schließen ließen. Die Autoren berechneten daher die globalen Durchschnittstemperaturen Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 63 für den Zeitraum von 1979 bis 1999 für Zeiträume, für die Lufttemperaturdaten anstelle von SST-Daten vorlagen, neu, woraus sich eine Reduzierung des globalen Trends um 0,05 °C pro Jahrzehnt ergab. Messungen der Lufttemperatur per Satellit Eine Alternative zu Oberflächendaten eröffnete sich, als Spencer und Christy (1990) neue Klimadatenreihen veröffentlichten, die auf einer Auswertung von Daten der von der National Oceanographic and At64 mospheric Administration (NOAA) der USA 1979 ins All geschickten Wettersatelliten Tiros-N geliefert worden waren. Diese Satelliten sind mit so genannten Microwave Sounding Units (MSU) ausgestattet, die die von Sauerstoffmolekülen in verschiedenen Schichten der Atmosphäre abgegebene Strahlung messen und so täglich eine nahezu vollständige Übersicht über die gesamte Tropos- und Stratosphäre liefern. Jede Messung kann dabei stellvertretend für den Gesamtdurchschnitt der Lufttemperatur betrachtet werden. Der Vorteil der MSU-Reihe besteht darin, dass Spencer und Christy durch die Kalibrierung der MSU-Daten gegenüber Messungen der Lufttemperatur aus einem globalen Radiosondennetz7 in der Lage waren, die erste auf einer konsistenten Probenmethode beruhende globale Durchschnittstemperaturreihe für die gesamte Atmosphäre und vor allem die besonders wichtige Troposphäre vorzulegen. Allerdings zeigten sich unter anderem auch folgende Nachteile: 7 Bei Radiosonden handelt es sich um auf Wetterballons montierte Thermometer, die aus unterschiedlicher Höhe Temperaturmessdaten an am Boden befindliche Monitore übermitteln. Ein Netzwerk meteorologischer Stationen wird so mit globalen Daten gespeist. Unsicherheit bezüglich des Grenzschadens >> Die Messdatenreihen reichen nur bis 1979 zurück. Auch wenn auf diesem Wege also inzwischen Messdaten aus den 30 Jahren vorliegen, in denen die Erdoberfläche sich am stärksten erwärmt hat, können daraus keine Schlüsse bezüglich der Erwärmungsmuster in der Mitte des 20. Jahrhunderts gezogen werden. >> An verschiedenen Punkten der Reihen wurden Satelliten ausgetauscht, sodass der Trend durch die Messpunktkalibrierung beeinflusst worden sein kann. Die Daten von Spencer und Christy werden üblicherweise nach den Initialen der Universität von Alabama in Huntsville, an der die beiden Forscher tätig sind, als UAH-Reihe bezeichnet. Ein unabhängiger Algorithmus zur Auswertung der MSU-Daten wurde von dem kalifornischen Forschungsunternehmen Remote Sensing Systems (RSS) entwickelt (Mears et al 2003). Beide existierenden Versionen ähneln sich außerhalb der Tropen stark, wohingegen die RSS-Reihen über den Tropen einen deutlich höheren Trend aufweisen, was mit einem stufenartigen Anstieg um 1992 zusammenzuhängen scheint, der sich zeitgleich mit einem Satellitenaustausch ereignete (Christy et al. 2010). Aus den RSS-Daten lässt sich für die Zeit nach 1993 relativ zu Wetterballondaten (Randall und Herman 2008) und Reanalysedaten8 (Bengtsson und Hod­ges 2010) sowie im Vergleich zu einigen anderen regionalen Datensätzen (Christy et al. 2010) eine Erwärmung ablesen. Durch das RSS-Team wurde als Problem erkannt, dass es aufgrund eines Höhenverlustes durch veränderte Satellitenbahnen mit der Zeit zu verfälschten Abkühlungstrends kommen könnte. Sowohl die UAH- als 8 Reanalysedaten werden auf Grundlage von Wetterprognosen für die nächsten 6 und 12 Stunden gewonnen. Die Wettermodelle werden auf Grundlage von Beobachtungen definiert und liefern vollständige räumliche Daten für unterschiedliche Atmosphäreschichten. Da kurzfristige Prognosen die höchste Zuverlässigkeit aufweisen, stellen diese eine gute Datenquelle zum Vergleich mit direkten Beobachtungen dar. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 65 auch die RSS-Forscher haben als Ausgleich für diesen Effekt historische Korrekturen entwickelt. Nach 2002 begann das UAH-Team mit der Integration von MSU-Daten aus dem so genannten AQUA-Satellitensystem, das dank eines eigenen Antriebssystems auf konstanter Höhe gehalten werden kann. Von RSS werden keine AQUA-Daten verwendet. Abschließende Bemerkungen Mein Eindruck der verschiedenen zur Messung des globalen Klima66 wandels zur Verfügung stehenden Datensammlungen ist, dass die längsten Datenreihen, d. h. die Datenreihen in Bezug auf die Erd- und die Meeresoberfläche, gravierende Probleme hinsichtlich ihrer Erhebung, Kontinuität und Qualität aufweisen, sodass eine langfristige Kontinuität der Daten illusorisch ist. Die Schwierigkeiten im Zusammenhang mit der Erhebung von Daten für die Erdoberfläche haben sich in den vergangenen Jahrzehnten ausgeweitet. Ferner kann der Aussage, der Abgleich der drei globalen Datenreihen untereinander komme einer Qualitätsprüfung gleich, nicht zugestimmt werden, da alle auf denselben Archiven basieren und damit eine nur unzureichende Unabhängigkeit aufweisen. Die MSU-Satellitendatenreihe ist kürzer, verfügt jedoch hinsichtlich von Konsistenz und Vollständigkeit der Datenerfassung, der Qualität der Geräteausstattung sowie der Validierung gegenüber unabhängigen Beobachtungsplattformen über klare Vorteile. Für Zwecke der politischen Entscheidungsfindung halte ich die MSU-Daten für das am meisten geeignete System. Vergleich von Modelldaten Parametrisierungen sind in Modellen unvermeidbar. Daher ist es umso wichtiger, dass die verschiedenen Klimamodelle zur Beurteilung der Qualität der empirischen Näherungswerte konkreten Daten gegenübergestellt werden. Einfache eindimensionale Vergleiche der Unsicherheit bezüglich des Grenzschadens anhand von Modellen generierten globalen Durchschnittstemperatur mit auf Beobachtungen basierenden globalen Durchschnittswerten finden sich im 20. Jahrhundert vielfach (z. B. Knutson et al. 2006, CCSP 2008). Der globale Durchschnitt wird jedoch von einem langsamen und stetigen Aufwärtstrend beherrscht; die Entwicklung eines Modells, das einen einfachen Aufwärtstrend aufweist, ist nicht schwierig. Angesichts der großen Zahl widersprüchlicher Hypothesen, die zu einer solchen Form führen können, ist die Feststellung einer Übereinstimmung zwischen Beobachtungen und Modellen des globalen Durchschnitts allein als Beweis nicht ausreichend. Knutti (2008), CCSP (2008, Seite 44), Knutti und Hegerl (2008), Kiehl (2007), Hegerl et al. (2007, Seite 678), Schwartz et al. (2007) und andere haben darauf verwiesen, dass der beobachtete globale Durchschnittstrend gleichermaßen konsistent mit stärkeren und schwächeren Annahmen bezüglich der Sensitivität gegenüber einer durch Treibhausgase verursachten Erwärmung sein kann, wenn er mit ausgleichenden Annahmen bezüglich einer aerosolbedingten Abkühlung, einer Wärmeaufnahme durch die Weltmeere oder anderen Mechanismen in Verbindung gebracht wird. In der Praxis weisen Modelle, die von einer stärkeren Sensitivität gegenüber Treibhausgasen ausgehen, in einem Maße eine Tendenz zu einem stärken Ausgleich durch Abkühlungsmechanismen auf, das nicht zufällig erscheint (Kiehl 2007). Die GCM-Auswertung gemäß Kapitel 8 des vierten Berichts des Zwischenstaatlichen Ausschusses für Klimaänderungen (IPCC) (Randall et al. 2007) besteht vorrangig aus statischen Reproduktionstests, die Aussagen über die Verteilung der Durchschnittstemperatur und der Niederschlagshöhen ermöglichen, jedoch keine weltweiten Trends reproduzieren, und a priori-Kontrollen, um festzustellen, ob bekannte meteorologische Prozesse in die Modelle Eingang gefunden haben. Der IPCC weist darauf hin, dass relativ wenige Studien die Frage aufgeworfen haben, ob die empirische Treue zwischen den Modellsimulationen der Vergangenheit und den dazugehörigen Beobachtungsda- Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 67 ten die Genauigkeit von Klimatrendprognosen verbessern (Randall et al. 2007, Seite 594). Daher sind Methoden zur Bewertung der Modelle entsprechend ihrer Fähigkeit, verschiedene räumliche Trendmuster zu erfassen, erforderlich. Berk et al. (2001) verwiesen diesbezüglich darauf, dass nur wenige quantitative Vergleiche von Modellergebnissen und mit aus Beobachtungen gewonnenen Daten vorlägen, die sich zudem noch „extrem auf subjektive Bewertungen stützen“ (Berk et al., Seite 126). Die Situation hat sich seit 2001 kaum verändert. Weder die Überprüfung der GCM durch das US-amerikanische Climate Change Science 68 Program (CCSP 2008) noch der jüngste Bericht des IPCC liefern statistische Untersuchungen darüber, wie gut Klimamodelle das räumliche Temperaturtrendmuster der vergangenen Jahrzehnte reproduzieren. Stattdessen verlassen sie sich auf subjektive Bewertungen. In Kapitel 9 des IPCC-Berichts (Hegerl et al. 2007) finden sich die Diskussion eines Diagramms (Abbildung 9.6, Seite 684 – 686) über die durchschnittlichen Ergebnisse aus 58 GCM-Simulationen und das besondere Temperaturmuster von Trends an der Erdoberfläche zwischen 1979 und 2005, wobei Modellsimulationen, die von der Annahme ausgehen, das Klima würde durch Treibhausgase nicht erwärmt, Modellsimulationen gegenübergestellt werden, die auf der Annahme beruhen, dass dies sehr wohl der Fall sei. In diesem Zusammenhang wird behauptet, letztere Annahme passe besser zu den Beobachtungsdaten; ein quantitativer Beleg wird jedoch nicht erbracht. Der CCSP-Bericht (2008) enthält einen visuellen Vergleich hinsichtlich der Übereinstimmung der zwischen 1979 und 2003 beobachteten und den von der GISS in ihrem Modell ausgearbeiteten Trendmustern. Auch diese Diskussion ist rein qualitativ – dem Leser wird noch nicht einmal ein Korrelationskoeffizient, geschweige denn eine Reihe von Signifikanztests vorgelegt. Einer der zentralen Tests für die Qualität von GCM ist es, zu prüfen, ob sie geeignet sind, das Verhalten der riesigen tropischen Region korrekt dazustellen. Die allgemeine atmosphärische Zirkulation entsteht im Wesentlichen durch die unterschiedlich starke Erwärmung der Erde Unsicherheit bezüglich des Grenzschadens am Äquator und an den Polen.9 Durch die starke Sonneneinstrahlung und die damit verbundene Erwärmung am Äquator steigt heiße und feuchte Luft auf, die sich in der Höhe abkühlt und um etwa 30 Breitengrade in Richtung der Pole strömt. Dort sinkt sie wieder ab und strömt in Bodennähe zurück zum Äquator. Ein Teil der absteigenden Luft wird abgelenkt und vermischt sich mit einer Luftströmung in Richtung der Pole, die in verschiedenen, an den Polen endenden Zirkulationen verläuft. Globale Atmosphärenmodelle müssen diese Prozesse auf einer rotierenden Kugel unter Berücksichtigung geeigneter Verteilungen hinsichtlich von Feuchtigkeit, Impuls und Energie abbilden. Im Rahmen von auf diesen Modellen beruhenden Experimenten wurde regelmäßig gezeigt, dass die stärkste Erwärmung aufgrund der Konzentrationserhöhung von Treibhausgasen in der tropischen Troposphäre erfolgt. Held und Soden (2000, Seite 464) beschreiben, dass Modelle etwa 60 % der globalen atmosphärischen Wasserdampfrückkopplung der oberen Troposphäre über den Tropen in einem Gebiet zwischen 30 Grad nördlicher Breite und 30 Grad südlicher Breite zuordnen, während nur 40 % der Rückkopplung auf die übrigen Breiten entfallen.10 Alle Klimamodelle sagen eine außergewöhnlich starke und schnelle durch Treibhausgase verursachte Erwärmung der Troposphäre (d. h. in einer Höhe von 1 – 16 km) über den Tropen vorher. Dieses Phänomen ist in Abbildung 10.7 des Berichts der IPCC-Arbeitsgruppe I, die im Internet unter http://www.ipcc.ch/graphics/ ar4-wg1/jpg/fig-10-7.jpg erhältlich ist, dargestellt. Ursprünglich wurden vom IPCC zwölf Klimamodellprognosen für den vierten IPCC- 9 Eine einfache schematische Beschreibung der allgemeinen Zirkulation findet sich bei Lockwood (1979), Kapitel 4. 10 Dieses Verhältnis bezieht sich auf die „freie Atmosphäre“ bzw. Troposphäre oberhalb der Grenzschicht (d. h. der unteren 1 – 2 km). 10 % des globalen Effekts schlagen sich in dieser Grenzschicht nieder, sodass sich für die Troposphäre ein Verhältnis von 55 % Tropen und 35 % Nicht-Tropen ergibt. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 69 Sachstandsbericht archiviert, die entsprechende Internetseite wurde zwischenzeitlich jedoch entfernt.11 Diese Modellexperimente folgen dem A1B-Emissionsszenario, das für die Emissionsentwicklung bis 2100 einen mittleren Pfad beschreitet. Die durchschnittliche globale Oberflächenerwärmung bis zum Ende des Jahrhunderts beträgt laut GISS-Modell etwa 2,3 °C.12 Der troposphärische Durchschnitt liegt mit 5 °C in etwa doppelt so hoch, und das fokale Muster in der tropischen Troposphäre tritt zu Beginn des Prognosezeitraums auf. Das Muster war in allen für den IPCC-Bericht von 2007 erstellten 12 Klimamodell70 simulationen klar zu erkennen. Abbildung 9.113 des IPCC-Berichts von 2007 enthält ferner einen Modelltest (sogenannter „Hindcast“), in dem modellbasierte Klimamuster für den Zeitraum von 1890 bis 1999 mit Hilfe historischer Klimadaten überprüft werden. Hierbei zeigt sich dasselbe Muster, das von einem bereits in Gang befindlichen starken, gegenüber allen übrigen Antrieben vorherrschenden, Erwärmungstrend in der tropischen Troposphäre ausgeht. Ein identisches Muster ist auch in einem modellbasierten Modelltest dargestellt, der die klimatischen Veränderungen zwischen 1958 und 1999 unter der Annahme einer starken THG-Erwärmung simuliert und für den Bericht des US-amerikanischen Climate Change Science Program (CCSP 2006) angefertigt wurde; siehe Seite 25, Abbildung 1.3 A und F, im Internet abrufbar unter http://www.climatescience.gov/Library/sap/sap1-1/finalreport/default.htm. Auch in dieser Darstellung ist die helle Scheibe als Temperaturindikator der tropischen Troposphäre besonders dominant. 11 Eine unvollständige Archivversion findet sich unter http://web.archive.org/web/20070925231825/ http://ipcc-wg1.ucar.edu/wg1/Report/suppl/Ch10/Ch10_indiv-maps.html. 12 Vierter IPCC-Sachstandsbericht (Arbeitsgruppe I), Kapitel 10, Abbildung 10.5 13 Online unter http://www.ipcc.ch/graphics/ar4-wg1/jpg/fig-9-1.jpg Unsicherheit bezüglich des Grenzschadens Vergleich beobachteter und modellierter Temperaturtrends von 1979 – 2009 in der tropischen Troposphäre Untere Troposphäre °C Abbildung 7 Mittlere Troposphäre 0,30 0,20 0,10 71 0,00 -0,10 el od M le a ob Be en ng tu ch el od M le S RS H UA el od M le l te Sa en lit d Ra n de on s io Quelle: McKitrick, McIntyre und Herman (2010) Insgesamt betrachtet stimmen alle Modelle darin überein, dass bereits heute ein Muster einer starken Erwärmung der tropischen Troposphäre zu beobachten sein müsste, wenn die durch THG verursachte Erwärmung tatsächlich der vorherrschende, langfristig auf unser Klima einwirkende Effekt wäre und auch die künftigen Klimaveränderungen dominiert. Einig sind sich die Modelle weiterhin darüber, dass die Erwärmung der oberen Troposphäre in den Tropen stärker als in der übrigen Troposphäre und in der Höhe stärker als an der Oberfläche ausfallen wird. Dessen ungeachtet lässt sich das erwartete Muster für die tropische Troposphäre in den Daten nicht beobachten. Dies führt zu zweierlei Diskrepanzen: Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten >> Auf Ebene der unteren und der mittleren Troposphäre über den Tropen sagen die Klimamodelle eine zwei- bis viermal so hohe Erwärmung voraus, als zwischen 1979 und 2009 beobachtet wurde (siehe Abbildung 7). Während bis 1999 laufende frühere Untersuchungen von Messungen davon ausgingen, dass zwar die Erwärmung in den Modellen zu hoch prognostiziert würde, Modelle und Beobachtungen jedoch aufgrund breiter Konfidenzintervalle vereinbar seien, gelang es McKitrick et al. (2010) anhand von bis Ende 2009 reichenden Daten aufzuzeigen, dass die Erwärmung in den Modellen deutlich 72 zu hoch prognostiziert wird. Zudem ließ sich unter Einsatz zuverlässiger parametrischer und nichtparametrischer Tests nachweisen, dass sich Modelle und Daten bei einem Signifikanzniveau von 99 % statistisch signifikant voneinander unterscheiden. Grundlage dafür waren multivariate Vergleiche unter Einbeziehung aller verfügbaren Klimamodelle sowie der gesamten von Satelliten- und Wetterballons ermittelten Datensätze. >> In den Modellen wird weiterhin eine stärkere Erwärmung der oberen Troposphäre als in Oberflächennähe prognostiziert, wobei das Verhältnis der Trends dabei mit etwa 1,4:1 angegeben wird. Christy et al. (2010) ist jedoch anhand umfassender Beobachtungsdatensätze der Nachweis gelungen, dass die in den Tropen in der Höhe beobachtete Erwärmung in Wirklichkeit geringer ausfällt als an der Oberfläche, wobei das beobachtete Verhältnis mit etwa 0,8 angegeben wird. Dieses Ergebnis lässt auf eine deutliche Inkonsistenz zwischen Modellen und Daten schließen. Anders ausgedrückt: Für die Tropen prognostizieren alle Modelle in der Höhe einheitlich eine stärkere Erwärmung und einen stärkeren Vervielfachungsfaktor, als beobachtet wird. Dieses Problem wurde im Jahr 2006 vom US Climate Change Science Program (CCSP 2006) erkannt. Die Modelle sagen für die tropische Troposphäre ein vertikales Muster vorher, das den Ergebnissen Unsicherheit bezüglich des Grenzschadens aus 7 von 8 im Rahmen des CCSP14 untersuchten Vergleichen (der achte Vergleich ließ keine Schlussfolgerungen zu) widersprach. Ferner ergab sich aus keiner der verfügbaren troposphärischen Datenreihen eine statistisch signifikante Erwärmung der Troposphäre. Bezogen auf die Äquatorregion zwischen dem 20. Grad nördlicher Breite und dem 20. Grad südlicher Breite, enthält der Bericht zusammenfassend folgende Aussage: Auch wenn die Mehrheit der Beobachtungsdatensätze auf eine an der Oberfläche gegenüber der Troposphäre höhere Erwärmung schließen lässt, zeigen einige Beobachtungsdatensätze ein gegenteiliges Verhalten. Nahezu alle Modellsimulationen weisen auf eine stärkere Erwärmung in der Troposphäre als an der Oberfläche hin. Diese Diskrepanz zwischen Modellen und Beobachtungen ist möglicherweise auf Fehler in allen Modellen, auf Fehler in den Beobachtungsdatensätzen oder auf eine Kombination der beiden genannten Alternativen zurückzuführen. Die zweite Erklärung erscheint plausibler, die Frage ist allerdings noch offen. Zusammenfassend lässt sich sagen, dass Klimamodelle, die den Treibhauseffekt auf die Annahme einer starken positiven Rückkopplung stützen, unisono einen in der tropischen Troposphäre zu beobachtenden starken Erwärmungstrend von mindestens 0,2 Grad/Jahrzehnt prognostizieren. Die Temperaturen in diesem Bereich der Atmosphäre werden von Wettersatelliten und Wetterballons überwacht. Nachweise für eine solche Prognose gibt es nicht. Der von der RSS-Satellitenreihe gezeigte deutliche Erwärmungstrend ist möglicherweise auf eine Abweichung nach oben aufgrund von Schwierigkeiten bei der Satellitenkalibrierung zurückzuführen. Die übrigen Datenreihen (UAH und 14 Siehe Bericht, Seite 111, Abbildung 5.4 G Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 73 Radiosonden) stimmen in ihren in den meisten Fällen unerheblichen Trends von 0,1 °C/Jahrzehnt oder weniger überein. Das erwartete vertikale Muster wird nicht beobachtet: die Erwärmung in der Höhe ist gegenüber der Oberflächenerwärmung nicht erhöht. Insgesamt können wir den aktuellen Daten daher entnehmen, dass die CO2-bedingte Erderwärmung im unteren Bereich der getroffenen Prognosen liegen dürfte. Daraus folgt, dass sich die auf CO2 zurückzuführenden Umweltschäden sehr wahrscheinlich im unteren Bereich der veröffentlichten Schätzungen bewegen werden. 74 Ökonomische Grenzschadenmodelle Über die von Treibhausgasen verursachten Grenzschäden gibt es zahlreiche Studien, die auf Grundlage der Annahme berechnet wurden, dass die Ergebnisse der Klimamodellprognosen als realistische Schätzungen akzeptiert werden können. Tol (2005) untersuchte mehr als 100 dieser Berechnungen. Während hinsichtlich der Methoden und Annahmen große Vielfalt herrschte, nahmen alle Studien einheitlich Klimaprognosen als Grundlage und wiesen den globalen Auswirkungen von Emissionen bestimmte Dollarwerte zu. Der einzige Unterschied bestand in der Art und Weise der Bewertung dieser Auswirkungen, die Ergebnisse insgesamt wiesen überraschende Ähnlichkeit auf. Eine starke Modalwertkonzentration zeigte sich zwischen 0 und 10 USD/Tonne Kohlenstoff.15 Der Modus lag bei 2 USD/Tonne Kohlen- 15 An dieser Stelle ist eine begriffliche Klärung erforderlich: Schäden aufgrund von Erwärmung sind auf Kohlendioxid im Gegensatz zu „Kohlenstoff“ (einem Begriff, der Rußpartikel und Aerosole beinhalten kann) zurückzuführen. Emissionen und Kosten werden hingegen für gewöhnlich in Tonnen Kohlenstoff, nicht in Tonnen Kohlendioxid angegeben. Das Verhältnis zwischen Kohlenstoff und Kohlendioxid beträgt 11:3, d. h., eine Tonne Kohlenstoff entspricht 3,67 Tonnen CO2. Eine Steuer in Höhe von 37 USD/Tonne Kohlenstoff entspräche folglich in etwa einer Steuer in Höhe von 10 USD/Tonne Kohlendioxid. Unsicherheit bezüglich des Grenzschadens stoff, der Median bei 14 USD/Tonne und das arithmetische Mittel bei 93 USD/Tonne (25 USD/Tonne CO2). Tol schloss in seine Untersuchungen zunächst auch graue Literatur mit Schätzungen bis zu 800 USD/Tonne ein. Bei ausschließlicher Berücksichtigung von Fachliteratur fallen der Mittelwert auf 43 USD/Tonne und der Modus auf 1,50 USD/Tonne, wobei Tol die letzte Zahl für eine verlässliche Angabe im Hinblick auf viele Qualitätsgewichtungskonfigurationen hält. Werden Aufsätze, die ausschließlich eine Zeitpräferenzrate von unter 3 % anwenden, nicht berücksichtigt, fällt der Median auf etwa 6 USD/Tonne (Tol, 2005, Abbildung 5). Die Hälfte der in der Fachliteratur veröffentlichten Studien, die auf eine konventionelle Diskontierung zurückgreifen, setzt die Kosten damit auf 6 USD/Tonne oder weniger fest. 2007 legte Tol eine aktualisierte Untersuchung vor, in der mehr als 200 Studien über die gesellschaftlichen Kosten von CO2-Emissionen (in Kohlenstoffäquivalenten) berücksichtigt wurden. Die durchschnittliche Schätzung der Grenzschäden aller Studien aus Fachliteratur und grauer Literatur gleichermaßen lag bei 127 USD/Tonne Kohlenstoff (35 USD/Tonne CO2). Bei den Fachstudien beliefen sich das Mittel bzw. der Modus auf 71 bzw. 20 USD/Tonne. Die Studien, die eine reine Zeitpräferenz von 3 % anwendeten, kamen zu einem Mittel von 24 USD/Tonne und einem Modus von 14 USD/Tonne. Tol stellte weiterhin fest, dass der durchschnittlich geschätzte Schaden mit der Zeit abgenommen hat und der Mittelwert der nach 2001 durchgeführten Studien weniger als die Hälfte der vor 1996 veröffentlichen Studien beträgt. Selbst wenn wir also die grundlegende Unsicherheit bezüglich der Auswirkungen von CO2 auf das Klima ignorieren, besteht nur wenig Unsicherheit hinsichtlich der Grenzschäden von Kohlenstoff. Die gesellschaftlichen Kosten von Kohlenstoff auf globaler Ebene liegen mit an Sicherheit grenzender Wahrscheinlichkeit unter 50 USD/Tonne und vermutlich sogar unter 20 USD/Tonne. Ein Preis von circa 15 USD/ Tonne Kohlenstoff (rund 4 USD/Tonne CO2) wäre somit angesichts der Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 75 aktuellen Schadenschätzungen ein vernünftiger Ausgangspunkt für eine Kohlenstoffsteuer, sofern CO2 tatsächlich ursächlich für die globale Erwärmung verantwortlich ist. Zusammenfassung der Herausforderungen Nehmen wir die aktuellen Klimamodelle für bare Münze, können wir eine niedrige Kohlenstoffsteuer auf der Grundlage rechtfertigen, dass die Emissionen dadurch nur unwesentlich gesenkt werden könnten 76 und die Steuer stattdessen einzig der Internalisierung externer Kosten dienen würde. Angesichts dessen, dass die Emissionen kaum gesenkt würden, könnte man berechtigterweise die Frage stellen, wozu eine solche Steuer überhaupt erforderlich sein sollte. Es herrscht noch immer die Angst, dass das Problem der globalen Erwärmung zu einer Beschleunigung der Schäden in der Zukunft führen oder unerwartet gravierende Folgen haben könnte, die heute noch nicht vorhergesehen werden können. Diese Möglichkeit ist der Grund für die anhaltenden Rufe nach einer deutlichen Reduzierung der Emissionen. Da es sich jedoch um nicht mehr als eine Vermutung handelt, die noch dazu von den aktuell vorliegenden Daten nicht gestützt wird, bildet diese Begründung keine überzeugende Grundlage für die hohen Kosten einer groß angelegten Reduzierung der CO2-Emissionen. All das bedeutet nicht, dass in den nächsten Jahren nicht möglicherweise neue Informationen in Form besserer Klimadaten oder neuer technologischer Innovationen vorliegen werden, die für eine Reduzierung der Emissionen sprechen. Aus diesem Grund ist ein politischer Mechanismus erforderlich, der neue Informationen automatisch berücksichtigt, sobald diese verfügbar sind, und die Klimapolitik je nachdem verschärft oder lockert. Die aktuelle Politik ergeht sich in wiederholten Ankündigungen von weit in der Zukunft liegenden festen Emissionszielen. Abgesehen davon, dass solche Ziele selten eingehalten werden, besteht das Problem dabei darin, dass die Ankündigung Unsicherheit bezüglich des Grenzschadens eines festen Ziels für einen Zeitpunkt in zehn oder zwanzig Jahren davon ausgeht, dass wir in der Zwischenzeit keine neuen Erkenntnisse gewinnen, die für die Festlegung des optimalen politischen Weges relevant wären. Das ist jedoch nicht zutreffend. Denn einer Sache können wir trotz aller klimatischer Unsicherheiten sicher sein: Es gibt viel zu lernen und in den kommenden Monaten und Jahren werden mit Sicherheit relevante neue Informationen verfügbar sein. Abschließend möchte ich mich nun noch mit der Frage beschäftigen, inwiefern die Aussicht auf neue Informationen bei der Festlegung der Klimapolitik berücksichtigt werden sollte. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 77 4. Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise Integrierte Bewertungsmodelle und pseudooptimale Lösungen Dem Problem der dynamischen Unsicherheit bei der Gestaltung der Klimapolitik wurde mit vielerlei Lösungsansätzen beizukommen versucht.16 Der Ansatz eines integrierten Bewertungsmodelles (Integrated Assessment Model, IAM) nach Nordhaus et al. (2007) geht von der Kenntnis von zentralen Parametern in den Funktionen zur Beschreibung von Wirtschaft und Klima aus, auf deren Grundlage eine sanfte politische „Rampe“ in Form einer im Zeitverlauf ansteigenden Besteuerung von CO2-Emissionen eingerichtet werden solle. Diese Lösung kann nur unter der Annahme korrekter Modellparameter als optimal gelten, die jedoch starken Unsicherheiten unterworfen sind. Die suggerierte politische Rampe ist daher dahingehend nur pseudooptimal, dass sie nur unter strengen Annahmen bezüglich zentraler funktionaler Formen und Parameter gültig ist, die bei Einführung einer solchen Politik keinen Prüfungen unterzogen werden. 16 Dieser Abschnitt greift auf in McKitrick (2010b) vorgestellte Materialien zurück. Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 79 Bayes’sche Lernmodelle Kelly und Kolstad (1999) sowie Leach (2007) näherten sich dem Problem auf andere Weise, indem sie die Möglichkeit der Beobachtung der Reaktion des Klimas auf politische Maßnahmen untersuchten und die aus dieser Untersuchung gewonnenen Informationen in eine Bayes’sche Lernroutine einfügten. Ziel des Analysemodells des politischen Systems ist es, genügend Informationen zu sammeln, um den politischen Entscheidungsträgern die Möglichkeit zu bieten, die 80 Hypothese, dass die richtige Politik verfolgt wird, mit 95-prozentiger statistischer Sicherheit zu überprüfen. In Anwendung auf den Klimawandel fanden sie heraus, dass bereits die Unsicherheit bezüglich eines oder zweier zentraler struktureller Parameter ausreicht, um die Ermittlung eines als optimal erwarteten Politikpfades um Hunderte von Jahren zu verzögern. Leach (2007) legte ein demjenigen von Nordhaus ähnliches Modell vor, in dem die politischen Entscheidungsträger alle neuen Informationen hinsichtlich der Reaktionen des Klimas auf politisch motivierte Emissionsveränderungen nutzen. Die gestellte Frage lautete, wie lange es (unter Annahme verschiedener Voraussetzungen) dauern würde, bis genügend Informationen vorlägen, um mit 95-prozentiger Signifikanz eine falsche Nullhypothese über die Bedeutung des zugrundeliegenden Problems zu widerlegen. Unterliegen nur zwei Modellparameter Unsicherheiten, variiert die Lernzeit je nach Emissionszunahme im Basisfall von mehreren Hundert bis mehreren Tausend Jahren. Eine erweiterte Version des Modells, die eine einfache Produktionsfunktion und eine zeitübergreifende Kapitalanlagestruktur modelliert, führt nicht nur zu einer in Jahrhunderten gemessenen Lernzeit, selbst wenn die meisten Modellparameter als bekannt vorausgesetzt werden und nur entsprechend den verschiedenen Klimadatensätzen variieren, sondern sogar dazu, dass der eingeschlagene politische Weg nie das richtige Ziel erreicht. Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise Dieses Ergebnis mag übermäßig pessimistisch erscheinen, da die politischen Entscheidungsträger Jahrhunderte warten müssen, um herauszufinden, ob der eingeschlagene Weg der richtige war. Die Antwort kommt zu spät, um relevant zu sein. Jedoch verhält es sich nicht so, dass das IAM oder der pseudooptimale Ansatz besser wären. Der wahre Unterschied besteht darin, dass der Bayes’sche Ansatz zumindest die Möglichkeit bietet, irgendwann zu erkennen, ob der eingeschlagene Weg falsch ist, was bei Verwendung des IAM nicht möglich ist. Versicherung und Fat Tails Martin L. Weitzman (2009) näherte sich dem Problem der Wahl einer Politik gegen die globale Erwärmung, indem er versuchte, einen Preis für einen Versicherungsvertrag festzulegen, wenn eine ernst zu nehmende Wahrscheinlichkeit extremer Schäden besteht. Unter bestimmten Bedingungen ist es unmöglich, einen begrenzten Wert für einen Vollversicherungsvertrag festzulegen. Das Modell von Weitzman beruht auf einer Reihe spezifischer Annahmen, von denen einige recht konventionell sind und andere nicht. Eine übliche Annahme lautet, dass die Möglichkeit einer unendlichen (positiven oder negativen) Klimasensitivität besteht oder dass die Möglichkeit eines extremen Klimawandels (zwanzig Grad oder mehr) zwar gering ist, jedoch, gleich in welchem Umfang, nicht vollständig ausgeschlossen werden kann. Darüber hinaus beinhaltet die Theorie beispielsweise Annahmen darüber, wie Veränderungen der Temperatur die Einkommen beeinflussen. Beruhend auf diesem Aufbau führt Weitzman eine Finanzanalyse durch, um daraus die Kosten für eine vollständige Absicherung gegen das Risiko einer Klimakatastrophe abzuleiten. Das Ergebnis deckt sich zufällig mit einer Gleichung aus der mathematischen Statistik, der so genannten momenterzeugenden Funktion einer Verteilung t. Statistische Lehrbücher warnen, dass diese Gleichung zu keinem endlichen Ergebnis führe. Weitzman interpretiert dies so, als sei das Ergebnis un- Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 81 endlich, was bedeutet, dass die heutige Gesellschaft bereit sein sollte, ihr gesamtes aktuelles Einkommen darauf zu verwenden, sich gegen eine möglicherweise in der Zukunft eintretende Katastrophe zu versichern. Um diese unrealistische Konsequenz zu umgehen, muss die Verteilung der möglichen Klimasensitivitätswerte im Rahmen dieses Modells als begrenzt angenommen bzw. davon ausgegangen werden, dass sie „Thin Tails“ aufweist. Weitzman gibt jedoch zu bedenken, dass das bedeute, dass die optimale Versicherungspolitik von Annahmen bezüglich der Verteilung möglicher Klimaänderungen in Regionen 82 abhängig sei, für die zu wenige Beobachtungen vorliegen, um sichere Aussagen treffen zu können. So wie die Dinge derzeit liegen, verordnet das „Dismal Theorem“ von Weitzman weniger eine unendlich hohe Versicherungsprämie, sondern verweist vielmehr darauf, dass die Kosten-Nutzen-Analyse laut IAM nur pseudooptimal ist und sich unter den annahmegemäß ausgeschlossenen Unsicherheiten auch diejenigen befinden, die für eine Versicherungslösung gegen extreme Ereignisse sprechen. Der zustandsabhängige Ansatz Angesichts des Scheiterns früherer Methoden im Hinblick darauf, eine plausible Lösung für das Problem der langfristigen Preisfestsetzung für THG-Emissionen zu finden, habe ich einen neuen Ansatz vorgeschlagen, der anstelle einer statischen langfristigen Emissionsbegrenzung die Entwicklung einer dynamischen Preisgestaltung vorsieht. Im Rahmen des üblichen ökonomischen Modells (gemäß Abschnitt 2 oben) werden aktuelle Schäden als direkte Folge aktueller Emissionen betrachtet: Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise Aktuelle Emissionen Aktuelle Schäden In Bezug auf THG gestaltet sich die Situation angesichts zweier weiterer Komplexitäten jedoch anders: Emissionen können verzögerte Auswirkungen haben und die Dauer der Verzögerung ist möglicherweise unbekannt. Wir müssen uns also nicht nur um die unmittelbaren Folgen aktueller Emissionen Gedanken machen, sondern auch um ihre möglichen zukünftigen Folgen. Anders betrachtet erleben wir aktuell nicht nur die Folgen der heutigen Emissionen, sondern auch von Emissionen, die weit in der Vergangenheit entstanden sind. Erschwerend kommt hinzu, dass Emissionen Schäden nicht direkt verursachen, sondern Einfluss auf bestimmte Umweltaspekte (wie die durchschnittliche Lufttemperatur) nehmen, die dann wiederum Schäden verursachen. CO2-Emissionen sind an und für sich nicht schädlich. Mögliche Schäden entstehen aus der Veränderung des Klimazustands. Mit anderen Worten: Emissionen beeinflussen eine messbare Zustandsvariable und Veränderungen der Zustandsvariablen verursachen Schäden. Oben stehende Darstellung muss demnach wie folgt angepasst werden. Aktuelle und vergangene Emissionen Zustandsvariable Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten Aktuelle Schäden 83 Der Einfluss aktueller und vergangener Emissionen auf die Zustandsvariable ist komplex und von Unsicherheit geprägt. Dieser Umstand erschwert nicht nur die Entscheidung darüber, wie aktuelle Emissionen preislich zu behandeln sind, sondern führt uns zudem vor Augen, dass die Zustandsvariable Informationen über die zeitlichen Folgen von Emissionen beinhaltet, die zur Verringerung der Unsicherheit herangezogen werden können. Angenommen, CO2-Emissionen werden in Höhe eines veränderlichen Betrages besteuert und dieser Betrag ist an Bewegungen einer be84 obachtbaren Zustandsvariablen, z. B. eine Messung der Lufttemperatur, gekoppelt. Wenn aktuelle und vergangene Emissionen nahezu keine Auswirkungen auf die Zustandsvariable haben, bleibt der Emissionspreis unverändert. Zeigen sich hingegen starke Auswirkungen und eine steigende Temperatur, so steigt auch der Emissionspreis. In McKitrick (2010b) habe ich aufgezeigt, dass es möglich ist, mithilfe einer einfachen Formel, die sich obige Beobachtungen hinsichtlich von Zustandsvariablen und Emissionsdaten zunutze macht, der auf der zeitübergreifenden Grenzschadenfunktion beruhenden, nicht beobachtbaren optimalen dynamischen Emissionssteuer sehr nahe zu kommen. Diese Formel für eine zustandsabhängige Steuer t lautet: e t=yx–xs ē Dabei bezeichnen y eine Konstante, e die aktuellen Emissionen, ē den gleitenden Durchschnitt aus aktuellen und vergangenen Emissionen (wobei so weit in die Vergangenheit zurückgegangen werden kann, wie eine Beeinflussung des aktuellen Zustands durch die Emissionen angenommen wird) und s die aktuelle Beobachtung der Zustandsvariablen. In diesem Ansatz ist y frei wählbar, sodass der Steuersatz t bei einem dem politischen Entscheidungsträger aktuell sinnvoll erschei- Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise nenden Wert beginnt. Anschließend wird die Entwicklung der Steuer vorrangig durch die Entwicklung von s gesteuert. Um den aktuellen Wert der Emissionssteuer zu berechnen, sind einzig Daten bezüglich aktueller und vergangener Emissionen sowie der aktuelle Wert der Zustandsvariablen erforderlich. Im Falle von THG stehen Emissionsdaten auf nationaler und globaler Ebene fertig zur Verfügung. Europäische Daten sind über Eurostat (http://epp.eurostat.ec.europa.eu), Daten für alle übrigen Länder (mit einigen Jahren Rückstand) über das US-amerikanische Oak Ridge National Lab (Marland et al. 2010; im Internet abrufbar unter http://cdiac.ornl.gov/ trends/emis/tre_regn.html) erhältlich. Bei der Wahl der Zustandsvariablen s sind das zugrunde liegende wissenschaftliche Vorgehen sowie die verschiedenen Qualitätsprobleme klimatischer Daten zu berücksichtigen. Wie oben in Abschnitt 3 aufgezeigt wurde, weisen die Daten für die Erd- und Meeresoberfläche ernsthafte Qualitätsprobleme auf, sodass es nicht angeraten ist, sie für politische Zwecke heranzuziehen. Satellitensysteme, vor allem diejenigen, die sich zur Beibehaltung einer konstanten Höhe des AMSUSystems bedienen, bieten verlässlichere Messergebnisse bezüglich der Lufttemperaturen. Zur Ermittlung einer passenden Zustandsvariablen lege ich die Verwendung der mittleren Temperatur in der unteren bzw. mittleren tropischen Troposphäre nahe, da es sich bei dieser um einen kontinuierlich überwachten Indikator handelt, der gegenüber Treib­ hausgasen eine besondere Sensitivität aufzuweisen scheint. Da zur Ermittlung der Steuer t keine Informationen bezüglich der Vermeidungskosten verwendet werden, mag es so erscheinen, als könne es sich nicht um ein umfassendes politisches Modell handeln. Bei den aus integrierten Bewertungsmodellen abgeleiteten steuerlichen Entscheidungen handelt es sich um Lösungen für ein zweiseitiges Optimierungsproblem, bei denen zeitübergreifende Schäden gegen zeitübergreifende Vermeidungskosten aufgerechnet werden. Dabei darf jedoch nicht vergessen werden, dass die oben genannte Formel Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 85 keinen politischen Weg vorschreibt, sondern eine Regel beinhaltet, die Steuersatz und Umweltzustand aneinander bindet. Die tatsächliche Höhe der Steuer im Zeitlauf wird durch die Entwicklung der Zustandsvariablen bestimmt. Die Höhe der Vermeidung wird daraufhin von den Emittenten festgelegt, die entsprechend ihren aktuellen und künftigen Grenzvermeidungskosten auf die aktuellen und erwarteten künftigen Steuersätze reagieren. Verfügen die Unternehmen über variables Kapital, werden sie auf Emissionssteuersätze ähnlich reagieren wie auf alle anderen veränderlichen Kosten. Ist das Kapital gebunden 86 und nimmt der Aufbau neuen Kapitals viel Zeit in Anspruch, werden Unternehmen Prognosen hinsichtlich der künftigen Höhe des Steuersatzes erstellen müssen, die wiederum von den künftigen Werten der Temperaturvariablen abhängig sind. Die Einführung der zustandsabhängigen Emissionssteuer schafft damit einen Markt für genaue Prognosen der Umweltzustandsvariablen. Ein derartiger Markt existiert derzeit nicht, da verschiedene Parteien einen Nutzen darin zu sehen scheinen, die Prognosen bezüglich der globalen Erwärmung je nach der Politik, die sie beeinflussen wollen, bzw. je nach Aufmerksamkeit, die sie für ihre Arbeit erhalten möchten, über- bzw. unterzubewerten. Unternehmen jedoch, die versuchen, den konkreten künftigen Steuersatz zu prognostizieren, haben nichts davon, dafür auf unzutreffende Prognosen zurückzugreifen, sondern sind ganz im Gegenteil besonders daran interessiert, möglichst genaue Prognosen für die künftige Entwicklung von s zugrundezulegen. Dieser Markt wird schlechte Klimamodelle auf diese Weise aussondern und den Weg für genauere Klimamodelle frei machen. Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise Wert der zustandsabhängigen Steuer auf Treibhausgasemissionen seit 1979 Steuer Abbildung 8 Durchschnittlicher 3-Jahres-Steuersatz Emissionssteuer USD pro Tonne 40 20 87 0 – 20 – 40 1980 199020002010 Quelle: McKitrick (2010d) Ein interessantes Merkmal der zustandsabhängigen Steuer ist ihre potenzielle Fähigkeit, bei einer breiten Interessengemeinschaft auf Zuspruch zu stoßen. Menschen mit widersprüchlichen Annahmen hinsichtlich der künftigen Entwicklung der Zustandsvariablen werden nichtsdestoweniger alle erwarten, dass der von ihnen bevorzugte politische Weg verfolgt wird. Diejenigen, die der Ansicht sind, dass Emissionen keine Auswirkungen auf das Klima haben, werden in Zukunft überwiegend niedrige Emissionssteuern erwarten, diejenigen, die Klimaveränderungen in starkem Maße auf Emissionen zurückführen, werden eher von einer schnell steigenden Steuer ausgehen. Die Tatsache, dass jeder mit dem von ihm bevorzugten Ergebnis rechnet, kann die Zustimmung zur Einführung einer Steuer erleichtern. Eine der Herausforderungen der Klimapolitik besteht darin, auf globaler Ebene eine Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten Einigung zu erzielen. Verschiedene Regionen haben verschiedene Ansichten über die Dringlichkeit des Problems sowie seiner Auswirkungen auf ihre jeweiligen volkswirtschaftlichen Prioritäten, was eine Einigung über die Emissionsziele ebenso wie die Einhaltung früherer Vereinbarungen praktisch unmöglich macht. Einfacher könnte es hingegen sein, politische Entscheidungsträger auf der ganzen Welt dazu zu bringen, sich auf eine zustandsabhängige Steuer zu einigen. Die Steuereinkünfte würden in den einzelnen Ländern verbleiben und das Ungleichgewicht zwischen den verschiedenen Nationen verringern. Während der 88 Verhandlungen gäbe es für Länder mit konträren Ansichten hinsichtlich der wahrscheinlichen künftigen Temperaturentwicklung, keinen Grund, auch bezüglich der Frage, ob die Steuer erstrebenswert ist oder nicht, konträre Ansichten zu vertreten, da jede Partei im Endeffekt das erhielte, was sie für das „richtige“ Ergebnis erachtet. Wie hätte eine solche Steuer ausgesehen, wenn sie früher eingeführt worden wäre? In McKitrick (2010b) habe ich zur Berechnung hypothetischer Werte für eine an die mittlere Temperatur der tropischen Troposphäre gekoppelte Kohlenstoffsteuer sowohl auf UAH- als auch auf RSS-Daten sowie auf globale CO2-Emissionsreihen zurückgegriffen. Das Ergebnis für den Zeitraum zwischen 1979 und 2009 ist in Abbildung 8 dargestellt. Der Wert für y ist so gewählt, dass der Steuersatz für das Jahr 2002 – also etwa den Zeitpunkt der Ratifizierung des KyotoProtokolls – bei 15 USD/Tonne Kohlenstoff liegt. Die Entwicklung der Steuer zeigt einen Aufwärtstrend von etwa fünf Dollar pro Jahrzehnt, was knapp unter dem von Nordhaus ermittelten Wert von etwa acht Dollar pro Jahrzehnt liegt. Der Unterschied gegenüber dem Ansatz von Nordhaus, der eine Verpflichtung zu einer bestimmten Preisentwicklung für viele Jahrzehnte enthält, besteht darin, dass der zustandsabhängige Ansatz einzig eine Verpflichtung dahingehend erfordert, jährlich oder, falls gewünscht, monatlich einen neuen Satz festzulegen. Steigen die Temperaturen schneller als erwartet, steigt auch die Steuer; steigt die Temperatur langsam, so gilt dies auch für die Steuer. Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise Zwischen dem zustandsabhängigen Ansatz zur Emissionspreisgestaltung und den in der Währungspolitik angewandten Mechanismen besteht eine gewisse Ähnlichkeit. Die Zentralbanken gehen keine langfristigen Verpflichtungen zur Festlegung von Zinssätzen oder bezüglich des Geldmengenwachstums ein. Stattdessen verpflichten sie sich zur Einhaltung allgemeiner Regeln, die die aktuellen wirtschaftlichen Bedingungen in aktuelle Werte dieser politischen Ziele übertragen. Mit einer Verpflichtung der Zentralbanken zu auf zehn oder zwanzig Jahre festgelegten Zinssätzen wäre niemand einverstanden, da in der Zukunft neue Informationen auftauchen werden, die Einfluss auf die Wahl des jeweils geeigneten Zinssatzes nehmen. Ebenso ist es für die Politik unsinnig, langfristige Verpflichtungen bezüglich der CO2-Emissionspreise einzugehen, da auch hier in der Zukunft neue Informationen über die Auswirkungen von Treibhausgasen und die Entwicklung der Lufttemperaturen zur Verfügung stehen werden. Heute Pläne zu machen, die davon ausgehen, dass wir in Zukunft nichts darüber erfahren werden, ob diese Pläne geeignet sind oder nicht, ist ganz einfach unrealistisch. Die Anwendung eines zustandsabhängigen Preisgestaltungsinstruments bedeutet nicht, dass Emissionen mit einem bestimmten Preis belegt werden, nachdem der Schaden bereits erfolgt ist. Unternehmen sind zukunftsgerichtet. Ihre Investitionspläne werden immer auf möglichst genauen Prognosen bezüglich der Auswirkungen von Emissionen auf den künftigen Klimawandel beruhen. Mit der Zeit werden diese Prognosen weiter verbessert und aktualisiert. Unternehmen, die die künftige Entwicklung einer Emissionssteuer unterschätzen, werden gegenüber Unternehmen, die ihre Planung auf genauen Prognosen aufgebaut haben, einen Wettbewerbsnachteil erfahren. Die Entwicklung der Emissionssteuer zu über- oder unterschätzen, wird keinen Vorteil bringen. Die optimale Strategie für Unternehmen wird daher darin bestehen, korrekte Schätzungen anzustellen. Steht uns eine Zeit der schnellen, treibhausgasbedingten Klimaerwärmung be- Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 89 vor und sind wir in der Lage, verlässlich vorherzusagen, dass uns eine solche Zeit bevorsteht, wird die Industrie wissen, dass mit einem stark steigenden Emissionspreis zu rechnen ist. Das wiederum wird zu einer Reduzierung der Emissionen und zu Investitionen in Technologien führen, durch die tiefere Emissionseinschnitte verkraftbar sind. Kann der Nachweis dafür, dass uns eine solche Klimaerwärmung bevorsteht, hingegen nicht glaubhaft erbracht werden, investieren Unternehmen nur geringfügig in Vermeidungsoptionen und warten ab, bis bessere Informationen vorliegen. Das sind die richtigen Antworten auf die dy90 namischen Unsicherheiten, denen die Welt heute gegenübersteht. Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise 5. Schlussfolgerungen Es gibt vermutlich keinen anderen politischen Bereich, in den über die vergangenen zwanzig Jahre so viele Anstrengungen und so viele Ressourcen investiert wurden und der so konsequent gescheitert ist wie die Klimapolitik. Ich bin der Ansicht, dass dies darauf zurückzuführen ist, dass die Klimapolitik seit langem auf einer falschen ökonomischen Grundlage steht. Schlecht durchdachte Politik führt immer zum Scheitern. Um zufriedenstellende Fortschritte bei der Ausarbeitung einer erfolgreichen Klimapolitik erzielen zu können, ist daher ein grundlegendes Umdenken erforderlich. Ich habe in diesem Beitrag zunächst die meines Erachtens bestehenden vier grundlegenden Mängel der aktuellen Klimapolitik dargelegt. Zunächst erkannten weder die Bürokratie noch die Politik, dass es sich beim Treibhausgas CO2 um einen Sonderfall handelt, der insbesondere nicht mit Schwefeldioxid- (SO2) oder FluorchlorkohlenwasserstoffEmissionen (FCKW) vergleichbar ist. In den beiden genannten Fällen ist es den Parteien auf dem Verhandlungswege gelungen, sich auf Strategien zu verständigen, da die Gefahren offenkundiger und die Lösungen wirtschaftlich deutlich günstiger waren. Die Verhandlungsmechanismen und politischen Initiativen, die in diesen Fällen Wirksamkeit bewiesen, wurden einfach auf die CO2-Problematik übertragen, für welche sie jedoch ungeeignet und weitestgehend nutzlos sind. Zweitens ist es der Politik nicht gelungen, mit dem Anstieg der Grenzvermeidungskostenkurve (GVK) angemessen umzugehen, d. h. zu verstehen, in welchem Maße die Kosten für die Vermeidungsoptionen bei Ausweitung der Ziele zur Emissionsreduzierung steigen, was Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 91 in direktem Zusammenhang mit dem oben genannten ersten Punkt steht. Das führt dazu, dass politische Ziele verfolgt werden, die ohne höhere Kosten, als die Öffentlichkeit zu akzeptieren bereit ist, nicht erreicht werden können. Nun verhält es sich aber so, dass politische Maßnahmen, die moderat genug sind, um finanzierbar zu sein, angesichts der aktuell existierenden Technologien solch geringe Auswirkungen auf das Klima zeitigen, dass sie nutzlos sind. Politische Maßnahmen, die streng genug wären, um die allgemein vorgebrachten Ziele zur Reduzierung der Emissionen zu erreichen, würden deutlich höhere Kos92 ten verursachen, als die Öffentlichkeit zu tragen bereit ist, und auch deutlich höhere Kosten, als die Politiker, die diesen Weg verfechten, sich vor Augen zu führen scheinen. Das starre Festhalten an der Illusion, Subventionen und Vorschriften könnte eine erfolgreiche „grüne Ökonomie“ hervorbringen, hat einzig und allein dazu geführt, die Kosten der Klimapolitik in die Höhe zu treiben – bedeutende Fortschritte im Umweltschutz wurden dadurch nicht erzielt. Drittens zeigt eine ökonomische Analyse, dass die Politik zur Reduzierung der Treibhausgase Emissionen mit Kosten belegen und keine Emissionsgrenzen festsetzen sollte. Alle bisherigen größeren globalen Initiativen, einschließlich des Kyoto-Protokolls und ähnlicher Instrumente, legten ihren Fokus jedoch auf Mengenbegrenzungen oder, was noch schlimmer ist, auf indirekte regulatorische Maßnahmen dahingehend, das Energieverbrauchsverhalten zu verändern. Eine solche Politik ist kostenintensiv, intrusiv und häufig nutzlos. Die einzig große Herausforderung dahingehend, die globale Klimapolitik auf eine vernünftige Grundlage zu stellen, liegt also darin, die Diskussion in Richtung auf Preismechanismen umzulenken. Diese Herausforderung ist von grundlegender Bedeutung, wenn in den nächsten zwanzig Jahren die teuren Fehler der vergangenen zwanzig Jahre vermieden werden sollen. Schließlich ergibt sich für die Politik aus den großen Unsicherheiten, den langen Planungshorizonten sowie der Erwartung, dass in Schlussfolgerungen den kommenden Jahren einschlägige neue Informationen über das Ausmaß der Umweltschädigung durch Treibhausgasemissionen und die Kosten zu deren Vermeidung vorliegen werden, die Notwendigkeit, sich primär auf zustandsabhängige (bzw. anpassungsfähige) Preisregelungen anstatt auf starre, langfristige Verpflichtungen zur Emissionsbegrenzung zu konzentrieren. 93 Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten Literatur Bengtsson, Lennart und Kevin Hodges (2010): On the evaluation of temperature trends in the tropical troposphere | Climate Dynamics DOI 10.1007/s00382-009-0680-y Berk, Richard A., Robert G. Fovell, Frederic Schoenberg und Robert E. Weiss (2001): The use of statistical tools for evaluating computer simulations | Climatic Change 51, S. 119 – 130 Brohan, P., Kennedy, J., Harris, I., Tett, S.F.B. und Jones, P.D. (2006): Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850 | J. Geophys | Res. 111, D12106, doi:10.1029/2005JD006548 CCSP (2008): Climate Models: An Assessment of Strengths and Limitations | A Report by the U.S. Climate Change Science Program and the Subcommittee on Global Change Research [Bader D.C., C. Covey, W.J. Gutowski Jr., I.M. Held, K.E. Kunkel, R.L. Miller, R.T. Tokmakian und M.H. Zhang (Verf.)] | Department of Energy, Office of Biological and Environmental Research, Washington, D.C., USA, S. 124 ff Christy, J.R., Herman, B., Pielke, R., Sr., Klotzbach, P., McNider, R.T., Hnilo, J.J., Spencer, R.W., Chase, T. und Douglass, D. (2010): What Do Observational Datasets Say about Modeled Tropospheric Temperature Trends since 1979? Remote Sens. 2010, 2, S. 2148 – 2169 Christy, John R., David E. Parker, Simon J. Brown, Ian Macadam, Martin Stendel und William B. Norris (2001): Differential Trends in Tropical Sea Surface and Atmospheric Temperatures since 1979 | Geophysical Research Letters 28(1), S. 183 – 186 D. Diakoulaki, M. Mandaraka (2007): Decomposition analysis for assessing the progress in decoupling industrial growth from CO2 emissions in the EU manufacturing sector |Energy Economics 29 (2007), S. 636 – 664 Dinan, T.M. und D.L. Rogers (2002): Distributional effects of carbon allowance trading: how government decisions determine winners and losers | National Tax Journal LV (2002), S. 199 – 222 Ellerman, A. Danny und Paul L. Joskow (2008): The European Union’s Emission Trading System in Perspective | Arlington: Pew Center on Global Climate Change, Mai 2008 Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 95 Essex, Chris (1991): What Do Climate Models Teach Us about Global Warming? Pure and Applied Geophysics 135(1), S. 125 – 133 Folland, C.K. und D.E. Parker (1995): Correction of Instrumental Biases in Historical Sea Surface Temperature Data | Quarterly Journal of the Royal Meteorological Society (1995) 121, S. 319 – 367 Ghali, K.H. und M.I.T. El-Sakka (2004): Energy use and output growth in Canada: a multivariate cointegration analysis | Energy Economics 26, S. 225 – 238 96 Hegerl, G.C., F. W. Zwiers, P. Braconnot, N.P. Gillett, Y. Luo, J.A. Marengo Orsini, N. Nicholls, J.E. Penner und P.A. Stott, (2007): Understanding and Attributing Climate Change | In: Climate Change 2007: The Physical Science Basis | Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M. Tignor und H.L. Miller (Hrsg.)] | Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA Held, I. und B. J. Soden (2000): Water Vapor Feedback and Global Warming | Annual Review of Energy and Environment 25, S. 441 – 75 Houghton, J. (1997): Global Warming: The Complete Briefing 2. Ausgabe Cambridge: CUP, S. 15 Jones, P.D. und A. Moberg (2003): Hemispheric and Large-Scale Surface Air Temperature Variations: An Extensive Revision and an Update to 2001 | Journal of Climate 16, S. 203 – 223 Jones, P.D., M. New, D. E. Parker, S. Martin und I. G. Rigor (1999): Surface air temperature and its changes over the past 150 years | Reviews of Geophysics 37, S. 173 – 199 Jorgenson, D.W., D.T. Slesnick, P.J. Wilcoxen, P.L. Joskow, R. Kopp (1992): Carbon Taxes and Economic Welfare. Brookings Papers on Economics Activity | Microeconomics. Vol. 1992, S. 393 – 454 Kelly, D. L. und C. D. Kolstad (1999): Bayesian learning, growth, and pollution | Journal of Economic Dynamics and Control 23, Nr. 4, S. 491 – 518 Kent, E.,C. S.D. Woodruff und D.I. Berry (2007): Metadata from WMO Publication No. 47 and an Assessment of Voluntary Observing Ship Observations in ICAODS | Journal of Atmospheric and Ocean Technology 24 DOI: 10.1175/JTECH1949.1 Literatur Kiehl, J.T. (2007): Twentieth century climate model response and climate sensitivity | Geophysical Research Letters 34 L22710, doi:10.1029/2007GL031383, 2007 Knutson, T. R.; Delworth, T. L.; Dixon, K. W.; Held, I. M.; Lu, J.; Ramaswamy, V.; Schwarzkopf, M. D.; Stenchikov, G.; Stouffer, R. J (2006): Assessment of Twentieth-Century Regional Surface Temperature Trends Using the GFDL CM2 Coupled Models | Journal of Climate 19, S. 1624 – 1651 Knutti, R. (2008): Why are climate models reproducing the observed global surface warming so well? | Geophysical Research Letters 35, L18704, doi:10.1029/2008GL034932, 2008 Knutti, R. und G. Hegerl (2008): The equilibrium sensitivity of the Earth’s temperature to radiation changes | Nature Geoscience doi: 10.1038/ngeo337, S. 735 – 743 Leach, A. J. (2007): The climate change learning curve | Journal of Economic Dynamics and Control 31, Nr. 5, S. 1728 – 1752 Lockwood, John G. (1979): Causes of Climate | New York: John Wiley Marland, G., T.A. Boden, R. J. Andres, A. L. Brenkert und C. Johnston. (2010): Global, Regional, and National CO2 Emissions | In Trends: A Compendium of Data on Global Change | Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, Tenn., USA | http://cdiac.esd.ornl.gov/trends/emis/em_cont.htm McKitrick, Ross R. (2010a): Economic Analysis of Environmental Policy | Toronto: University of Toronto Press McKitrick, Ross R. (2010b): A Simple State-Contingent Pricing Rule for Complex Intertemporal Externalities Energy Economics doi:10.1016/ j.eneco.2010.06.013 McKitrick, Ross R. (2010c): Atmospheric Oscillations do not Explain the Temperature-Industrialization Correlation | Statistics, Politics and Policy, Band 1, Juli 2010 McKitrick, Ross R. (2010d): A Critical Review of Global Surface Temperature Data Products; SSRN Working Paper 1653928, August 2010 McKitrick, Ross R. und Nicolas Nierenberg (2010): Socioeconomic Signals in Climate Data | Journal of Economic and Social Measurement, angenommen Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 97 McKitrick, Ross R., Stephen McIntyre und Chad Herman (2010): Panel and Multivariate Methods for Tests of Trend Equivalence in Climate Data Sets | Atmospheric Science Letters DOI: 10.1002/asl.290 Nordhaus, William D. (2007): To Tax or Not to Tax: Alternative Approaches to Slowing Global Warming | Rev Environ Econ Policy 1, Nr. 1 (1. Januar): S. 26 – 44 | doi:10.1093/reep/rem008 Ontario Power Authority (2007): Ontario’s Integrated Power System Plan | Addendum to Discussion Paper 7” Toronto: mimeo 98 Parry, I.W.H. (2003): Fiscal Interactions and the Case for Carbon Taxes over Grandfathered Carbon Permits | Resources for the Future Discussion Paper, S. 3 – 46 Parry, I.W.H. (2004): Are Emission Permits Regressive? | Journal of Environmental Economics and Management 47 (2004), S. 364 – 387 Peterson T.C. und R.S. Vose (1997): An Overview of the Global Historical Climatology Network Temperature Database | Bulletin of the American Meteorological Society 78, S. 2837 – 2849 Peterson, Thomas C., Russell Vose, Richard Schmoyer und Vyachesvslav Razuavev (1998): Global Historical Climatology Network (GHCN) Quality Control of Monthly Temperature Data | International Journal of Climatology 18, S. 1169 – 1179 Randall, D.A., R.A. Wood, S. Bony, R. Colman, T. Fichefet, J. Fyfe, V. Kattsov, A. Pitman, J. Shukla, J. Srinivasan, R.J. Stouffer, A. Sumi und K.E. Taylor (2007): Climate Models and Their Evaluation | In: Climate Change 2007: The Physical Science Basis | Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M.Tignor und H.L. Miller (Hrsg.)] | Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA Randall, Robb M. und Benjamin M. Herman (2008): Using limited time period trends as a means to determine attribution of discrepancies in microwave sounding unit-derived tropospheric temperature time series | Journal of Geophysical Research 113 (5. März): D05105. doi:10.1029/2007JD008864 Literatur Rayner, N. A., D. E. Parker, E. B. Horton, C. K. Folland, L. V. Alexander, D. P. Rowell, E. C. Kent und A. Kaplan (2003): Global analyses of sea surface temperature, sea ice, and night marine air temperature since the late nineteenth century | Journal of Geophysical Research, 108(D14), S. 4407 | doi:10.1029/2002JD002670 Rayner, N.A., P. Brohan, D.E. Parker, C.K. Folland, J.J. Kennedy, M. Vanicek, T.J. Ansell und S.F.B. Tett (2006): Improved Analyses of Changes and Uncertainties in Sea Surface Temperature Measured In Situ since the Mid-Nineteenth Century: The HadSST2 Dataset Journal of Climate 19, S. 446 – 469 Reynolds, Richard W., Thomas C. Peterson und Jay Lawrimore (2008): Improvements to NOAA’s Historical Merged Land-Ocean Surface Temperature Analysis (1880 – 2006) | Journal of Climate DOI: 10.1175/2007JCLI2100.1 Schmalensee, Richard; Paul L. Joskow; A. Denny Ellerman; Juan Pablo Montero; Elizabeth M. Bailey (1998): An Interim Evaluation of Sulfur Dioxide Emissions Trading | The Journal of Economic Perspectives, Bd. 12, Nr. 3 (Sommer 1998), S. 53 – 68 Schwartz, Stephen E., R.J. Charlson und H. Rodhe (2007): Quantifying climate change – too rosy a picture? | Nature reports climate change 2, S. 23 – 24 Spencer, R.W. und J.C. Christy (1990): Precise Monitoring of Global Temperature Trends from Satellites. Science 247, S. 1558 – 1562 Stern, D.I. (2000): A multivariate cointegration analysis of the role of energy in the US macroeconomy | Energy Economics 22, S. 267 – 283 Thompson, David W. J., John J. Kennedy, John M. Wallace und Phil D. Jones (2008): A large discontinuity in the mid-twentieth century in observed global-mean surface temperature Nature Bd. 453, 29. Mai 2008, doi:10.1038/ nature06982 Tol, R.S.J. (2005): The marginal damage costs of carbon dioxide emissions: an assessment of the uncertainties | Energy Policy 33, Nr. 16, S. 2064 – 2074 Tol, R.S.J. (2007): The Social Costs of Carbon: Trends, Outliers and Catastrophes | Economics Discussion Paper 2007-44 www.economics-ejournal.org, September 2007 Vose, R. S., R. L. Schmoyer, P. M. Steurer, T. C. Peterson, R. Heim, T. R. Karl und J. Eischeid (1992): The Global Historical Climatology Network: Long-term monthly temperature, precipitation, sea level pressure, and station pressure data | ORNL/CDIAC-53, NDP-041, S. 325 ff Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten 99 Weitzman, Martin L. (1974): Prices vs. Quantities | The Review of Economic Studies 41(4), S. 477 – 491 Weitzman, Martin L. (2009): On Modeling and Interpreting the Economics of Catastrophic Climate Change Review of Economics and Statistics 91(1), S. 1 – 19 Wigley, T.M.L. (1998): The Kyoto Protocol: CO2, CH4 and climate implications | Geophysical Research Letters 25(13), S. 2285 – 2288 Woodruff, S.D., H.F. Diaz, S.J. Worley, R.W. Reynolds und S.J. Lubker, (2005): Early ship observational data and ICOADS | Climatic Change, 73, S. 169 – 194 100 Woodruff, S.D., H.F. Diaz, E.C. Kent, R.W. Reynolds und S.J. Worley (2008): The evolving SST record from ICOADS. In: Climate Variability and Extremes during the Past 100 Years [S. Brönnimann, J. Luterbacher, T. Ewen, H.F. Diaz, R.S. Stolarski und U. Neu (Hrsg.)] | Advances in Global Change Research, Bd. 33, Springer, S. 65 – 83 (DOI: 10.1007/978-1-4020-6766-2_4) Literatur Manuel Frondel Die EUKlimapolitik: Teuer und ineffektiv Für wissenschaftliche Vorarbeiten bin ich Nolan Ritter und Ralf Koßmann besonderen Dank schuldig. 1. Einleitung Die sogenannte Klimaerwärmung ist seit geraumer Zeit eines der weltweit meistdiskutierten Themen. Unter Klimaerwärmung wird allgemein die Erhöhung der globalen Durchschnittstemperatur verstanden. In der Tat ist die Durchschnittstemperatur der Erde im Laufe der vergangenen hundert Jahre um etwa 0,8 Grad Celsius angestiegen (IPCC 2008). Ein guter Teil dieses Anstiegs vollzog sich in den beiden letzten Dekaden des vergangenen Jahrhunderts. Für die Klimaerwärmung mit verantwortlich gemacht wird der anthropogen bedingte Ausstoß von Treibhausgasen, allen voran von Kohlendioxid (CO2). Dieses Treibhausgas entsteht größtenteils durch die Verbrennung von fossilen Brennstoffen. In welchem Ausmaß dies zur Klimaerwärmung beiträgt, ist nach wie vor umstritten, ebenso wie die Stärke der Bedrohung durch den damit einhergehenden sogenannten Klimawandel. So umfasst das Spektrum der Positionen zum Klimawandel sowohl Einschätzungen, nach denen der Beitrag des anthropogen generierten CO2 zur globalen Erwärmung vernachlässigbar klein und unbedeutend ist (Lüdecke 2008:163), als auch Aussagen, dass die globale Erwärmung größere Schäden anrichtet als irgendein Krieg dies vermag (Stiglitz 2006:1). Damit einhergehen könnten beispielsweise ein substantieller Anstieg des Meeresspiegels, eine Zunahme der Häufigkeit und der Intensität von Stürmen oder auch die Ausdehnung von Wüsten. Ohne dass eine Einmischung in diese Diskussion erforderlich wäre, beschäftigt sich der vorliegende Beitrag mit der Effektivität und Die EU-Klimapolitik: Teuer und ineffektiv 105 der Kosteneffizienz der Klimaschutzpolitik der Europäischen Kommission, die sich weitgehend auf die Verringerung des Treibhausgasausstoßes konzentriert, bislang vor allem auf die Verringerung von CO2, während Maßnahmen zur Anpassung an den Klimawandel, wie etwa die Verstärkung und Erhöhung von Deichen zum Schutz vor einem Anstieg des Meeresspiegels, eher im Hintergrund stehen. Der folgende Abschnitt 2 erläutert die treibende Rolle, welche die Europäische Kommission beim Zustandekommen des unter dem Namen Kyoto-Protokoll weltbekannten internationalen Klimaschutzab106 kommens gespielt hat und die sie mit der Bekanntgabe eines unkonditionierten und ambitionierten Treibhausgasminderungsziels für das Jahr 2020 noch deutlich untermauert hat. Dabei ist das Ziel unabhängig davon, ob andere bedeutende Emittentenländer wie China oder die USA ebenfalls Minderungsanstrengungen unternehmen. Die bisherigen Treibhausgasreduktionsbemühungen der Europäischen Union (EU) und ihrer Mitgliedstaaten werden daher in Abschnitt 2 mit denen anderer führender Industrie- und Schwellenländer verglichen. Abschnitt 3 erläutert die kontraproduktiven internationalen Rückwirkungen der ambitionierten, aber einseitigen Bemühungen der Kommission zur Treibhausgasminderung. Der vierte Abschnitt stellt die Frage nach der Kosteneffizienz der einseitigen EU-Politik, an der sich aus vielfältigen Gründen zweifeln lässt. Abschnitt 5 erläutert die Gründe dafür, dass die Chancen für das Zustandekommen eines globalen Klimaabkommens zur Treibhausgasminderung schlecht stehen, obwohl ein solches höchst wünschenswert wäre, da Teilkooperationen oder gar Alleingänge eher nutzlos verpuffen, wenn nicht gar kontraproduktiv sind. Abschnitt 6 diskutiert aussichtsreichere Politikalternativen zur Auferlegung von Emissionsrestriktionen, bei denen die einzelnen Länder in erster Linie selbst von den zu ergreifenden Maßnahmen profitieren und daher ein hohes Eigeninteresse an deren Umsetzung haben. So hätte ein weltweites Abkommen über eine sukzessive Er- Einleitung höhung der Ausgaben für die Forschung und Entwicklung (F&E) von Energieumwandlungs- und -speichertechnologien, mit dem man zwar nicht unmittelbar, aber doch innerhalb einiger Jahrzehnte Treibhausgasminderungen erzielen könnte, eine realistische Chance auf ein Zustandekommen. Abschnitt 7 setzt sich mit den Vorteilen von Maßnahmen zur Anpassung an die globale Erwärmung auseinander, zu denen unter anderem die gezielte Preisgabe von Land gehören könnte sowie die Umsiedelung der Bevölkerung in weniger gefährdete Landstriche. Einer Strategie zur Umsetzung von Anpassungsmaßnahmen kommt insbesondere deshalb eine hohe Bedeutung zu, weil Anstrengungen zur globalen Emissionsminderung letztendlich wenig Aussicht auf Erfolg haben dürften. Der abschließende Abschnitt präsentiert ein Fazit zur eingeschlagenen Klimapolitikstrategie der Kommission und schlägt als Schlussfolgerung einen gravierenden Strategiewechsel vor. Die EU-Klimapolitik: Teuer und ineffektiv 107 2. Der geringe Effekt der Treibhausgasminderungspolitik der EU Seit Beginn der 1990er Jahre hat sich die Europäische Kommission − im Folgenden kurz (EU-)Kommission genannt − aktiv für Maßnahmen zur Minderung von Treibhausgasen auf internationaler Ebene eingesetzt (Abbildung 1). Bei der Ratifizierung und Implementierung des KyotoProtokolls übernahm die Kommission sogar eine führende Rolle: Ohne explizite und vergleichsweise hohe Minderungsziele seitens der EU wäre das Kyoto-Protokoll wohl kaum 1997 verabschiedet worden und ohne das strategische Geschick der Kommission wäre nach der US-amerikanischen Ablehnung des Protokolls im Jahr 2001 der Kyoto-Prozess vermutlich gescheitert (Böhringer 2010:60). Erst mit der Ratifizierung des Kyoto-Protokolls durch Russland, dem Land, dem als Zünglein an der Waage die besondere diplomatische Aufmerksamkeit sowie zahlreiche Zugeständnisse der Kommission zuteil wurden (Requate 2010:1), konnte das Protokoll als völkerrechtlich bindender Vertrag 2005 in Kraft treten. Sanktionen bei Nichteinhaltung der im Protokoll vereinbarten Ziele sind damit allerdings nicht verbunden. Die EU-Klimapolitik: Teuer und ineffektiv 109 Wichtige Eckpunkte der Klimapolitik seit 1990 Berliner Mandat fordert Emissionsziele für die Industriestaaten Die USA lehnen eine Umsetzung des Kyoto-Protokolls ab Abbildung 1 Klimakonferenz in Kopenhagen Das Kyoto-Protokoll tritt in Kraft 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 110 Kyoto-Protokoll wird beschlossen Klimarahmenkonvention der vereinten Nationen beschlossen und von der USA ratifiziert Russland ratifiziert das Kyoto-Protokoll Aktionsplan von Bali: parallele Verhandlungen, Kyoto-Protokoll und Klimarahmenkonvention Klimakonferenz in Cancún Mit der Ratifizierung des Kyoto-Protokolls hat sich die EU verpflichtet, dafür Sorge zu tragen, dass der Treibhausgasausstoß der Jahre 2008 – 2012 im Schnitt um 8 % niedriger liegt als im Jahr 1990. Zur Erreichung dieses für die gesamte EU geltenden Ziels wurde mit dem sogenannten EU-Burden-Sharing-Agreement von 1998 festgelegt, welche Lasten die einzelnen Mitgliedstaaten zu schultern haben. Mit dem Ziel, die Treib­hausgasemissionen um 21 % gegenüber 1990 zu verringern (Abbil­dung 2), trägt Deutschland mit Abstand die höchste Minderungslast: Die Reduktionsverpflichtung Deutschlands macht rund drei Viertel der im Kyoto-Protokoll festgelegten Minderungsleistung der EU aus. Mit einer Verringerung der Treibhausgasemissionen um 6,5 % gegenüber 1990 waren die EU-15-Staaten im Jahr 2008 ihrem Kyoto-Ziel einer Minderung um 8 % nahe, auch wenn sich bei einigen Ländern Der geringe Effekt der Treibhausgasminderungspolitik der EU wie Dänemark, Österreich, Luxemburg, Italien oder Spanien erhebliche Schwierigkeiten bei der Zielerreichung andeuten (Abbildung 2). Andere Mitgliedsländer wie Frankreich, Schweden, das Vereinigte Königreich oder Deutschland haben hingegen ihre Minderungsziele bereits erreicht. Die Einhaltung der eigenen Kyoto-Verpflichtungen stellt selbstredend eine Grundvoraussetzung für die Glaubwürdigkeit der einseitigen und ambitionierten Minderungsziele dar, die sich die Kommission für das Jahr 2020 gesetzt hat. So wurde im Energie- und Klimapaket der Kommission Anfang 2009 festgelegt, die EU-weiten Treibhausgas­ emissionen bis zum Jahr 2020 um mindestens 20 % gegenüber dem Niveau von 1990 zu senken − bei vergleichbaren Anstrengungen bedeutender anderer Industrienationen ist sogar ein Minderungsziel von 30 % vorgesehen. Damit hat die Europäische Union endgültig die Vorreiterrolle bei der Bekämpfung des Treibhausgasausstoßes übernommen. Andere Staaten haben sich keine derartig anspruchsvollen Ziele für die Zeit nach der Kyoto-Erfüllungsperiode von 2008 – 2012 gesetzt, für die es bislang kein dem Kyoto-Protokoll vergleichbares internationales Klimaschutzabkommen gibt. Zur besseren Einschätzung des Klimaschutzehrgeizes der Kommission sollte bedacht werden, dass die bisherigen Minderungserfolge weniger einer stringenten Politik, sondern zu erheblichen Teilen einmaligen historischen Ereignissen zu verdanken sind. Dazu zählen der wirtschaftliche Zusammenbruch der ehemaligen Ostblockstaaten infolge politischer Umwälzungen, die ökonomische Erneuerung der ostdeutschen Länder nach der deutschen Wiedervereinigung sowie die tiefgreifende Rezession nach der Banken- und Finanzmarktkrise am Ende der ersten Dekade dieses Jahrtausends. Laut einer 2009 vom Europäischen Parlament in Auftrag gegebenen Studie ist lediglich etwa die Hälfte der Emissionsminderungen in der EU seit 1990 auf einschlägige umweltpolitische Maßnahmen zurückzuführen (Böhringer 2010:63). Die EU-Klimapolitik: Teuer und ineffektiv 111 EU-Burdensharing und Veränderung des Treibhausgasausstoßes von 1990 – 2008 Abbildung 2 EU-Burdensharing Veränderung des Treibhausgasausstoßes 15 % 42,3 % 27 % 32,3 % 112 13 % 23 % 25 % 22,8 % – 13 % 10,8 % – 6,5 % 4,7 % – 0,3 % 0% Spanien Portugal Irland Griechenland Österreich Italien Finnland –6% – 2,4 % Niederlande – 28 % Luxembourg – 4,8 % – 6,1 % Frankreich 0% –8% – 6,5 % EU (EU-15) – 7,5 % – 7,1 % Belgien – 21 % Dänemark – 7,3 % 4% – 11,7 % – 12,5 % – 18,5 % – 21 % – 22,2 % Schweden Großbritannien Deutschland – 30% – 20% –10% 0% 10%20%30% 40%50% Der geringe Effekt der Treibhausgasminderungspolitik der EU Darüber hinaus darf die Kommission nicht darüber hinwegsehen, dass neben einigen europäischen Ländern zahlreiche andere Industrie­ länder, die das Kyoto-Protokoll unterzeichnet und gar ratifiziert haben, von ihren Kyoto-Zielen sehr weit entfernt sind (Abbildung 3). So ist Australien mit einer Emissionssteigerung um 38 % zwischen 1990 und 2008 unerreichbar weit von seinem Kyoto-Ziel entfernt. In den USA, Kanada und Japan sind die Emissionen ebenfalls angestiegen, wohingegen die Kyoto-Verpflichtungen dieser Länder Emissionssenkungen vorsehen, die kaum mehr erreichbar scheinen, vor allem für Kanada. Bereits eine Umkehr der bislang steigenden Emissionstrends wäre für diese Länder als ein Erfolg anzusehen, an eine Einhaltung der KyotoZiele ist hingegen kaum zu denken. Quelle Abbildung 2: UNFCCC (2010) | GHG Total Emissions including LULUCF (land-use, land-use change and forestry) | United Nations Framework Convention on Climate Change Quelle Abbildungen 3/4: Cerina (2010) | Weltweite CO2-Emissionen: Länderranking 2009 Veränderung des CO2-Ausstoßes bedeutender Emittenten von 1990 – 2009 Abbildung 3 Kyoto-Ziele Veränderungen der aktuellen Emissionen (2009) zum Basisjahr (1990) 0% 202,9 % 0% 144,2 % 8% – 5,2 % –6% –7% –6% China Indien 38 % Australien 27,1 % Alle Länder 24,9 % 9% 3,9 % –8% – 3,2 % – 21 % – 22,5 % Kanada USA Japan EU (EU-15) Deutschland – 50% 0% 50% 100%150%200%250% Die EU-Klimapolitik: Teuer und ineffektiv 113 Dies dürfte zusammen mit den substantiellen Kosten, die für den Klimaschutz aufzubringen sind, wesentlicher Grund dafür gewesen sein, dass selbst Staaten wie Kanada, die durch das Kyoto-Protokoll vertraglich gebunden sind, davon Abstand nehmen (Böhringer, Rutherford 2010). Dies ist wohl auch auf das Fehlen von wirksamen Sanktionen zurückzuführen (Böhringer 2010:60). Insgesamt sind die weltweiten CO2-Emissionen trotz der erfolgreichen Minderungsanstrengungen der Europäischen Union zwischen 1990 und 2008 um rund 37 % gestiegen (Abbildung 3), anstatt um 5,2 % zu sinken, wie im 114 Kyoto-Protokoll vorgesehen ist. Allem Eifer der Kommission sind aber nicht zuletzt auch dadurch Grenzen gesetzt, dass der Anteil der EU-15 an den weltweiten CO2-Emissionen relativ gering ist und im Jahr 2008 knapp 12 % betrug (Abbildung 4). Ohne ein Mitwirken Chinas und der USA, der beiden bedeutendsten Emittentenländer, deren Anteile an den globalen CO2-Emissionen 2008 bei 21,4 % und 19,1 % lagen, können die globalen Emissionen in keinem Fall gesenkt werden, wie die Vergangenheit klar gezeigt hat. Der geringe Effekt der Treibhausgasminderungspolitik der EU CO2-Emissionen der bedeutendsten Emittentenländer im Jahr 2009 Abbildung 4 31.098 7.426 5.951 3.381 Alle Länder China USA EU (EU-15) 1.534 Russland 1.529 Indien 1.225 Japan 797 Deutschland 664 Südkorea 606 Kanada 544 Saudi Arabien 544 Iran 531 Großbritannien 463 Südafrika 441 Mexiko 438 Italien 415 Brasilien 403 Frankreich 390 Indonesien 385 Australien 342 Spanien 279 Ukraine 0 5.000 10.00015.000 20.00025.00030.00035.000 Die EU-Klimapolitik: Teuer und ineffektiv 115 Tatsächlich lautet die unbequeme Wahrheit, dass der Treibhausgasminderung in der Europäischen Union im globalen Kontext lediglich eine sehr untergeordnete Bedeutung zukommt (Böhringer 2010:56). So haben sich die CO2-Emissionen in China zwischen 1990 und 2009 mehr als verdreifacht (Abbildung 3) und stiegen von 2,45 auf 7,43 Mrd. Tonnen, wohingegen die CO2-Emissionen der EU-15-Staaten um 3,2 % gesunken sind (Abbildung 3), von 3,49 auf 3,38 Mrd. Tonnen (Cerina 2010). Der Minderung der EU-15-Staaten um 0,11 Mrd. Tonnen stand somit ein Zuwachs an Emissionen in China von knapp 5 Mrd. Tonnen ge116 genüber. Auch im Vergleich zu den zu erwartenden Emissionsanstiegen in Entwicklungs- und Schwellenländern wie China, Russland oder Indien wird die Emissionsentwicklung in der EU oder anderen Industrie­ ländern weiterhin eine untergeordnete Rolle spielen, wie die folgende Abbildung 5 zeigt. Würde der CO2-Ausstoß in den OECD-Ländern bis 2050 tatsächlich um 83 % gesenkt werden, wie es der nach den US-Kongressabgeordneten Waxman und Markey benannte Plan vorsieht, könnte der künftige Anstieg der globalen Emissionen allenfalls moderat gedämpft werden, wie Abbildung 5 zeigt. Der Emissionspfad ohne Minderungen der OECD-Länder, wie sie der Waxman-Markey-Plan vorsieht, entspricht dabei dem wirtschaftsorientierten A1-Szenario des Intergovernmental Panel on Climate Change (IPCC 2010), das eine zunehmende Globalisierung unterstellt. Gemäß dem A1-Szenario dreht sich der Trend zu höheren weltweiten Emissionen erst im Jahr 2070 um. Hauptursache dafür ist der unterstellte Rückgang der Weltbevölkerung. Kurzum: Selbst wenn die EU zusammen mit allen anderen OECDLändern ihre CO2-Emissionen im Laufe der nächsten Jahrzehnte auf Null zurückführen würde, hätte dies auf den globalen CO2-Ausstoß lediglich eine sehr beschränkte Wirkung. Im Klartext: Ohne drastische Einschränkungen der künftigen Pro-Kopf-Emissionen in den prosperierenden Schwellenländern, welche bislang noch relativ niedrig aus- Der geringe Effekt der Treibhausgasminderungspolitik der EU fallen, ist der Anstieg der weltweiten Emissionen in Zukunft kaum zu dämpfen, geschweige denn, dass der globale Treibhausgasausstoß gegenüber dem heutigen Niveau gesenkt werden kann. Künftiger CO2-Ausstoß im A1-Szenario des IPCC (2010) und bei Umsetzung des Waxman-Markey-Plans Globale Emissionen A1 IPCC OECD-1990 Emissionen A1 IPCC Abbildung 5 Globale Emissionsreduktionen Waxman-Markey OECD-1990 Emissionsreduktionen Waxman-Markey 117 80 Mrd. Tonnen CO2 (Gt CO2) 70 60 50 40 30 20 10 0 19902000201020202030204020502060207020802090 Quelle: Authors Calculations and IPCC (2001) | Special Report on Emissions Scenarios, Intergovernmental Panel on Climate Change. Die EU-Klimapolitik: Teuer und ineffektiv 3. Kontraproduktive internationale Rückwirkungen Die einseitigen Bemühungen der Kommission zur Treibhausgasminderung können nicht zuletzt auch deshalb wenig zur Dämpfung des weltweiten Emissionsanstiegs beitragen, weil sie kontraproduktive internationale Rückwirkungen haben können (Böhringer 2010:58). So könnten Länder ihre Minderungsanstrengungen nach den Erkenntnissen der umweltökonomischen Literatur zurücknehmen, wenn sich eine Nation oder eine Staatengemeinschaft wie die Europäische Union weithin erkennbar und mit hoher Glaubwürdigkeit auf verstärkte Anstrengungen zur Emissionsvermeidung festlegt (Beirat BMF 2010:14). Denn: Je stärker eine Staatengemeinschaft wie die EU zur Dämpfung des Anstiegs oder gar Senkung der weltweiten Emissionen beiträgt, desto kleiner werden die Vorteile eines anderen Staates aus dessen eigenen Minderungsanstrengungen (Beirat BMF 2010:16). In anderen Worten: Der Grenznutzen der Vermeidungsmaßnahmen der übrigen Staaten nimmt mit den zunehmenden EU-Bemühungen ab. Bei sinkendem Grenznutzen ist es folglich für die Nicht-EU-Staaten reizvoll, ihre eigenen Anstrengungen infolge der EU-Ambitionen einzuschränken. Andere Länder profitieren daher in doppelter Hinsicht von den Anstrengungen der EU. Zum einen steigt deren Wohlfahrt in unmittelbarer Weise durch die verstärkten Emissionsminderungen der EU- Die EU-Klimapolitik: Teuer und ineffektiv 119 Länder, falls diese überhaupt einen positiven Effekt auf das Weltklima haben. Zum anderen sinken infolge der verstärkten Vermeidungsanstrengungen der EU die Klimaschutzkosten der übrigen Staaten, wenn diese ihre Emissionsminderungsmaßnahmen entsprechend zurückschrauben. Kurzum: Die Änderung in ihrem Kosten-Nutzen-Kalkül führt dazu, dass die Nicht-EU-Länder ihre Treibhausgasminderungspolitik tendenziell weniger restriktiv bzw. ambitioniert ausgestalten könnten als ohne die EU-Anstrengungen, sodass die Nicht-EU-Länder ihre 120 Treibhausgasvermeidungskosten reduzieren könnten (Hoel 1991, Warr 1993). Die Wirkung der Selbstverpflichtung, die sich die Kommission durch die Verkündung des 20-%-Ziels auferlegt hat, besteht somit in einer als Crowding-Out bezeichneten Verdrängung der Vermeidungsanstrengungen anderer Länder. Unter sehr plausiblen Annahmen kann dies zu einem teilweisen oder gar nahezu gänzlichen Ausgleich der durch die EU bewirkten Emissionsreduktionen führen (Beirat BMF 2010:14). Wenn folglich die Kommission eine einseitige Selbstverpflichtung zu hohen Emissionsminderungen eingeht, mag sie darauf hoffen, damit ein positives Beispiel zu setzen, dem andere Länder folgen. In einer realen Welt, in der die Emissionen aller Länder durch deren individuelles Kosten-Nutzen-Kalkül bestimmt sind, ist dies jedoch eine fromme Hoffnung (Beirat BMF 2010:14). Es besteht vielmehr die große Gefahr, dass andere Länder durch die starke Vorreiterrolle der EU nicht mehr, sondern weniger Anstrengungen zur Verringerung der globalen Emissionen unternehmen werden. Die kurzfristigen Wohlfahrtswirkungen einer solchen Vorreiterpolitik sind eindeutig: Die Wohlfahrt in der sich selbst verpflichtenden EU sinkt, während sich die Wohlfahrt aller anderen Länder – zumindest auf kurze Sicht – erhöht (Beirat BMF 2010:14). Bei einer unilateralen Minderungspolitik der EU kommt es insbesondere zu Verlagerungen der Emissionen in Länder ohne Emissions- Kontraproduktive internationale Rückwirkungen beschränkungen (Hoel 1991, Felder, Rutherford 1993), ein Effekt, der unter dem Begriff Emissions oder Carbon Leakage bekannt ist. Darunter versteht man das Phänomen, dass die einseitige Belastung der energieintensiven europäischen Industrie zu Erhöhungen der Emissionen in Länder außerhalb der EU führen, in denen keine vergleichbaren Klimaschutzkosten anfallen. Dadurch stehen den Emissionssenkungen in Europa erhöhte Emissionen im Nicht-EU-Ausland gegenüber (OliveiraMartins et al. 1992). Dafür gibt es drei Gründe: Erstens kann es zu Standortverlagerungen umwelt- und energieintensiver Industrien ins Nicht-EU-Ausland kommen. Kritiker halten dem entgegen, dass Umweltregulierung nur einer von vielen Standortfaktoren wäre, räumen die Möglichkeit der Standortverlagerung jedoch ein (Hentrich, Matschoss 2006:51). Zweitens können Importe umweltintensiver Güter die Produktion in Europa verdrängen. Dies dürfte nach den Ergebnissen einer empirischen Studie von Demailly und Quirion (2006) beispielsweise bei Zement in nicht unerheblichem Maße der Fall sein. Drittens könnte ein substantieller Nachfragerückgang in Ländern mit starken Emissionsminderungen zu weltweit geringeren Energiepreisen führen, sodass postwendend die Nachfrage nach fossilen Energierohstoffen in den übrigen Ländern steigt (Böhringer 2010:58). Um diese kontraproduktiven Rückwirkungen abzuschwächen, kann es sinnvoll sein, energie- und handelsintensive Industrien weniger stark zu belasten, konstatieren Böhringer und Schwager (2003:213), so wie dies etwa im Zusammenhang mit der Erhebung der Stromsteuer in Deutschland bislang geschieht. Auch die Kommission hat die Relevanz des Leakage-Effekts erkannt und wird die Unternehmen der handels- und zugleich energieintensiven Industriesektoren von der Verpflichtung der Ersteigerung der von ihnen benötigten Zertifikate ab dem Jahr 2013 teilweise ausnehmen. Unter die Ausnahmenregelungen fallen diejenigen Sektoren, bei denen die durch den Emissionshandel verursachten zusätzlichen Energiekosten mindes- Die EU-Klimapolitik: Teuer und ineffektiv 121 tens 5 % der Bruttowertschöpfung betragen und deren Handelsintensität17 zugleich über 10 % liegt. Als vom Carbon Leakage besonders betroffen − und deshalb ebenfalls ausgenommen − gelten sodann diejenigen Sektoren, für die bereits eines dieser beiden Kriterien bei über 30 % liegt. Bei diesen Ausnahmeregelungen ist allerdings zu beachten, dass sie die so identifizierten Unternehmen nicht vollständig von den CO2-Kosten entlasten. Vielmehr erhalten die energieintensiven Unternehmen, die sich erwiesenermaßen im internationalen Wettbewerb 122 behaupten müssen, in der kommenden Handelsperiode (2013 – 2020) eine Gratiszuteilung der Zertifikate lediglich in einer Höhe, die sich nach einem sektorspezifischen Benchmark bemisst (BMU 2008). Zur Festlegung der EU-einheitlichen Benchmarks werden jeweils die effizientesten 10 % der Anlagen einer Branche in der EU betrachtet. Jene Unternehmen aber, die bei weitem nicht zu den 10 % der effizientesten ihrer Branche gehören, könnten trotz Gratiszuteilung in Höhe des Benchmarks mit erheblichen Kosten infolge des Erwerbs der darüber hinaus benötigten Zertifikate konfrontiert sein. Eine allzu ambitionierte unilaterale Klimapolitik, die in Zukunft immer strengere Klimaschutzziele verfolgt, kann schließlich auch dazu führen, dass fossile Energieressourcen schneller gefördert werden, weil die Rohstoffanbieter befürchten könnten, dass infolge künftig verstärkter Klimaschutzbemühungen die Nachfrage und damit die Preise nach Energierohstoffen fallen. Nach dem „grünen Paradoxon“ von Sinn (2008:140) könnte so der weltweite Ausstoß an Treibhausgasen paradoxerweise sogar höher ausfallen als ohne Klimaschutzbemühungen. 17 Die Handelsintensität ist die Summe aus Importen und Exporten dividiert durch die Summe aus dem in der EU erzielten Umsatz und den Importen (BMU 2008). Kontraproduktive internationale Rückwirkungen 4. Mangelnde Kosteneffizienz der Treibhausgasminderungspolitik der EU Auch wenn die Klimapolitik der Kommission nach den vorangehenden Erläuterungen im weltweiten Maßstab wenig oder gar Kontraproduktives bewirkt, stellt sich die Frage nach der Kosteneffizienz der einseitigen EU-Politik. An der Kosteneffizienz lässt sich aber vor allem aus folgenden Gründen zweifeln (Böhringer 2010:63): Erstens sind Mehrkosten dadurch vorprogrammiert, dass neben dem im Jahr 2005 eigens zum Zwecke der Treibhausgasminderung etablierten Klimaschutzinstrument des Handels von CO2-Emissionszertifikaten eine Vielzahl von sich überlagernden Regulierungsinstrumenten in der EU zum Einsatz kommen, obwohl laut umweltökonomischer Literatur die Minderung von Treibhausgasen mit dem Emissionshandel auf kurze Sicht zu den geringsten gesamtwirtschaftlichen Kosten erreicht werden kann: Durch dieses Klimaschutzinstrument können Emissionsminderungsziele nicht nur ökologisch treffsicher, sondern – zumindest in statischer bzw. kurzfristiger Betrachtungsweise – auch ökonomisch effizient realisiert werden (Bonus 1998:7). Zweitens entstehen auch dadurch erhebliche Mehrkosten, dass der Emissionshandel bislang auf die Europäische Union begrenzt ist (Nordhaus 2009:50). Eine Ausweitung des EU-Emissionshandelssystems auf weitere Regionen, welche insbesondere die größten Emitten- Die EU-Klimapolitik: Teuer und ineffektiv 123 ten wie die USA und China einschließen, würde die Vermeidung ein und derselben Emissionsmenge zu günstigeren Kosten erlauben, da mit Hilfe dieses Instrumentes die Emissionen dort gemindert werden, wo es am kostengünstigsten ist (Böhringer 2010:64). Mit einer internationalen Ausweitung des Emissionshandels sollte sich die Anzahl an zur Verfügung stehenden kostengünstigen Vermeidungsoptionen vergrößern. Im Ergebnis führt dies zu einer Senkung der Kosten für die Erreichung einer bestimmten Emissionsminderung. Zu einer Ausweitung des EU-Emissionshandelssystem auf einen 124 weltweiten Handel besteht aber wenig Hoffnung, da dies ein weltumspannendes klimapolitisches Abkommen voraussetzt. Die Aussichten auf den Abschluss eines wirkungsvollen internationalen Klimaabkommens mit völkerrechtlich bindenden Minderungszielen der bedeutendsten Emittenten sind allerdings sehr schlecht (Beirat BMF 2010:7), wie im nächsten Abschnitt erläutert wird. Ein Hauptgrund dafür ist, dass es keine Weltregierung gibt und es wenig wahrscheinlich ist, dass es eine solche jemals geben wird. Drittens ist die Europäische Union trotz der als positiv hervorzuhebenden Etablierung und Weiterentwicklung des Emissionshandels noch weit von einer kohärenten Klimapolitik entfernt (Böhringer 2010:66). Dies ist vorwiegend dem Umstand geschuldet, dass in den Emissionshandel bislang nur der Stromerzeugungssektor und die energieintensiven Produktionsbetriebe einbezogen sind, welche zusammen für etwa 40 % der EU-weiten CO2-Emissionen verantwortlich sind. Andere Bereiche wie der Verkehrssektor oder die Sektoren der privaten Haushalte oder der Gewerbe-, Handels- und Dienstleistungsunternehmen sind hingegen nicht in den Emissionshandel integriert. Anstatt den Emissionshandel auf andere Bereiche auszuweiten, besteht in der Europäischen Union die Tendenz, jeden Sektor spezifisch zu regulieren, um so das EU-weite Minderungsziel zu erreichen. Dies hat erhebliche Effizienzverluste zur Folge (Böhringer et al. 2005). Mangelnde Kosteneffizienz der Treibhausgasminderungspolitik der EU So ist im Bereich des privaten Pkw-Verkehrs künftig ein spezifischer Emissionsstandard das von der Kommission präferierte Regulierungsinstrument (Frondel, Schmidt 2008:330). Mit der EU-Verordnung 443/2009 ist ab 2012 für Neuwagen ein zulässiges Höchstmaß an spezifischen CO2-Emissionen je Kilometer vorgeschrieben, das mit der Masse des Fahrzeugs ansteigen darf (Frondel, Schmidt 2009:179). Mit dieser Art der Regulierung sind CO2-Vermeidungskosten verbunden, die zwischen 475 und 950 Euro je Tonne CO2 liegen können (Frondel, Schmidt, Vance 2010), während der CO2-Zertifikat-Preis im Rahmen des Emissionshandels bislang noch nicht über 30 Euro je Tonne hinausging. Die hohen Vermeidungskosten, die mit dieser Regulierung verbunden sein können, gehen bei einer zwar weitgehend unbekannten, aber definitiv endlichen Zahlungsbereitschaft der Bevölkerung für Klima- bzw. Umweltschutz unmittelbar zu Lasten anderer, kostengünstigerer Treibhausgasvermeidungsmaßnahmen. Der Existenz des Emissionshandels zum Trotz gibt es zusätzlich dazu eine Vielzahl von Maßnahmen und Politikinstrumente, zu deren Rechtfertigung die Kommission die Verringerung des Treibhausgasausstoßes zumindest als eines von mehreren Motiven angibt. An erster Stelle sind dabei Richtlinien zur Steigerung der Energieeffizienz sowie zum Ausbau des Einsatzes von erneuerbaren Energietechnologien zu nennen. Damit sollen die im Energie- und Klimaschutzpaket genannten 20-20-20-Ziele erreicht werden. Dabei stellt die Minderung der Treibhausgasemissionen um 20 % gegenüber 1990 eines der Ziele für das Jahr 2020 dar, während die Ausweitung des Beitrags der erneuerbaren Energietechnologien zur Deckung des Primärenergieverbrauchs in der EU auf 20 % bis 2020 sowie die Steigerung der Energieeffizienz um 20 % gegenüber dem Weiter-wie-Bisher die übrigen Zielmarken sind. Zu dem Bündel an Regulierungen zur Erreichung dieser Ziele zählt nicht zuletzt auch das am 1. September 2009 erlassene sukzessive Verbot des Verkaufs herkömmlicher Glühbirnen, das bis spätestens 31. Au- Die EU-Klimapolitik: Teuer und ineffektiv 125 gust 2012 den Verkauf sämtlicher Arten von Glühbirnen in der EU verbietet (EU-Verordnung 244/2009) und daher unter dem Begriff „Glühbirnenverbot“ firmiert. Dieses Verbot wird von der Kommission vor allem mit zwei Argumenten gerechtfertigt (Frondel, Lohmann 2010). Erstens würden energieeffiziente Energiesparlampen den privaten Haushalten und übrigen Stromverbrauchern helfen, Strom und damit Kosten zu sparen, sodass deren Stromrechnungen signifikant sinken. Frondel, Lohmann (2010) halten dem entgegen, dass die Verwendung von Energiesparlampen zwar bei häufiger Nutzung große Kostenvor126 teile aufweist. Bei sehr geringen Nutzungszeiten, wie dies etwa bei der Keller- und Dachbodenbeleuchtung der Fall ist, erleiden die Verbraucher durch dieses Verbot aber wirtschaftlichen Schaden. Allein aus diesem Grund ist das generelle Glühbirnenverbot der EU-Kommission unangebracht und sollte wieder zurückgenommen werden. Mit den Einsparungen an Strom infolge des Glühbirnenverbots kann nach Auffassung der Kommission zweitens der Ausstoß an Treibhausgasen verringert werden, der mit der konventionellen Erzeugung von Strom auf Basis fossiler Brennstoffe wie Kohle oder Gas verbunden ist. Tatsächlich aber ist der Nettoeffekt dieses Verbotes bei einer Koexistenz mit dem 2005 etablierten Emissionshandel gleich Null, ebenso wie bei allen anderen Maßnahmen, die auf eine Absenkung des Stromverbrauchs und des damit verbundenen CO2-Ausstoßes abzielen: Da der Emissionshandel eine bindende Obergrenze für die CO2-Emissionen vorgibt, können mit Maßnahmen wie etwa dem Erneuerbare-Energien-Gesetz (EEG) zur Förderung alternativer Stromerzeugungstechnologien in Deutschland keinerlei weitere Einsparungen erzielt werden (Frondel, Ritter, Schmidt 2008:4201). Die via EEG geförderte Stromerzeugung sorgt zwar für geringere Emissionen im deutschen Stromsektor, weshalb die Zertifikatpreise niedriger ausfallen als ohne EEG. Dadurch werden jedoch Vermeidungsmaßnahmen in anderen am Emissionshandel beteiligten Sektoren nicht ergriffen, weil es kostengünstiger ist, stattdessen Zertifikate Mangelnde Kosteneffizienz der Treibhausgasminderungspolitik der EU zu kaufen. Andere Stromerzeugungssektoren in der EU sowie die Industriesektoren, die in den Emissionshandel eingebunden sind, weisen folglich höhere Emissionen auf und gleichen so die Emissionseinsparungen, die im deutschen Stromerzeugungssektor durch das EEG ausgelöst werden, gänzlich aus. Im Ergebnis ergibt sich lediglich eine Emissionsverlagerung, der durch das EEG bewirkte CO2-Einspareffekt ist aber de facto Null (BMWA 2004:8, Morthorst 2003). So kann es sich bei einem starken Ausbau der erneuerbaren Energien in der EU und den damit verbundenen signifikanten den CO2-Preis senkenden Wirkungen gerade für die Betreiber alter Kohlekraftwerke eher lohnen, ihre wenig effizienten, emis­sionsintensiven Anlagen weiterzubetreiben, als den Anteil der Erneuerbaren weiter zu steigern. Durch die Regulierungsüberlagerung kommt es somit sogar zu paradoxen Folgen (Böhringer 2010:69). Letztlich werden vergleichsweise kostengünstige Maßnahmen nicht ergriffen, die in der kontrafaktischen Situation ohne ein deutsches EEG und mit den in den übrigen EU-Staaten existierenden Instrumenten zur Förderung erneuerbarer Energietechnologien umgesetzt worden wären. Stattdessen wird gerade mit der Solarstromproduktion die teuerste aller derzeit in der Diskussion befindlichen Technologien zur Vermeidung von CO2-Emissionen umgesetzt (Abbildung 6). So taxieren Frondel, Ritter, Schmidt, Vance (2010a:119) die mit der Förderung der Photovoltaik in Deutschland einhergehenden Vermeidungskosten auf mehr als 600 Euro je Tonne CO2. Die Internationale Energieagentur geht sogar von einem höheren Wert von rund 1.000 Euro je Tonne aus (IEA 2007:74). Die EU-Klimapolitik: Teuer und ineffektiv 127 Emissionsvermeidungskosten verschiedener technologischer Maßnahmen Abbildung 6 700 585 600 611 540 128 Euro pro Tonne CO2 500 415 400 420 326 300 254 200 100 91 29 37 190 –5 215 102 34 7 0 75 52 –21 – 100 –113 – 200 Ke rg ne e rn ) PR k (E ie K D- u -G as er ftw ra k ie er ftw ra rm e rth la So dg Er dk in W E z ffi i te en e Di -P l se g un m äm ed m är W kw H EF te en n Be -P zin kw G Ef i fiz ik ffe ta to ol ts v f o ra ot ok Ph Bi ie rm e th eo Quelle: Fahl (2006) Als Folge davon summieren sich die realen Nettokosten für alle zwischen 2000 und 2009 in Deutschland installierten Photovoltaikmodule auf rund 52,3 Mrd. Euro (Frondel, Ritter, Schmidt, Vance 2010b:4051). Dies konterkariert das Prinzip des Emissionshandels, den Treibhausgasausstoß dort zu verringern, wo es am kostengünstigsten ist, bzw. die Treibhausgase mit den kosteneffizientesten Technologien zu reduzieren. Diese theoretische Argumentation wird durch die numerische Analyse von Traber und Kemfert (2009) für Deutschland untermauert. Danach ändert sich der CO2-Ausstoß auf europäischer Ebene Mangelnde Kosteneffizienz der Treibhausgasminderungspolitik der EU kaum, obwohl die Emissionen im deutschen Stromerzeugungssektor durch das EEG um 11 % reduziert werden. Der Grund dafür ist, dass die Stromerzeugung auf Basis erneuerbarer Technologien in Deutschland die Dringlichkeit der Emissionsreduktion in den übrigen EU-Ländern verringert, indem die EU-weit geltenden Preise für CO2-Zertifikate gegenüber einer Situation ohne ein deutsches EEG um 15 % niedriger ausfallen (Traber, Kemfert 2009:169). Nun wird häufig argumentiert, man könne die ökologische Unwirksamkeit des EEG bzw. des EU-weiten Ausbaus der Erneuerbaren dadurch beheben, dass das Emissionsbudget beim Emissionshandel um die zu erwartenden CO2-Minderungsbeiträge infolge des Ausbaus der regenerativen Stromerzeugung reduziert wird (Diekmann, Kemfert 2005; Kemfert, Diekmann 2009). So sei in der EU-weit geltenden Emissionsobergrenze für 2020 der CO2-senkende Einfluss des Zubaus regenerativer Stromerzeugungstechnologien berücksichtigt worden (COM 2008) und der Ausbau erneuerbarer Energien hätte daher sehr wohl eine CO2-senkende Wirkung. Diese Argumentation ist unzutreffend, da es allein das Instrument des Emissionshandels ist, das die Einhaltung der Emissionsobergrenze (Cap) garantiert. Diese Obergrenze würde auch dann eingehalten, wenn auf den weiteren Ausbau der erneuerbaren Energien in sämtlichen EU-Ländern verzichtet würde − zugegeben eine wenig wahrscheinliche Entwicklung. Dennoch verdeutlicht diese Überlegung, dass es allein das Instrument des Emissionshandels ist, das eine Senkung der Treibhausgasemissionen bewirkt (Häder 2010:14). Dieser kaum bestreitbaren Tatsache wird häufig entgegengehalten, dass es gerade die Förderung der erneuerbaren Energien ist, die weit niedrigere zukünftige Obergrenzen im EU-Emissionshandel erlauben würde als andernfalls. Dieses Argument ist wenig stichhaltig, da die EU-Länder sich mit weitaus weniger Subventionen, als die Förderung der erneuerbaren Energien verschlingt, in die Lage versetzen könnten, niedrige künftige Emissionsobergrenzen einzuhalten. Die EU-Klimapolitik: Teuer und ineffektiv 129 Der Weiterbetrieb der Kernkraftwerke in Deutschland, die nach geltendem Gesetz bereits nach 32 Jahren Laufzeit abgeschaltet werden sollen, obwohl die technische Lebensdauer bei 60 Jahren und mehr liegt, wäre nur eines von vielen Beispielen, wie man auf kostengünstige Weise strengere Emissionsgrenzen anstreben könnte. In diesem Beispiel wären die volkswirtschaftlichen Kosten sogar negativ: Die Wohlfahrt in der EU und vor allem in Deutschland würde zweifellos gesteigert (Energieprognose 2009). Konträr dazu erweisen sich zusätzliche Politiken zur Förderung erneuerbarer Energien als besonders teu130 er: Böhringer et al. (2009a) wiesen darauf hin, dass sich die Kosten für die Treibhausgasminderung in der Europäischen Union durch solche Politikmaßnahmen sogar verdoppeln können. Ein weiteres Beispiel für ein ebenfalls den Emissionshandel berührendes Instrument sind Stromsteuern. Eine solche wurde in Deutschland unter dem Begriff Ökosteuer im Jahr 1999 eingeführt. Unternehmen, die sowohl Stromsteuern bezahlen als auch dem Emissionshandel unterliegen, vermeiden ineffizient viel (Böhringer 2010:68). Dadurch subventionieren sie indirekt die Unternehmen solcher EU-Länder, die ebenfalls in den Emissionshandel eingebunden sind, aber nicht einer Stromsteuer unterworfen sind. Auch hier gilt: Da die Gesamtemissionen im EU-Emissionshandel gedeckelt sind, haben zusätzliche Strom- oder CO2-Steuern keinen CO2-senkenden Effekt (Böhringer 2010:68).18 Dies gilt ebenso für alle weiteren Instrumente, die auf eine Senkung des Stromverbrauchs in den EU-Ländern abzielen. Dazu gehören in Deutschland etwa das Energieverbrauchskennzeichnungsgesetz, das den Kauf energieeffizienter Stromgeräte stärkt, die Förderung der 18 Dementsprechend sind die Vermeidungskosten je eingesparter Tonne CO2 im Prinzip unendlich hoch, da ungeachtet der Höhe der Kosten, die durch die einzelnen Maßnahmen den Verbrauchern auferlegt wird, der CO2-Einspareffekt Null ist und bei der Berechnung der spezifischen Vermeidungskosten je Tonne CO2 durch Null dividiert werden müsste. Mangelnde Kosteneffizienz der Treibhausgasminderungspolitik der EU Kraft-Wärme-Kopplung (KWK) via KWK-Gesetz oder das Energiebetriebene-Produkte-Gesetz, das ineffiziente Geräte vom Markt ausschließt. Infolge der gleichzeitigen Existenz des Emissionshandels sind diese Gesetze ebenso nutzlos im Hinblick auf Treibhausgaseinsparungen (Häder 2010:17) wie der in Italien und Großbritannien etablierte Handel mit sogenannten weißen Zertifikaten, mit dem Stromeinsparungen erreicht werden sollen. Aber selbst wenn es keinen CO2-Emissionshandel gäbe, wären Weiße-Zertifikate-Systeme nicht das Instrument 1. Wahl: Jede Politik, die pauschal an der Nachfrage nach Energie ansetzt, um Umweltexternalitäten zu verringern, ohne dabei den mit dem jeweiligen Energieträger verbundenen spezifischen Umwelteffekten Rechnung zu tragen, ist ineffizient (Mennel, Sturm 2009:27). Tatsächlich sind solche auf den Emissionshandel aufgesattelten Instrumente wie auch technologie-spezifische Förderungen, allen voran die Subventionierung der Erneuerbaren, nicht nur ineffektiv bzw. ökologisch überflüssig. Sie sind aus ökonomischer Sicht sogar kontraproduktiv, da Klimaschutz damit unnötig teuer wird (Häder 2010:15). Die Förderung alternativer Technologien zur Produktion „grünen“ Stroms, welche in Europa mit vielen Milliarden Euro im Jahr unterstützt wird − allein in Deutschland betrugen die Einspeisevergütungen für „grünen“ Strom im Jahr 2009 rund 10 Mrd. Euro (Schiffer 2010:83) –, muss sich daher aus anderen Gründen rechtfertigen. Bedauerlicherweise darf man wegen der massiven finanziellen Belastungen durch die Erneuerbaren-Politik der Kommission keine positive Auswirkungen auf Beschäftigung erwarten (Frondel, Ritter, Schmidt, Vance 2010b:4055). So gehen mit den höheren Strompreisen infolge der Förderung der erneuerbaren Energien, etwa durch das deutsche Erneuerbaren-Energie-Gesetz (EEG), Kaufkraftverluste von privaten Haushalten einher. Zusammen mit dem Entzug von Investitionskapital bei den industriellen Stromverbrauchern bewirkt dies negative Arbeitsplatzeffekte in anderen Sektoren. Indem die Budgets Die EU-Klimapolitik: Teuer und ineffektiv 131 der industriellen Verbraucher durch höhere Strompreise geschmälert werden, stehen vor allem weniger Mittel für alternative und profitablere Investitionen zur Verfügung. Daher ist zu bezweifeln, ob die Arbeitsplatzeffekte des deutschen EEG im Saldo tatsächlich positiv ausfallen können (Frondel, Ritter, Schmidt, Vance 2010a:123). Demnach ist es nicht weiter verwunderlich, dass sich in der Vergangenheit zahlreiche Studien skeptisch in Bezug auf positive Nettobeschäftigungseffekte der Förderung erneuerbarer Energien in Deutschland äußerten. So konstatiert das Institut für Wirtschaftsforschung in 132 Halle, dass bei Berücksichtigung der Investitionskosten bzw. der Verdrängung der privaten Verwendung der Investitionsmittel „praktisch keine Beschäftigungseffekte mehr festgestellt werden könnten“ (IWH 2004:72). Ähnlich äußerten sich Fahl, Küster und Ellersdorfer (2005), Pfaffenberger (2006) und das RWI (2004) bzw. Hillebrand et al. (2006). In jedem Falle sind die durch die Förderung erneuerbarer Energien geschaffenen Bruttoarbeitsplätze teuer erkauft. So erforderte die Schaffung von 50.000 „grünen Jobs“ in Spanien Ausgaben von 28,7 Mrd. Euro (Álvarez et al. 2009:24). Pro Arbeitsplatz sind das 574.000 Euro. Ähnlich hohe Subventionen werden in Deutschland für jeden Arbeitsplatz in der Photovoltaikbranche bezahlt. Auf Basis der Nettokosten von rund 17,4 Mrd. Euro für alle im Jahr 2009 installierten Anlagen (Frondel, Ritter, Schmidt, Vance 2010b:4051) lägen die Subventionen pro Kopf bei rund 290.000 Euro, wenn man von 60.000 Beschäftigten im deutschen Photovoltaiksektor ausgeht (BSW 2009). Diese Ergebnisse sind nicht weiter überraschend, schließlich ist der komparative Vorteil der Politik nicht unbedingt in der unmittelbaren Schaffung von Arbeitsplätzen zu vermuten. So würde man eher dem Markt, welcher die wettbewerbsfähigen konventionellen Stromerzeugungstechnologien begünstigen würde, als der Politik, die sich als Förderer ineffizienter „grüner“ Technologien betätigt, zutrauen, für insgesamt mehr Beschäftigung und somit eine größere Wohlfahrt zu sorgen. Mangelnde Kosteneffizienz der Treibhausgasminderungspolitik der EU Tatsächlich sollte der Handlungsschwerpunkt der Politik nicht in der Schaffung von Arbeitsplätzen liegen, sondern in der Gestaltung günstiger Rahmenbedingungen, welche die möglichst kostengünstige Produktion von Gütern und Dienstleistungen erlauben. Zu diesen Rahmenbedingungen gehört die allgemeine Förderung der Erforschung und Entwicklung neuer Produktionsmethoden, bei denen weniger Ressourcen an Energie, Umwelt, Kapital oder auch an Arbeit eingesetzt werden, um denselben Output zu erzeugen wie mit den bestehenden Technologien. Indem die frei werdenden Ressourcen für andere Zwecke verwendet werden können, kann so der Lebensstandard der Bevölkerung gesteigert werden. Die von der Kommission mit der Steigerung des Anteils der Erneuerbaren am Energiemix beabsichtigte Technologieförderung ist in dieser Hinsicht allerdings wenig erfolgreich, wie in Abschnitt 7 dargestellt wird. Die EU-Klimapolitik: Teuer und ineffektiv 133 5. Schlechte Chancen für ein globales Klimaabkommen zur Treibhausgasminderung Nationale Klimapolitiken zur Senkung von Treibhausgasen sehen sich einem fundamentalen Dilemma ausgesetzt19: Die Bürger eines einzelnen Landes, welche von dessen Regierung die vollen Kosten einer einseitigen Minderungspolitik aufgebürdet bekommen, profitieren nur zu einem geringen Teil von dieser Klimapolitik, falls denn diese Minderung der Treibhausgase überhaupt die globale Erwärmung signifikant beeinflussen kann. Der weit überwiegende Nutzen einer solchen Politik fällt im Ausland an (Beirat BMF 2010:8). Aus diesem Grund haben einzelne Länder in der Regel nur geringe Anreize20, erhebliche Kosten für Treibhausgasminderungen aufzuwenden, da diese wegen der weltweiten Auswirkungen des Ausstoßes von Treibhausgasen allen zu Gute kommen, aber im weltweiten Maßstab 19 Das Dilemma wurde von Hardin (1968) als Tragedy of Commons bezeichnet. Damit gemeint ist die Tragik der Allmende- bzw. öffentlichen Güter, die allen zur Verfügung stehen, dadurch keinen Preis haben und daher unter Übernutzung leiden. 20Nur wenige Länder beteiligen sich freiwillig an der Vermeidung von Emissionen (Beirat BMF 2010:11). Dass ein Land zu dieser Gruppe gehört, ist umso wahrscheinlicher, je größer und bevölkerungsreicher das Land ist, je wohlhabender das Land ist, je niedriger die Kosten der Emissionsvermeidung für dieses Land sind, je dramatischer die Veränderung des Klimas für das Land negativ zu Buche schlägt und je bedeutender und politisch einflussreicher die Ökologiebewegung in einem Land ist. Die EU-Klimapolitik: Teuer und ineffektiv 135 wenig bewirken (Abschnitt 2). Im Gegenteil: Ein einzelnes Land hat vielmehr den Anreiz, sich als Trittbrettfahrer zu verhalten (Weimann 1994:73) und nichts zu tun, um ohne eigenen Kostenaufwand von den Anstrengungen der anderen Länder zu profitieren. Die zentrale Herausforderung ist daher, einen Weg zu finden, mit dem es gelingen kann, Staaten vom Trittbrettfahrerverhalten abzubringen und die Chancen für das Zustandekommen eines Klimaabkommens auf globaler Ebene, mit dem sich nahezu alle Staaten oder zumindest sämtliche bedeutenden Emittenten, Treibhausgasrestriktionen 136 auferlegen, zu erhöhen. Aufgrund des Fehlens einer Weltregierung, die ein Trittbrettfahrerverhalten wirksam sanktionieren könnte (Weimann 1994:73), welche es aber mit Sicherheit niemals geben wird, besteht internationale Klimapolitik allerdings allein aus freiwilligem Engagement. Dabei stellt sich die Frage, welche Rolle Kooperationen einzelner Länder spielen können, um die Teilnahmebereitschaft der übrigen Länder an einem globalen Klimaabkommen zu beeinflussen. Kooperationen einer Teilgruppe von Ländern, etwa der 27 EU-Mitgliedstaaten, können für die einzelnen Teilnehmerstaaten durchaus attraktiv und ökonomisch rational sein, wie an dem folgenden Beispiel erläutert werden soll. Nehmen wir vereinfachend an, dass sich die 27 EUStaaten dazu verpflichten, jeweils dieselbe Emissionsmenge zu vermeiden. Diese Verpflichtung lohnt sich für ein einzelnes EU-Mitglied genau dann, wenn seine Emissionsminderungskosten geringer sind als der Nutzen, den die 27-mal so hohe Emissionsminderung, zu der sich die Partnerländer via Vertrag verpflichtet haben, stiftet.21 Man würde meinen, dass die Teilnahme eines Landes an einem solchen Kooperationsvertrag 21 Die vereinfachende Annahme, dass alle Länder sich zur selben Minderungsmenge verpflichten, ist irrelevant. Tatsächlich spielt es für das Kosten-Nutzen-Kalkül eines Landes, das sich zu einer bestimmten Emissionsminderung verpflichtet, offenkundig keine Rolle, wie die Verteilung der Minderungsverpflichtungen auf die übrigen Länder ausfällt, solange die gesamte Minderungsmenge dieselbe bleibt. Schlechte Chancen für ein globales Klimaabkommen zur Treibhausgasminderung umso attraktiver ist, je mehr Kooperationspartner sich zu Minderungsanstrengungen verpflichten, da die eigenen Anstrengungen mit dem entsprechenden Vielfachen an Emissionsminderung belohnt werden. Auf den ersten Blick würde man folglich erwarten, dass eine solche Kooperation einer Teilgruppe von Ländern die Chancen für das Zustandekommen eines globalen Abkommens erhöht, da man sich von dieser Kooperation eine förderliche Signalwirkung erhoffen könnte und die mit der Kooperation übernommene Vorreiterrolle sich positiv auf die Erweiterung des Teilabkommens zu einem globalen Abkommen auswirkt. Die Antwort der umweltökonomischen Literatur auf die Frage nach der Bedeutung von Teilkooperationen für die Chancen eines weltweiten Klimaabkommens ist jedoch höchst ernüchternd: Aus genau denselben Gründen, die in Abschnitt 3 dargestellt wurden und die dazu führen, dass das übermäßige Engagement eines einzelnen Landes oder einer Staatengruppe wie der Europäischen Union die Bereitschaft der übrigen Länder zur Emissionsminderung verringert, kann die Kooperationsbereitschaft der übrigen Länder durch eine Kooperation einer Teilgruppe von Staaten reduziert und so das Zustandekommen eines weltweiten Klimaabkommens sogar erschwert werden (Beirat BMF 2010:16), anstatt die Chancen auf ein solches zu verbessern. Denn: Je mehr ein Land oder eine Staatengruppe bereit ist zu tun und dies in einem Kooperationsvertrag zu manifestieren, desto attraktiver wird es für die übrigen Länder, selbst weniger zu vermeiden und einem zu erheblichen Anstrengungen verpflichtenden Abkommen fernzubleiben, da der Grenznutzen der eigenen Anstrengungen mit den Bemühungen der Vorreiterländer sinkt22. 22 In der ökonomischen Literatur überwiegt das rationale Kosten-Nutzen-Kalkül als Basis für individuelle Entscheidungen. In anderen Sozialwissenschaften wie auch in Teilbereichen der Ökonomik werden dagegen häufig Entscheidungen mit unvollständiger Information oder beschränkter Rationalität betrachtet. >> |Fortsetzung der Fußnote am nächsten Seitenende| Die EU-Klimapolitik: Teuer und ineffektiv 137 Das Abkommen einer Teilgruppe von Staaten, wie etwa die Selbstverpflichtung der EU-Staaten auf eine 20-%-Reduktion der Treibhausgase gegenüber 1990, kann somit die Dynamik zukünftiger Verhandlungen über ein weltweites Klimaabkommen negativ beeinflussen (Beirat BMF 2010:17): „Das Vorwegmaschieren einer Teilgruppe von Ländern und die Einigung auf hohe Emissionsminderungsziele markieren in der Politik vielleicht einen herausragenden moralischen Sieg. Wenn es darum geht, das Weltklima im Rahmen eines globalen Umweltabkommens zu retten, ist diese Form des moralischen Han138 delns jedoch eher verfehlt. Sie kann eine effiziente Lösung, die ohne ein Vorwegmarschieren im Bereich des Möglichen gewesen wäre, sogar verhindern.“ Die Zusammenarbeit einer Teilgruppe von Ländern ist jedoch nicht nur wenig hilfreich für das Zustandekommen eines globalen Klimaabkommens. Nach der umweltökonomischen Literatur birgt dies sogar das Risiko einer erheblichen Umverteilung der Kosten zulasten der Länder, die sich zur Kooperation bereit erklärt haben (Buchholz, Haslbeck, Sandler 1998, Konrad 2003). Die Kommission sollte daher diese Zusammenhänge und Wirkungsmechanismen bedenken, wenn es um die Frage geht, ob die Klimapolitik in den Händen der einzelnen EU-Länder bleiben oder zentral von Brüssel aus koordiniert werden sollte. Während selbst eine koordinierte EU-Klimapolitik nur einen kleinen Beitrag zur globalen Emissionsminderung leisten kann (Abschnitt 2), werden die Chancen für eine weltweit koordinierte Klimapolitik verringert, aber die Lasten für die Emissionsminderung eher den > > Abweichungen in dieser Richtung per se lassen allerdings die Ineffizienz noch nicht verschwinden. Wenn beispielsweise die Länder ihre Vermeidungsanstrengungen in einem evolutionären Prozess – statt über vollständig rationale Wohlfahrtsmaximierung – bestimmen, bleiben Vorleistungen einzelner Länder ebenfalls wirkungslos. Länder imitieren in einem evolutionären Prozess erfolgreiche Strategien anderer Länder; und erfolgreicher sind auch hier die Länder, die nur geringe Vermeidungsanstrengungen leisten. Auch im evolutionären Prozess setzt sich die ineffizient niedrige Vermeidung durch (Beirat BMF 2010:10). Schlechte Chancen für ein globales Klimaabkommen zur Treibhausgasminderung Mitgliedsstaaten aufgebürdet, wohingegen die übrigen OECD-Staaten tendenziell eher entlastet werden (Beirat BMF 2010:14). Abgesehen davon, dass die Klimapolitik der Kommission eher kontraproduktiv wirkt, stehen die Chancen für ein globales Klimaabkommen, das zu einer nennenswerten Verringerung der globalen Emissionen führt oder zumindest zu einer weitgehenden Stagnation, ohnehin denkbar schlecht, falls dieses Abkommen auf die Beschränkung des Treibhausgasausstoßes der Staaten mit dem umfangreichsten Treibhausgasausstoß abzielt. So wird sich der weltweit größte Treibhausgasemittent China mit Sicherheit keinerlei Emissionsbeschränkung unterwerfen wollen, wenn diese zulasten der wachsenden Prosperität dieses Landes gehen würde. Zu Recht würde China stattdessen zuerst von denjenigen Ländern ihren substantiellen Tribut verlangen, die in der Vergangenheit vorwiegend für den Anstieg der Treibhausgaskonzentration maßgeblich verantwortlich waren. Mit dem ebenso berechtigten Hinweis auf die geringe Effektivität verweigert der zweitgrößte Emittent, die USA, bereits heute einschneidende Vermeidungsmaßnahmen, falls Schwellenländer wie China oder Indien sich nicht ebenfalls zu Minderungsanstrengungen verpflichten, die den künftigen Anstieg ihrer Emissionen deutlich dämpfen. Einen möglichen Ausweg aus diesem Dilemma, der nicht unmittelbar bei der Vermeidung von Emissionen ansetzt, präsentiert der folgende Abschnitt. Die EU-Klimapolitik: Teuer und ineffektiv 139 6. Erfolgsträchtigere Alternativen Aussichtsreichere Alternativen zur Auferlegung von Emissionsrestrik­ tionen bestehen in solchen Strategien und Politiken, bei denen die einzelnen Länder in erster Linie selbst von den zu ergreifenden Maßnahmen profitieren und daher ein hohes Eigeninteresse an deren Umsetzung haben. Dazu gehören Anpassungsmaßnahmen an den Klimawandel, die wie der Bau von Deichen zum Schutz vor einem Anstieg des Meeresspiegels darauf abzielen, die Folgekosten der globalen Erwärmung zu reduzieren, und damit unmittelbar der Bevölkerung desjenigen Landes zugute kommen, das diese Maßnahmen durchführt. Zusätzlich zu einer solchen Politik, deren Umsetzungsgrad vor allem im Ermessen des einzelnen Landes liegt, könnten sich Länder in einem weltweiten Abkommen zu einer sukzessiven Erhöhung ihrer Ausgaben für die Forschung und Entwicklung (F&E) von Energieumwandlungs- und -speichertechnologien verpflichten.23 Mit derartigen F&E-Maßnahmen werden zwar nicht unmittelbar Treibhausgasminderungen erzielt. Über Zeiträume von einigen Jahrzehnten hinweg 23 Weil davon auszugehen ist, dass von den Früchten der F&E-Investitionen zum großen oder gar überwiegenden Teil die investierenden Länder selbst profitieren, sollte das Trittbrettfahrerverhalten in Form von nicht investierenden Ländern geringer sein als bei Aktivitäten zur Treibhausgasvermeidung. Allerdings ist zu konzedieren, dass einzelne Länder deshalb zu wenig in F&E investieren könnten, weil Kosten und Nutzen dieser Investitionen zeitlich weit auseinander fallen können und der eigene Nutzen der F&E-Investitionen nicht korrekt bzw. zu niedrig eingeschätzt wird. Die EU-Klimapolitik: Teuer und ineffektiv 141 können F&E-Investitionen in revolutionäre Technologien nichtsdestotrotz zu sehr hohen Treibhausgasminderungserfolgen führen. Ein Beispiel für eine solche Technologie ist die Kernfusion. Diese stellt eine CO2-freie Technologie zur Stromerzeugung dar, der ein großes Potential attestiert wird, langfristig in großem Umfang zu einer sauberen, versorgungssicheren und gefahrlosen Stromversorgung beizutragen (DPG 2010:122). Im Gegensatz zu Kernkraftwerken würde der Betrieb von Fusionskraftwerken keine radioaktiven Abfälle hinterlassen. Im Erfolgsfall des praktischen Einsatzes, den die Deutsche 142 Physikalische Gesellschaft bei der derzeitigen vergleichsweise geringen Forschungsförderung für die Mitte dieses Jahrhunderts erwartet (DPG 2010:122), könnte die europäische Stromerzeugung bis 2100 allein auf Basis dieser Technologie wohl gänzlich emissionsfrei erfolgen. In Kombination mit den erneuerbaren Energietechnologien sowie mit der Kernkraft könnte so bereits ab der Mitte dieses Jahrhunderts eine weitgehende Dekarbonisierung des Stromerzeugungssektors Realität werden, so wie dies von Deutschland heute bereits angepeilt wird, allerdings allein auf Basis von erneuerbaren Energietechnologien. Das Beispiel des experimentellen Reaktors ITER, dessen Bau in Südfrankreich in weltweiter Zusammenarbeit begonnen wurde, zeigt, dass ein globales Abkommen über Verpflichtungen der Länder zu wachsenden F&E-Anteilen am jeweiligen Bruttoinlandsprodukt im Bereich des Möglichen liegt. Mit einem derartigen Abkommen über Quoten zu F&EFörderausgaben für Energieumwandlungs- und -speichertechnologien können auf lange Sicht negative externe Umwelteffekte verringert, aber auch die typischen positiven Spill-Over-Effekte von F&E-Aktivitäten erzielt werden (Jaffe, Newell, Stavins 2002). Somit haben F&E-Ausgaben eine doppelte Dividende, eine Umwelt- und eine Technologiedividende, die zwar allen Ländern, aber in hohem Maße auch demjenigen Land zugutekommen, das diese Ausgaben finanziert. Im Erfolgsfall einer weitreichenden Diffusion einer Technologie profitieren davon insbesondere diejenigen Unternehmen, die diese Technologien vertreiben. Erfolgsträchtigere Alternativen Darüber hinaus kann ein Land mit einer sukzessiven Steigerung seiner F&E-Ausgabenanteile ein chronisches Manko beseitigen. So fällt die von privaten Marktakteuren finanzierte Forschungsleistung tendenziell zu gering aus (Nelson 1959). Dabei liegt aus volkswirtschaftlicher Sicht ein Zuwenig an Forschung vor, wenn die Ausgaben geringer ausfallen als die daraus zu erwartenden Erträge. Vor allem an der Finanzierung von Grundlagenforschung dürften private Akteure ein sehr geringes Interesse zeigen, da bei dieser die Wahrscheinlichkeit für die unmittelbare marktwirtschaftliche Nutzung von Forschungserfolgen relativ klein ist und die Erfolge in der Regel allen zugutekommen. In diesem Falle von Marktversagen ist es Aufgabe des Staates, die Forschungs- und Technologieförderung voranzutreiben. Die staatliche Forschungs- und Technologieförderung sollte allerdings ungezielt betrieben werden, da die Politik die zukünftig erfolgreichen Technologien nicht Jahrzehnte im Voraus identifizieren kann (Karl, Wink 2006:275-276). Von Hayek (1978) führt dies vor allem auf das Informationsdefizit des Staates zurück, der in der Regel nicht über die notwendigen Informationen verfügt. Demnach sollte der Staat viele verschiedene Technologien gleichermaßen fördern, nicht zuletzt auch deshalb, weil eine Bevorzugung einer Technologie, etwa aus industriepolitischen Motiven, zugleich immer auch eine Diskriminierung anderer technologischer Entwicklungen bedeutet (Kronberger Kreis 2009:34). Mit der höchst privilegierten EEG-Förderung der Photovoltaik, die in Deutschland mit Abermilliarden Euro in exorbitantem Ausmaße gefördert wird, geschieht indessen das Gegenteil: Der Staat maßt sich mit der drastischen Überförderung der Photovoltaik nicht vorhandenes Wissen an. Die Photovoltaik erhält im Vergleich zum damit erzielten Stromoutput mit Abstand die meisten Subventionen (Frondel, Ritter, Schmidt, Vance 2010a:116): Für alle zwischen 2000 und 2010 in Deutschland installierten Photovoltaikmodule belaufen sich die Nettokosten real auf rund 81,5 Mrd. Euro (Frondel, Ritter, aus dem Moore, Schmidt 2011)). Die EU-Klimapolitik: Teuer und ineffektiv 143 Mit ihrer Erneuerbaren-Politik verstößt auch die Kommission gegen das Prinzip der Technologieoffenheit einer guten F&E-Förderung in eklatanter Weise. Mittels symbolischer Ziele, deren Zielwerte nicht das Resultat rationaler Optimierungsüberlegungen sind, sondern offenkundig mit dem Zieljahr zusammenhängen, wie dies etwa beim 20-%-Anteil der Erneuerbaren für das Jahr 2020 der Fall ist, soll der Ausbau der erneuerbaren Energietechnologien vorangetrieben werden, obwohl diese Privilegierung der Erneuerbaren bei einer Koexistenz mit dem Emissionshandel nicht durch die Beseitigung negativer 144 externer Klimaschutzeffekte gerechtfertigt werden kann. Wenn die Kommission mit ihrem Erneuerbaren-Ziel für 2020 eine Technologieförderung im Sinn hat, so sollte außerdem die Wahl des Förderinstruments nicht den Mitgliedsländern überlassen bleiben. Besonders ineffektiv ist diesbezüglich das in Deutschland verwendete Einspeisevergütungssystem, bei dem die Forschung und Entwicklung (F&E) lediglich auf indirekte Art gefördert wird. In Deutschland hat dies in der Praxis nicht zu hohen Forschungsaufwendungen der durch das EEG begünstigten Unternehmen geführt: Obwohl sich die EEG-Vergütungen zwischen 2000 und 2009 mehr als verzehnfacht haben und von etwa 0,9 auf rund 10 Mrd. Euro gestiegen sind (BDEW 2001, 2009), waren die Ausgaben der Privatwirtschaft für die Energieforschung in Deutschland allgemein rückläufig. Investierte die Wirtschaft im Jahr 1991 noch etwa 503 Mio. Euro in die Energieforschung, so waren es im Jahr 2007 nur noch 139 Mio. Euro (BMWi 2010). Im Vergleich zu den Vergütungen für erneuerbare Energien von 7,6 Mrd. Euro im Jahr 2007 sind 139 Mio. Euro ein geringer Betrag, welcher nicht einmal der Erforschung regenerativer Technologien allein diente, sondern der Forschungsförderung sämtlicher Energietechnologien. Dass die Ausgaben für Forschung und Entwicklung im Bereich erneuerbare Energien sowohl in absoluter Höhe wie auch in Relation zu den erzielten Umsätzen gering ausfallen, wird durch Zahlen zu den Erfolgsträchtigere Alternativen Forschungsausgaben von Photovoltaikunternehmen bestätigt. Die beiden größten deutschen Solarunternehmen, Q-Cells und Solarworld, gaben im Jahr 2009 mit 26,5 Mio. Euro bzw. 12,0 Mio. Euro lediglich rund 1,2% bzw. 3,3% ihres Umsatzes für Forschung aus (Breyer 2010). Damit liegen diese noch vergleichsweise jungen Unternehmen weit hinter den F&E-Ausgaben traditioneller Firmen zurück. Siemens etwa investierte im Jahr 2008 mit 3,8 Mrd. Euro etwa 4,9% des Umsatzes in Forschung und Entwicklung, während Unternehmen aus dem Gesundheitsbereich üblicherweise sehr hohe Forschungsausgaben tätigen. So investierte Roche 5,6 Mrd. Euro bzw. bis zu 19,4% ihres Umsatzes des Jahres 2008 in F&E (Booz & Company 2009). Auch die Deutsche Physikalische Gesellschaft kritisiert in ihrer Studie vom Juni 2010, dass trotz des massiv über das EEG unterstützten Marktes die F&E-Intensität der Photovoltaikindustrie in den vergangenen Jahren von 2 % auf unter 1,5 % des Umsatzes gesunken ist, wohingegen forschungsintensive Unternehmen wie große Pharmaunternehmen eine Forschungsintensität von 15 – 20 % aufweisen; Firmen der Computerbranche wie Intel oder Microsoft haben entsprechende F&E-Quoten von 15,2 % bzw. 13,8%. Zudem konzentrierten sich die geringen F&E-Aktivitäten der Solarbranche vorwiegend auf fertigungsnahe Aspekte (DPG 2010:102). Anstatt zur Technologieförderung, zu der die Finanzierung von Prototypen genügt (Kronberger Kreis 2009:34), wurden die Fördergelder für Erneuerbare folglich in weit überwiegendem Maße zur flächendeckenden Verbreitung von Anlagen benutzt. Von der so geförderten Verbreitung von Anlagen profitieren neben den heimischen auch ausländische Unternehmen. So stieg das 2001 gegründete chinesische Unternehmen Suntech Power vor allem aufgrund der deutschen Einspeisevergütungen in die Weltspitze der Photovoltaikmodulhersteller auf, während es in China bislang keine nennenswerte Förderung gab. Einspeisevergütungssysteme wie das EEG verschaffen der Konkurrenz offenkundig genau dieselben Chancen auf technolo- Die EU-Klimapolitik: Teuer und ineffektiv 145 gische Entwicklung und Export wie den heimischen Unternehmen. Wenngleich dies unter Wohlfahrtsgesichtspunkten nicht negativ bewertet werden muss, entspricht dies nicht unbedingt der Zielsetzung der Förderung. Um die Wettbewerbsfähigkeit seiner Unternehmen zu verbessern, wäre folglich jeder Staat gut beraten, wenn er direkt auf F&E-Förderung setzen würde, anstatt auf die gießkannenartige und indirekte Förderung mittels Einspeisevergütungen, von der ausländische Unternehmen ebenso profitieren können und die nicht notwendigerweise 146 zu hohen Forschungsaufwendungen privater Unternehmen führen. Entscheidend für die Erlangung tatsächlicher Wettbewerbsvorteile ist, dass gezielte Anreize geboten werden, die zur Entwicklung besserer Technologien führen. In dieser Hinsicht versagt ein Einspeisevergütungssystem nahezu auf ganzer Linie, da es die Anreize für Innovationen weitgehend dadurch erstickt, dass jede Technologie Subventionen entsprechend ihres Wettbewerbsdefizits erhält.24 Die Internationale Energieagentur (IEA 2007:74,77) schlägt daher in ihrem Länderbericht zur Energiepolitik Deutschlands vor, andere 24 Auch mit dem immer wieder angeführten Argument des First-Mover-Vorteils von Ländern, die im weltweiten Markt frühzeitig Fuß fassen und sich so vermeintlich langfristige Vorteile verschaffen könnten, ist es nicht weit her. Dass dieses Argument wenig haltbar ist, zeigt aktuell das Beispiel Deutschlands, das die Photovoltaiktechnologie nun seit einer Dekade mittels Einspeisevergütungen fördert − seit 2005 in extrem steigendem Maße − und dennoch zunehmend mit der Dominanz der asiatischen Hersteller − vor allem aus China − auf dem Weltmarkt zu kämpfen hat. Obwohl die chinesischen Firmen sich keiner so exorbitanten nationalen Förderung erfreuen durften wie die deutschen Hersteller, konnten sich diese keinen entscheidenden Vorteil gegenüber den asiatischen Herstellern sichern. Im Gegenteil: Es ist wahrscheinlich, dass die hohen EEG-Vergütungen für Solarstrom eine Mitschuld an den Effizienznachteilen deutscher Unternehmen tragen, da die Anreize zu entsprechenden Effizienzanstrengungen gefehlt haben. Bei dem Argument des First-Mover-Vorteils sollte zudem bedacht werden, dass die Förderung der erneuerbaren Energietechnologien immer auch zu Lasten anderer Sektoren geht, die diese Vorreiterrolle mit zu finanzieren haben. Im Saldo betrachtet sind negative makroökonomische Effekte sehr wahrscheinlich, da produktive, wettbewerbsfähige Sektoren zugunsten der ansonsten nicht wettbewerbsfähigen Erneuerbaren-Branche geschwächt werden. Um ein Bild zu verwenden: Es ist wenig wahrscheinlich, dass Deutschland im ökonomischen Wettlauf um die höchsten Wachstumsraten unter den besten Ländern sein wird, wenn es seine schnellsten Läufer dazu verpflichtet, ihr Tempo zugunsten seiner weniger konkurrenzfähigen Läufer zu drosseln, um diesen als Wasserträger zu dienen. Erfolgsträchtigere Alternativen Instrumente als Einspeisevergütungen zur Förderung der Photovoltaik zu benutzen, welche vorwiegend die Forschung und Entwicklung dieser Technologie fördern und nicht deren flächendeckende Verbreitung. Diesem Ratschlag sollte die Kommission folgen und zu einer F&E-Förderung sämtlicher Energieumwandlungs- und -speichertechnologien übergehen, anstatt durch die Vorgabe symbolischer Ziele für den Anteil der Erneuerbaren am Energiemix allein die Verbreitung von erneuerbaren Energietechnologienanlagen zu forcieren. Dies verhilft diesen Technologien nicht zu den entscheidenden internationalen Wettbewerbsvorteilen, wie das Negativbeispiel der deutschen Photovoltaikförderung zeigt. Erfolgversprechender sollte ein Weg sein, bei dem die Kommission den Mitgliedsländern zur Energietechnologieförderung F&E-Ausgaben-Quoten in Bezug auf das Bruttoinlandsprodukt (BIP) vorgibt. Damit kann eine sehr viel stärkere Forschungsförderung erfolgen als mit der Vorgabe von Erneuerbaren-Energien-Anteilen. Der Weg der sukzessiven Steigerung der F&E-Ausgabenanteile für Energietechnologien dürfte wegen der damit verbundenen Spill-Over-Effekte gleichzeitig auch umso effektiver für die langfristige Senkung der globalen Treibhausgasemissionen sein, je mehr Nachahmung das Beispiel weltweit findet. Der Weg zu einem globalen Abkommen mit Energieforschungsförderungszielen dürfte dann nicht mehr weit sein. Die EU-Klimapolitik: Teuer und ineffektiv 147 7. Anpassung an die globale Erwärmung Zusätzlich zur Vermeidung von Emissionen gibt es die Möglichkeit, den Folgen der Klimaerwärmung durch Anpassung zu begegnen. Bestehen die Folgen etwa in einer Zunahme der Häufigkeit und Intensität von Stürmen, wofür es bislang allerdings keinen wissenschaftlichen Beweis gibt (Bouwer 2010), kann eine Anpassungsreaktion seitens des Staates in baurechtlichen, städtebaulichen und land- oder forstwirtschaftliche Maßnahmen bestehen. Zu den Anpassungsprozessen können viele andere Maßnahmen gehören, wie die Gewinnung neuer Anbauflächen und Siedlungsgebiete in derzeit noch zu kalten Regionen, falls diese durch die globale Erwärmung weniger unwirtlich werden, Änderungen in der landwirtschaftlichen Produktion, die Umsiedelung der Bevölkerung von Inseln, die durch einen Meeresspiegelanstieg bedroht sind, oder eine Verbesserung der Malariaprävention. Emissionsvermeidung und Anpassung sind selbstverständlich keine Substitute hinsichtlich der Senkung von Emissionen.25 Wohl aber 25 Zwischen der Vermeidungs- und Anpassungsstrategie gibt es einen Zusammenhang, der bisher in der politischen Debatte wie auch in der ökonomischen Literatur wenig Beachtung gefunden hat (Tol 2005): Setzt ein Land verstärkt auf Anpassungsmaßnahmen und reduziert demzufolge seine Minderungsanstrengungen, könnte dies in Umkehrung der Argumentation von Abschnitt 3 dazu führen, dass die übrigen Länder höhere Vermeidungsbemühungen unternehmen und so höhere Kosten übernehmen. >> |Fortsetzung der Fußnote am nächsten Seitenende| Die EU-Klimapolitik: Teuer und ineffektiv 149 sind beide Strategien substitutiv, wenn es darum geht, die Folgekosten der globalen Erwärmung zu minimieren. Denn man kann die Folgekosten entweder dadurch verringern, dass man weniger CO2 emittiert oder dass man sich auf die mit dem CO2-Ausstoß verbundenen Folgen besser einstellt (Beirat BMF 2010:26). Die Anpassungsstrategie wurde bereits zu Beginn der Klimadebatte von Autoren wie William Nordhaus (1994) sehr ernsthaft diskutiert. Wenngleich diese Strategie in der aktuellen Klimadebatte etwas im Hintergrund steht, hat Deutschland erste wichtige Schritte in Rich150 tung einer umfassenderen Anpassungsstrategie übernommen (Beirat BMF 2010:25). So wurden in der im Dezember 2008 beschlossenen „Deutschen Anpassungsstrategie an den Klimawandel“ zahlreiche Bereiche wie die Landwirtschaft oder das Gebiet der Gesundheit identifiziert, für die Bund und Länder bis 2011 einen detaillierten Aktionsplan vorlegen sollen. Der Grund ist, dass je nach Anpassungsmaßnahme diese vernünftigerweise auf einer von vielen unterschiedlichen Ebenen angesiedelt sein sollte, entweder auf internationaler, nationaler, Länder-, kommunaler oder gar individueller Ebene. So könnte es allein Sache der Hauseigentümer sein, ihr Wohneigentum durch bauliche Maßnahmen individuell gegen Sturmschäden zu wappnen. Alternativ oder ergänzend könnten entsprechende Versicherungen abgeschlossen werden. Dieses Beispiel zeigt: Bei vielen Anpassungsmaßnahmen kann davon ausgegangen werden, dass die individuellen Anpassungsentscheidungen auch sozial optimal sind und ein Staatseingriff nicht > > Eine solche Strategie kann in Umkehrung der Argumentation von Abschnitt 5 ferner dazu führen, dass sich die Chancen für das Zustandekommen eines weltweiten Klimaabkommens verbessern: „Sollte es auf der Seite der weniger entwickelten und armen Länder unrealistisch hohe oder übertriebene Erwartungen hinsichtlich der tatsächlichen Opferbereitschaft der Industrieländer geben, kann eine sichtbare und konsequent verfolgte Anpassungsstrategie seitens der entwickelten Industrienationen diese Erwartungen korrigieren helfen und so zu einer internationalen Konsensfindung beitragen“ (Beirat BMF 2010:27). Anpassung an die globale Erwärmung notwendig ist, da individuelle und kollektive Kosten-Nutzen-Kalküle übereinstimmen. „Wer sein Haus gegen vermehrt drohende Sturmschäden absichert, berücksichtigt im Wesentlichen alle relevanten Vor- und Nachteile einer solchen Anpassungsmaßnahme. Hier muss und soll der Staat in die individuellen Anpassungsmaßnahmen nicht eingreifen. Lediglich wenn das individuelle vom kollektiven Kosten-Nutzen-Kalkül abweicht, ist der Staat in der Pflicht“ (Beirat BMF 2010:28). Dies ist etwa bei der Erhöhung von Deichen zum Schutz aller Einwohner einer Region vor den Folgen von Stürmen der Fall. Im Vergleich zu Anstrengungen zur Emissionsminderung haben Anpassungsmaßnahmen einige Vorteile. Erstens: Derjenige, der die Kosten der Anpassungsmaßnahme zu tragen hat, wie etwa ein Hausbesitzer, der die Dachbedeckung sturmtauglicher macht, hat den alleinigen oder zumindest den überwiegenden Nutzen davon. Im Gegensatz dazu trägt derjenige, der Minderungsmaßnahmen durchführt, die vollen Kosten dafür, profitiert aber, wenn überhaupt, nur geringfügig davon, während der Hauptnutzen auf alle diejenigen entfällt, die unter der globalen Erwärmung etwas weniger zu leiden haben, falls diese Maßnahme sich als effektiv erweist. Es gibt daher ein Übergewicht an potentiellen Nutznießern von Minderungsmaßnahmen, während nur einige wenige die Kosten dafür zu tragen haben. Der Anreiz zu Minderungsanstrengungen dürfte demnach ungleich geringer sein als zur Durchführung von Anpassungsmaßnahmen. Das fundamentale Dilemma des Trittbrettfahrerverhaltens, das die Chancen auf eine effektive Verringerung der globalen Treibhausgase gegen Null gehen lässt, tritt folglich bei einer Strategie, die auf Anpassungsmaßnahmen setzt, nicht auf. Zweitens: Bei Minderungsanstrengungen gibt es eine große zeitliche Divergenz von Kosten und potentiellem Nutzen: Während der Nutzen dieser Maßnahmen sich erst sehr viel später zeigen wird, möglicherweise erst in Jahrzehnten, fallen die Kosten dafür unmittelbar Die EU-Klimapolitik: Teuer und ineffektiv 151 an, wenn sie heute ergriffen werden. Es ist eine höchst strittige gesellschaftliche Frage der Diskontierung, wie ein erst Jahrzehnte später anfallender Nutzen im Vergleich zu dem bereits heute anfallenden Kostenaufwand zu bewerten ist (Nordhaus 2007, Weitzman 2007, Stern 2007). Ökonomisch zweifelsfrei ist lediglich, dass Aufwendungen von einer Milliarde Euro für Treibhausgasreduktionen heute höhere Kosten darstellen als eine Milliarde Euro für Anpassungsmaßnahmen in 20 Jahren. Bei Anpassungsnahmen ist die zeitliche Diskrepanz zwischen Kos152 ten und Nutzen in der Regel weit geringer. So wird man Maßnahmen zur Erhöhung von Deichen erst dann treffen, wenn absehbar ist, dass bei einem weiteren Meeresspiegelanstieg die bestehende Deichhöhe eventuell nicht mehr ausreicht. Ein wichtiger Vorteil der Anpassungsstrategie ist folglich, dass kein jahrzehntelanger Vorlauf benötigt wird, wie bei der Vermeidungspolitik (Beirat BMF 2010:30). Vielmehr können Anpassungsmaßnahmen relativ zeitnah und als Reaktion auf sich in ihrem Umfang vergleichsweise klar abzeichnende Umweltveränderungen ergriffen werden. Drittens: Der Umfang der mit der globalen Erwärmung einhergehenden Schäden ist gegenwärtig noch mit einer sehr hohen Unsicherheit behaftet. Wegen der potentiell irreversiblen Folgen des CO2Ausstoßes müsste die Politik im Prinzip möglichst früh reagieren und Maßnahmen zur Senkung der CO2-Emissionen ergreifen. Denn: Lässt man ein zu hohes Emissionsniveau zu, wobei derzeit höchst unklar ist, was zu hoch bedeutet, könnten eventuelle gravierende Folgeschäden nicht mehr vermieden werden. Daher könnte die Politik geneigt sein, frühzeitig relativ hohe Vermeidungsanstrengungen zu unternehmen. Dies könnte sich als Fehler herausstellen, wenn die Folgeschäden weitaus kleiner als erwartet ausfielen. Zu warten, bis sich die Unsicherheit über die Folgeschäden reduziert hat, wäre in diesem Fall kostensparend gewesen. Aus Sicht der Politik könnte es sich folglich lohnen, klimapolitische Maßnahmen in die Zukunft zu verschieben, Anpassung an die globale Erwärmung falls die Unsicherheit über die Folgeschäden durch weitere Forschung nach und nach verringert werden könnte. Diese Strategie des Abwartens könnte die Gesellschaft aber im schlimmsten Fall teuer zu stehen kommen. Ein Ausweg aus diesem Dilemma stellt die Anpassungsstrategie dar, die es zumindest teilweise gestattet, die Kosten sparende Option zu ergreifen, mit Gegenmaßnahmen zu warten, da man durch Anpassungsmaßnahmen schwerwiegende Folgen auch noch in Zukunft verringern kann (Beirat BMF 2010:29). Diese Option spart deshalb Kosten, weil sie der Politik erlaubt, heute auf teure Vermeidungsmaßnahmen zu verzichten, um im Eventualfall hohe künftige Folgeschäden durch entsprechend umfangreiche Anpassungsmaßnahmen zu bekämpfen. Viertens: Es besteht in der Wissenschaft Einigkeit darüber, dass die globale Erwärmung Verlierer, aber auch Gewinner hervorbringt (Tol 2010). Anpassungsmaßnahmen werden indessen nur diejenigen ergreifen, die von der globalen Erwärmung negativ betroffen sind. Denjenigen Regionen, die von der globalen Erwärmung profitieren, bleiben bei einer Anpassungsstrategie die Vorteile erhalten. Im Gegensatz dazu werden durch Minderungsanstrengungen eventuell die negativen, aber auch die positiven Auswirkungen einer globalen Erwärmung verringert. Während es nichtsdestoweniger unklar ist, ob es am Ende nicht wesentlich teurer kommt, allein auf Anpassungsmaßnahmen zu setzen, als im Falle, dass ausschließlich Anstrengungen zur Emissionsminderung ergriffen werden, würde sich die reine Anpassungsstrategie letztlich in zwei Fällen als überlegen erweisen: Falls es sich herausstellen sollte, dass Treibhausgase und die anthropogene Beeinflussung ihrer Konzentration in der Atmosphäre entgegen den jetzigen, nicht gesicherten Erkenntnissen nur einen geringfügigen Einfluss auf die globale Erwärmung haben und diese weitgehend durch nicht-anthropogene Ursachen gesteuert wird, könnte es zum einen sein, dass es zu weit geringeren Auswirkungen auf das Klima kommt, als die heutigen Kli- Die EU-Klimapolitik: Teuer und ineffektiv 153 mamodelle vorhersagen. In diesem Falle würden kaum oder gar keine Anpassungsmaßnahmen erforderlich sein und die Kosten dafür entsprechend gering sein oder gar nicht anfallen. Zum anderen könnten die nicht-anthropogenen Ursachen zu ähnlichen oder gar noch gravierenderen Auswirkungen führen als von den heutigen Klimamodellen vorhergesagt wird. Dann sind Anpassungsmaßnahmen die adäquatere Antwort, wohingegen Minderungsmaßnahmen in diesem Fall weitgehend nutzlos und im ersten Fall sogar überflüssig wären. 154 Anpassung an die globale Erwärmung 8. Zusammenfassung und Schlussfolgerung Klimapolitik ist eindeutig eine ökonomische Angelegenheit: Böhringer et al. (2010) schätzen, dass die Klimapolitik der Kommission die EU-Staaten im Jahr 2020 zwischen 1 und 4 % an Wohlfahrt kosten könnte. Eine gute Klimapolitik orientiert sich grundsätzlich am Prinzip des rationalen Mitteleinsatzes. Demnach sollte ein Ziel wie die Vermeidung der negativen Folgen der globalen Erwärmung mit möglichst geringen volkswirtschaftlichen Kosten umgesetzt werden. In der Regel wird diesem Prinzip am ehesten ein Mix an kosteneffizienten Maßnahmen gerecht, der sich sowohl aus Anstrengungen zur Treibhausgasminderung zusammensetzt, die bis zu einem gewissen Maße durchgeführt werden, als auch aus Maßnahmen zur Anpassung an die globale Erwärmung. Übermäßige Anstrengungen zur Vermeidung von Treibhausgasen sollten sich hingegen als ineffizient erweisen, vor allem, wenn nur ein Teil der bedeutendsten Staaten sich dazu verpflichtet (Nordhaus 2009:51): Kosten-Nutzen-Analysen von Maßnahmen zur Treibhausgassenkung zeigen in der Tat, dass diese lediglich in einem begrenzten Umfang umgesetzt werden sollten (Tol 2010). So argumentiert etwa Nordhaus (1993), dass die optimale Emissionsreduktionsrate gegenüber einem Szenario ohne eine jegliche globale Klimapolitik bei 10 – 15 % liegt. Demnach wäre die Klimapolitik der EU-Kommission nicht optimal, da sie den Staaten der Europäischen Union bis zum Jahr 2020 eine Emissionsreduktion um 20 % gegenüber 1990 als Ziel ge- Die EU-Klimapolitik: Teuer und ineffektiv 155 setzt hat. Falls andere bedeutende Industrieländer sich zu ähnlichen substantiellen Anstrengungen verpflichten, würde die Kommission das Reduktionsziel für das Jahr 2020 sogar auf 30 % erhöhen. Eine solche Vorreiterrolle der Kommission bei Treibhausgasminderungsmaßnahmen wäre indessen nicht nur ineffizient, sie wäre sogar kontraproduktiv: Erstens werden West- bzw. Osteuropa von zahlreichen Studien als die Gewinnerregionen der globalen Erwärmung angesehen (Tol 2010:16). So schätzt Maddison (2003), dass sich als Folge das BIP Westeuropas um 2,5 % erhöhen könnte. 156 Zweitens können die hohen selbst gesetzten Emissionsminderungsziele dazu führen, dass andere Länder in ihren klimapolitischen Anstrengungen nachlassen, statt diese zu erhöhen. Denn: Je mehr die Europäische Union bereit ist zu tun, desto attraktiver wird es für die übrigen Länder, selbst weniger zu vermeiden, da der Grenznutzen der eigenen Anstrengungen mit den Bemühungen der EU sinkt. Eine klimapolitische Vorreiterrolle der EU führt deshalb tendenziell zu hohen Kosten, ohne dass eine entscheidende Reduzierung des globalen Emissionsniveaus sichergestellt werden kann. Drittens können die besonderen Anstrengungen der EU die Chancen für das Zustandekommen eines globalen Abkommens verschlechtern, da die Verringerung des verbleibenden Vorteils aus einem globalen Klimaabkommen dessen Zustandekommen unwahrscheinlicher machen. Klimaabkommen müssen aber darauf gerichtet sein, möglichst alle Länder mit einzuschließen. Teilabkommen zwischen Ländern wie den EU-Mitgliedsstaaten führen hingegen aus denselben Gründen wie besondere Anstrengungen einer Staatengruppe wie der EU zu einem Nachlassen der Anstrengungen der übrigen Länder. Wenn wichtige Länder sich nicht beteiligen, kann es daher sinnvoll sein, auf ein Abkommen zu verzichten, selbst wenn eine Teilgruppe von Ländern sich einig sein sollte (Beirat BMF 2010:16), so wie dies bei den Mitgliedstaaten der Europäischen Union weitgehend der Fall ist. Zusammenfassung und Schlussfolgerung All diese Argumente sprechen gegen einen Alleingang der Europäischen Union, aber keinesfalls gegen Verhandlungen über ein effektives weltweites Abkommen. Für ein globales Abkommen über Treibhausgasrestriktionen stehen die Chancen allerdings denkbar schlecht. So wird sich der weltweit größte Treibhausgasemittent China mit Sicherheit keinerlei Emissionsbeschränkung unterwerfen wollen, wenn diese zulasten der wachsenden Prosperität dieses Landes gehen würde. Zu Recht würde China stattdessen zuerst von denjenigen Ländern ihren substantiellen Tribut verlangen, die in der Vergangenheit vorwiegend für den Anstieg der Treibhausgaskonzentration maßgeblich verantwortlich waren. Mit dem ebenso berechtigten Hinweis auf die geringe Effektivität verweigert der zweitgrößte Emittent, die USA, bereits heute einschneidende Vermeidungsmaßnahmen, falls Schwellenländer wie China oder Indien sich nicht ebenfalls zu Minderungsanstrengungen verpflichten, die den künftigen Anstieg ihrer Emissionen deutlich dämpfen. Einen möglichen Ausweg aus diesem Dilemma besteht in Politik­ alternativen zur Auferlegung von Emissionsrestriktionen (The Hartwell Paper 2010), bei denen die einzelnen Länder in erster Linie selbst von den zu ergreifenden Maßnahmen profitieren und daher ein hohes Eigeninteresse an deren Umsetzung haben. So dürfte ein weltweites Abkommen über eine sukzessive Erhöhung der Ausgaben für die Forschung und Entwicklung (F&E) von Energieumwandlungs- und -speichertechnologien eine realistische Chance auf ein Zustandekommen haben. Damit könnte man zwar nicht unmittelbar, so doch innerhalb einiger Jahrzehnte Treibhausgasminderungen erzielen − möglicherweise in massiver Weise, wie das Beispiel der Fusionstechnologie zeigt. Auch bei Anpassungsmaßnahmen an die globale Erwärmung, wie dem Bau oder der Erhöhung von Deichen, profitieren im Idealfall in erster Linie diejenigen davon, welche die Kosten dafür zu tragen haben. Einer Strategie zur Umsetzung von Anpassungsmaßnahmen kommt eine besonders hohe Bedeutung zu, weil zum einen Anstren- Die EU-Klimapolitik: Teuer und ineffektiv 157 gungen zur Emissionsminderung letztendlich wenig Aussicht auf Erfolg haben dürften und diese Strategie zum anderen zumindest teilweise gestattet, die Kosten sparende Option zu ergreifen, mit Vermeidungsmaßnahmen zu warten und stattdessen auf die F&E-Förderstrategie zu setzen. Denn: Durch Anpassungsmaßnahmen kann man die schwerwiegendsten Folgen auch noch in Zukunft verringern. Diese Option spart deshalb Kosten, weil sie der Politik erlaubt, heute auf teure Vermeidungsmaßnahmen zu verzichten, um im Eventualfall hohe künftige Folgeschäden durch Anpassungsmaßnahmen zu bekämpfen, 158 deren Umfang sich vergleichsweise genau an den sich abzeichnenden Folgen orientieren kann. In dasselbe Horn stößt Goklany (2009:35), der zeigt, dass eine fokussierte Anpassungsstrategie, bei der etwa Malaria direkt bekämpft wird, anstatt mit Vermeidungsmaßnahmen den Klimawandel und somit indirekt die damit verbundene Verbreitung von Malaria mildern zu wollen, bei weitem einen größeren Nutzen haben würde als gar die intensivste Vermeidungsstrategie − und dies zu weitaus geringeren Kosten von lediglich einem Fünftel der Belastungen, die durch die Umsetzung des ineffektiven Kyoto--Protokolls zustande kommen (Goklany 2009:30). Während der Nutzen von Vermeidungsmaßnahmen wegen der Unsicherheit der Wirkungen, die mit dem Klimawandel verbunden sind, ebenfalls höchst ungewiss ist und sich erst nach Jahrzehnten herausstellen wird, gibt es keinen Zweifel, dass fokussierte Anpassungsmaßnahmen zur Bekämpfung sehr drängender aktueller und schwerwiegender Probleme wie Malaria, Hungersnöte und Überschwemmungen ganzer Küstenregionen in kürzester Zeit und mit großer Sicherheit einen weitaus größeren Nutzen stiften (Goklany 2009:25), da diese Geißeln der Menschheit derzeit ungleich höhere Schäden verursachen als der häufig in unzutreffender Weise als höchst gravierend dargestellte Klimawandel. Zusammenfassung und Schlussfolgerung Literatur Álvarez, G.C., Jara, R.M., Julián, J.R.R., Bielsa, J.I.G. (2009): Study of the Effects on Employment of Public Aid to Renewable Energy Sources | Universidad REY Juan Carlos www.juandemariana.org/pdf/090327-employment-public-aid-renewable.pdf BDEW (2001 bis 2009): EEG Jahresabrechnungen, Bundesverband der Energieund Wasserwirtschaft | Berlin Beirat BMF (2010): Klimapolitik zwischen Emissionsvermeidung und Anpassung | Gutachten des Wissenschaftlichen Beirats beim Bundesministerium der Finanzen | Berlin, Januar 2010 BMU (2006): Erneuerbare Energien: Arbeitsplatzeffekte, Wirkungen des Ausbaus erneuerbarer Energien auf den deutschen Arbeitsmarkt | Kurzund Langfassung | Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit | Berlin BMU (2008): Kernelemente der neuen EU-Richtlinie zum Emissionshandel | Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit | Berlin www.bmu.de/files/pdfs/allgemein/application/pdf/hintergrund_ets_ richtilinie.pdf BMWA (2004): Zur Förderung erneuerbarer Energien | Gutachten des Wissenschaftlichen Beirats beim Bundesministerium für Wirtschaft und Arbeit | Berlin | Dokumentation Nr. 534 BMWi (2010): Energiestatistiken | Bundesministerium für Wirtschaft und Technologie | Berlin www.bmwi.de/energie Böhringer, C. (2010): 1990 bis 2010: Eine Bestandsaufnahme von zwei Jahrzehnten europäischer Klimapolitik | Perspektiven der Wirtschaftspolitik 11(s1), S. 56 – 74 Böhringer, C., Rutherford, T. F. (2010): Canada’s Policy Options under the Kyoto Protocol | The World Economy 33, S. 177 – 211 Böhringer, C., Rutherford, T. F. Tol, R.S.J., (2010): The EU 20/20/20 Targets: An Overview of the EMF 22 Assessment | Energy Economics, forthcoming Böhringer, C., Tol, R.S.J., Rutherford, T. F. (2009a): The EU 20/20/20 Targets: An Overview of the EMF 22 Assessment | Energy Economics 31, S. 268 – 273 Die EU-Klimapolitik: Teuer und ineffektiv 159 Böhringer, C., Löschel, A., Moslener, U., Rutherford, T. F. (2009b): EU Climate Policy Up to 2020: An Economic Impact Assessment | Energy Economics 31, S. 295 – 305 Böhringer, C., Hoffmann, T., Lange, A., Löschel, A., Moslener, U. (2005): Assessing Emission Reduction in Europe | An Interactive Simulation Approach | The Energy Journal 26, S. 1 – 22 Böhringer, C., Schwager, R. (2003): Die Ökologische Steuerreform in Deutschland – ein umweltpolitisches Feigenblatt | Perspektiven der Wirtschaftspolitik 4 (2), S. 211 – 222 160 Bonus, H. (1998): Umweltzertifikate | Der steinige Weg zur Marktwirtschaft | Herausgeber des Sonderheftes 9. Zeitschrift für Angewandte Umweltforschung Booz & Company (2009): Profits Down, Spending Steady: The Global Innovation 1000, strategy+business, issue 57, Winter 2009 | Booz & Company Bouwer, L. M. (2010): Have Disaster Losses Increased due to Anthropogenic Climate Change | Bulletin of the American Meteorological Society, forthcoming Breyer, Christian (2010): Global Photovoltaic Diffusion, Regions, Market Segments and Cost, 8. Workshop Student Chapters – GEE, 7. Mai 2010 | Mannheim BSW (2009): Statistics for the German solar power industry (photovoltaics), Mai 2009 | Bundesverband Solarwirtschaft www.bsw-solar.de COM (2008): Annex to the Impact Assessment | Document accompanying the package of implementation measures for EU’s objectives on climate change and renewable energy for 2020 | Commission Staff Working Document, SEC(2008) 85, Vol. II Brüssel, 27.2.2008 Cerina (2010): Weltweite CO2-Emissionen: Länderranking 2009 www.cerina.org/?page_id=366&lang=de Demailly, D., Quirion, P. (2006): CO2-Abatement, Competitiveness, and Leakage in the European Cement Industry under the EU ETS: Grandfathering versus Output-based Allocation | Climate Policy (6), S. 93 – 113 Diekmann, J., Kemfert, C. (2005): Erneuerbare Energien: Weitere Förderung aus Klimaschutzgründen unverzichtbar | Wochenbericht DIW 29, S. 439 – 451 Literatur Energieprognose (2009): Die Entwicklung der Energiemärkte bis 2030 | Gutachten für das Bundesministerium für Wirtschaft und Technologie (BMWi) | bearbeitet von IER, Stuttgart, RWI, Essen, und ZEW, Mannheim Fahl, U. (2006): Optimierter Klimaschutz – CO2-Vermeidungskosten von Maßnahmen im Vergleich, in: N. Metz und U. Brill (Hrsg.) |Abgasund Verbrauchsverringerungen – Auswirkungen auf Luftqualität und Treibhauseffekt | Haus der Technik Fachbuch Bd. 72, expert Verlag | Renningen 2006, S. 73 – 94 Fahl, U., Küster, R., Ellersdorfer, I. (2005): Jobmotor Ökostrom? Beschäftigungseffekte der Förderung von erneuerbaren Energien in Deutschland | Energiewirtschaftliche Tagesfragen 55 (7), S. 476 – 481 Felder, S., Rutherford, T., F. (1993): Unilateral CO2-Reductions and Carbon Leakage – The Consequences of International Trade of International Trade in Oil and Basic Materials | Journal of Environmental Economics and Management 25, S. 162 – 176 Frondel, M., Lohmann, S. (2010): Das Glühbirnendekret der EU – ein unnötiges Verbot | Zeitschrift für Energiewirtschaft, Ausgabe 4/2010, S. 247 – 253 Frondel, M., Ritter, N. (2010): Deutschlands Art der Förderung erneuerbarer Energien: Nicht zur Nachahmung zu empfehlen | Zeitschrift für Umweltpolitik & Umweltrecht, S. 261 – 283 Frondel, M., Ritter, N., aus dem Moore, N. Schmidt, C.M., (2011): Die Kosten des Klimaschutzes am Beispiel der Strompreise für private Haushalte | Zeitschrift für Energiewirtschaft 35(3), erscheint Frondel, M., Ritter, N., Schmidt, C.M., Vance, C. (2010a): Die ökonomischen Wirkungen der Förderung Erneuerbarer Energien: Erfahrungen aus Deutschland | Zeitschrift für Wirtschaftspolitik, 59 (2), S. 107 – 133 Frondel, M., Ritter, N., Schmidt, C. M., Vance, C. (2010b): Economic Impacts from the Promotion of Renewable Energy Technologies: The German Experience | Energy Policy 38, S. 4048 – 4056 Frondel, M., Ritter, N., Schmidt, C. M. (2008): Photovoltaik: Wo viel Licht ist, ist auch viel Schatten | List Forum für Wirtschafts- und Finanzpolitik, 34 (1), S. 28 – 44 Frondel, M., Schmidt, C.M. (2008): Benötigt die EU Nachhilfe in Regressionsrechnung? Eine statistische Analyse des Vorschlags der EUKommission zur Begrenzung der CO2-Emissionen von Pkw | AStA Wirtschaftsund Sozialstatistisches Archiv 2 (4), S. 329 – 341 Die EU-Klimapolitik: Teuer und ineffektiv 161 Frondel, M., Schmidt, C.M. (2009): Die Begrenzung der CO2-Emissionen von Pkw: Ein wohlkonzipierter Beschluss der EU-Kommission? Jahrbuch für Wirtschaftswissenschaften 59, S. 177 – 191 Frondel, M., Schmidt, C.M., Vance, C. (2010): A Regression on Climate Policy: The European Commission’s Legislation to Reduce CO2 Emissions from Automobiles | Transportation Research Part A: Policy and Practice, forthcoming Gagelmann, F., Frondel, M. (2005): The Impact of Emissions Trading on Innovation – Science Fiction or Reality? | European Environment, 15, S. 203 – 211 162 Graichen, P., Requate, T. (2005): Der steinige Weg von der Theorie in die Praxis des Emissionshandels: Die EU-Richtlinie zum CO2-Emissionshandel und ihre nationale Umsetzung | Perspektiven der Wirtschaftspolitik 6 (1), S. 41 – 56 Goklany, I. M. (2009): Addressing Climate Change in the Context of Other Problems: A Plea for Realism over Ideology | Occasional Paper 78 | Liberal Institute, Friedrich-Naumann-Stftung für die Freiheit | This paper is based on ‘Discounting the Future’ | Regulation, Spring 2009, S. 36 – 40, and Goklany, I. M. (2009) ‘Is Climate Change the Defining Challenge of Our Age?’ | Energy & Environment 20 (3), S. 279 – 302 Häder, M. (2010): Klimaschutzpolitik in Deutschland − eine ökonomische Konsistenzanalyse der Rahmenbedingungen für den Strommarkt | Zeitschrift für Energiewirtschaft 43 (1), S. 11 – 19 Hardin, G. (1968): The Tragedy of Commons | Science 162, S. 1243 – 1248 The Hartwell Paper (2010): A new direction for climate policy after the crash of 2009 | Institute for Science, Innovation, and Society, University of Oxford, and London School of Economics (LSE) http://eprints.lse.ac.uk/27939 Hayek, F.A. von (1978): The errors of constructivism, in F.A.v. Hayek (Ed.) | New Studies in Philosophy, Politics, Economics and the History of Ideas | London Hentrich, S., Matschoss, P. (2006): Emissionshandel in Deutschland – Klimaschutz im Schatten von Lobbyismus und Industriepolitik | Energiewirtschaftliche Tagesfragen, 56. Jahrgang, Heft 10, S. 50 – 53 Hillebrand, B., H.-G. Buttermann, M. Bleuel und J.- M. Behringer (2006): The Expansion of Renewable Energies and Employment Effects in Germany | Energy Policy 34 (18), S. 3484 – 3494 Literatur Hoel, M. (1991): Global Environmental Problems: The Effect of Unilateral Actions Taken by One Country | Journal of Environmental Economics and Management 20, S. 55 – 70 IEA (2007): Energy Policies of IEA Countries: Germany, 2007 Review | Internationale Energie Agentur, OECD | Paris IPCC (2008): Climate Change 2007: Synthesis Report | Intergovernmental Panel of Climate Change | Geneva IPCC (2010): Special Report on Emissions Scenarios | Intergovernmental Panel on Climate Change | Geneva www.grida.no/publications/other/ipcc_sr/?src=/climate/ipcc/emission IWH (2004): Beschäftigungseffekte durch den Ausbau erneuerbarer Energien | Steffen Hentrich, Jürgen Wiemers, Joachim Ragnitz | Sonderheft 1/2004 | Institut für Wirtschaftsforschung Halle | Halle Jaffe, A. B., Newell, R. G., Stavins, R. N. (2002): Environmental Policy and Technological Change | Environmental and Resource Economics 22, S. 41 – 69 Karl, H., Wink, R. (2006): Innovation Policy and Federalism: the German experience, International Journal of Foresight and Innovation Policy, 2 (3/4), S. 265 – 284. Kemfert, C., Diekmann, J. (2009): Förderung erneuerbarer Energien und Emissionshandel − wir brauchen beides | Wochenbericht DIW 11, S. 169 – 174 Kronberger Kreis (2009): Für einen wirksamen Klimaschutz | Band 49 der Schriftenreihe der Stiftung Marktwirtschaft | Der Kronberger Kreis ist der Wissenschaftliche Beirat der Stiftung Marktwirtschaft. Ihm gehören Juergen B. Donges, Johann Eekhoff, Lars P. Feld, Werner Möschel und Manfred J. M. Neumann an. Lüdecke, H.-J. (2008): CO2 und Klimaschutz – Fakten, Irrtümer, Politik | 2. Auflage | Bouvier Maddison, D.J. (2003): The Amenity Value of the Climate: The Household Production Function Approach | Resource and Energy Economics 25, S. 155 – 175 Mennel, T., Sturm, B. (2009): Energieeffizienz – eine neue Aufgabe staatlicher Regulierung? | Zeitschrift für Wirtschaftspolitik 58 (1), S. 3 – 35 Michaels, R., Murphy, R. P. (2009): Green Jobs: Fact or Fiction? | Institute for Energy Research, January 2009 | Washington DC Die EU-Klimapolitik: Teuer und ineffektiv 163 Morris, A. P., Bogart, W. T., Dorchak, A., Meiners, R. E. (2009): 7 Myths about Green Jobs | PERC POLICY SERIES, No. 44 | Montana Morthorst, P. (2003): National environmental targets and international emission reduction instruments | Energy Policy 31 (1), S. 73 – 83 Nelson, R. R. (1959): The Simple Economics of Basic Scientific Research | The Journal of Political Economy 67 (3), S. 297 – 306 Nordhaus, W. D. (2009): The Impact of Treaty Nonparticipation on the Costs of Slowing Global Warming | Special Edition 2009: Climate Change Policies after 2012 | The Energy Journal 30 (Special Issue 2), S. 39 – 51 164 Nordhaus, W. D. (2007): A Review of the Stern Review on the Economics of Climate Change | Journal of Economic Perspectives XLV, S. 686–702 Nordhaus, W. D. (1994): Managing the Global Commons: The Economics of Climate Change | MIT-Press, Cambridge, MA Nordhaus, W. D. (1993): Rolling the ‘DICE’: An Optimal Transition Path for Controlling Greenhouse Gases | Resource and Energy Economics 15, S. 27 – 50 Oliveira-Martins, J., Burniaux, H.M., Martin, J.P. (1992): Trade and the Effectiveness of Unilateral CO2-Abatement Policies: Evidence from GREEN, OECD Economic Studies 19 | Paris Pfaffenberger, W. (2006): Wertschöpfung und Beschäftigung durch grüne Energieproduktion? | Energiewirtschaftliche Tagesfragen 56 (9), S. 22 – 26 Requate, T. (2010): Klimaschutz: Stand und Perspektiven | Vorwort des Gastherausgebers | Perspektiven der Wirtschaftspolitik 11(s1), S. 1 – 3 RWI (2004): Gesamtwirtschaftliche, sektorale und ökologische Auswirkungen des Erneuerbaren Energien Gesetzes (EEG) | Energiewirtschaftlichen Institut (EWI) der Universität Köln | Institut für Energetik und Umwelt, Leipzig | Rheinisch-Westfälisches Institut für Wirtschaftsforschung (RWI), Essen | Gutachten im Auftrag des Bundesministeriums für Wirtschaft und Arbeit (BMWA) Schiffer, H.-W. (2010): Deutscher Energiemarkt 2009 | Energiewirtschaftliche Tagesfragen, 60. Jahrgang, Heft 3, S. 76 – 88 Sinn, H.-W. (2008): Das grüne Paradoxon: Warum man das Angebot bei der Klimapolitik nicht vergessen darf | Perspektiven der Wirtschaftspolitik 9 (Sonderheft), S. 109 – 142 Literatur Stern, Nicholas (2007): The Economics of Climate Change: The Stern Review | Cambridge University Press | Cambridge and New York Stiglitz, J.E. (2006): A New Agenda for Global Warming | Economists Voice | The Berkely Electronic Press www.bepress.com/ev Traber, T., Kemfert, C. (2009): Impacts of the German Support for Renewable Energy on Electricity Prices, Emissions, and Firms | The Energy Journal, 30(3), S. 155 – 178 Tol, R.S.J. (2010): The Economic Impact of Climate Change | Perspektiven der Wirtschaftspolitik 11(s1), S. 13 – 37 Tol, R.S.J. (2005): Adaptation and Mitigation: Trade-offs in Substance and Methods | Environmental Science & Policy 8, S. 572 – 578 Weimann, J. (2008): Die Klimapolitik-Katastrophe – Deutschland im Dunkel der Energiesparlampe | Metropolis | Marburg Weimann, J. (1994): Umweltökonomik, eine theorieorientierte Einführung, 3. Auflage | Springer Weitzman, M. L. (2007): A Review of The Stern Review on the Economics of Climate Change | Journal of Economic Perspectives XLV, S. 703 – 724 Die EU-Klimapolitik: Teuer und ineffektiv 165 Die Autoren Ross McKitrick Manuel Frondel Die Herausgeber Steffen Hentrich Holger Krahmer Ross McKitrick Ross McKitrick ist Professor der Wirtschaftswissenschaften (Umweltökonomie) an der University of Guelph in Ontario. Außerdem ist er Senior Fellow des Fraser Institute in Vancouver, ein Mitglied des Academic Advisory Boards des John Deutsch Institute in Kingston, Ontario und der Global Warming Policy Foundation in London, Großbritannien. Seine Forschungsinteressen erstrecken sich auf das Modellieren des Verhältnisses zwischen wirtschaftlichem Wachstum und Schadstoffemissionen, das Design von Regulierungsmechanismen sowie auf verschiedene Aspekte der Wissenschaft und der Politik der globalen Erwärmung. Seine Forschungsergebnisse wurden in führenden wissenschaftlichen Zeitschriften veröffentlicht, wie dem Journal of Environmental Economics and Management, Energy Economics, Economic Modeling, dem Canadian Journal of Economics, Empirical Economics, dem Energy Journal sowie Environmental and Resource Economics. Seine physikalischen Forschungsergebnisse erschienen in Zeitschriften wie dem Journal of Geophysical Research, den Geophysical Research Letters, den Atmospheric Science Letters, dem Journal of Non-Equilibrium Thermodynamics and den Proceedings of the National Academy of Sciences. Er ist Autor des Lehrbuchs „Economic Analysis of Environmental Policy” (University of Toronto Press 2010) und veröffentlichte 2002 zusammen mit Christopher Essex von der University of Western Ontario das Buch „Taken by Storm: The Troubled Science, Policy and Politics of Global Warming” (2. überarbeitete Auflage 2008), ausgezeichnet mit dem Donner Prize for the Best Book on Canadian Public Policy. Die Autoren und Herausgeber 169 Manuel Frondel Prof. Dr. Manuel Frondel ist Diplom-Physiker und Diplom-Wirtschaftsingenieur und führt seit 2003 die Forschungsabteilung für Umwelt und Ressourcen des Rheinisch-Westfälischen Instituts für Wirtschaftsforschung (RWI). Seit 2009 ist er Professor für Energieökonomik und 170 angewandte Ökonometrie an der Ruhr-Universität Bochum. Von 2001 bis 2003 war er wissenschaftlicher Mitarbeiter am Zentrum für Europäische Wirtschaftsforschung (ZEW) in Mannheim und Professor in Teilzeit an der Hochschule Heilbronn. Er hat an der wirtschaftswissenschaftlichen Fakultät der Universität Heidelberg promoviert. Seine Forschungsinteressen liegen im Bereich der Umwelt-, Ressourcen- und Energieökonomik. Prof. Frondel hat in führenden Zeitschriften, wie der Review of Economics and Statistics und den Economic Letters, Beiträge veröffentlicht. Die Autoren und Herausgeber Steffen Hentrich Steffen Hentrich ist Referent am Liberalen Institut der FriedrichNaumann-Stiftung für die Freiheit in Potsdam. Nach seinem Studium der Wirtschaftswissenschaften an der Technischen Universität Berlin war er Mitarbeiter am Institut für Wirtschaftsforschung in Halle und arbeitete für mehrere Jahre als wissenschaftlicher Mitarbeiter beim Sachverständigenrat für Umweltfragen. Er hat sich auf Umwelt- und Ressourcenfragen spezialisiert. Die Autoren und Herausgeber 171 Holger Krahmer Holger Krahmer wurde 1970 in Leipzig geboren. Nach der Schulzeit und einer Berufsausbildung zum Instandhaltungsmechaniker begann er 1990 seine berufliche Laufbahn als Bankkaufmann bei der Commerzbank AG. Seit 1993 ist er Mitglied der FDP und seit 2004 Vor172 stand der GANOS Kaffee-Kontor & Rösterei AG in Leipzig. Im Juni 2004 wurde er erstmals in das Europäische Parlament gewählt. Er ist Mitglied des Parlamentsausschusses für Umwelt, Volksgesundheit und Lebensmittelsicherheit und stellvertretendes Mitglied im Ausschuss für Industrie, Forschung und Energie. Als Berichterstatter des Parlaments bzw. der liberal-demokratischen Fraktion ALDE war er federführend an EU-Gesetzgebungen unter anderem zur Luftreinhaltung, zur Minderung von CO2-Emissionen und der Arzneimittelzulassung beteiligt. So arbeitete er an den EU-Richtlinien für Luftqualität, Industrieemissionen, an Luftschadstoffnormen für Pkw, leichte Nutzfahrzeuge sowie schwere Lkw und Busse. Auch an der Richtlinie zur Einbeziehung des Luftverkehrs in den CO2-Emissionshandel und der Verordnung zur Vermeidung von Arzneimittelfälschungen war er federführend beteiligt. Im Jahr 2010 veröffentlichte er die viel diskutierte Schrift „Unbequeme Wahrheiten über die Klimapolitik und ihre wissenschaftlichen Grundlagen“. Die Autoren und Herausgeber Wissenschaftler, Medien und Politiker scheinen sich einig: Der Klimawandel ist Realität und der Mensch ist schuld daran. Es muss etwas geschehen – koste es, was es wolle. Doch der Schein trügt: Noch steckt die Klimaforschung in den Kinderschuhen, kämpft mit ungenauen Daten und einer Natur, die sich auch mit den komplexesten Modellen nicht zufriedenstellend beschreiben lässt. Zukunftsprognosen bleiben Kaffeesatzleserei. Angesichts dieser Unsicherheiten zerbrechen sich die Experten den Kopf, wie dem Problem Herr zu werden ist. Für die einen steht das Klima und damit die Zukunft von Natur und Menschheit auf dem Spiel, die anderen sehen in klimapolitischem Aktionismus eine Gefahr für Wohlstand und Entwicklung. Folglich wird auf dem Basar der internationalen Klimapolitik von der Beschleunigung des grünen Wachstumsmotors bis zum kräftigen Tritt auf die Klimaschutzbremse alles feilgeboten. Kein Wunder, dass die Verhandlungen feststecken. Nur ein Realitätscheck kann die Situation noch retten. Die Wirtschaftswissenschaftler Ross McKitrick und Manuel Frondel decken unangenehme Wahrheiten auf und weisen einen Weg aus der Sackgasse der Klimapolitik. ISBN 978-3-00-036040-4 | Print ISBN 978-3-00-036041-1 | eBook