Realitätscheck für den Klimaschutz - Friedrich-Naumann

Werbung
Realitätscheck
für den
Klimaschutz
Globale Klimapolitik zwischen
Anspruch und Wirklichkeit
Herausgeber
Steffen Hentrich
Holger Krahmer
Realitätscheck für
den Klimaschutz
Realitätscheck für
den Klimaschutz
Globale Klimapolitik zwischen
Anspruch und Wirklichkeit
Eine vernünftige
Klimapolitik
in einer Welt voller
Unsicherheiten
Ross McKitrick
Die EU-Klimapolitik:
Teuer und ineffektiv
Manuel Frondel
Herausgeber
Steffen Hentrich
Holger Krahmer
© 2011
Steffen Hentrich
Die Autoren und Herausgeber
Friedrich-Naumann-Stiftung für die Freiheit
Liberales Institut
Herausgeber
Referent | Senior Research Fellow
Steffen Hentrich
Karl-Marx-Straße 2
Holger Krahmer
14482 Potsdam
Telefon +49 331 7019129
Autoren
[email protected]
Ross McKitrick
www.freiheit.org
Manuel Frondel
Holger Krahmer
Titelgestaltung, Layout, Satz
Mitglied des Europäischen Parlaments
RAUM II
Abgeordnetenbüro ‘krahmerladen’
Agentur für visuelle Kommunikation
Nonnenmühlgasse 1
Christoph Jahn | Frank Ekelmann
04109 Leipzig
www.raum-zwei.com
Telefon +49 341 2535580
[email protected]
Übersetzung aus dem Englischen
www.holger-krahmer.de
Tanja Felder
www.sprachfelder.de
Erste Auflage
Alle Rechte vorbehalten.
Lektorat
Ewald Oetzel
Dieses Werk oder Teile des Werkes dürfen
nicht ohne die schriftliche Genehmigung der
Druck
Herausgeber vervielfältigt, in Datenbanken
Förster & Borries GmbH & Co. KG
gespeichert oder in irgendeiner Form
www.foebo.de
übertragen werden.
Papier
ISBN 978-3-00-036040-4 | Print
Inhalt: Profibulk 1.3, 115 g/m²
ISBN 978-3-00-03604 1- 1 | eBook
Bezug: Profisilk, 140 g/m²
Printed in Germany
Inhalt
Vorwort
7
Eine vernünftige globale Klimapolitik
in einer Welt voller Unsicherheiten
13
Ross McKitrick
1.Einleitung
15
2. Theoretische Grundlagen der Klimapolitik
3. Unsicherheit bezüglich des Grenzschadens
4. Die Berücksichtigung neuer Erkenntnisse
Literatur
47
79
bei der Gestaltung künftiger Emissionspreise
5. Schlussfolgerungen
29
91
95
Die EU-Klimapolitik: Teuer und ineffektiv
103
Manuel Frondel
1.Einleitung
105
2. Der geringe Effekt der
109
Treibhausgasminderungspolitik der EU
119
3. Kontraproduktive internationale Rückwirkungen
4. Mangelnde Kosteneffizienz der
5. Schlechte Chancen für ein globales
123
Treibhausgasminderungspolitik der EU
135
Klimaabkommen zur Treibhausgasminderung
6. Erfolgsträchtigere Alternativen
141
7. Anpassung an die globale Erwärmung
Literatur
155
159
Die Autoren und Herausgeber
149
8. Zusammenfassung und Schlussfolgerung
167
Vorwort
Steffen Hentrich | Holger Krahmer
Die derzeitige klimapolitische Diskussion geht von der Prämisse aus,
dass die wissenschaftlichen Erkenntnisse über das globale Klima und
den darauf wirkenden Einfluss des Menschen hinreichend sind, um daraus schon heute klare Handlungsempfehlungen für eine langfristige
Klimapolitik ableiten zu können. Ebenso vorherrschend ist der Glaube,
dass internationale Abkommen möglich und derzeit praktizierte und
geplante Klimaschutzmaßnahmen wirksam sind. Bei näherer Betrachtung wird jedoch die Realitätsferne dieser Annahmen offensichtlich.
Tatsächlich gehen die Einschätzungen über die Validität der herrschenden wissenschaftlichen Lehre über die Ursachen und das Ausmaß des
Klimawandels unter den Experten der unterschiedlichsten wissenschaftlichen Disziplinen weit auseinander. Um Klimamodelle und Klimadaten gibt es einen intensiven wissenschaftlichen Disput.
Doch nicht nur die naturwissenschaftliche Dimension des Klimawandels ist heiß umstritten, sondern auch die Frage nach einer angemessenen Reaktion auf die globalen Klimaveränderungen und die geeignete Implementierung klimapolitischer Maßnahmen. Obwohl sich
Klimawissenschaftler ebenso wie Umweltpolitiker der herrschenden
Unsicherheiten bewusst sein sollten, werden die damit verbundenen
Herausforderungen für die menschliche Handlungsfähigkeit in der
internationalen Klimapolitikarena selten zugegeben. Hinter dieser
Kulisse der Sicherheit sind die unterschiedlichsten Interessengruppen
schon längst dabei, die Löcher der wissenschaftlichen Erkenntnis mit
Vorwort
7
den notwendigen Zutaten für die Durchsetzung ihrer eigenen Interessen zu stopfen. Kein Wunder, dass es dem Sammelsurium der derzeitig praktizierten Klimaschutzinstrumente an Effektivität und Effizienz
fehlt. Selbst in der heilen Welt des Klimakonsenses kommt man nicht
umhin, die Risse in der Fassade der wackligen Konstruktion internationaler Vereinbarungen anzuerkennen. Wo politische Entscheidungslogik, Lobbyismus und der Glaube an eine ökologisch motivierte Wirtschaftslenkung geprägte Ideologie regiert, ist wenig Platz für Rationalität und wirtschaftliche Freiheit.
8
Rationale Klimapolitik muss sich der Herausforderung der naturwissenschaftlichen und sozioökonomischen Unsicherheiten stellen,
nicht nur um den derzeitigen Stillstand der internationalen Klimaverhandlungen zu beenden. Der Wohlstand der Menschen in der entwickelten Welt steht ebenso auf dem Spiel wie die Entwicklungsoptionen in den ärmsten Regionen unseres Planeten. Unter den gegebenen
technologischen Bedingungen ist die künstliche Verknappung von
reichlich vorhandenen und kostengünstig nutzbaren fossilen Energieträgern ein nicht zu unterschätzendes Hemmnis für Produktivitätsfortschritte, die notwendig sind, Millionen Menschen auf der Erde angemessen zu ernähren sowie menschenwürdige Lebensbedingungen
und realistische Entwicklungschancen zu ermöglichen. Wir wissen bis
heute nicht, ob eine Konzentration auf die Vermeidung von Treibhausgasemissionen in der Klimapolitik ein wirksamer Weg zur Verhinderung der befürchteten Folgen eines globalen Klimawandels ist. Unter
den Bedingungen ungenauer Kenntnis der Zusammenhänge zwischen
klimatischen Veränderungen und wirtschaftlichen Aktivitäten und
den hohen Unsicherheiten über die Dynamik der wirtschaftlichen Entwicklung ist ein verantwortlicher Umgang mit knappen Ressourcen
unumgänglich, will eine Gesellschaft Hemmnisse für ihre zukünftigen
Entwicklung möglichst gering halten. Mehr Wohlstand und weniger
Umweltverschmutzung sind gemeinsam nur zu erreichen, wenn wir
mit den uns zur Verfügung stehenden Mitteln so effizient wie möglich
Steffen Hentrich | Holger Krahmer
umgehen. Wenn nicht, riskieren wir wertvolle Entwicklungsoptionen
für die heute lebenden Menschen und zukünftige Generationen.
Doch nicht nur die sozioökonomischen Folgen des herrschenden
klimapolitischen Paradigmas geben Anlass zur Sorge, auch die im
Namen des Klimaschutzes immer stärker um sich greifende Erosion
bürgerlicher Freiheiten ist alarmierend. Grundlegende Menschenrechte stehen ebenso auf dem Spiel wie Entwicklung und Fortschritt.
Auch aus diesem Grund ist eine flexiblere und effiziente Klimapolitik unumgänglich, eine Klimapolitik, die sich statt an starren Zielen
am sich wandelnden Wissen orientiert und sich auf Maßnahmen beschränkt, die nachweislich die Belastungen für die Bürger minimieren. Das bedeutet eine Kombination eines maßvollen Einsatzes effizienter Instrumente zur Vermeidung von Treibhausgasemissionen
und von Maßnahmen zur Anpassung an den Klimawandel, die mit
einem Minimum an Eingriffen in Märkte und die individuellen Rechte der Bürger auskommen.
Dieses Buch versucht die Lücke zwischen dem Allmachtsanspruch
der Klimapolitik und dem nach menschlichem Ermessen sinnvollen
Beitrag zur Vorsorge in einer Welt unsicherer zukünftiger Entwicklungen zu schließen, offensichtliche Schwächen der Klimapolitik aufzudecken und Alternativen zu beschreiben.
Ross McKitrick analysiert hierzu die wohlfahrtsökonomischen Voraussetzungen der Klimapolitik unter naturwissenschaftlichen und
sozioökonomischen Unsicherheiten, zeigt diese anhand jüngster Ergebnisse der empirischen und modellorientierten Klimaforschung auf
und zieht daraus Schlussfolgerungen für die praktische Klimapolitik.
Kern seiner Empfehlung ist eine Emissionsabgabe, deren Höhe entsprechend einer transparent nachvollziehbaren Entscheidungsregel flexibel
an beobachtbare Temperaturentwicklungen angepasst werden kann.
Ein derartiges Klimaschutzinstrument vermeidet die Gefahr politischer
Überreaktionen oder systematischer Fehleinschätzungen des notwendigen Umfangs von Vermeidungsmaßnahmen und veranlasst die be-
Vorwort
9
troffenen Akteure eigene Prognosen klimatischer Veränderungen ohne
interessengeleitete Manipulation der Ergebnisse zur Verfügung zu stellen. Eine derartige Abgabe zeichnet sich nicht nur durch ökonomische
Vorteile gegenüber der heutigen Mengensteuerung in der Klimapolitik
aus, sondern vermag auch der sich immer weiter verschärfenden Politisierung der Klimawissenschaft entgegenzuwirken.
Manuel Frondel arbeitet sich durch die Defizite der Klimapolitik
der Europäischen Union und zeigt die Ursachen für ihren Mangel an
Wirksamkeit und Effizienz auf. Wirtschaftswissenschaftliche Überle10
gungen und praktische Beobachtungen zeigen dabei eindrucksvoll, welche gefährlichen Folgen der Glaube an eine europäische Vorreiterrolle
in der Klimapolitik haben kann. Klimapolitischer Pragmatismus würde
dahingegen viel stärker auf sich evolutionär entwickelnde Strategien
setzen, die sich auf regional wirksame Anpassungsmaßnahmen und die
Förderung von Forschung und Entwicklung im Bereich emissionsreduzierender Energieumwandlungstechnologien konzentrieren.
Rationale Klimapolitik kann ohne Opfer an Wohlstand und Freiheit auskommen. Doch für den dazu notwendigen Politikwandel ist
eine offene Debatte über Ursachen und Lösungsalternativen der Probleme des Klimawandels unumgänglich. Dieser Herausforderung will
sich dieses Buch stellen.
Steffen Hentrich | Potsdam
Holger Krahmer | Leipzig
Juli 2011
Steffen Hentrich | Holger Krahmer
Mit besonderem Dank der
Herausgeber an die
Friedrich-Naumann-Stiftung
für die Freiheit
Ross McKitrick
Eine vernünftige
Klimapolitik
in einer Welt voller
Unsicherheiten
1.
Einleitung
Zwanzig Jahre Misserfolg
„Wir müssen der unschönen Wahrheit ins Auge blicken und erkennen, dass
der klimapolitische Prozess am Ende ist. 2012 läuft das einzige Abkommen
zur Begrenzung der Treibhausgasemissionen – das Kyoto-Protokoll – aus. Die
Hoffnung auf den Abschluss eines Nachfolgeabkommens vor diesem Zeitpunkt
ist nicht realistisch: Über das bestehende Abkommen wurde fünf lange Jahre
verhandelt; acht weitere gingen ins Land, bevor es schließlich in Kraft trat.
Hinsichtlich einer echten Hoffnung auf globales Handeln gegen den Klimawandel
liegen wir heute weit hinter dem Stand von 1997 oder sogar 1992 zurück. Und
dabei geht es nicht nur darum, dass wir 18 wertvolle Jahre verloren haben. In der
Zeit der guten Absichten und großen Worte haben wir letztlich sogar Rückschritte
gemacht. |...| Wie sollen wir mit der Tatsache umgehen, die wir zu verdrängen
suchten, nämlich dass in 18 Jahren vollmundiger Versprechungen und großer
Töne nichts geschehen ist?“
George Monbiot
Guardian Newspaper | 20. September 2010
In diesem Beitrag geht es um die Gestaltung einer Politik zur Bekämpfung der globalen Erwärmung durch eine Reduzierung von Treibhausgasemissionen (THG), insbesondere Kohlendioxid (CO2). Mit dem Erdgipfel der Vereinten Nationen in Rio de Janeiro im Jahr 1992 erlangte
das Thema große politische Aufmerksamkeit. Doch trotz zwanzig
Jahre intensiver Arbeit, die durch ein annähernd globales Einvernehmen der politischen und gesellschaftlichen Eliten darüber geprägt
war, dass es sich bei der globalen Erwärmung um eine Krise handelt,
die ein unverzügliches und weit reichendes Eingreifen erfordert, so-
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
15
wie wiederholter Äußerungen von Spitzenpolitikern, entschlossen
handeln zu wollen, wurden letztlich kaum kohärente politische Maßnahmen auf den Weg gebracht. Im Gegenteil: Die Staaten scheiterten
mehrfach in dem Versuch, sich auf Abkommen oder andere Koordinierungsmechanismen zu einigen, und auch darüber, was in absehbarer Zukunft getan werden könnte oder sollte, scheint nur wenig Einigkeit zu herrschen.
Dieser Umstand ist meiner Meinung nach im Wesentlichen darauf
zurückzuführen, dass es in der Vergangenheit nicht gelungen ist, die
16
Klimapolitik auf eine ökonomisch vernünftige Grundlage zu stellen.
Ein Großteil der populärsten klimapolitischen Ideen ist aus ökonomischer Sicht nicht durchführbar und alle dahingehenden Bestrebungen
legen letztlich nur das Fundament für ihr späteres Scheitern. Ein zufriedenstellender Fortschritt in der Klimapolitik ist daher nicht absehbar, solange wir uns nicht eingestehen, dass die bestehenden globalen
Initiativen auf tönernen Füßen stehen und eine grundlegend andere
Richtung eingeschlagen wird.
In diesem Beitrag möchte ich zunächst die meines Erachtens
bestehenden vier grundlegenden Mängel der aktuellen Klimapolitik
darlegen: Erstens haben weder die Bürokratie noch die Politik erkannt,
dass es sich bei CO2 um einen Sonderfall handelt, der nicht in eine Reihe mit den vorherrschenden Umweltthemen der 1970er und 1980er
Jahre wie Schwefeldioxid-Emissionen (SO2) und Fluorchlorkohlenwasserstoff-Emissionen (FCKW) gestellt werden kann, zu deren wirksamer
Bekämpfung konventionelle Institutionen ausreichend waren. Die
Verhandlungsmechanismen und politischen Initiativen zur Lösung
dieser Probleme wurden einfach auf die CO2-Problematik übertragen,
ohne für diese jedoch passende Lösungen bieten zu können.
Zweitens ist es der Politik nicht gelungen, mit dem Anstieg der in
der Ökonomie als Grenzvermeidungskostenkurve (GVK) bezeichneten
Kostenfunktion der Klimapolitik angemessen umzugehen, d. h. zu verstehen, in welchem Maße die Kosten für die Optionen zur Vermeidung
Einleitung
von CO2 bei Ausweitung der Ziele zur Emissionsreduzierung steigen.
Das führt dazu, dass politische Ziele verfolgt werden, die höhere Kosten verursachen, als die Öffentlichkeit zu akzeptieren bereit ist. Einige
Verfechter dieses politischen Vorgehens versuchten zu zeigen, dass die
Politik zur Reduzierung von Treibhausgasen ökonomische Vorteile mit
sich bringen kann. Tatsächlich fußt ein Großteil der Rhetorik der jüngsten Vergangenheit in Bezug auf eine „grüne Ökonomie“ auf dieser irrigen Behauptung. In Wahrheit verhält es sich jedoch so, dass politische
Maßnahmen, die ausreichen würden, um die allgemein vorgebrachten
Ziele zur Emissionsreduzierung zu erreichen, mit den aktuell existierenden Technologien deutlich höhere Kosten verursachen würden, als
die Öffentlichkeit zu tragen bereit ist, und auch deutlich höhere Kosten, als die Politiker, die diesen Weg verfechten, sich vor Augen zu führen scheinen. Die Art der von der Politik regelmäßig vereinbarten Ziele
entbehrt folglich, angesichts des dabei ausbleibenden Erfolgs, diese zu
erreichen, jeglicher demokratischen Legitimation.
Drittens zeigt eine ökonomische Analyse, dass die Politik zur Reduzierung der Treibhausgase Emissionspreise anstelle von Emissionsgrenzen festsetzen sollte. Die Regulierungsbehörden haben die Wahl,
ob sie einen Preis für Emissionen fixieren und den Markt über die
Menge entscheiden lassen oder ob sie es bevorzugen, ein Emissionsziel
vorzuschreiben und den Markt den Preis bestimmen zu lassen – beides zugleich geht nicht. Aus technischen Gründen wissenschaftlicher
und ökonomischer Natur sind Preismechanismen geeigneter als eine
Strategie zur Regulierung von Treibhausgasen. Alle bis heute durchgeführten größeren globalen Initiativen, einschließlich des Kyoto-Protokolls und ähnlicher Instrumente, legten ihren Schwerpunkt dennoch
auf Mengenbegrenzungen. Eine Begrenzung der Emissionsmengen
oder, noch schlimmer, indirekte regulatorische Maßnahmen zur Veränderung des Energieverbrauchsverhaltens sind kostenintensiv, intrusiv und häufig nutzlos. Eine große Herausforderung, beim Versuch, die
globale Klimapolitik auf eine vernünftige Grundlage zu stellen, liegt
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
17
also darin, die Diskussion auf die Wahl einer Preis- statt einer Mengensteuerung umzulenken. Richtet sich das Augenmerk hingegen weiter
auf Mengenbegrenzungen, steht fest, dass die kommenden zwanzig
Jahre ein ebenso kostenintensiver Misserfolg sein werden wie die vergangenen.
Schließlich ergibt sich für die Politik aus den großen Unsicherheiten, den langen Planungshorizonten sowie der Erwartung, dass in
den kommenden Jahren einschlägige neue Informationen über das
Ausmaß der Umweltschädigung durch Treibhausgasemissionen und
18
die Kosten zu deren Vermeidung vorliegen werden, die Notwendigkeit,
sich primär auf zustandsabhängige (bzw. anpassungsfähige) Preisregelungen anstatt auf starre, langfristige Verpflichtungen zur Emissionsbegrenzung zu konzentrieren.
Ziel dieses Beitrags ist es, die konventionelle Auffassung von der
globalen Klimapolitik grundlegend in Frage zu stellen. Wer sich dem
aktuellen politischen Handlungsrahmen stark verbunden fühlt und
eine solch umfassende Neubewertung ablehnt oder diese für nachteilig erachtet, sollte versuchen, seine Zweifel über Bord zu werfen und
sich offen auf die Argumente einzulassen. Wer sich ernsthaft eine vernünftige und wirksame Klimapolitik wünscht, kann mit den letzten
zwei Jahrzehnten nicht zufrieden sein. Die Zeit ist reif für eine tiefgreifende Neugestaltung.
Emissionsvermeidungspolitik vs. ‘Klimapolitik’
Ich möchte diesen Beitrag ungeachtet des Titels damit beginnen,
zunächst Kritik an dem unpassenden Begriff der „Klimapolitik“ anzubringen, die meines Erachtens besser als Treibhausgas-Emissionsvermeidungspolitik bezeichnet würde. Diese Unterscheidung ist von
großer Bedeutung. Politiker können zwar langfristig betrachtet den
Emissionsverlauf der Wirtschaft beeinflussen; das Klima zu verändern,
ist hingegen niemand in der Lage.
Einleitung
Die diesbezügliche Verwirrung führt bisweilen zu einer eigenartigen Rhetorik. In einer Rede vor dem Toronto Economic Club am
30. Mai 2007 rühmte sich der damalige kalifornische Gouverneur Arnold Schwarzenegger der starken Begrenzung der Treibhausgasemissionen, zu der sich sein Bundesstaat verpflichtet hatte (Erreichen der
Ziele von 1990 bis 2020); er sagte: „Ich bin überzeugt, dass wir das Klima dieses Planeten reparieren können.“ Dieser Ausspruch fand sich
am 31. Mai 2007 auf dem Titel der National Post wieder.
Die Aussage, staatliche Politik könne das Klima des Planeten „reparieren“, ist grotesk. Es ist vielleicht möglich, das Erscheinungsbild
eines Stuhls oder eines Paars Schuhe zu verändern, wobei auch in
diesen Fällen versucht wird, ein ursprüngliches Erscheinungsbild neu
nachzubilden. Doch welches sind die ursprünglichen Bedingungen für
das Erdklima, wenn es denn tatsächlich möglich sein sollte, diese zu
erreichen? Gemessen an einer geologischen Zeitskala wären als Ziel
tropische Bedingungen an den Polen oder eine globale Eiszeit vorstellbar – oder auch irgendetwas dazwischen. Und selbst wenn das Ziel
lautete, zu den klimatischen Bedingungen des vergangenen Jahrhunderts zurückzugelangen, bleibt unklar, wonach genau wir streben. Eine
Entscheidung bspw. für den Status quo der 1930er, 1950er oder 1970er
Jahre würde voraussetzen, man sitze dem Irrtum auf, es gäbe einen optimalen Klimazustand und jegliches Abweichen von diesem, in welch
geringem Maße auch immer, käme einer Katastrophe gleich.
Was Gouverneur Schwarzenegger offenkundig meinte war, dass
die von ihm vorgeschlagenen Treibhausgasemissionsziele seiner Ansicht nach erreichbar wären. Das mag richtig sein, ist jedoch mit hohem Kostenaufwand verbunden. In weiten Teilen seiner Rede lobte
Schwarzenegger die Marktchancen für neue Technologien (wie Elektroautos und Solarzellen), deren Einsatz in Kalifornien er fördern wollte. Doch zeigt seine eigene Politik, dass zu ihrer Umsetzung höhere
Subventionen und strenge gesetzliche Vorgaben vonnöten wären, und
zwar aus dem einfachen Grund, dass sie nicht profitabel bzw. ganz ein-
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
19
fach teuer sind. Das Erreichen dieser Ziele erfordert mehr als einige
kleinere Verbesserungen bei der Energieeffizienz und optimistische
Rhetorik; um diese Ziele zu erreichen, müssen die Menschen bereit
sein, enorme Kosten zu tragen.
Ein weitaus gravierenderes Problem in der Denkweise von Arnold
Schwarzenegger (und vielen anderen Spitzenpolitikern auf dieser Welt)
liegt darin, dass die tatsächliche Emissionsreduzierung im Rahmen eines jeden Ziels, das vernünftigerweise als bezahlbar erachtet werden
kann, so gering ausfällt, dass die Folgen für das Klimasystem nahezu
20
unbemerkt bleiben. In diesem Sinne gibt es so etwas wie „Klimapolitik“
nicht. Niemand kann das Klima direkt beeinflussen. Wenn diejenigen
also, die spezifische Maßnahmen vorschlagen, von „Klimapolitik“ sprechen, erwecken sie den Eindruck, ihre Ideen hätten direkten, vorhersagbaren und unmittelbaren Einfluss auf das globale Klima. Im Ergebnis
werden die möglichen Kosten des globalen Klimawandels bisweilen mit
den Kosten der jeweiligen lokalen Politikmaßnahmen zur Emissionskontrolle verglichen und, wenn letztere gegenüber ersteren gering ausfallen, von den Urhebern dieser Politik als Beleg dafür herangezogen,
dass diese umgesetzt werden sollte. Diese Argumentation lässt sich
jedoch nicht aufrechterhalten, da die lokale Politik zur Emissionskontrolle im Allgemeinen geringen bzw. überhaupt keinen Einfluss auf die
künftige Entwicklung des globalen Klimas hat. Selbst wenn multilaterale Abkommen wie das Kyoto-Protokoll umgesetzt würden, so wäre
der Nutzen für das Klima äußerst gering. Belegt wird dies in komplexen
Modellsimulationen (z. B. Wigley et al. 1998), doch ist die dem zugrundeliegende Argumentation leicht nachvollziehbar.
>> Der Einfluss von Treibhausgasen auf die Veränderung des Klimas ist
von der in der Atmosphäre vorhandenen Menge dieser Gase abhängig, nicht von den jährlichen Emissionen.
>> Aktuell befinden sich etwa 750 Gigatonnen CO2 (in Kohlenstoffäquivalent) in der Atmosphäre (Houghton 1997).
Einleitung
>> Die weltweiten jährlichen Emissionen liegen bei 8,4 Gigatonnen, von
denen etwa 3 auf natürliche Weise sequestriert werden (Marland et
al. 2010).
>> Von den etwa 5,4 Gigatonnen Nettoemissionen stammt die Hälfte
aus den Industriestaaten.
>> Diese 2,7 Gigatonnen an Emissionen sollten laut Kyoto-Protokoll auf
etwa 5 % unter das Emissionsniveau von 1990 bzw. um etwa 0,7 Gigatonnen ausgehend vom heutigen Stand reduziert werden.
>> Es wird erwartet, dass auch wenn die Teilnehmer des Kyoto-Protokolls
ihre Pflichten vollständig erfüllen, ein Teil dieser Emissionen durch
das Phänomen der Carbon Leakage – das Entstehen höherer Emissionen andernorts durch die Verlagerung von Produktionsprozessen
in Länder ohne Emissionsbeschränkungen – aufgewogen wird. Veröffentlichte Schätzungen dieser Leckrate reichen je nach angenommenen Marktstrukturen und Merkmalen der Brennstoffbeschaffung
von Null bis über 100 %. Wenn wir von einer Leckrate von 20 % ausgehen, entspräche dies einer Reduzierung des Emissionsvolumens
durch das Kyoto-Protokoll um etwa 0,6 Gigatonnen und damit einer
Reduzierung des in der Atmosphäre gespeicherten Kohlenstoffs um
etwa 0,08 %.
Selbst wenn also die Vorgaben des Kyoto-Protokolls eingehalten würden, hätte dies nur geringe Emissionsreduzierungen mit minimalen
Auswirkungen auf die globale Kohlendioxidkonzentration zur Folge.
Und für die meisten Länder erwies sich die Umsetzung des Kyoto-Protokolls als zu kostspielig und schwierig. Ich wiederhole noch einmal:
Ziele zur Emissionsreduzierung, die hinreichend weit angelegt sind,
um spürbare Auswirkungen zu zeitigen, sind in ihrer Umsetzung zu
teuer. Das bedeutet selbstverständlich nicht, dass nichts getan werden
sollte; doch es bedeutet sehr wohl, dass die gesetzten Ziele und Fristen
sich an der Realität orientieren müssen und nicht bloße Rhetorik oder
Wunschdenken sein sollten.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
21
Es ist falsch, auf die potenziellen Kosten des globalen Klimawandels zu verweisen und diese mit den potenziellen Kosten lokaler politischer Maßnahmen zur Reduzierung der Emissionen zu vergleichen.
Richtig wäre es hingegen, die Kosten der lokalen politischen Maßnahmen zur Emissionsreduzierung zu ermitteln und diese mit den Vorteilen der anzunehmenden Veränderungen einer potenziellen künftigen
Entwicklung des globalen Klimas zu vergleichen. Erzielt eine Politik
zur Emissionsreduzierung solch geringe Auswirkungen auf die globale
Atmosphäre, dass ein Land daraus in der Zukunft keinen Einfluss auf
22
das Klima erwarten kann, liegt der Nutzen einer solchen Politik in Bezug auf die Verringerung klimabedingter Schäden bei null.
Die besonderen Herausforderungen der Kontrolle von
CO2-Emissionen
Es mag allzu pessimistisch erscheinen zu sagen, dass die finanzierbaren
Ziele zur Emissionsreduzierung nicht weit genug reichen, um spürbare
Auswirkungen auf das Klima zu zeitigen. Doch spiegelt diese Aussage
die Wirklichkeit für Kohlendioxid – im Gegensatz zu anderen Formen
der Luftverschmutzung – wider. So ist es in Nordamerika und Europa
beispielsweise gelungen, die Schwefeldioxid-Problematik erfolgreich in
den Griff zu bekommen. Politische Maßnahmen, die sowohl auf lokaler als auch auf nationaler Ebene umgesetzt wurden, führten seit den
1970er Jahren zu einer umfangreichen Reduzierung der SO2-Emissionen und -Konzentrationen zu durchaus erschwinglichen Kosten. Vor
diesem Hintergrund könnte man der Versuchung erliegen zu glauben,
auch für CO2 ließen sich zu geringen Kosten Programme zur Reduzierung der Emissionen mit ähnlich überzeugenden Ergebnissen auflegen.
Doch dieses Argument hinkt, da es für CO2 im Vergleich zu SO2 nur sehr
wenige Möglichkeiten gibt, die Emissionen zu reduzieren.
Tabelle 1 zeigt die wesentlichen Optionen zur Emissionsreduzierung
sowie deren Verfügbarkeit in Bezug auf CO2 und SO2.
Einleitung
VERMEIDUNGSOPTIONEN UND -KOSTEN
Vermeidungsoption
Verfügbarkeit
Relative Kosten
SO2CO2
Schornsteine mit Abluftwäscher
Niedrig
Ja
Nein
Umstieg auf sauberere Version desselben Brennstoffs
Niedrig
Ja
Nein
Umstieg auf anderen Brennstoff
Hoch
Ja
Ja
Gesamtverbrauch senken
Hoch
Ja
Ja
23
Die vier verfügbaren Vermeidungsoptionen sind: Installation von
Abluftwäschern auf Schornsteinen, Umstieg auf eine sauberere Version desselben Brennstoffs (z. B. von stark schwefelhaltiger Kohle auf
schwach schwefelhaltige Kohle), Umstieg auf einen anderen Brennstoff (z. B. von Kohle auf Erdgas) und Einschränkung des Umfangs der
produktiven Tätigkeit. Die beiden ersten sind die billigsten Optionen.
Im Falle der Erfüllung der Clean Air Act Amendments von 1990 (USLuftreinhaltungsgesetze), in deren Rahmen die Schwefelemissionen in
den USA um etwa 40 % gesenkt wurden, nahmen die Installation von
Abluftwäschern sowie der Umstieg auf andere Kohlearten 45 bzw. 55 %
der gesamten in Phase I erzielten Emissionssenkungen, insbesondere
des starken Emissionsrückgangs zwischen 1994 und 1996, ein (Schmalensee et al. 1998). Doch stehen alle genannten Optionen, auf die damals zur Senkung der SO2-Emissionen zurückgegriffen wurde, für die
CO2-Kontrolle nicht zur Verfügung:
>> Schwach schwefelhaltige Kohle existiert, schwach kohlenstoffhaltige
Kohle dagegen nicht.
>> Für CO2 gibt es keine Abluftwäscher.
Der zweite Punkt ist den Kraftwerksbetreibern wohlbekannt. In einer
Studie über die Optionen zur Vermeidung luftverschmutzender Emis-
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
sionen kam die Ontario Power Authority (2007) zu dem Schluss, dass
simulierte CO2-Emissionsveränderungen vollständig durch geschätzte
Veränderungen der Ausstoßniveaus verursacht wurden:
„[Geplante] Reduzierungen der CO2-Emissionen zwischen 2010 und 2014
wurden viel mehr durch Reduzierungen der kohle[-befeuerten Elektrizitäts-]
Produktion erzielt als durch Emissionskontrollen. Es gibt derzeit keine realisierbare
Kontrolltechnologie zur Reduzierung der CO2-Emissionen aus Kohlekraftwerken.
Die CO2-Reduzierungen sind daher bei allen Alternativen identisch.“
OPA | 2007 | Seite 5
24
Ausgehend davon sind die einzigen Möglichkeiten, die CO2-Emissionen einzudämmen, die kostenintensiveren Optionen des Umstiegs
auf andere Brennstoffe und der Senkung des Verbrauchs. Kraftwerke
können Kessel durch gasbefeuerte Anlagen ersetzen oder den Gesamtbrennstoffverbrauch senken, was im Allgemeinen eine Reduzierung
der gesamten Energieproduktion erfordert.
Der Umstieg von Kohle auf andere Brennstoffe ist nicht nur aufgrund der Kapitalkosten teuer, sondern auch wegen des langfristigen
Anstiegs der Erdöl- und Gaspreise gegenüber Kohle. Abbildung 1 zeigt
die (inflationsbereinigten) jeweils auf den Wert 100 indexierten Realpreise der drei zentralen fossilen Energiequellen auf dem US-Markt
zwischen 1949 und 2009. Die Kohlepreise haben sich danach kaum
verändert, wohingegen der Gaspreis nach seinem jüngsten, um das
18-Fache höheren Spitzenwert achtmal höher liegt. Der Ölpreis hat sich
nach einem um das Fünffache höher liegenden Spitzenwert gegenüber
Kohle verdoppelt. Bezogen auf die relativen Kosten und die preisliche
Volatilität ist Kohle damit nach wie vor die beste Energiequelle.
Einleitung
Reale Preise von Kohle, Erdgas und Erdöl 1949 – 2009,
indexiert auf 1949 = 100
Abbildung 1
2.000
1.800
1.600
Kohle
Erdgas
Erdöl
1.400
1.200
25
1.000
800
600
400
200
0
1949195419591964196919741979198419891994199920042009P
Quelle: US Energy Information Administration | http://www.eia.doe.gov/overview_hd.html
(Daten für 2009, vorläufig [P])
Europa vs. USA: andere Rhetorik, gleiches Ergebnis
Die Europäische Union unterzeichnete und ratifizierte das KyotoProtokoll 2002 mit dem Versprechen, die Treibhausgasemissionen
bis 2008 gegenüber dem Stand von 1990 um 8 % zu senken. Die USA
haben dies nicht getan und sich auf keine verbindlichen Ziele zur Senkung der Emissionen eingelassen. Stattdessen kündigte der damalige
Präsident George W. Bush 2002 das unverbindliche Ziel an, die Emissionsintensität (Treibhausgase je Dollar BIP) bis 2012 um 18 % gegenüber dem Stand von 2002 zu senken – was allein durch Beibehaltung
des nach den 1980er Jahren eingeschlagenen Entwicklungstrends der
Emissionen erreicht werden konnte. Die beiden genannten großen
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
Akteure haben somit nahezu das gesamte vergangene Jahrzehnt zwei
völlig unterschiedliche Ziele verfolgt: Business as usual in den USA,
tiefgreifende Emissionseinschnitte in der EU.
Ein Blick auf die Daten zeigt jedoch, dass beide Regionen hinsichtlich der Emissionsintensität nicht allzu unterschiedlich abgeschnitten
haben. Zwischen 1995 und 2007 ging die Treibhausgasemissionsintensität in der gesamten EU (einschließlich Deutschland) um etwa 32 %
zurück (Marland et al. 2010). In den USA sank die Emissionsintensität
innerhalb desselben Zeitraums um 23 %. Ohne es überhaupt zu ver26
suchen, ist es den USA gelungen, die Emissionsintensität ihrer Produktion annähernd so weit zu senken wie in Europa. Wie Abbildung 2
zeigt, besteht der einzige Unterschied zwischen den USA und Europa
hinsichtlich der Emissionsintensität ausschließlich in der Geschwindigkeit, nicht in der Richtung.
Treibhausgasemissionsintensität in den
USA und Europa (EU-25)
EU
Abbildung 2
USA
100,0 100,0 96,5 98,4 90,6 96,8 86,5 92,9 83,4 89,8 81,1 89,1 81,2 86,4 78,5 85,9 76,9 83,7 73,4 82,4 71,9 80,5 70,5 77,3 67,8 76,7
120,0
100,0
80,0
60,0
40,0
20,0
0,0
199519961997 199819992000 20012002200320042005 20062007
Quelle: EU http://epp.eurostat.ec.europa.eu | USA http://www.gpoaccess.gov/eop/tables10.html
und http://cdiac.ornl.gov/trends/emis/usa.html | Berechnungen des Verfassers
Einleitung
Wie oben erwähnt, setzt eine Senkung der CO2-Emissionen eine
Senkung des Energieverbrauchs voraus. Was bedeutet das für das Wirtschaftswachstum? Zentrale Frage hierbei ist, ob ein höherer Energieverbrauch einen Anstieg des BIP bedingt oder durch einen Anstieg
des BIP bedingt wird. Diese Unterscheidung ist von großer Bedeutung. Ist ein höherer Energieverbrauch eine bloße Nebenerscheinung
von Wachstum, könnte er gedeckelt und ohne Beeinträchtigung des
Wirtschaftswachstums gesenkt werden. Wirkt ein höherer Energieverbrauch hingegen wachstumsfördernd, ist eine Abkoppelung des einen
27
vom anderen nicht ohne weiteres möglich.
Um in Zeitreihendaten eine Kausalitätsrichtung (bzw. „GrangerKausalität“, wie sie in der Ökonomie fachsprachlich bezeichnet wird)
erkennen zu können, sind statistische Techniken wie die so genannte
Kointegrationsanalyse und die Vektorautoregression erforderlich. Mithilfe dieser Techniken wurden Daten aus den USA (Stern 2000), Kanada (Ghali und El-Sakka 2004) und anderen Ländern ausgewertet. Die
Ergebnisse zeigen, dass der Energieverbrauch das Wirtschaftswachstum bedingt und die Kausalität in einzelnen Fällen in beide Richtungen verläuft. Das Magazin Stern zieht daraus folgenden Schluss:
„Die multivariate Analyse zeigt, dass die Energie das BIP wie in dem ersten
der drei untersuchten Modelle entweder einseitig oder möglicherweise in einer
wechselseitig kausalen Beziehung im Sinne der Granger-Kausalität bedingt. |...|
Die in diesem Beitrag vorgestellten Ergebnisse stärken meinen früheren Schluss,
dass Energie ein das Wirtschaftswachstum begrenzender Faktor ist. Auf die
Energieversorgung einwirkende Schocks werden die Produktion daher eher
einschränken.“
Stern | 2000 | Seite 281
Der Satz „Energie ist ein das Wirtschaftswachstum begrenzender Faktor“ ist dabei besonders wichtig. Der Energieverbrauch ist keine bloße
Nebenerscheinung, die vom BIP-Wachstum abgekoppelt werden kann.
Eine bewusste Senkung des Energieverbrauchs wird das Wirtschafts-
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
wachstum voraussichtlich ausbremsen und dabei die negativen Folgen für Politiker steigern, die versuchen, entsprechende politische
Maßnahmen umzusetzen.
Ferner wirken die steigenden Elektrizitätspreise regressiv, sodass
die Kostenlast Haushalte mit geringerem Einkommen im Verhältnis
stärker trifft als Haushalte mit höherem Einkommen. Einige Untersuchungen über Kohlenstoffsteuern (Jorgensen et al. 1992) haben sich
mit der Frage der Regressivität befasst und herausgefunden, dass die
Tatsache, ob eine Kohlenstoffsteuer regressiv wirkt oder nicht, davon
28
abhängt, wie sie umgesetzt (und wie Ungleichheit gemessen) wird.
Dinan und Rogers (2002) zeigten, dass die Einführung eines Capand-Trade-Systems mit gratis zu vergebenden Genehmigungen für
die gesamte US-Wirtschaft höchst regressiv wirken würde, wobei die
ärmsten Haushalte jährlich 500 USD verlieren, die reichsten dagegen
jährlich 1.000 USD gewinnen würden. Der finanzielle Vorteil für die
Haushalte mit höherem Einkommen ergäbe sich dabei daraus, dass ihnen die Unternehmen, die die wertvollen Genehmigungen entgeltlos
erhielten, gehören.
Einleitung
2.
Theoretische Grundlagen
der Klimapolitik
Grenzschäden und Grenzvermeidungskosten
Um das Versagen der Klimapolitik in vollem Umfang verstehen zu
können, muss man zunächst einige der Anreizmechanismen verstehen, welche die Volkswirtschaften mit der Umwelt verbinden. Treibende Kraft der wirtschaftlichen Entwicklung ist in erster Linie die Interaktion zwischen „Konsumentenpräferenzen und Technologie“, anders
gesagt, der beständige Fluss von Signalen zwischen den Präferenzen
der Verbraucher und den Kapazitäten der Produzenten. Verbraucher
verlangen nach Waren und Dienstleistungen, die ihre Wünsche und
Bedürfnisse erfüllen. Unternehmen entwerfen Produktionspläne, um
ihren Gewinn zu maximieren. Diese Kräfte von Angebot und Nachfrage bilden die Grundlage des preisbasierten Marktsystems.
Die ökonomische Umweltanalyse betrachtet Umweltverschmutzung als ein „Versagen des Marktes“. Unternehmen können ihre Gewinne durch eine stärkere Verursachung von Umweltverschmutzung
(anders formuliert: dadurch, dass sie kein Geld für die Vermeidung von
Verschmutzung ausgeben) steigern, während Verbraucher weniger Verschmutzung bevorzugen. Da den Verbrauchern kein Mechanismus zur
Verfügung steht, Unternehmen für ihre Verschmutzung bezahlen zu
lassen, gibt es keine Preissignale und es kommt zu einer übermäßigen
Verschmutzung. Dieses Standardargument für ein Eingreifen des Staates bietet jedoch keine Begründung für ein unbegrenztes Eingreifen. Vor
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
29
allen Dingen rechtfertigt die ökonomische Analyse von Umweltproblemen keine Politiken, die mehr kosten als nutzen. Der Staat ist vielmehr
angehalten ein deutliches Preissignal zu setzen oder die Umweltverschmutzung auf ein Niveau zu regulieren, das bei Vorliegen eines angemessenen Marktpreissignals erreicht worden wäre. Um eine Aussage
über die optimale Form politischen Eingreifens treffen zu können, müssen wir verstehen, auf welche Weise der Markt ein Preissignal für Umweltschäden aussenden würde, wenn die Mechanismen von Angebot
und Nachfrage tatsächlich greifen würden.
30
Die Analyse von Angebot und Nachfrage beruht auf der Untersuchung schrittweiser Veränderungen, da es immer einen Ausgangspunkt gibt, von dem aus der Weg in eine bestimmte Richtung führt.
Hinsichtlich der Verschmutzung geht es für die Regulierer für gewöhnlich darum, ob die zulässigen Grenzwerte gegenüber dem aktuellen
Stand erhöht oder gesenkt werden sollten. Es wird daher unterschieden
zwischen Grenzschäden, d. h. den zusätzlichen Kosten einer geringfügig
höheren Verschmutzung für die Gesellschaft, und Grenzvermeidungskosten, also dem Kostenzuwachs (aus Sicht der Gesellschaft), der eine
geringfügige Reduzierung der Verschmutzung mit sich bringt.
Beide Konzepte sind in Abbildung 3 grafisch dargestellt, Emissionen (e) auf der horizontalen, der Wert in Dollar (bzw. Euro) je Emissionseinheit auf der vertikalen Achse. Die ansteigende Grenzschadenkurve (GS) gibt an, dass mit steigenden Emissionen die gesellschaftlichen Kosten für jede weitere höhere Verschmutzungseinheit ebenfalls
zunehmen. Die Grenzvermeidungskostenkurve (GVK) fällt von links
nach rechts betrachtet ab. Von rechts nach links gesehen ist diese Kurve ansteigend und gibt an, dass mit sinkenden Emissionen die Grenzkosten weiterer Emissionsreduzierungen ansteigen.
Theoretische Grundlagen der Klimapolitik
Grenzschaden, Grenzvermeidungskosten
und optimales Emissionsniveau
Abbildung 3
USD pro Tonne
P*
Grenzvermeidungskosten
GVK
Grenzschäden
GS
c
31
a
b
e*
ē
Emissionen
Beide Kurven können in Abhängigkeit vom Emissionsniveau jeweils als aufsteigend bzw. als abfallend gelesen werden. Formal betrachtet entspricht die GS-Kurve nicht den Kosten für die Beseitigung
der Schäden der Verschmutzung, sondern einer auf mikroökonomischen Modellen öffentlicher Güter beruhenden konzeptuellen Größe.
In aufsteigender Richtung betrachtet lautet die ökonomische Definition von Grenzschäden, dass diese der Höhe des zusätzlichen Einkommens entsprechen, das die von der Verschmutzung betroffenen Personen erhalten müssten, um mit den zusätzlichen Emissionen ebenso
gut dazustehen wie ohne sie. Mit anderen Worten handelt es sich hierbei um eine Kompensationsmaßnahme, und der Bereich unterhalb
der GS-Kurve innerhalb eines bestimmten Intervalls gibt an, welche
Kompensation angesichts des Umfangs steigender Emissionen, wie
ihn das Intervall darstellt, erforderlich wäre.
Vergleichen wir beispielsweise den Anfangspunkt der Kurve mit
dem Emissionsniveau e*, gibt das Feld a an, welche Kompensation
für die dargestellte Gesellschaft insgesamt erforderlich wäre, um mit
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
Emissionen e* ebenso gut dazustehen wie ohne. Steigen die Emissionen um eine Einheit, gibt die Höhe der Grenzschadenskurve an, welche zusätzliche Kompensation, in diesem Falle P*, erforderlich ist. Steigen die Emissionen auf ē, müsste die zusätzliche Kompensation b+c
betragen.
Liest man die GVK-Kurve von links nach rechts, gibt sie den Grenznutzen an, der sich für den Verursacher (üblicherweise ein Unternehmen oder Industriebetrieb) aus der Erlaubnis ergibt, seine Emissionen
um eine Einheit zu erhöhen. Für aktuelle Emissionen im Umfang von
32
e* ergeben sich für das Unternehmen aus der Notwendigkeit, seine
Emissionen um eine Einheit zu senken, die Kosten P*; umgekehrt beläuft sich der Nutzen für das Unternehmen durch die Erlaubnis, eine
Einheit mehr auszustoßen, auf P*. Nutzen bzw. Kosten bezeichnen
hierbei nicht nur die Aufwendungen, die für die Anschaffung von Ausrüstungen zur Emissionsvermeidung anfallen, sondern die Veränderung des Unternehmensgewinns insgesamt. Diese Veränderung ergibt
sich teilweise aus der Anschaffung von Ausrüstungen zur Emissionsvermeidung, umfasst jedoch auch die Folgen der Anpassung des Investitions- bzw. Produktionsniveaus.
Die Veränderung des Unternehmensgewinns ist aus zwei Gründen ein Hinweis auf die gesellschaftlichen Kosten eines Wechsels in
der Umweltpolitik: Zum einen steigen die Gewinne eines Unternehmens immer dann, wenn seine Produktion mehr einbringt, als es dafür an Produktionsfaktoren aufwenden muss. Der Markt sendet so das
Signal aus, dass das Unternehmen den Haushalten einen Nettonutzen
verschafft. In diesem Sinne sind Gewinne kein Signal dafür, dass Unternehmen der Gesellschaft Wohlstand entziehen – im Gegenteil: es
zeigt, dass die Unternehmen den von ihnen genutzten Produktionsfaktoren einen Mehrwert hinzufügen. Eine Drosselung der Tätigkeit,
die einen Mehrwert schafft, kommt für eine Gesellschaft allgemein
einem Verlust gleich. Zum anderen werden Gewinne als Einkünfte an
Anteilseigner, wie etwa Investoren oder Beziehern von Firmenrenten,
Theoretische Grundlagen der Klimapolitik
weitergegeben. Sinkende Gewinne sind demnach in Form geringerer
Einkünfte für Anteilseigner spürbar.
Angenommen, ein Verschmutzung verursachendes Unternehmen wird zunächst verpflichtet, seine Emissionen auf das Niveau e* zu
beschränken, und anschließend werden alle Emissionsbeschränkungen aufgehoben. Das Unternehmen wird beginnen, seine Emissionen
zu steigern, da der Grenznutzen einer solchen Maßnahme positiv ist,
nämlich P*. Die Emissionen werden daraufhin so lange weiter steigen,
bis der Grenznutzen den Wert null erreicht, also bis zu dem Punkt, an
dem die GVK-Kurve die horizontale Achse bei ē schneidet. Der Gesamtnutzen, der sich für das Unternehmen aus der Erlaubnis ergibt, seine
Emissionen von e* auf ē zu steigern, beläuft sich auf den zwischen
diesen beiden Punkten liegenden Bereich b unterhalb der GVK-Kurve.
Müsste das Unternehmen hingegen seine Emissionen von ē auf e* senken, lägen die Grenzvermeidungskosten insgesamt bei b.
Bei einem Emissionsniveau von ē, also einem Emissionsniveau
ohne Regulierung, sind die Grenzschäden gegenüber den Grenzvermeidungskosten vergleichsweise hoch. Folglich ist es gesellschaftlich
erstrebenswert, die Emissionen zu senken. Dies bleibt so bis zum Erreichen des Emissionswerts e*. An diesem Punkt belaufen sich die Grenzvermeidungskosten der letzten Einheit der Emissionsreduzierung auf
P* und entsprechen damit der Reduzierung des Grenzschadens. Werden die Emissionen unter diesen Punkt reduziert, würden die dafür
entstehenden Grenzvermeidungskosten den Nutzen (der Reduzierung
des Grenzschadens) übersteigen. Das gesellschaftlich optimale Emissionsreduzierungsziel in diesem Fall ist folglich e*.
Liegen die Emissionen hingegen anfänglich bei null, ist es ratsam, eine Zunahme der Emissionen zu gestatten, da die Grenzvermeidungskosten über dem Grenzschaden liegen bzw., anders gesagt, der
Grenznutzen der Emissionen höher ist als der Grenzschaden. Eine solche Emissionssteigerung ist bis zu e* ratsam, da an diesem Punkt der
Grenznutzen der Emissionen genau mit den Grenzkosten P* zusam-
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
33
menfällt. Über diesem Punkt verursachen zusätzliche Emissionen einen Grenzschaden, der über dem entsprechenden Nutzen (GVK) liegt,
sodass eine weitere Zunahme nicht empfehlenswert ist.
Nehmen wir e* als optimales Emissionsniveau an. Es handelt sich
dabei um das Niveau, bei dem die Nettogewinne der verschmutzenden Tätigkeit bzw. der Nettonutzen der Verschmutzungsreduzierung
ihren Höchststand erreichen.
Jedem Punkt auf der GS- und der GVK-Kurve ist ein Preis zugeordnet. Dies ist eine der wichtigsten prinzipiellen Unterscheidungen der
34
ökonomischen Analyse von Umweltverschmutzungen und der Umweltschutzanalyse in den Umwelt-, Rechts- oder Politikwissenschaften.
Die ökonomische Analyse der Umweltverschmutzung geht bei der Wahl
eines bestimmten Emissionsniveaus e von einem entsprechenden Preis
entsprechend der Position auf der GS- und der GVK-Kurve aus.
Die Antwort eines Emittenten auf umweltpolitische Maßnahmen
wird durch die Kurve der Grenzvermeidungskosten (GVK) bestimmt.
Angesichts einer Emissionssteuer in Höhe von P* würden Unternehmen bis zum Punkt e*, jedoch nicht darüber hinaus Emissionen ausstoßen. Andernfalls würde der Grenznutzen für die Unternehmen
– abzulesen an der GVK-Kurve – unter den Betrag P* je Emissionseinheit fallen, den sie an Steuern auf die zusätzlichen Emissionen zahlen
müssten. Mit anderen Worten: Sie könnten Vermeidungsstrategien
anwenden, die weniger kosten als die Steuern, und einen finanziellen
Vorteil aus der Senkung der Emissionen ziehen. Statt eine Emissionssteuer von bspw. 50 USD/Tonne zu bezahlen, werden Unternehmen es
vorziehen, Vermeidungsoptionen zu wählen, solange diese weniger als
50 USD/Tonne kosten.
Der Emissionssteuersatz gibt folglich den zusätzlichen Wert an, der
sich für ein Unternehmen aus der Möglichkeit, seine Emissionen um
eine weitere Einheit erhöhen zu dürfen, ergibt. So gesehen entspricht
die GVK-Kurve im Grunde einer Nachfragekurve für Emissionen, wie
sie in jedem volkswirtschaftlichen Einführungswerk zu finden ist.
Theoretische Grundlagen der Klimapolitik
Das der GS-Kurve entsprechende Preisniveau gibt den Geldbetrag
an, der als Kompensation für eine weitere Einheit Verschmutzung erforderlich wäre. In dieser Hinsicht entspricht die GS-Kurve einer konventionellen Angebotskurve, die den Betrag angibt, der bezahlt werden
müsste, damit die Menschen bereit wären, eine Erlaubnis für eine weitere Verschmutzungseinheit „anzubieten“.
Durch die Kombination aus Preis- und Mengenachse sieht Abbildung 3 wie ein herkömmliches Angebots- und Nachfragemodell aus
jedem Wirtschaftslehrbuch aus. Wie bereits angedeutet, ist diese Ähnlichkeit nicht dem bloßen Zufall geschuldet. Die ansteigende GS-Kurve
gleicht einer Angebotskurve, die abfallende GVK-Kurve einer Nachfragekurve. Der Unterschied gegenüber gewöhnlichen Angebots- und
Nachfragekurven besteht darin, dass in einem regulären Markt Produktions- und Verbrauchsentscheidungen durch das Preissignal hin zu
dem Punkt geführt werden, an dem sich die Kurven schneiden. Im Falle
von Schadstoffemissionen hingegen wird kein Preissignal ausgesendet,
sodass eine Koordinierung der Emissionsniveaus nicht möglich ist.
Die Politik sollte daher nach Möglichkeit darauf abzielen, das Versagen des Marktes durch die Einführung eines Preismechanismus zu
korrigieren, der den Menschen ermöglicht ihre eigenen Reaktionen
auf die Preissignale zu finden. Eine auf Grundlage von marktwirtschaftlichen Prinzipien gestaltete Politik wird sich im Ergebnis dem
optimalen Emissionsniveau e* annähern. Etwas komplexer wird die
Angelegenheit, wenn, wie in Abschnitt 4 erläutert, darüber hinaus Unsicherheit, Dynamik und ähnliche Faktoren berücksichtigt werden. Als
Grundgedanke der ökonomischen Betrachtung umweltpolitischer Fragen gilt, dass die Lösung für das Verschmutzungsproblem entweder in
der Einrichtung geeigneter Preissignale oder in der Festlegung einer
Emissionsmenge liegt, die sich aus der Existenz eines Marktpreissignals ergeben hätte.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
35
Preisregulierung vs. Mengenregulierung
Ein Preissignal kann entweder durch die Festlegung eines Emissionspreises (mit Hilfe einer Schadstoffsteuer bzw. -abgabe) oder durch die
Begrenzung der Emissionsmenge ausgesendet werden. Dies erfolgt
über eine Emissionssteuer bzw. die Ausgabe einer fixen Anzahl von Genehmigungen, für die sich anschließend durch einen Handel auf dem
Markt ein Preis herausbildet. Anders ausgedrückt: Der Regulierer kann
einen Preis bestimmen und den Markt die Menge festlegen lassen oder
36
umgekehrt eine Menge bestimmen und dem Markt die Preisfindung
überlassen. Beides gleichzeitig ist nicht möglich.
Wie bereits erwähnt, werden Unternehmen im Falle der Festsetzung einer Emissionssteuer in Höhe P* maximal eine Menge e* emittieren. Werden demgegenüber Emissionsgenehmigungen bis zu einer
Menge e* ausgegeben, werden die Unternehmen für diese bereit sein
auf dem Markt den Gleichgewichtspreis P* zu bieten. Mehr als diesen
Preis werden sie nicht zu bezahlen bereit sein, da sie ihre Emissionen
auch unter Aufwendung von Grenzkosten in Höhe von P* selbst vermeiden könnten, anstatt zu einem höheren Preis eine weitere Emissionsgenehmigung zu erwerben. Andererseits wird auf dem Markt auch
kein niedrigerer Preis Bestand haben, da die Unternehmen eher die
günstigere Genehmigung kaufen würden, als Grenzvermeidungskosten in Höhe von P* einzugehen. Liegt die Menge der Genehmigungen
bei e*, beträgt der sich daraus ergebende Marktpreis P*.
Da die vorliegende Argumentation genau derjenigen einer beliebigen anderen Nachfragekurve entspricht, kann die GVK-Kurve als die
„Nachfragekurve für Emissionen“ bezeichnet werden.
Aufgrund der bestehenden Unsicherheiten ist es jedoch wichtig,
sich vor Augen zu führen, über welche Informationen ein Regulierer bei
der Wahl des geeigneten Umweltschutzinstruments realistischerweise
verfügen kann. In den meisten Umweltfragen kann der Regulierer sich
bestenfalls einiger weniger wichtiger Details sicher sein. Es sind dies:
Theoretische Grundlagen der Klimapolitik
A die aktuelle Emissionsmenge,
B die ungefähre Steigung der Grenzvermeidungskostenkurve bei
sinkenden Emissionen,
C die annähernde Steigung der Grenzschadenskurve bei steigenden
Emissionen.
Der erste Punkt wird durch einfache Beobachtung ermittelt. Der zweite Punkt kann anhand technischer bzw. ökonomischer Analysen oder
auf Grundlage von Informationen von Unternehmen, die mit einer
möglichen Regulierung konfrontiert sind, geschätzt werden. Bisweilen, jedoch nicht in jedem Fall, können Unternehmen versucht sein,
ihre Vermeidungskosten zu übertreiben.1 Der dritte Punkt kann durch
Analysen ermittelt werden, die ökologische Informationen mit ökonomischen Daten kombinieren, z. B. durch die so genannte kontingente
Bewertungsmethode oder andere empirische Modellversuche.
Die Regulierer können typischerweise keine präzisen Informationen bezüglich der Werte auf der vertikalen Achse der dargestellten
Diagramme erhalten. So ist zwar möglicherweise bekannt, dass die GSKurve im Rahmen des zu regulierenden Emissionsintervalls eher flach
verläuft. Eine genauere Aussage über die Höhe des Wertes ist jedoch
nicht möglich, sodass sich lediglich eine Spannweite, die zwischen 10
und 30 USD/Tonne liegen dürfte, angeben lässt.
Nichtsdestoweniger sind die unter a bis c genannten Parameter
ausreichend, um zu entscheiden, ob eine Regulierung des Emissionspreises oder der Emissionsmenge vorzuziehen ist. Der Ökonom, der
dies zuerst formulierte, war Martin Weitzman (1974), und seine Analyse wurde seither umfassend rezipiert. Sein Ansatz ist folgender:
1 Dies ist von der Art der Politik abhängig, die Unternehmen erwarten. Siehe McKitrick (2010a),
Kapitel 5.1.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
37
Angenommen, die Situation stellt sich wie in Abbildung 4 dar, in
welcher die Steigung der GS-Kurve gegenüber dem Anstieg der GVKKurve über dem für den Regulierer relevanten Emissionsbereich als
verhältnismäßig flach angenommen wird. Das optimale Emissionsniveau liegt bei e*; wo genau sich dieses Niveau befindet, ist jedoch unbekannt. Unternimmt man den Versuch, die richtige Emissionsmenge
zu erraten, führen geringfügige Fehler im Umfeld von e* (horizontaler
Pfeil) zu groben Fehlern in Bezug auf den optimalen Preis (vertikaler
Pfeil), d. h. den entsprechenden Preisbereich auf der GVK- bzw. Emis38
sionsnachfragekurve. Das große Ausmaß dieser Fehler schlägt sich
in unerwartet hohen Risiken für emittierende Unternehmen und die
Wirtschaft allgemein nieder. Der durch die Pfeile abgegrenzte Bereich
spiegelt den Bereich wider, in dem sich die Emissionspolitik als störend, kostspielig und chaotisch für die Wirtschaft erweist.
Im Gegensatz dazu führen Fehler auf der Preisachse jedoch bei
einem beliebig gewählten Preis lediglich zu relativ geringfügigen Fehlern auf der Mengenachse. Ist die Festlegung des optimalen Preises
für Emissionen fehlerbehaftet (Abweichung nach oben oder unten),
kommt das Ergebnis dem optimalen Emissionsniveau gleichwohl recht
nah und die Gefahr einer unerwartet hohen Volatilität ist relativ gering.
Es ist daher besser zu versuchen, den Preis möglichst genau zu schätzen
und den Markt die Menge bestimmen zu lassen, als umgekehrt.
Verläuft die GVK-Kurve relativ flach, geht die Argumentation in
die andere Richtung, d. h., es wäre besser zu versuchen, die optimale
Emissionsmenge zu ermitteln und den Markt den Preis bestimmen zu
lassen, anstatt einen Preis festzulegen und möglicherweise starke und
teure Ausschläge auf der Mengenachse in Kauf zu nehmen.
Theoretische Grundlagen der Klimapolitik
In Abbildung 4 ist die Situation für CO2 schematisch dargestellt.
>> Die GS-Kurve verläuft relativ flach, da es sich bei CO2 um ein globales
Gas handelt, d. h. das Klima wird nicht durch örtliche Emissionen in
Mitleidenschaft gezogen, sondern durch den global vorhandenen Bestand. Hinsichtlich der Emissionen einer einzelnen Nation wird der
Grenzschaden der ersten Emissionseinheit derjenigen der letzten
Einheit entsprechen, da sich die global vorhandene Treibhausgasmenge infolge der jährlichen Emissionen eines Landes, wenn über39
haupt, nur unwesentlich verändert.
Wahlmöglichkeiten der Politik angesichts
bestehender Unsicherheiten
Abbildung 4
USD pro Tonne
Grenzvermeidungskosten
GVK
P*
Grenzschäden
GS
e*
ē
Emissionen
>> Die GVK-Kurve verläuft sehr steil, da, wie oben erläutert, nur sehr
wenige Kontrollmöglichkeiten zur Verfügung stehen. Kurzfristig besteht für Haushalte und Unternehmen der einzige Weg, ihre Emissionen zu senken, darin, ihren Energieverbrauch zu senken. Längerfristig wird die Reduzierung der Emissionen angesichts teurerer
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
Brennstoffe oder alternativer Energien höhere Kapitalinvestitionen
erforderlich machen. Zwei Indikatoren legen eine steile GVK-Kurve
nahe. Erstens hat der europäische Emissionsmarkt angesichts einer
vergleichsweise geringen Mengenvolatilität eine recht hohe Preisvolatilität gezeigt (Ellerman und Joskow 2008), wobei dies jedoch teilweise darauf zurückzuführen war, dass in der ersten Phase des europäischen Programms keine Genehmigungen auf spätere Handelsperioden übertragen werden konnten. Und zweitens haben sich die
europäischen Emissionen trotz jahrelanger Bemühungen kaum ver40
ändert. Dieser Umstand wird durch den Zusammenbruch der DDR
und anderer Übergangswirtschaften sowie durch die Umstellung der
Energiewirtschaft Großbritanniens von Kohle auf Gas in den frühen
1990er Jahren verschleiert, wodurch die CO2-Emissionen eine einmalige Reduzierung erfuhren. Diakoulaki und Madaraka (2007) haben die steigenden CO2-Emissionswerte aus 14 EU-Ländern im Zeitraum 1990 bis 2003 unter Berücksichtigung der von allen Ländern
außer Spanien umgesetzten politischen Maßnahmen untersucht.
In allen Ländern, außer Großbritannien und Deutschland, wo sich
alle fertigungsbedingten Reduzierungen vor 1997 vollzogen und anschließend ein Anstieg zu verzeichnen war, wurden gleichbleibende
oder steigende Emissionen verzeichnet. Die Autoren kamen zu dem
Schluss, „dass keine systematischen Anzeichen dafür vorliegen, das
sich das Verhalten der untersuchten Länder in der Zeit vor und nach
Kyoto unterscheidet“ (Seite 655).
Angesichts der Tatsache, dass Emissionspolitik unter unsicheren Bedingungen gemacht wird, wäre es folglich besser, statt einer Menge einen Preis festzulegen. Für eine Preissteuerung der Emissionen anstelle
einer Emissionsgrenze sprechen zudem zwei weitere Gründe.
Erstens gestaltet sich die Verwaltung eines Systems handelbarer
Genehmigungen deutlich schwieriger, da der Regulierer zunächst eine
Theoretische Grundlagen der Klimapolitik
Erstzuweisung (mittels einer Auktion, einer Bestandsregelung oder einer
anderen Methode) vornehmen und die für den Handel mit diesen Genehmigungen entstehenden Märkte einer Prüfung unterziehen muss.
Zweitens haben Regierungen die Genehmigungen in der Praxis für gewöhnlich kostenlos ausgegeben, anstatt eine Auktion durchzuführen,
was sowohl im Falle des US-Marktes für Schwefeldioxidgenehmigungen als auch im Falle des neuen EU-Marktes für Kohlenstoff-Emissionszertifikate so geschah. Die heute übliche Vorstellung einer „doppelten
Dividende“ beruht darauf, dass die durch die Verschmutzungspolitik
erhöhten Einnahmen des Staates darauf verwendet werden können,
die Steuerlast an anderer Stelle zu reduzieren. Ein System handelbarer
Genehmigungen jedoch, in dem Genehmigungen kostenlos an die Verursacher von Verschmutzung ausgegeben werden, steht dem im Wege,
sodass keine steuerliche Verrechnung möglich ist. Empirische Arbeiten
in Bezug auf die USA haben verdeutlicht, dass nicht auf dem Wege einer
Auktion vergebene CO2-Emissionsquoten die gesellschaftlichen Kosten
der Politik drastisch erhöhen (Parry 2003, 2004). Die Quoten schaffen
ähnlich wie bei Marketing-Gesellschaften für landwirtschaftliche Erzeugnisse und städtischen Vergabesystemen für Taxilizenzen Kartell­
einkünfte für die Empfänger und erhöhen im Grunde die finanzielle
Belastung der Haushalte durch die Förderung von Marktlagengewinnen
(sogenannte „Windfall Profits“) für Emittenten.
Fünf Grundsätze rationaler Klimapolitik
Die obige Analyse führt uns zu fünf wesentlichen ökonomischen
Grundsätzen einer rationalen Klimapolitik:
1 PREISGESTALTUNG: Eine Politik zur Senkung der Treibhausgasemissionen ist weniger marktverzerrend und kostspielig, wenn sie auf
einem festgelegten Emissionspreis anstatt auf einem festgelegten
Ziel zur Emissionsreduzierung beruht.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
41
2 REALISMUS: Da die GVK-Kurve aktuell sehr steil verläuft, liegt das
optimale Emissionsniveau derzeit nicht weit unter dem unregulierten Emissionsniveau. Jedes Mal, wenn die Politik neue Pläne
offenlegt, die Emissionsgrenzen zu verschärfen, steigen die ökonomischen Kosten der Vermeidung rasant an und führen zu heftigen
Reaktionen auf jeden Versuch, über das optimale Ziel der Emissionsreduzierung hinauszugehen. Es wäre demnach besser, den Anstieg der GVK-Kurve durch die Beobachtung der Mengenanpassung
als Reaktion auf ein bestimmtes Preissignal zu ermitteln, anstatt
42
tiefgreifende Emissionseinschnitte vorzuschreiben und angesichts
einer irrational hohen Kostenexplosion sehenden Auges in eine unvermeidbare Krise zu schlittern.
3 REDUNDANZVERMEIDUNG: Marktmechanismen sollten anstelle
von regulatorischen Mechanismen zum Einsatz kommen, nicht
ergänzend dazu. Nach der Festlegung eines Emissionspreises (bzw.
einer Emissionsmenge) durch die Politik, sollte von weiteren überflüssigen technischen Regulierungen und Verhaltenskontrollen
zur Überwachung der Einhaltung der bestehenden politischen
Maßnahmen Abstand genommen werden. Wird Kraftwerken beispielsweise der Erwerb von Emissionszertifikaten vorgeschrieben,
so reicht diese Maßnahme aus, ihre Emissionen zu regulieren. Darüber hinaus weitere Vorschriften zu erlassen, in denen Haushalten vorgeschrieben wird, welche Glühbirnen oder Haushaltsgeräte
sie verwenden dürfen, oder Kraftwerksbetreibern vorzuschreiben,
dass sie einen bestimmten Anteil ihrer Energie über den Ankauf
von Windenergie abdecken müssen, ist redundant. Das einzige, was
dadurch erreicht wird, sind höhere Kosten und eine verständliche
Ablehnung des gesamten Konzepts der Klimapolitik durch die Bevölkerung.
Theoretische Grundlagen der Klimapolitik
4 KOSTENEFFIZIENZ: Um die mögliche Vermeidung mithilfe der begrenzten Ressourcen, die eine Gesellschaft dafür zu geben bereit ist,
zu maximieren, müssen die Vermeidungsoptionen ohne Wenn und
Aber dahingehend überprüft werden, ob die Grenzkosten die besten Schätzungen der Grenzschäden übersteigen. Bei Vorliegen eines
Preisgestaltungsinstruments erfolgt dies automatisch in umfassender Weise. Angesichts der aktuellen technologischen Vermeidungsmöglichkeiten ergibt sich daraus eine vermutlich eher geringe
Vermeidung; doch mit zunehmender technologischer Entwicklung
und Abflachung der GVK-Kurve wird auch das Emissionsniveau automatisch sinken.
5 ZIELAUSRICHTUNG: Politische Maßnahmen einschließlich von
Preisgestaltungsinstrumenten sollten an der jeweiligen Zielvariablen
ausgerichtet werden, in diesem Zusammenhang, an den CO2-Emissionen. Allzu häufig wenden Politiker Regeln auf andere Variablen (z. B.
Kraftstoffverbrauchsregeln, Größe von Haushaltsgeräten, Art der zu
verwendenden Glühbirnen usw.) an, die nur indirekt mit dem eigentlichen Umweltproblem verbunden sind. Die Emissionsreduzierung
wird dadurch nur unnötig verteuert und verliert an Effizienz.
Die Irrationalität der ‘grünen Ökonomie’
Dank obiger Analyse können wir nun das Problem der weit verbreiteten
Vorstellung einer „grünen Ökonomie“ verstehen. Der Begriff der „grünen Ökonomie“ bezeichnet Tendenzen zahlreicher Länder auf der ganzen Welt – vor allem der Industrienationen –, sich spezieller Vorschriften
und Subventionen zu bedienen, um den Übergang von konventionellen
Energieträgern auf alternative Quellen wie Wind- und Solarenergie zu
fördern und auf kleinerer Ebene den Elektrizitäts- und Brennstoffverbrauch der Haushalte durch detaillierte Beschränkungen der zulässigen
Geräte, Fahrzeuge und anderen Bedarfsartikel vorzuschreiben.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
43
Die Motivation für diese Art von Politik ist nicht ganz klar. Manchmal wird behauptet, das Ziel sei die Schaffung von Arbeitsplätzen. Die
Behauptung, dass durch Subventionen oder Vorschriften Arbeitsplätze in einer bestimmten Branche geschaffen werden könnten, ist alt
und stößt immer wieder auf dieselben Schwierigkeiten. Arbeitet die
Industrie profitabel, braucht sie keine Subventionen oder speziellen
Vorschriften, um zu wachsen. Ist sie nicht profitabel, sollte sie vom
Staat nicht subventioniert oder begünstigt werden. Unter normalen
Umständen zeigt ein Unternehmen dadurch, dass es kontinuierlich
44
Geld verliert, dass seine Erzeugnisse weniger wert sind als die Mittel,
die es in seinen Produktionsprozess investiert hat. Zwingt die Politik
die Industrie nun, dennoch zu wachsen, muss dies zwangsläufig zu einer Zerstörung von Wohlstand in der Wirtschaft führen. Berücksichtigt
man diesen Wohlstandsverlust sowie die Kosten, die den Steuerzahlern
aufgebürdet werden, das Subventionsprogramm zu finanzieren, zeigt
sich in der Regel, dass durch derlei Maßnahmen mehr Arbeitsplätze
verloren gehen, als neue geschaffen werden. Wenn die subventionsbzw. regulierungsgesteuerte Ausweitung einer Branche tatsächlich ein
verlässlicher Mechanismus zur Schaffung von Arbeitsplätzen wäre,
dürfte es angesichts der häufigen Versuche vieler Regierungen schon
längst keine Arbeitslosigkeit mehr geben.
Bisweilen geben Politiker vor, die „grüne Ökonomie“ ziele darauf
ab, die Vorteile revolutionärer neuer Technologien zu nutzen, um
nicht Gefahr zu laufen, im Wettbewerb um deren Einführung „ins
Hintertreffen zu geraten“. Gelegentlich treten tatsächlich echte neue
Technologien auf den Plan – wie beispielsweise das Internet oder der
Verbrennungsmotor oder tragbare Computer. Doch die Produktion
und Nutzung solcher Güter findet allein aufgrund der Tatsache weltweite Verbreitung, dass die Menschen diese kaufen wollen und Unternehmer davon profitieren, in Unternehmen zu investieren, die diese
anbieten können. Zu einer Verbreitung neuer Technologien kommt es
für gewöhnlich nicht, weil der entsprechende Industriezweig von der
Theoretische Grundlagen der Klimapolitik
Regierung gefördert wird. Handelt es sich um echte brauchbare Innovationen, regeln Angebot und Nachfrage den Markt von selbst. Anders
gesagt: echte brauchbare Technologien finden den Weg zu den geeigneten Nutzern über den Markt. Gelingt es der Technologie nicht, sich
allein durchzusetzen, steht zu vermuten, dass es sich entweder technologisch oder wirtschaftlich – oder aus beiderlei Hinsicht – nicht um
eine brauchbare Technologie handelt.
Schließlich wird die „grüne Ökonomie“ häufig als eine Form der
Umweltpolitik angepriesen, deren Ziel in der Regel die Reduzierung
der Treibhausgasemissionen ist. In diesem Fall jedoch verdeutlicht die
Tatsache, dass sie den oben genannten fünf Grundsätzen zuwiderläuft,
dass es sich um ein für den gewünschten Zweck im Grunde äußerst unwirksames Instrument handelt. Die Subventionierungen industrieller
Windkraftanlagen und riesiger Solarparks sind indirekte Maßnahmen
zur Umsetzung willkürlicher Mengenziele (wie bspw. die Forderung,
10 % der Elektrizität müssten aus Windenergie stammen), die ungeachtet dessen verfolgt werden, ob die Grenzkosten den Grenznutzen
übersteigen und sie angesichts anderer Maßnahmen zur direkten
Emissionsbegrenzung redundant sind. Geht es der Politik tatsächlich
um Treibhausgasemissionen, sollte sie eine auf Treibhausgasemissionen ausgerichtete Preispolitik gestalten. Maßnahmen im Rahmen einer „grünen Ökonomie“ sind bestenfalls überflüssig, schlimmstenfalls
verschwenderisch und wirtschaftsschädigend.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
45
3.
Unsicherheit bezüglich
des Grenzschadens
Wenden wir uns nun einer genaueren Diskussion der Grenzschadenskurve (GS-Kurve) zu. Angenommen, die optimale Politik besteht in
einer Emissionssteuer, so stehen wir dennoch vor der großen Herausforderung, uns nicht nur darüber zu einigen, auf welchem Niveau diese Steuer einsetzen, sondern auch wie sie sich mit der Zeit entwickeln
sollte. Um diese Fragen beantworten zu können, ist eine Betrachtung
der potenziellen Schäden erforderlich, die durch CO2-Emissionen verursacht werden können. Dieses Kapitel befasst sich mit der allgemeinen Frage, ob CO2-Emissionen als extreme Gefahr, die ein drastisches
Eingreifen erfordert, als triviale Erscheinung, die ignoriert werden
kann, oder als irgendetwas dazwischen betrachtet werden sollten. Ich
argumentiere wie folgt:
1 Es gibt genügend Anlass, CO2-Emissionen als Besorgnis erregend zu
betrachten, auch wenn nicht feststeht, in welchem Maße.
2 Die Auswirkungen der CO2-Emissionen (und anderer Treibhausgase) auf die Umwelt sind von komplexen natürlichen Rückkopplungen abhängig, deren Ausmaß nicht einfach anhand bekannter
physikalischer Grundprinzipien ermittelt werden kann und damit
zwangsläufig auf Modellannahmen beruht.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
47
3 Modellannahmen sind für sich genommen kein Beweis für das Ausmaß der gesamten ökologischen Auswirkungen von CO2 und müssen anhand konkreter Daten überprüft werden.
4 Die verfügbaren Daten variieren in Bezug auf Qualität und Zeitraum ihrer Verfügbarkeit. Die längsten Datenreihen sind für gewöhnlich von geringerer Qualität und umgekehrt. Einige der hochwertigsten Datenreihen sind inzwischen allerdings ausreichend
lang, um eine aussagekräftige Überprüfung von Modellannahmen
48
zu ermöglichen.
5 Zwischen den Klimamodellprognosen und den Beobachtungen
bestehen signifikante statistische (und klimatologische) Diskrepanzen, die darauf hinweisen, dass die Rückkopplungen geringer ausfallen als in den Klimamodellen angenommen.
6 Die derzeit existierenden Überwachungssysteme werden innerhalb
des nächsten Jahrzehnts ausreichend Daten hoher Qualität bieten,
um die bestehenden Fragen bezüglich der Auswirkungen von CO2
auf das globale Klima zu beantworten.
In den folgenden Abschnitten werden die genannten Fragen genauer
erörtert.
CO2-bedingte Erwärmung und Rückkopplungen
Die Energie der Sonne erwärmt die Erd- und die Meeresoberfläche.
Um das energetische Gleichgewicht zu wahren, muss die Erde dieselbe
Menge Energie wieder abgeben, die sie von der Sonne erhält. Die Erdund Meeresoberflächen der Erde geben auf zweierlei Arten Energie ab:
durch Radiation und durch Konvektion. Bei Radiation handelt es sich
um die Emission von Infrarotenergie in die Atmosphäre. Konvektion
Unsicherheit bezüglich des Grenzschadens
entsteht durch den Austausch von Warmluft nahe der Erdoberfläche
und Kaltluft aus den oberen Schichten der Atmosphäre, wodurch Luftströmungsmuster, Windsysteme, Wolken und Stürme sowie andere
Wettererscheinungen entstehen (Held und Soden 2000, Houghton
1997, Essex 1991).
CO2-Emissionen und andere Treibhausgase lassen die Luft für
Infrarotstrahlen undurchlässiger werden, wodurch die Effizienz der
Atmosphäre bei der Abgabe von Energie an den Weltraum gemindert
wird. Eine Aufrechterhaltung der Emissionsintensität verursacht einen
Anstieg der atmosphärischen Temperatur und Veränderungen der konvektiven Aktivität. Während die Temperaturveränderung für gewöhnlich als relativ vorhersagbar gilt, ergeben sich aus den Veränderungen
der konvektiven und zirkulativen Aktivität Turbulenzprobleme, die
anhand der bekannten Grundprinzipien der Atmosphärenphysik nicht
vorhergesagt werden können. Aus diesem Grund kommen numerische
Klimamodelle oder allgemeine Zirkulationsmodelle (General Circulation Models, GCM) zum Einsatz. Das auch den Modellen des IPCC-Berichts
von 2007 zugrundeliegende aktuelle Schema geht davon aus, dass eine
Verdoppelung der in der Atmosphäre vorhandenen CO2-Menge einen
relativ geringen Anstieg der Durchschnittstemperatur um etwa 1 °C
(siehe Held und Soden 2000) nach sich ziehen würde. Das wiederum
führt zu einer Erhöhung des Wasserdampfgehalts der Atmosphäre und
nach Berücksichtigung der Rückkopplungsprozesse, insbesondere eben
dieser Ansammlung von Wasserdampf in der Atmosphäre, zu einer
mindestens doppelt so hohen Erwärmung von zwei bis vier Grad. Ein
Großteil der Sorgen in der Politik bezüglich der CO2-Emissionen ist auf
das Ausmaß der potenziellen Rückkopplungsprozesse zurückzuführen
und weniger auf die Folgen von CO2 selbst.
Klimamodelle rechnen nicht einfach auf Grundlage der zugrundeliegenden physikalisch-theoretischen Formeln, da die Bewegungsgleichungen zwar auf lokaler Ebene wie bspw. in Bezug auf ideale Gase
oder isolierte Volumina Gültigkeit haben, nicht jedoch in bekannter
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
49
Form auf globaler Ebene anwendbar sind. Die Modelle beruhen daher
immer auf vereinfachten Darstellungen, so genannten „Parametrisierungen“, die einfache Näherungswerte unter Verwendung von empirischen oder auf Grundlage von Näherungsprozessen hergeleiteten
Koeffizienten heranziehen (Knutti 2008).
Wolken beispielsweise entstehen durch Tröpfchenbildung auf
molekularer Ebene. Da die Gleichungen, anhand derer die Tröpfchenbildung beschrieben wird, nicht für allgemeingültige Aussagen
bezüglich der durchschnittlichen Wolkendecke herangezogen werden
50
können, müssen empirische Näherungsmodelle entwickelt werden,
die von anderen in der Atmosphäre über einer bestimmten Region
herrschenden Bedingungen wie Temperatur, Windmuster, Atmosphärenchemie usw. ausgehen, um die durchschnittliche Wolkendecke
über großen Regionen und lange Zeiträume vorherzusagen. Schwankungen in der modellhaften Darstellung des Wolkenverhaltens sind
die Ursache für einige der größten Abweichungen von einem Modell
zum anderen (Kiehl 2007, CCSP 2008, Seite 41). Bereits geringfügige
Schwankungen beim Ausmaß der Rückkopplungsprozesse können zu
großen Abweichungen bei der simulierten Klimasensitivität gegenüber Treibhausgasen führen.
Da viele der Prozesse, die für das Ausmaß der Rückkopplung
grundlegend sind, auf empirischen Näherungswerten beruhen, ist
eine Prüfung der GCM-Ergebnisse in Bezug auf Daten aus Beobachtungen für die Bestätigung oder Ablehnung der den GCM in Form von
Parametrisierungen zugrundeliegenden Annahmen von wesentlicher
Bedeutung. Weder können Modellversuche als Prüfung für die Gültigkeit von Modellen dienen, noch kann die Ähnlichkeit von Modellversuchen in verschiedenen Modellgruppen als Nachweis für die Gültigkeit
von Modellen dienen, da allen dieselben Fehler zugrundeliegen können. Modelle müssen daher immer in Bezug auf aus Beobachtungen
gewonnenen Daten geprüft werden.
Unsicherheit bezüglich des Grenzschadens
Klimadaten
Um überhaupt eine Aussage über potenzielle Schäden treffen zu können, die auf die globale Erwärmung zurückzuführen sind, ist eine Messung der Klimaveränderungen erforderlich. Nachfolgend werden die
im Allgemeinen herangezogenen Datenquellen untersucht.2
Daten in Bezug auf die Erdoberfläche
Bezüglich der Erdoberfläche gibt es drei zentrale globale Temperaturdatenreihen. Das Institut für Klimaforschung der Universität von East
Anglia (Climate Research Unit, CRU) veröffentlicht die CRUTEM-Daten,
die in Jones et al. (1999) beschrieben sind, sowie die aktualisierten Fassungen CRUTEM2 (Jones und Moberg 2003) und CRUTEM3 (Brohan et
al. 2006). Die abweichungsbereinigte Fassung ist unter der Bezeichnung CRUTEM3v bekannt. Eine weitere Datenreihe stammt vom Goddard Institute of Space Studies (GISS) der NASA, eine dritte von der USamerikanischen National Oceanic and Atmospheric Administration
(NOAA). Alle drei Datenreihen greifen auf das als GHCN – Global Historical Climatology Network – bekannte Wetterdatenarchiv zurück.3
2 Dieser Abschnitt greift auf zuvor in McKitrick (2010d) veröffentlichte Daten zurück.
3 Die Internetadresse des GHCN lautet http://www.ncdc.noaa.gov/oa/climate/ghcn-monthly/
index.php. Eine Liste der Quellen findet sich unter http://www.ncdc.noaa.gov/oa/climate/ghcnmonthly/source-table1.html.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
51
GHCN-Zahlung der Wetterstationen
Abbildung 5
Unbereinigte GHCN-Daten
Um fehlende Daten und Mehrfachzählungen bereinigte GHCN-Daten
6.000
Global
6.000
Nördliche
Hemisphäre
6.000
4.500
4.500
4.500
3.000
3.000
3.000
1.500
1.500
1.500
Südliche
Hemisphäre
52
0
0
191019501990
0
191019501990
Datenquelle: GHCN | Für detailierte Berechnungen vgl. McKitrick (2010d)
Unsicherheit bezüglich des Grenzschadens
191019501990
Das GHCN wurde in den frühen 1990er Jahren als Kooperationsprojekt des Carbon Dioxide Information and Analysis Center (CDIAC)
und des National Climatic Data Center (NCDC) ins Leben gerufen. Ziel
war der Aufbau eines gegenüber den damals über das CRU oder andere
Forschungsinstitute erhältlichen Daten umfassenderen Temperaturdatenarchivs. Die erste Version wurde im Jahr 1992 (Vose et al. 1992)
auf Grundlage von Bestandsdaten ohne Korrektur von Inhomogenitäten veröffentlicht4. Die zweite Version (GHCN v2) erschien im Jahr
1997 und ist in Peterson und Vose (1997) beschrieben. Erläuterungen
zu den Methoden der Qualitätssicherung finden sich in Peterson et al.
(1998). Während der Vorbereitung von GHCN v2 nahmen die Autoren
einige Korrekturen von Inhomogenitäten vor und ergänzten die Daten der Messstationen im Hinblick auf ein besseres Verständnis der
Quellenqualität durch die Nutzer um Metadaten wie die umliegende
Bevölkerung sowie um genaue Informationen zu den Standorten der
einzelnen Messstationen.
Wie Abbildung 5 zeigt, stehen für die nördliche Hemisphäre fünfmal mehr Wetteraufzeichnungen zur Verfügung als für die südliche
Hemisphäre. Die Gesamtanzahl der Wetteraufzeichnungen des GHCN
erreichte in den 1960er und 1970er Jahren einen Höhepunkt und
nahm seitdem in beiden Hemisphären deutlich ab. Dieser Trend setzte sich nach 1989 fort, bis schließlich im Jahr 2005 ein schwerer Einbruch zu verzeichnen war. Der mittlere bzw. linke Teil der Abbildung
4 Der Begriff „Inhomogenitäten“ ist in Bezug auf Temperaturdaten eher untechnisch definiert
und bezeichnet ursprünglich eine durch Veränderungen der Gerätschaften, Veränderungen der
Beobachtungszeit, die Verlegung einer Wetterstation o. Ä. hervorgerufene Messdiskontinuität.
Einige Autoren verwenden den Begriff auch, um Messabweichungen aufgrund von Urbanisierung,
Veränderungen der Landnutzung und anderen nichtklimatischen Einflüssen abzubilden, auch
wenn hierfür viele Autoren auf eine unterschiedliche Begrifflichkeit zurückgreifen. Wenn also
in Bezug auf ein Archiv wie dem GHCN von einer „Korrektur von Inhomogenitäten“ die Rede ist,
kann dies daher als „Korrektur von Messdiskontinuitäten“, nicht notwendigerweise jedoch als
„Korrektur von durch lokale, nichtklimatische Einflüsse hervorgerufenen Messabweichungen“
ausgelegt werden.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
53
zeigt die nördliche bzw. südliche Hemisphäre und belegt, dass es sich
bei der sinkenden Anzahl von Wetterstationen um ein globales Phänomen handelte. Der Messumfang ist von seinem Höhepunkt Anfang
der 1970er Jahre um etwa 75 % auf den tiefsten Wert seit dem Ende des
neunzehnten Jahrhunderts gesunken. Aktuell erfasst das GHCN weniger Temperaturdaten als zu Ende des Ersten Weltkrieges.
Während GHCN v2 zumindest über Daten aus nahezu allen Gegenden der Welt verfügt, liegen für das gesamte 20. Jahrhundert weitestgehend auf die USA, Südkanada, Europa und einige wenige andere
54
Standorte beschränkte Daten vor. Die globale Abdeckung mit vollständigen täglichen Aufzeichnungen (einschließlich der Ablesung der
Höchst- und Tiefstwerte sowie von Durchschnittswerten) ist seit 1900
äußerst unvollständig. Abgesehen von den USA, Südkanada und den
australischen Küstenregionen liegen nur wenige entsprechende Aufzeichnungen, für das Landesinnere ganzer Teile von Südamerika, Afrika, Europa und Asien überhaupt keine Beobachtungen vor (Peterson
und Vose 1997, Abbildungen 3 und 4).
Von den 31 für das GHCN herangezogenen Datenquellen sind nur
für drei regelmäßige monatliche Aktualisierungen erhältlich. Bei zweien davon handelt es sich um US-Netzwerke, bei dem dritten um ein
aus 1.500 Stationen bestehendes Netzwerk, das über das so genannte
CLIMAT-Netzwerk automatisch Wetterdaten übermittelt.
Die Veränderung der verwendeten Datenquellen erfolgte in Bezug
auf die Art der Quellen nicht einheitlich. So haben sich die Messungen
beispielsweise hin zu Flughafenstandorten verlagert, die dem Problem
unterworfen sind, dass sie sich häufig an urbanen oder suburbanen
Standorten befinden, die in den vergangenen Jahrzehnten errichtet
wurden. Zudem hat der zunehmende globale Luftverkehr zu einer
Erwärmung durch Faktoren wie Verkehr, Straßenwege, Gebäude und
Abfall geführt, die ausnahmslos nur schwer aus den Temperaturaufzeichnungen herausgenommen werden können. Wie Abbildung 6 zu
entnehmen ist, kam es infolge der oben gezeigten Stationsverluste
Unsicherheit bezüglich des Grenzschadens
zu einer Zunahme der Beobachtungen von Flughafenstandorten. Die
meisten Regionen wiesen hier mit 40 % oder mehr im Jahr 1980 bereits zu Beginn hohe Werte auf. Gegenüber knapp über 20 % in den
späten 1920er Jahren stammt heute mindestens die Hälfte der regionalen Messungen von Flughäfen.
Die CRUTEM-Daten beruhen fast vollständig auf dem GHCN. Infolge eines 2007 gestellten Antrags gemäß dem Freedom of Information Act5 , der allen US-Bürgern freien Zugang zu den Akten, Unterlagen und Informationen der Verwaltung gewährt, gab das CRU offiziell
an, dass die von ihm verwendeten Stationsdaten aus zwei Quellen
stammten: dem GHCN und dem US-amerikanischen National Center for Atmospheric Research (NCAR) in Form der Datensätze ds540.0
und ds570.0. Auf der NCAR-Website entspricht ds540.0 im Wesentlichen dem GHCN v2 (http://dss.ucar.edu/datasets/ds564.0/). Bei dem
Datensatz ds570.0 handelt es sich um die World Monthly Surface Station Climatology (http://dss.ucar.edu/datasets/ds570.0/), die größte
Einzelkomponente des GHCN-v2-Archivs (Peterson und Vose (1997),
Tabelle 1). In einer weiteren Darstellung gab das CRU den Anteil der aus
diesen Quellen stammenden Daten mit etwa 98 % an.
5 Das Korrespondenzarchiv findet sich im Internet unter http://climateaudit.files.wordpress.
com/2008/05/cru.correspondence.pdf.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
55
Anzahl GHCN-Stationen an Flughäfen in Prozent
im Zeitraum 1890 – 2009
80
Global
80
Nördliche
Hemisphäre
Abbildung 6
80
60
60
60
40
40
40
20
20
20
Südliche
Hemisphäre
56
0
0
1890193019702010
0
1890193019702010
1890193019702010
Quelle: GHCN | Für detaillierte Berechnungen siehe McKitrick (2010d)
Die globalen Temperaturdaten des Goddard Institute of Space Studies der NASA gehen auf drei Ausgangsarchive zurück: GHCN v2 für
die gesamte Welt mit Ausnahme der USA und der Antarktis, das US
Historical Climatology Network (USHCN, ebenfalls ein NCDC-Produkt)
sowie ein Archiv der Antarktisstationen des Scientific Committee on
Antarctic Research6. Der größte Teil der von den USA in das GHCN eingespeisten Daten stammt aus dem USHCN, das jedoch auch seine eigenen Anpassungen zur Qualitätssicherung vornimmt.
6http://data.giss.nasa.gov/gistemp/sources/gistemp.html
Unsicherheit bezüglich des Grenzschadens
Die NOAA veröffentlicht monatlich eine Übersicht über globale
Temperaturanomalien (http://www.ncdc.noaa.gov/cmb-faq/anomalies.html). Auf der NOAA-Website findet sich der Hinweis, dass die Landaufzeichnungen aus dem GHCN-Archiv stammen. Weitere Quellen
sind nicht aufgeführt. Die drei zentralen Rasterdatensätze in Bezug
auf globale Temperaturanomalien beruhen daher ausschließlich bzw.
nahezu ausschließlich auf Daten aus dem GHCN-Archiv. Die Probleme des GHCN wie Messdiskontinuitäten und Verunreinigungen durch
Urbanisierung und andere Formen veränderter Landnutzung wirken
sich daher auch auf die Daten des CRU, des GISS und der NOAA aus.
Die mit der Zeit abnehmende Qualität der GHCN-Daten führt damit
zu einer ebenfalls abnehmenden Qualität der Datensätze des CRU, des
GISS und der NOAA sowie zu einem stärkeren Einfluss durch Datenanpassungen zum Ausgleich von Messabweichungen.
Daten in Bezug auf die Meeresoberfläche
Alle historischen Daten bezüglich der Meeresoberflächentemperatur
(Sea Surface Temperature, SST) sind dem International Comprehensive Ocean-Atmosphere Data Set (ICOADS, http://icoads.noaa.gov/) oder
einem seiner Vorgängerarchive entnommen. Das ICOADS kombiniert
etwa 125 Millionen SST-Datensätze aus Schiffsaufzeichnungen sowie
weitere 60 Millionen Werte aus Bojen und anderen Quellen (Woodruff
et al. 2005). Das ICOADS stützt sich auf eine große Sammlung von Eingangsdaten, wobei jedoch darauf hingewiesen werden sollte, dass sich
bspw. aufgrund von Veränderungen der räumlichen Abdeckung, der
Beobachtungsinstrumente und der Messzeiten sowie der Größe und
Geschwindigkeit des Schiffes gravierende Schwierigkeiten ergeben. Im
Grunde handelt es sich bei den ICOADS-Datensätzen um eine große
Ansammlung problematischer Daten.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
57
Das britische Hadley Centre erstellt hinsichtlich der Meeresoberflächentemperatur zwei gerasterte Datensatzsammlungen: HADSST2
und HADISST (Beschreibungen finden sich unter www.hadobs.org).
Die in der Sammlung HADSST2 verzeichneten Datensätze werden
mit den CRUTEM-Daten für die Erdoberfläche zu dem so genannten
globalen HADCRU-Datensatz kombiniert. Die HADSST2 zugrundeliegenden Methoden sind in Rayner et al. (2006) dargestellt. Bis 1997
verwendete HADSST2 die ICOADS-Daten, 1998 erfolgte die Umstellung auf ein ICOADS-Teilsystem namens Near Real-Time (NRT) Mari58
ne Observations (http://icoads.noaa.gov/nrt.html). Das ICOADS weist
darauf hin, dass beide nicht vollständig konsistent sind (siehe http://
icoads.noaa.gov/products.html). Ende 2010 läuft das NRT-System
aus, da das ICOADS-System nunmehr hinreichend automatisiert ist,
um kontinuierlich aktualisiert werden zu können; das Hadley Centre
wird in der Folge vermutlich wieder auf die ICOADS-Daten als Quelle
zurückgreifen.
Die HADSST2-Datensatzsammlung weist Lücken und spärliche
Daten in der Oberflächenabdeckung auf. Die HADISST-Datensatzsammlung bietet unter Verwendung von Interpolationsmethoden
eine „vollständige“ globale Abdeckung bzw. anders ausgedrückt Zahlen für jede Rasterzelle. Wichtigste Datenquelle ist die britische Met
Office’s Marine Data Bank, die bis 1995 durch ICOADS-Daten aufgefüllt
wurde. Fehlende Rasterzellen werden durch eine auf Hauptkomponentenanalysen beruhende numerische Methode ergänzt. Nach 1982 flossen Satellitendaten in den Interpolationsalgorithmus ein.
Die NOAA verwendet zur Ermittlung der so genannten Extended
Reconstruction Sea Surface Temperature (ERSST) ICOADS-Daten. Seit
1985 griff die NOAA zur Abdeckung in den Polargebieten auf Satellitenbeobachtungen des Advanced Very High Resolution Radiometer (AVHRR) zurück, stellte dabei jedoch einen leichten Rückgang des Trends
fest und führte diesen Effekt auf systematisch zu niedrig gemessene
Temperaturen (Cold Bias) zurück, sodass die Satellitendaten in der
Unsicherheit bezüglich des Grenzschadens
Folge entfernt wurden (siehe http://www.ncdc.noaa.gov/oa/climate/
research/sst/ersstv3.php).
Das GISS verwendet andere NOAA-Daten, nämlich die Optimal Interpolation Version 2 (OI.v2) Datenbank von Reynolds et al. (2008), die
bis 1998 auf ICOADS-Daten beruhte. Anschließend erfolgte wie beim
Hadley Centre eine Umstellung auf ein kontinuierlich aktualisiertes
Teilsystem, wodurch mit einem Mal etwa 20 % der Messungen verloren
gingen. Das aktualisierte Teilsystem wird durch Bojendaten ergänzt, da
viele Schiffsaufzeichnungen nur als Hardcopy vorgelegt werden. Die
OI.v2-Datenbank greift zudem auf AVHRR-Satellitendaten zurück, um
die Interpolation für Regionen, in denen keine Messungen stattfinden,
zu verbessern. Im Gegensatz zum ERSST-Datensatz finden die Satellitendaten in den OI.v2-Datensatz nach wie vor Eingang.
Bis in die 1930er Jahre beschränkte sich die Meeresdatenerfassung
auf die Gebiete, in denen Schiffsverkehr herrschte. In den meisten Regionen des Südpazifik, in etwa in dem Bereich südlich einer Linie von
der Halbinsel Baja California bis zur Südspitze Afrikas, wurden innerhalb eines Jahrzehnts weniger als 99, in vielen Gebieten überhaupt keine Messungen durchgeführt. In den 1970er Jahren war die Abdeckung
mit Ausnahme von Südaustralien, Südamerika und Afrika nahezu
komplett. Heute fehlen auf der Karte nur noch einige Polargebiete
(Woodruff et al. 2008, Abbildung 5).
Die Daten für die Zeit vor 1978 stammen nahezu vollständig aus
Schiffsaufzeichnungen. Seit 1978 erfolgt die Datenerfassung hauptsächlich mittels Treib- und Mooringbojen (Woodruff et al. 2008). Messungen auf Schiffen und Bojen werden als In-Situ-Messungen bezeichnet. Eine weitere Datenquelle, die in den vergangenen Jahrzehnten an
Bedeutung gewann, sind Satellitenbeobachtungen der Meeresoberfläche, die dazu dienen, die Abdeckung auch auf Gebiete außerhalb der
In-Situ-Gebiete auszuweiten. Rayner et al. (2003) weisen jedoch darauf hin, dass auch Satellitensysteme mit Schwierigkeiten verbunden
sind. Satellitenmessungen der Meeresoberflächentemperatur weisen
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
59
Ungenauigkeiten auf, sobald eine Wolkendecke vorhanden ist und es
zu Schwankungen hinsichtlich des Staubs und der Aerosole in der Atmosphäre kommt. Infrarotdaten aus dem AVHRR-System können die
SST zwar exakt messen, müssen jedoch gegenüber den bestehenden
SST-Datensätzen kalibriert werden, um Messgeräteabweichungen zu
vermeiden. Bei tief hängenden Wolkendecken und hoher Aerosolbelastung sind die Messungen unzuverlässig. Neue Satellitenplattformen
wie die Tropical Rainfall Measuring Mission (TRMM) und das Advanced Microwave Scanning Radiometer (AMSR-E) haben in den vergan60
genen Jahren die Möglichkeiten der Datenerfassung bei Vorliegen von
Wolken und Aerosolen deutlich verbessert.
Schiffsdaten werden aufgrund der Vermischung von zwei unterschiedlichen Messtypen skeptisch beäugt. Früher wurde zur Messung
der SST ein Eimer Wasser von der Meeresoberfläche an Deck eines
Schiffes gezogen und die Temperatur des Wassers mit einem Thermometer gemessen. Je nachdem, was für ein Eimer dafür verwendet
wurde – bspw. ein Holzeimer oder ein vom Wetteramt ausgegebener
Segeltucheimer –, wurden verschiedene Messergebnisse erzielt, die in
Bezug auf die tatsächliche Temperatur häufig nach unten abwichen
(Thompson et al. 2008). Zu Beginn des 20. Jahrhunderts erfolgten die
Messungen angesichts der Ablösung von Segelschiffen durch Motorschiffe zunehmend über Sensoren, welche die Temperatur des in das
Motorkühlsystem eingesaugten Wassers überwachten. Diese Daten
weichen gegenüber der tatsächlichen SST für gewöhnlich nach oben
ab (Thompson et al. 2008). Insgesamt wird davon ausgegangen, dass
US-amerikanische Schiffe recht schnell auf diese motorgetriebenen
Ansaugsysteme umgestellt haben, wohingegen britische Schiffe ihre
Messungen deutlich länger mithilfe der Eimermethode durchführten.
In jüngerer Zeit wurden von einigen Schiffen über Rumpfsensoren ermittelte Messdaten übermittelt, und durch veränderte Schiffsgrößen
fanden zudem künstliche Trends Eingang in die ICOADS-Datensätze
(Kent et al. 2007).
Unsicherheit bezüglich des Grenzschadens
Bis vor kurzem ging man davon aus, dass der Übergang von unisolierten bzw. teilisolierten Eimern hin zu Ansaugsystemen plötzlich
im Dezember 1941 mit Eintritt der USA in den Zweiten Weltkrieg erfolgte (Folland und Parker 1995). Das Hadley Centre korrigierte daraufhin seine SST-Daten aus der Zeit vor 1941 aufgrund der Annahme,
die Eimermessung sei zu diesem Zeitpunkt eingestellt worden, nach
oben. Als Kent et al. (2007) jedoch kürzlich Schiffsmetadaten zusammentrugen, stießen sie darauf, dass in den von Schiffen stammenden
ICOADS-Daten im Jahr 1980 nach wie vor etwa die Hälfte aus solchen
Eimermessungen stammte.
Bei der Verwendung der Kent-Daten legten Thompson et al. (2008)
ein weiteres Problem im Zusammenhang mit den SST-Daten in den
Jahren 1945 und 1946 offen: zwischen 1940 und 1945 war der Anteil
der von US-Schiffen stammenden Daten explosionsartig auf mehr als
80 % der Proben angestiegen; mit dem Ende des Zweiten Weltkrieges
hingegen stieg der Anteil der Daten aus Großbritannien innerhalb
eines Jahres von etwa 0 % auf etwa 50 % der Gesamtdaten an, wohingegen die USA weniger Daten lieferten als zuvor. Gleichzeitig fiel der
ICOADS-Durchschnitt um etwa 0,5 °C, was einer starken Verfälschung
gleichkommt, die in den veröffentlichten globalen Temperaturreihen
sichtbar wird. Thompson et al. weisen darauf hin, dass die Auswirkungen der Korrektur dieses Temperaturknicks in der Mitte des Jahrhunderts erheblich sein können. Wird diese Diskontinuität zur Anpassung an die vor 1945 erfassten Datenreihen durch Erhöhung der nach
1945 erhobenen Daten gelöst, flachen die Reihen ab und lassen für
den Zeitraum von etwa 1940 bis in die späten 1990er Jahre keinerlei
Rückschlüsse auf eine Erwärmung zu. Das im 20. Jahrhundert vorherrschende Verständnis der Erderwärmung wird dadurch drastisch verändert. Wird die Diskontinuität hingegen gelöst, indem die nach 1945 erfassten Datenreihen durch eine Verringerung der vor 1945 erhobenen
Daten harmonisiert werden, führt dies zu einem deutlich längeren
und über das gesamte 20. Jahrhundert anhaltenden Erwärmungstrend
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
61
als angenommen. In beiden Fällen wird die wie auch immer geartete
Entscheidung über die Beseitigung dieser kürzlich entdeckten schwer
identifizierbaren Diskontinuität in den SST-Datenreihen eine weit gefasste Überprüfung des aktuellen Verständnisses der globalen Erwärmung zur Folge haben.
Eine weitere Schwierigkeit zeigt sich, ähnlich wie bei den Erdoberflächendaten, in einem beständigen Rückgang der Anzahl von Schiffen, die sich in den vergangenen Jahren bereit erklärt haben, Daten für
das ICOADS zu liefern. Die neue weltweite ARGO-Flotte (www.argo.net)
62
deckt seit 2003 für die gesamten Weltmeere bis in eine Tiefe von 2.000
Metern die Messungen von Temperatur, Salzgehalt und Strömungen
ab. Einen vollständigen Ausgleich der immer weniger werdenden
Schiffsdaten kann diese Flotte jedoch nicht leisten, da sie keine direkten Messungen der SST vornimmt. Stattdessen beginnt ihr Profiling in
einer Tiefe von 10 Metern unter dem Meeresspiegel, wohingegen ihre
Ansaugpumpen in einer Tiefe von 8 Metern unter dem Meeresspiegel
automatisch abschalten.
Eine weitere Herausforderung stellt das Meereis dar. Die Schifffahrt in eisbedeckten Regionen ist gefährlich, sodass aus der Zeit vor
dem Einsatz von Satelliten (etwa ab 1978) nur spärliche Daten vorliegen. Für die Zeit zwischen 1901 und 1995 liegen zwar Diagramme
über die Meereiskonzentration in der nördlichen Hemisphäre vor,
doch können nur die Ränder beobachtet werden und die darüber hinausgehende Abdeckung ist als einheitlich anzunehmen (Rayner et al.
2003). Eine weitere Schwierigkeit besteht darin, dass für die Herbstund Wintermonate (September bis März) überhaupt keine Daten
vorliegen, sodass die Meereiskonzentration in den Randgebieten auf
Grundlage der Daten aus den Sommermonaten geschätzt werden
muss. Daten über das in der Antarktis vorhandene Meereis wurden
erst ab 1973 mit Beginn der Satellitenbeobachtungen verfügbar. Aus
früheren Jahren liegen nur einige Beobachtungen von Forschungsexpeditionen vor. Die HADISST-Datenreihe des Hadley Centre greift für
Unsicherheit bezüglich des Grenzschadens
die Jahre zwischen 1929 und 1939 auf Daten aus Deutschland zurück
und rechnet auf deren Grundlage zurück bis in das Jahr 1871. Für den
Zeitraum 1947 – 1962 dienen russische Forschungsdaten als Grundlage, Daten für andere Jahre wurden bis zu den ersten Satellitenmessungen durch Interpolation gewonnen.
Für die Erstellung globaler Datensätze wird die SST in der Annahme mit den GHCN-Daten für die Erdoberfläche kombiniert, beide zusammen ergeben einen Durchschnittswert für die oberflächennahe
Lufttemperatur. Aufzeichnungen der Meereslufttemperatur (Marine
Air Temperature [MAT] im Gegensatz zur SST) gibt es nur sehr wenige, die zudem durch die im Verlaufe des Jahrhunderts zunehmende
Schiffshöhe beeinträchtigt wurden und daher im Zeitverlauf, außer in
den Fällen, in denen die Messung auf gleicher Höhe erfolgt ist, nicht
streng vergleichbar sind. Die Übereinstimmung zwischen SST- und
Lufttemperaturtrends wurde in einigen wenigen Fällen untersucht.
Christy et. al. (2001) konzentrierten sich dabei auf Standorte, an denen
sie die Luft- und die SST-Messungen an ein und demselben Ort direkt
miteinander vergleichen konnten. Die Untersuchung umfasste von
Schiffen erfasste Daten bezüglich der Meereslufttemperatur sowie Daten von Wettersatelliten, Wetterballons und einer Reihe von Bojen im
tropischen Pazifik. Die Daten aus dem Bojennetz sind dabei besonders
hilfreich, da diese an ein und demselben Ort sowohl die Temperatur
einen Meter unter der Oberfläche als auch drei Meter über der Oberfläche messen. Bei allen Vergleichen der SST mit der Lufttemperatur trat
zutage, dass das Meer sich gegenüber der Luft erwärmt hat, was darauf
hindeutet, dass die SST gegenüber den Lufttemperaturtrends zu hoch
angegeben wurde. Darüber hinaus weisen drei der Lufttemperatur-Datensätze (Satellit, Ballon und Reanalyse) darauf hin, dass sich die Meereslufttemperatur direkt über der Meeresoberfläche in den Tropen seit
1979 alle zehn Jahre um durchschnittlich 0,01 bis 0,06 °C abgekühlt
hat, während die SST-Daten auf eine Erwärmung schließen ließen. Die
Autoren berechneten daher die globalen Durchschnittstemperaturen
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
63
für den Zeitraum von 1979 bis 1999 für Zeiträume, für die Lufttemperaturdaten anstelle von SST-Daten vorlagen, neu, woraus sich eine
Reduzierung des globalen Trends um 0,05 °C pro Jahrzehnt ergab.
Messungen der Lufttemperatur per Satellit
Eine Alternative zu Oberflächendaten eröffnete sich, als Spencer und
Christy (1990) neue Klimadatenreihen veröffentlichten, die auf einer
Auswertung von Daten der von der National Oceanographic and At64
mospheric Administration (NOAA) der USA 1979 ins All geschickten
Wettersatelliten Tiros-N geliefert worden waren. Diese Satelliten sind
mit so genannten Microwave Sounding Units (MSU) ausgestattet, die
die von Sauerstoffmolekülen in verschiedenen Schichten der Atmosphäre abgegebene Strahlung messen und so täglich eine nahezu vollständige Übersicht über die gesamte Tropos- und Stratosphäre liefern.
Jede Messung kann dabei stellvertretend für den Gesamtdurchschnitt
der Lufttemperatur betrachtet werden.
Der Vorteil der MSU-Reihe besteht darin, dass Spencer und Christy durch die Kalibrierung der MSU-Daten gegenüber Messungen der
Lufttemperatur aus einem globalen Radiosondennetz7 in der Lage waren, die erste auf einer konsistenten Probenmethode beruhende globale Durchschnittstemperaturreihe für die gesamte Atmosphäre und
vor allem die besonders wichtige Troposphäre vorzulegen. Allerdings
zeigten sich unter anderem auch folgende Nachteile:
7 Bei Radiosonden handelt es sich um auf Wetterballons montierte Thermometer, die aus
unterschiedlicher Höhe Temperaturmessdaten an am Boden befindliche Monitore übermitteln.
Ein Netzwerk meteorologischer Stationen wird so mit globalen Daten gespeist.
Unsicherheit bezüglich des Grenzschadens
>> Die Messdatenreihen reichen nur bis 1979 zurück. Auch wenn auf
diesem Wege also inzwischen Messdaten aus den 30 Jahren vorliegen, in denen die Erdoberfläche sich am stärksten erwärmt hat, können daraus keine Schlüsse bezüglich der Erwärmungsmuster in der
Mitte des 20. Jahrhunderts gezogen werden.
>> An verschiedenen Punkten der Reihen wurden Satelliten ausgetauscht, sodass der Trend durch die Messpunktkalibrierung beeinflusst worden sein kann.
Die Daten von Spencer und Christy werden üblicherweise nach den
Initialen der Universität von Alabama in Huntsville, an der die beiden
Forscher tätig sind, als UAH-Reihe bezeichnet. Ein unabhängiger Algorithmus zur Auswertung der MSU-Daten wurde von dem kalifornischen Forschungsunternehmen Remote Sensing Systems (RSS) entwickelt (Mears et al 2003). Beide existierenden Versionen ähneln sich außerhalb der Tropen stark, wohingegen die RSS-Reihen über den Tropen
einen deutlich höheren Trend aufweisen, was mit einem stufenartigen
Anstieg um 1992 zusammenzuhängen scheint, der sich zeitgleich mit
einem Satellitenaustausch ereignete (Christy et al. 2010). Aus den
RSS-Daten lässt sich für die Zeit nach 1993 relativ zu Wetterballondaten (Randall und Herman 2008) und Reanalysedaten8 (Bengtsson und
Hod­ges 2010) sowie im Vergleich zu einigen anderen regionalen Datensätzen (Christy et al. 2010) eine Erwärmung ablesen.
Durch das RSS-Team wurde als Problem erkannt, dass es aufgrund
eines Höhenverlustes durch veränderte Satellitenbahnen mit der Zeit zu
verfälschten Abkühlungstrends kommen könnte. Sowohl die UAH- als
8 Reanalysedaten werden auf Grundlage von Wetterprognosen für die nächsten 6 und 12 Stunden
gewonnen. Die Wettermodelle werden auf Grundlage von Beobachtungen definiert und liefern
vollständige räumliche Daten für unterschiedliche Atmosphäreschichten. Da kurzfristige
Prognosen die höchste Zuverlässigkeit aufweisen, stellen diese eine gute Datenquelle zum
Vergleich mit direkten Beobachtungen dar.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
65
auch die RSS-Forscher haben als Ausgleich für diesen Effekt historische
Korrekturen entwickelt. Nach 2002 begann das UAH-Team mit der Integration von MSU-Daten aus dem so genannten AQUA-Satellitensystem,
das dank eines eigenen Antriebssystems auf konstanter Höhe gehalten
werden kann. Von RSS werden keine AQUA-Daten verwendet.
Abschließende Bemerkungen
Mein Eindruck der verschiedenen zur Messung des globalen Klima66
wandels zur Verfügung stehenden Datensammlungen ist, dass die
längsten Datenreihen, d. h. die Datenreihen in Bezug auf die Erd- und
die Meeresoberfläche, gravierende Probleme hinsichtlich ihrer Erhebung, Kontinuität und Qualität aufweisen, sodass eine langfristige
Kontinuität der Daten illusorisch ist. Die Schwierigkeiten im Zusammenhang mit der Erhebung von Daten für die Erdoberfläche haben
sich in den vergangenen Jahrzehnten ausgeweitet. Ferner kann der
Aussage, der Abgleich der drei globalen Datenreihen untereinander
komme einer Qualitätsprüfung gleich, nicht zugestimmt werden, da
alle auf denselben Archiven basieren und damit eine nur unzureichende Unabhängigkeit aufweisen. Die MSU-Satellitendatenreihe ist
kürzer, verfügt jedoch hinsichtlich von Konsistenz und Vollständigkeit
der Datenerfassung, der Qualität der Geräteausstattung sowie der Validierung gegenüber unabhängigen Beobachtungsplattformen über
klare Vorteile. Für Zwecke der politischen Entscheidungsfindung halte
ich die MSU-Daten für das am meisten geeignete System.
Vergleich von Modelldaten
Parametrisierungen sind in Modellen unvermeidbar. Daher ist es
umso wichtiger, dass die verschiedenen Klimamodelle zur Beurteilung der Qualität der empirischen Näherungswerte konkreten Daten
gegenübergestellt werden. Einfache eindimensionale Vergleiche der
Unsicherheit bezüglich des Grenzschadens
anhand von Modellen generierten globalen Durchschnittstemperatur mit auf Beobachtungen basierenden globalen Durchschnittswerten finden sich im 20. Jahrhundert vielfach (z. B. Knutson et al.
2006, CCSP 2008). Der globale Durchschnitt wird jedoch von einem
langsamen und stetigen Aufwärtstrend beherrscht; die Entwicklung
eines Modells, das einen einfachen Aufwärtstrend aufweist, ist nicht
schwierig. Angesichts der großen Zahl widersprüchlicher Hypothesen, die zu einer solchen Form führen können, ist die Feststellung
einer Übereinstimmung zwischen Beobachtungen und Modellen des
globalen Durchschnitts allein als Beweis nicht ausreichend. Knutti
(2008), CCSP (2008, Seite 44), Knutti und Hegerl (2008), Kiehl (2007),
Hegerl et al. (2007, Seite 678), Schwartz et al. (2007) und andere haben
darauf verwiesen, dass der beobachtete globale Durchschnittstrend
gleichermaßen konsistent mit stärkeren und schwächeren Annahmen bezüglich der Sensitivität gegenüber einer durch Treibhausgase verursachten Erwärmung sein kann, wenn er mit ausgleichenden
Annahmen bezüglich einer aerosolbedingten Abkühlung, einer Wärmeaufnahme durch die Weltmeere oder anderen Mechanismen in
Verbindung gebracht wird. In der Praxis weisen Modelle, die von einer
stärkeren Sensitivität gegenüber Treibhausgasen ausgehen, in einem
Maße eine Tendenz zu einem stärken Ausgleich durch Abkühlungsmechanismen auf, das nicht zufällig erscheint (Kiehl 2007).
Die GCM-Auswertung gemäß Kapitel 8 des vierten Berichts des
Zwischenstaatlichen Ausschusses für Klimaänderungen (IPCC) (Randall et al. 2007) besteht vorrangig aus statischen Reproduktionstests,
die Aussagen über die Verteilung der Durchschnittstemperatur und
der Niederschlagshöhen ermöglichen, jedoch keine weltweiten Trends
reproduzieren, und a priori-Kontrollen, um festzustellen, ob bekannte meteorologische Prozesse in die Modelle Eingang gefunden haben.
Der IPCC weist darauf hin, dass relativ wenige Studien die Frage aufgeworfen haben, ob die empirische Treue zwischen den Modellsimulationen der Vergangenheit und den dazugehörigen Beobachtungsda-
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
67
ten die Genauigkeit von Klimatrendprognosen verbessern (Randall et
al. 2007, Seite 594). Daher sind Methoden zur Bewertung der Modelle
entsprechend ihrer Fähigkeit, verschiedene räumliche Trendmuster zu
erfassen, erforderlich. Berk et al. (2001) verwiesen diesbezüglich darauf,
dass nur wenige quantitative Vergleiche von Modellergebnissen und
mit aus Beobachtungen gewonnenen Daten vorlägen, die sich zudem
noch „extrem auf subjektive Bewertungen stützen“ (Berk et al., Seite
126). Die Situation hat sich seit 2001 kaum verändert. Weder die Überprüfung der GCM durch das US-amerikanische Climate Change Science
68
Program (CCSP 2008) noch der jüngste Bericht des IPCC liefern statistische Untersuchungen darüber, wie gut Klimamodelle das räumliche
Temperaturtrendmuster der vergangenen Jahrzehnte reproduzieren.
Stattdessen verlassen sie sich auf subjektive Bewertungen. In Kapitel 9
des IPCC-Berichts (Hegerl et al. 2007) finden sich die Diskussion eines
Diagramms (Abbildung 9.6, Seite 684 – 686) über die durchschnittlichen Ergebnisse aus 58 GCM-Simulationen und das besondere Temperaturmuster von Trends an der Erdoberfläche zwischen 1979 und 2005,
wobei Modellsimulationen, die von der Annahme ausgehen, das Klima
würde durch Treibhausgase nicht erwärmt, Modellsimulationen gegenübergestellt werden, die auf der Annahme beruhen, dass dies sehr wohl
der Fall sei. In diesem Zusammenhang wird behauptet, letztere Annahme passe besser zu den Beobachtungsdaten; ein quantitativer Beleg wird jedoch nicht erbracht. Der CCSP-Bericht (2008) enthält einen
visuellen Vergleich hinsichtlich der Übereinstimmung der zwischen
1979 und 2003 beobachteten und den von der GISS in ihrem Modell
ausgearbeiteten Trendmustern. Auch diese Diskussion ist rein qualitativ – dem Leser wird noch nicht einmal ein Korrelationskoeffizient,
geschweige denn eine Reihe von Signifikanztests vorgelegt.
Einer der zentralen Tests für die Qualität von GCM ist es, zu prüfen,
ob sie geeignet sind, das Verhalten der riesigen tropischen Region korrekt dazustellen. Die allgemeine atmosphärische Zirkulation entsteht
im Wesentlichen durch die unterschiedlich starke Erwärmung der Erde
Unsicherheit bezüglich des Grenzschadens
am Äquator und an den Polen.9 Durch die starke Sonneneinstrahlung
und die damit verbundene Erwärmung am Äquator steigt heiße und
feuchte Luft auf, die sich in der Höhe abkühlt und um etwa 30 Breitengrade in Richtung der Pole strömt. Dort sinkt sie wieder ab und strömt
in Bodennähe zurück zum Äquator. Ein Teil der absteigenden Luft wird
abgelenkt und vermischt sich mit einer Luftströmung in Richtung der
Pole, die in verschiedenen, an den Polen endenden Zirkulationen verläuft. Globale Atmosphärenmodelle müssen diese Prozesse auf einer
rotierenden Kugel unter Berücksichtigung geeigneter Verteilungen hinsichtlich von Feuchtigkeit, Impuls und Energie abbilden. Im Rahmen
von auf diesen Modellen beruhenden Experimenten wurde regelmäßig
gezeigt, dass die stärkste Erwärmung aufgrund der Konzentrationserhöhung von Treibhausgasen in der tropischen Troposphäre erfolgt. Held
und Soden (2000, Seite 464) beschreiben, dass Modelle etwa 60 % der
globalen atmosphärischen Wasserdampfrückkopplung der oberen Troposphäre über den Tropen in einem Gebiet zwischen 30 Grad nördlicher Breite und 30 Grad südlicher Breite zuordnen, während nur 40 %
der Rückkopplung auf die übrigen Breiten entfallen.10
Alle Klimamodelle sagen eine außergewöhnlich starke und
schnelle durch Treibhausgase verursachte Erwärmung der Troposphäre (d. h. in einer Höhe von 1 – 16 km) über den Tropen vorher.
Dieses Phänomen ist in Abbildung 10.7 des Berichts der IPCC-Arbeitsgruppe I, die im Internet unter http://www.ipcc.ch/graphics/
ar4-wg1/jpg/fig-10-7.jpg erhältlich ist, dargestellt. Ursprünglich wurden vom IPCC zwölf Klimamodellprognosen für den vierten IPCC-
9 Eine einfache schematische Beschreibung der allgemeinen Zirkulation findet sich bei Lockwood
(1979), Kapitel 4.
10 Dieses Verhältnis bezieht sich auf die „freie Atmosphäre“ bzw. Troposphäre oberhalb der
Grenzschicht (d. h. der unteren 1 – 2 km). 10 % des globalen Effekts schlagen sich in dieser
Grenzschicht nieder, sodass sich für die Troposphäre ein Verhältnis von 55 % Tropen und 35 %
Nicht-Tropen ergibt.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
69
Sachstandsbericht archiviert, die entsprechende Internetseite wurde
zwischenzeitlich jedoch entfernt.11 Diese Modellexperimente folgen
dem A1B-Emissionsszenario, das für die Emissionsentwicklung bis
2100 einen mittleren Pfad beschreitet. Die durchschnittliche globale
Oberflächenerwärmung bis zum Ende des Jahrhunderts beträgt laut
GISS-Modell etwa 2,3 °C.12 Der troposphärische Durchschnitt liegt mit
5 °C in etwa doppelt so hoch, und das fokale Muster in der tropischen
Troposphäre tritt zu Beginn des Prognosezeitraums auf. Das Muster
war in allen für den IPCC-Bericht von 2007 erstellten 12 Klimamodell70
simulationen klar zu erkennen.
Abbildung 9.113 des IPCC-Berichts von 2007 enthält ferner einen
Modelltest (sogenannter „Hindcast“), in dem modellbasierte Klimamuster für den Zeitraum von 1890 bis 1999 mit Hilfe historischer
Klimadaten überprüft werden. Hierbei zeigt sich dasselbe Muster, das
von einem bereits in Gang befindlichen starken, gegenüber allen übrigen Antrieben vorherrschenden, Erwärmungstrend in der tropischen
Troposphäre ausgeht.
Ein identisches Muster ist auch in einem modellbasierten Modelltest dargestellt, der die klimatischen Veränderungen zwischen 1958
und 1999 unter der Annahme einer starken THG-Erwärmung simuliert
und für den Bericht des US-amerikanischen Climate Change Science
Program (CCSP 2006) angefertigt wurde; siehe Seite 25, Abbildung 1.3 A
und F, im Internet abrufbar unter http://www.climatescience.gov/Library/sap/sap1-1/finalreport/default.htm. Auch in dieser Darstellung ist
die helle Scheibe als Temperaturindikator der tropischen Troposphäre
besonders dominant.
11 Eine unvollständige Archivversion findet sich unter http://web.archive.org/web/20070925231825/
http://ipcc-wg1.ucar.edu/wg1/Report/suppl/Ch10/Ch10_indiv-maps.html.
12 Vierter IPCC-Sachstandsbericht (Arbeitsgruppe I), Kapitel 10, Abbildung 10.5
13 Online unter http://www.ipcc.ch/graphics/ar4-wg1/jpg/fig-9-1.jpg
Unsicherheit bezüglich des Grenzschadens
Vergleich beobachteter und modellierter Temperaturtrends
von 1979 – 2009 in der tropischen Troposphäre
Untere Troposphäre
°C
Abbildung 7
Mittlere Troposphäre
0,30
0,20
0,10
71
0,00
-0,10
el
od
M
le
a
ob
Be
en
ng
tu
ch
el
od
M
le
S
RS
H
UA
el
od
M
le
l
te
Sa
en
lit
d
Ra
n
de
on
s
io
Quelle: McKitrick, McIntyre und Herman (2010)
Insgesamt betrachtet stimmen alle Modelle darin überein, dass
bereits heute ein Muster einer starken Erwärmung der tropischen Troposphäre zu beobachten sein müsste, wenn die durch THG verursachte Erwärmung tatsächlich der vorherrschende, langfristig auf unser
Klima einwirkende Effekt wäre und auch die künftigen Klimaveränderungen dominiert. Einig sind sich die Modelle weiterhin darüber, dass
die Erwärmung der oberen Troposphäre in den Tropen stärker als in
der übrigen Troposphäre und in der Höhe stärker als an der Oberfläche
ausfallen wird.
Dessen ungeachtet lässt sich das erwartete Muster für die tropische Troposphäre in den Daten nicht beobachten. Dies führt zu zweierlei Diskrepanzen:
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
>> Auf Ebene der unteren und der mittleren Troposphäre über den Tropen sagen die Klimamodelle eine zwei- bis viermal so hohe Erwärmung voraus, als zwischen 1979 und 2009 beobachtet wurde (siehe
Abbildung 7). Während bis 1999 laufende frühere Untersuchungen
von Messungen davon ausgingen, dass zwar die Erwärmung in den
Modellen zu hoch prognostiziert würde, Modelle und Beobachtungen jedoch aufgrund breiter Konfidenzintervalle vereinbar seien, gelang es McKitrick et al. (2010) anhand von bis Ende 2009 reichenden
Daten aufzuzeigen, dass die Erwärmung in den Modellen deutlich
72
zu hoch prognostiziert wird. Zudem ließ sich unter Einsatz zuverlässiger parametrischer und nichtparametrischer Tests nachweisen,
dass sich Modelle und Daten bei einem Signifikanzniveau von 99 %
statistisch signifikant voneinander unterscheiden. Grundlage dafür
waren multivariate Vergleiche unter Einbeziehung aller verfügbaren
Klimamodelle sowie der gesamten von Satelliten- und Wetterballons
ermittelten Datensätze.
>> In den Modellen wird weiterhin eine stärkere Erwärmung der oberen
Troposphäre als in Oberflächennähe prognostiziert, wobei das Verhältnis der Trends dabei mit etwa 1,4:1 angegeben wird. Christy et al.
(2010) ist jedoch anhand umfassender Beobachtungsdatensätze der
Nachweis gelungen, dass die in den Tropen in der Höhe beobachtete
Erwärmung in Wirklichkeit geringer ausfällt als an der Oberfläche,
wobei das beobachtete Verhältnis mit etwa 0,8 angegeben wird. Dieses Ergebnis lässt auf eine deutliche Inkonsistenz zwischen Modellen
und Daten schließen.
Anders ausgedrückt: Für die Tropen prognostizieren alle Modelle in
der Höhe einheitlich eine stärkere Erwärmung und einen stärkeren
Vervielfachungsfaktor, als beobachtet wird.
Dieses Problem wurde im Jahr 2006 vom US Climate Change Science Program (CCSP 2006) erkannt. Die Modelle sagen für die tropische Troposphäre ein vertikales Muster vorher, das den Ergebnissen
Unsicherheit bezüglich des Grenzschadens
aus 7 von 8 im Rahmen des CCSP14 untersuchten Vergleichen (der
achte Vergleich ließ keine Schlussfolgerungen zu) widersprach. Ferner
ergab sich aus keiner der verfügbaren troposphärischen Datenreihen
eine statistisch signifikante Erwärmung der Troposphäre. Bezogen auf
die Äquatorregion zwischen dem 20. Grad nördlicher Breite und dem
20. Grad südlicher Breite, enthält der Bericht zusammenfassend folgende Aussage:
Auch wenn die Mehrheit der Beobachtungsdatensätze auf eine an der
Oberfläche gegenüber der Troposphäre höhere Erwärmung schließen
lässt, zeigen einige Beobachtungsdatensätze ein gegenteiliges Verhalten. Nahezu alle Modellsimulationen weisen auf eine stärkere Erwärmung in der Troposphäre als an der Oberfläche hin. Diese Diskrepanz
zwischen Modellen und Beobachtungen ist möglicherweise auf Fehler
in allen Modellen, auf Fehler in den Beobachtungsdatensätzen oder
auf eine Kombination der beiden genannten Alternativen zurückzuführen. Die zweite Erklärung erscheint plausibler, die Frage ist allerdings noch offen.
Zusammenfassend lässt sich sagen, dass Klimamodelle, die den Treibhauseffekt auf die Annahme einer starken positiven Rückkopplung
stützen, unisono einen in der tropischen Troposphäre zu beobachtenden starken Erwärmungstrend von mindestens 0,2 Grad/Jahrzehnt
prognostizieren. Die Temperaturen in diesem Bereich der Atmosphäre
werden von Wettersatelliten und Wetterballons überwacht. Nachweise
für eine solche Prognose gibt es nicht. Der von der RSS-Satellitenreihe
gezeigte deutliche Erwärmungstrend ist möglicherweise auf eine Abweichung nach oben aufgrund von Schwierigkeiten bei der Satellitenkalibrierung zurückzuführen. Die übrigen Datenreihen (UAH und
14 Siehe Bericht, Seite 111, Abbildung 5.4 G
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
73
Radiosonden) stimmen in ihren in den meisten Fällen unerheblichen
Trends von 0,1 °C/Jahrzehnt oder weniger überein. Das erwartete vertikale Muster wird nicht beobachtet: die Erwärmung in der Höhe ist
gegenüber der Oberflächenerwärmung nicht erhöht. Insgesamt können wir den aktuellen Daten daher entnehmen, dass die CO2-bedingte
Erderwärmung im unteren Bereich der getroffenen Prognosen liegen
dürfte. Daraus folgt, dass sich die auf CO2 zurückzuführenden Umweltschäden sehr wahrscheinlich im unteren Bereich der veröffentlichten
Schätzungen bewegen werden.
74
Ökonomische Grenzschadenmodelle
Über die von Treibhausgasen verursachten Grenzschäden gibt es
zahlreiche Studien, die auf Grundlage der Annahme berechnet wurden, dass die Ergebnisse der Klimamodellprognosen als realistische
Schätzungen akzeptiert werden können. Tol (2005) untersuchte
mehr als 100 dieser Berechnungen. Während hinsichtlich der Methoden und Annahmen große Vielfalt herrschte, nahmen alle Studien
einheitlich Klimaprognosen als Grundlage und wiesen den globalen
Auswirkungen von Emissionen bestimmte Dollarwerte zu. Der einzige Unterschied bestand in der Art und Weise der Bewertung dieser
Auswirkungen, die Ergebnisse insgesamt wiesen überraschende Ähnlichkeit auf.
Eine starke Modalwertkonzentration zeigte sich zwischen 0 und
10 USD/Tonne Kohlenstoff.15 Der Modus lag bei 2 USD/Tonne Kohlen-
15 An dieser Stelle ist eine begriffliche Klärung erforderlich: Schäden aufgrund von Erwärmung sind
auf Kohlendioxid im Gegensatz zu „Kohlenstoff“ (einem Begriff, der Rußpartikel und Aerosole
beinhalten kann) zurückzuführen. Emissionen und Kosten werden hingegen für gewöhnlich
in Tonnen Kohlenstoff, nicht in Tonnen Kohlendioxid angegeben. Das Verhältnis zwischen
Kohlenstoff und Kohlendioxid beträgt 11:3, d. h., eine Tonne Kohlenstoff entspricht 3,67 Tonnen
CO2. Eine Steuer in Höhe von 37 USD/Tonne Kohlenstoff entspräche folglich in etwa einer Steuer
in Höhe von 10 USD/Tonne Kohlendioxid.
Unsicherheit bezüglich des Grenzschadens
stoff, der Median bei 14 USD/Tonne und das arithmetische Mittel bei 93
USD/Tonne (25 USD/Tonne CO2). Tol schloss in seine Untersuchungen
zunächst auch graue Literatur mit Schätzungen bis zu 800 USD/Tonne ein. Bei ausschließlicher Berücksichtigung von Fachliteratur fallen
der Mittelwert auf 43 USD/Tonne und der Modus auf 1,50 USD/Tonne,
wobei Tol die letzte Zahl für eine verlässliche Angabe im Hinblick auf
viele Qualitätsgewichtungskonfigurationen hält. Werden Aufsätze, die
ausschließlich eine Zeitpräferenzrate von unter 3 % anwenden, nicht
berücksichtigt, fällt der Median auf etwa 6 USD/Tonne (Tol, 2005, Abbildung 5). Die Hälfte der in der Fachliteratur veröffentlichten Studien, die
auf eine konventionelle Diskontierung zurückgreifen, setzt die Kosten
damit auf 6 USD/Tonne oder weniger fest.
2007 legte Tol eine aktualisierte Untersuchung vor, in der mehr
als 200 Studien über die gesellschaftlichen Kosten von CO2-Emissionen (in Kohlenstoffäquivalenten) berücksichtigt wurden. Die durchschnittliche Schätzung der Grenzschäden aller Studien aus Fachliteratur und grauer Literatur gleichermaßen lag bei 127 USD/Tonne
Kohlenstoff (35 USD/Tonne CO2). Bei den Fachstudien beliefen sich
das Mittel bzw. der Modus auf 71 bzw. 20 USD/Tonne. Die Studien, die
eine reine Zeitpräferenz von 3 % anwendeten, kamen zu einem Mittel
von 24 USD/Tonne und einem Modus von 14 USD/Tonne. Tol stellte
weiterhin fest, dass der durchschnittlich geschätzte Schaden mit der
Zeit abgenommen hat und der Mittelwert der nach 2001 durchgeführten Studien weniger als die Hälfte der vor 1996 veröffentlichen
Studien beträgt.
Selbst wenn wir also die grundlegende Unsicherheit bezüglich der
Auswirkungen von CO2 auf das Klima ignorieren, besteht nur wenig
Unsicherheit hinsichtlich der Grenzschäden von Kohlenstoff. Die gesellschaftlichen Kosten von Kohlenstoff auf globaler Ebene liegen mit
an Sicherheit grenzender Wahrscheinlichkeit unter 50 USD/Tonne
und vermutlich sogar unter 20 USD/Tonne. Ein Preis von circa 15 USD/
Tonne Kohlenstoff (rund 4 USD/Tonne CO2) wäre somit angesichts der
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
75
aktuellen Schadenschätzungen ein vernünftiger Ausgangspunkt für
eine Kohlenstoffsteuer, sofern CO2 tatsächlich ursächlich für die globale Erwärmung verantwortlich ist.
Zusammenfassung der Herausforderungen
Nehmen wir die aktuellen Klimamodelle für bare Münze, können wir
eine niedrige Kohlenstoffsteuer auf der Grundlage rechtfertigen, dass
die Emissionen dadurch nur unwesentlich gesenkt werden könnten
76
und die Steuer stattdessen einzig der Internalisierung externer Kosten dienen würde. Angesichts dessen, dass die Emissionen kaum gesenkt würden, könnte man berechtigterweise die Frage stellen, wozu
eine solche Steuer überhaupt erforderlich sein sollte. Es herrscht noch
immer die Angst, dass das Problem der globalen Erwärmung zu einer
Beschleunigung der Schäden in der Zukunft führen oder unerwartet
gravierende Folgen haben könnte, die heute noch nicht vorhergesehen
werden können. Diese Möglichkeit ist der Grund für die anhaltenden
Rufe nach einer deutlichen Reduzierung der Emissionen. Da es sich jedoch um nicht mehr als eine Vermutung handelt, die noch dazu von
den aktuell vorliegenden Daten nicht gestützt wird, bildet diese Begründung keine überzeugende Grundlage für die hohen Kosten einer
groß angelegten Reduzierung der CO2-Emissionen.
All das bedeutet nicht, dass in den nächsten Jahren nicht möglicherweise neue Informationen in Form besserer Klimadaten oder
neuer technologischer Innovationen vorliegen werden, die für eine
Reduzierung der Emissionen sprechen. Aus diesem Grund ist ein politischer Mechanismus erforderlich, der neue Informationen automatisch berücksichtigt, sobald diese verfügbar sind, und die Klimapolitik
je nachdem verschärft oder lockert. Die aktuelle Politik ergeht sich in
wiederholten Ankündigungen von weit in der Zukunft liegenden festen Emissionszielen. Abgesehen davon, dass solche Ziele selten eingehalten werden, besteht das Problem dabei darin, dass die Ankündigung
Unsicherheit bezüglich des Grenzschadens
eines festen Ziels für einen Zeitpunkt in zehn oder zwanzig Jahren davon ausgeht, dass wir in der Zwischenzeit keine neuen Erkenntnisse
gewinnen, die für die Festlegung des optimalen politischen Weges relevant wären. Das ist jedoch nicht zutreffend. Denn einer Sache können
wir trotz aller klimatischer Unsicherheiten sicher sein: Es gibt viel zu
lernen und in den kommenden Monaten und Jahren werden mit Sicherheit relevante neue Informationen verfügbar sein.
Abschließend möchte ich mich nun noch mit der Frage beschäftigen, inwiefern die Aussicht auf neue Informationen bei der Festlegung
der Klimapolitik berücksichtigt werden sollte.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
77
4.
Die Berücksichtigung
neuer Erkenntnisse bei
der Gestaltung künftiger
Emissionspreise
Integrierte Bewertungsmodelle und pseudooptimale Lösungen
Dem Problem der dynamischen Unsicherheit bei der Gestaltung der
Klimapolitik wurde mit vielerlei Lösungsansätzen beizukommen versucht.16 Der Ansatz eines integrierten Bewertungsmodelles (Integrated Assessment Model, IAM) nach Nordhaus et al. (2007) geht von der
Kenntnis von zentralen Parametern in den Funktionen zur Beschreibung von Wirtschaft und Klima aus, auf deren Grundlage eine sanfte
politische „Rampe“ in Form einer im Zeitverlauf ansteigenden Besteuerung von CO2-Emissionen eingerichtet werden solle. Diese Lösung
kann nur unter der Annahme korrekter Modellparameter als optimal
gelten, die jedoch starken Unsicherheiten unterworfen sind. Die suggerierte politische Rampe ist daher dahingehend nur pseudooptimal,
dass sie nur unter strengen Annahmen bezüglich zentraler funktionaler Formen und Parameter gültig ist, die bei Einführung einer solchen
Politik keinen Prüfungen unterzogen werden.
16 Dieser Abschnitt greift auf in McKitrick (2010b) vorgestellte Materialien zurück.
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
79
Bayes’sche Lernmodelle
Kelly und Kolstad (1999) sowie Leach (2007) näherten sich dem Problem auf andere Weise, indem sie die Möglichkeit der Beobachtung
der Reaktion des Klimas auf politische Maßnahmen untersuchten
und die aus dieser Untersuchung gewonnenen Informationen in eine
Bayes’sche Lernroutine einfügten. Ziel des Analysemodells des politischen Systems ist es, genügend Informationen zu sammeln, um
den politischen Entscheidungsträgern die Möglichkeit zu bieten, die
80
Hypothese, dass die richtige Politik verfolgt wird, mit 95-prozentiger
statistischer Sicherheit zu überprüfen. In Anwendung auf den Klimawandel fanden sie heraus, dass bereits die Unsicherheit bezüglich eines oder zweier zentraler struktureller Parameter ausreicht, um die
Ermittlung eines als optimal erwarteten Politikpfades um Hunderte
von Jahren zu verzögern. Leach (2007) legte ein demjenigen von Nordhaus ähnliches Modell vor, in dem die politischen Entscheidungsträger alle neuen Informationen hinsichtlich der Reaktionen des Klimas
auf politisch motivierte Emissionsveränderungen nutzen. Die gestellte Frage lautete, wie lange es (unter Annahme verschiedener Voraussetzungen) dauern würde, bis genügend Informationen vorlägen, um
mit 95-prozentiger Signifikanz eine falsche Nullhypothese über die
Bedeutung des zugrundeliegenden Problems zu widerlegen. Unterliegen nur zwei Modellparameter Unsicherheiten, variiert die Lernzeit
je nach Emissionszunahme im Basisfall von mehreren Hundert bis
mehreren Tausend Jahren.
Eine erweiterte Version des Modells, die eine einfache Produktionsfunktion und eine zeitübergreifende Kapitalanlagestruktur
modelliert, führt nicht nur zu einer in Jahrhunderten gemessenen
Lernzeit, selbst wenn die meisten Modellparameter als bekannt vorausgesetzt werden und nur entsprechend den verschiedenen Klimadatensätzen variieren, sondern sogar dazu, dass der eingeschlagene
politische Weg nie das richtige Ziel erreicht.
Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise
Dieses Ergebnis mag übermäßig pessimistisch erscheinen, da die
politischen Entscheidungsträger Jahrhunderte warten müssen, um herauszufinden, ob der eingeschlagene Weg der richtige war. Die Antwort
kommt zu spät, um relevant zu sein. Jedoch verhält es sich nicht so,
dass das IAM oder der pseudooptimale Ansatz besser wären. Der wahre
Unterschied besteht darin, dass der Bayes’sche Ansatz zumindest die
Möglichkeit bietet, irgendwann zu erkennen, ob der eingeschlagene
Weg falsch ist, was bei Verwendung des IAM nicht möglich ist.
Versicherung und Fat Tails
Martin L. Weitzman (2009) näherte sich dem Problem der Wahl einer Politik gegen die globale Erwärmung, indem er versuchte, einen
Preis für einen Versicherungsvertrag festzulegen, wenn eine ernst zu
nehmende Wahrscheinlichkeit extremer Schäden besteht. Unter bestimmten Bedingungen ist es unmöglich, einen begrenzten Wert für
einen Vollversicherungsvertrag festzulegen. Das Modell von Weitzman
beruht auf einer Reihe spezifischer Annahmen, von denen einige recht
konventionell sind und andere nicht. Eine übliche Annahme lautet,
dass die Möglichkeit einer unendlichen (positiven oder negativen) Klimasensitivität besteht oder dass die Möglichkeit eines extremen Klimawandels (zwanzig Grad oder mehr) zwar gering ist, jedoch, gleich
in welchem Umfang, nicht vollständig ausgeschlossen werden kann.
Darüber hinaus beinhaltet die Theorie beispielsweise Annahmen darüber, wie Veränderungen der Temperatur die Einkommen beeinflussen. Beruhend auf diesem Aufbau führt Weitzman eine Finanzanalyse
durch, um daraus die Kosten für eine vollständige Absicherung gegen
das Risiko einer Klimakatastrophe abzuleiten. Das Ergebnis deckt sich
zufällig mit einer Gleichung aus der mathematischen Statistik, der so
genannten momenterzeugenden Funktion einer Verteilung t. Statistische Lehrbücher warnen, dass diese Gleichung zu keinem endlichen
Ergebnis führe. Weitzman interpretiert dies so, als sei das Ergebnis un-
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
81
endlich, was bedeutet, dass die heutige Gesellschaft bereit sein sollte,
ihr gesamtes aktuelles Einkommen darauf zu verwenden, sich gegen
eine möglicherweise in der Zukunft eintretende Katastrophe zu versichern. Um diese unrealistische Konsequenz zu umgehen, muss die
Verteilung der möglichen Klimasensitivitätswerte im Rahmen dieses
Modells als begrenzt angenommen bzw. davon ausgegangen werden,
dass sie „Thin Tails“ aufweist. Weitzman gibt jedoch zu bedenken, dass
das bedeute, dass die optimale Versicherungspolitik von Annahmen
bezüglich der Verteilung möglicher Klimaänderungen in Regionen
82
abhängig sei, für die zu wenige Beobachtungen vorliegen, um sichere Aussagen treffen zu können. So wie die Dinge derzeit liegen, verordnet das „Dismal Theorem“ von Weitzman weniger eine unendlich
hohe Versicherungsprämie, sondern verweist vielmehr darauf, dass
die Kosten-Nutzen-Analyse laut IAM nur pseudooptimal ist und sich
unter den annahmegemäß ausgeschlossenen Unsicherheiten auch
diejenigen befinden, die für eine Versicherungslösung gegen extreme
Ereignisse sprechen.
Der zustandsabhängige Ansatz
Angesichts des Scheiterns früherer Methoden im Hinblick darauf, eine
plausible Lösung für das Problem der langfristigen Preisfestsetzung
für THG-Emissionen zu finden, habe ich einen neuen Ansatz vorgeschlagen, der anstelle einer statischen langfristigen Emissionsbegrenzung die Entwicklung einer dynamischen Preisgestaltung vorsieht.
Im Rahmen des üblichen ökonomischen Modells (gemäß Abschnitt 2
oben) werden aktuelle Schäden als direkte Folge aktueller Emissionen
betrachtet:
Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise
Aktuelle
Emissionen
Aktuelle
Schäden
In Bezug auf THG gestaltet sich die Situation angesichts zweier
weiterer Komplexitäten jedoch anders: Emissionen können verzögerte
Auswirkungen haben und die Dauer der Verzögerung ist möglicherweise unbekannt. Wir müssen uns also nicht nur um die unmittelbaren Folgen aktueller Emissionen Gedanken machen, sondern auch um
ihre möglichen zukünftigen Folgen. Anders betrachtet erleben wir aktuell nicht nur die Folgen der heutigen Emissionen, sondern auch von
Emissionen, die weit in der Vergangenheit entstanden sind.
Erschwerend kommt hinzu, dass Emissionen Schäden nicht direkt
verursachen, sondern Einfluss auf bestimmte Umweltaspekte (wie die
durchschnittliche Lufttemperatur) nehmen, die dann wiederum Schäden verursachen. CO2-Emissionen sind an und für sich nicht schädlich. Mögliche Schäden entstehen aus der Veränderung des Klimazustands. Mit anderen Worten: Emissionen beeinflussen eine messbare
Zustandsvariable und Veränderungen der Zustandsvariablen verursachen Schäden. Oben stehende Darstellung muss demnach wie folgt
angepasst werden.
Aktuelle
und
vergangene
Emissionen
Zustandsvariable
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
Aktuelle
Schäden
83
Der Einfluss aktueller und vergangener Emissionen auf die Zustandsvariable ist komplex und von Unsicherheit geprägt. Dieser
Umstand erschwert nicht nur die Entscheidung darüber, wie aktuelle
Emissionen preislich zu behandeln sind, sondern führt uns zudem vor
Augen, dass die Zustandsvariable Informationen über die zeitlichen
Folgen von Emissionen beinhaltet, die zur Verringerung der Unsicherheit herangezogen werden können.
Angenommen, CO2-Emissionen werden in Höhe eines veränderlichen Betrages besteuert und dieser Betrag ist an Bewegungen einer be84
obachtbaren Zustandsvariablen, z. B. eine Messung der Lufttemperatur,
gekoppelt. Wenn aktuelle und vergangene Emissionen nahezu keine
Auswirkungen auf die Zustandsvariable haben, bleibt der Emissionspreis unverändert. Zeigen sich hingegen starke Auswirkungen und eine
steigende Temperatur, so steigt auch der Emissionspreis. In McKitrick
(2010b) habe ich aufgezeigt, dass es möglich ist, mithilfe einer einfachen Formel, die sich obige Beobachtungen hinsichtlich von Zustandsvariablen und Emissionsdaten zunutze macht, der auf der zeitübergreifenden Grenzschadenfunktion beruhenden, nicht beobachtbaren
optimalen dynamischen Emissionssteuer sehr nahe zu kommen. Diese
Formel für eine zustandsabhängige Steuer t lautet:
e
t=yx–xs
ē
Dabei bezeichnen y eine Konstante, e die aktuellen Emissionen, ē
den gleitenden Durchschnitt aus aktuellen und vergangenen Emissionen (wobei so weit in die Vergangenheit zurückgegangen werden kann,
wie eine Beeinflussung des aktuellen Zustands durch die Emissionen
angenommen wird) und s die aktuelle Beobachtung der Zustandsvariablen. In diesem Ansatz ist y frei wählbar, sodass der Steuersatz t bei
einem dem politischen Entscheidungsträger aktuell sinnvoll erschei-
Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise
nenden Wert beginnt. Anschließend wird die Entwicklung der Steuer
vorrangig durch die Entwicklung von s gesteuert.
Um den aktuellen Wert der Emissionssteuer zu berechnen, sind
einzig Daten bezüglich aktueller und vergangener Emissionen sowie
der aktuelle Wert der Zustandsvariablen erforderlich. Im Falle von THG
stehen Emissionsdaten auf nationaler und globaler Ebene fertig zur
Verfügung. Europäische Daten sind über Eurostat (http://epp.eurostat.ec.europa.eu), Daten für alle übrigen Länder (mit einigen Jahren
Rückstand) über das US-amerikanische Oak Ridge National Lab (Marland et al. 2010; im Internet abrufbar unter http://cdiac.ornl.gov/
trends/emis/tre_regn.html) erhältlich.
Bei der Wahl der Zustandsvariablen s sind das zugrunde liegende
wissenschaftliche Vorgehen sowie die verschiedenen Qualitätsprobleme klimatischer Daten zu berücksichtigen. Wie oben in Abschnitt 3
aufgezeigt wurde, weisen die Daten für die Erd- und Meeresoberfläche
ernsthafte Qualitätsprobleme auf, sodass es nicht angeraten ist, sie für
politische Zwecke heranzuziehen. Satellitensysteme, vor allem diejenigen, die sich zur Beibehaltung einer konstanten Höhe des AMSUSystems bedienen, bieten verlässlichere Messergebnisse bezüglich der
Lufttemperaturen. Zur Ermittlung einer passenden Zustandsvariablen
lege ich die Verwendung der mittleren Temperatur in der unteren bzw.
mittleren tropischen Troposphäre nahe, da es sich bei dieser um einen
kontinuierlich überwachten Indikator handelt, der gegenüber Treib­
hausgasen eine besondere Sensitivität aufzuweisen scheint.
Da zur Ermittlung der Steuer t keine Informationen bezüglich der
Vermeidungskosten verwendet werden, mag es so erscheinen, als könne es sich nicht um ein umfassendes politisches Modell handeln. Bei
den aus integrierten Bewertungsmodellen abgeleiteten steuerlichen
Entscheidungen handelt es sich um Lösungen für ein zweiseitiges
Optimierungsproblem, bei denen zeitübergreifende Schäden gegen
zeitübergreifende Vermeidungskosten aufgerechnet werden. Dabei
darf jedoch nicht vergessen werden, dass die oben genannte Formel
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
85
keinen politischen Weg vorschreibt, sondern eine Regel beinhaltet,
die Steuersatz und Umweltzustand aneinander bindet. Die tatsächliche Höhe der Steuer im Zeitlauf wird durch die Entwicklung der Zustandsvariablen bestimmt. Die Höhe der Vermeidung wird daraufhin
von den Emittenten festgelegt, die entsprechend ihren aktuellen und
künftigen Grenzvermeidungskosten auf die aktuellen und erwarteten
künftigen Steuersätze reagieren. Verfügen die Unternehmen über variables Kapital, werden sie auf Emissionssteuersätze ähnlich reagieren
wie auf alle anderen veränderlichen Kosten. Ist das Kapital gebunden
86
und nimmt der Aufbau neuen Kapitals viel Zeit in Anspruch, werden
Unternehmen Prognosen hinsichtlich der künftigen Höhe des Steuersatzes erstellen müssen, die wiederum von den künftigen Werten der
Temperaturvariablen abhängig sind. Die Einführung der zustandsabhängigen Emissionssteuer schafft damit einen Markt für genaue Prognosen der Umweltzustandsvariablen. Ein derartiger Markt existiert
derzeit nicht, da verschiedene Parteien einen Nutzen darin zu sehen
scheinen, die Prognosen bezüglich der globalen Erwärmung je nach
der Politik, die sie beeinflussen wollen, bzw. je nach Aufmerksamkeit,
die sie für ihre Arbeit erhalten möchten, über- bzw. unterzubewerten.
Unternehmen jedoch, die versuchen, den konkreten künftigen Steuersatz zu prognostizieren, haben nichts davon, dafür auf unzutreffende Prognosen zurückzugreifen, sondern sind ganz im Gegenteil besonders daran interessiert, möglichst genaue Prognosen für die künftige Entwicklung von s zugrundezulegen. Dieser Markt wird schlechte
Klimamodelle auf diese Weise aussondern und den Weg für genauere
Klimamodelle frei machen.
Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise
Wert der zustandsabhängigen Steuer auf
Treibhausgasemissionen seit 1979
Steuer
Abbildung 8
Durchschnittlicher 3-Jahres-Steuersatz
Emissionssteuer USD pro Tonne
40
20
87
0
– 20
– 40
1980 199020002010
Quelle: McKitrick (2010d)
Ein interessantes Merkmal der zustandsabhängigen Steuer ist ihre
potenzielle Fähigkeit, bei einer breiten Interessengemeinschaft auf
Zuspruch zu stoßen. Menschen mit widersprüchlichen Annahmen
hinsichtlich der künftigen Entwicklung der Zustandsvariablen werden
nichtsdestoweniger alle erwarten, dass der von ihnen bevorzugte politische Weg verfolgt wird. Diejenigen, die der Ansicht sind, dass Emissionen keine Auswirkungen auf das Klima haben, werden in Zukunft
überwiegend niedrige Emissionssteuern erwarten, diejenigen, die Klimaveränderungen in starkem Maße auf Emissionen zurückführen,
werden eher von einer schnell steigenden Steuer ausgehen. Die Tatsache, dass jeder mit dem von ihm bevorzugten Ergebnis rechnet, kann
die Zustimmung zur Einführung einer Steuer erleichtern. Eine der Herausforderungen der Klimapolitik besteht darin, auf globaler Ebene eine
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
Einigung zu erzielen. Verschiedene Regionen haben verschiedene Ansichten über die Dringlichkeit des Problems sowie seiner Auswirkungen
auf ihre jeweiligen volkswirtschaftlichen Prioritäten, was eine Einigung
über die Emissionsziele ebenso wie die Einhaltung früherer Vereinbarungen praktisch unmöglich macht. Einfacher könnte es hingegen sein,
politische Entscheidungsträger auf der ganzen Welt dazu zu bringen,
sich auf eine zustandsabhängige Steuer zu einigen. Die Steuereinkünfte würden in den einzelnen Ländern verbleiben und das Ungleichgewicht zwischen den verschiedenen Nationen verringern. Während der
88
Verhandlungen gäbe es für Länder mit konträren Ansichten hinsichtlich der wahrscheinlichen künftigen Temperaturentwicklung, keinen
Grund, auch bezüglich der Frage, ob die Steuer erstrebenswert ist oder
nicht, konträre Ansichten zu vertreten, da jede Partei im Endeffekt das
erhielte, was sie für das „richtige“ Ergebnis erachtet.
Wie hätte eine solche Steuer ausgesehen, wenn sie früher eingeführt worden wäre? In McKitrick (2010b) habe ich zur Berechnung hypothetischer Werte für eine an die mittlere Temperatur der tropischen
Troposphäre gekoppelte Kohlenstoffsteuer sowohl auf UAH- als auch
auf RSS-Daten sowie auf globale CO2-Emissionsreihen zurückgegriffen.
Das Ergebnis für den Zeitraum zwischen 1979 und 2009 ist in Abbildung 8 dargestellt. Der Wert für y ist so gewählt, dass der Steuersatz für
das Jahr 2002 – also etwa den Zeitpunkt der Ratifizierung des KyotoProtokolls – bei 15 USD/Tonne Kohlenstoff liegt. Die Entwicklung der
Steuer zeigt einen Aufwärtstrend von etwa fünf Dollar pro Jahrzehnt,
was knapp unter dem von Nordhaus ermittelten Wert von etwa acht
Dollar pro Jahrzehnt liegt. Der Unterschied gegenüber dem Ansatz von
Nordhaus, der eine Verpflichtung zu einer bestimmten Preisentwicklung für viele Jahrzehnte enthält, besteht darin, dass der zustandsabhängige Ansatz einzig eine Verpflichtung dahingehend erfordert, jährlich oder, falls gewünscht, monatlich einen neuen Satz festzulegen.
Steigen die Temperaturen schneller als erwartet, steigt auch die Steuer;
steigt die Temperatur langsam, so gilt dies auch für die Steuer.
Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise
Zwischen dem zustandsabhängigen Ansatz zur Emissionspreisgestaltung und den in der Währungspolitik angewandten Mechanismen
besteht eine gewisse Ähnlichkeit. Die Zentralbanken gehen keine langfristigen Verpflichtungen zur Festlegung von Zinssätzen oder bezüglich des Geldmengenwachstums ein. Stattdessen verpflichten sie sich
zur Einhaltung allgemeiner Regeln, die die aktuellen wirtschaftlichen
Bedingungen in aktuelle Werte dieser politischen Ziele übertragen.
Mit einer Verpflichtung der Zentralbanken zu auf zehn oder zwanzig
Jahre festgelegten Zinssätzen wäre niemand einverstanden, da in der
Zukunft neue Informationen auftauchen werden, die Einfluss auf die
Wahl des jeweils geeigneten Zinssatzes nehmen. Ebenso ist es für die
Politik unsinnig, langfristige Verpflichtungen bezüglich der CO2-Emissionspreise einzugehen, da auch hier in der Zukunft neue Informationen über die Auswirkungen von Treibhausgasen und die Entwicklung
der Lufttemperaturen zur Verfügung stehen werden. Heute Pläne zu
machen, die davon ausgehen, dass wir in Zukunft nichts darüber erfahren werden, ob diese Pläne geeignet sind oder nicht, ist ganz einfach unrealistisch.
Die Anwendung eines zustandsabhängigen Preisgestaltungsinstruments bedeutet nicht, dass Emissionen mit einem bestimmten
Preis belegt werden, nachdem der Schaden bereits erfolgt ist. Unternehmen sind zukunftsgerichtet. Ihre Investitionspläne werden immer auf möglichst genauen Prognosen bezüglich der Auswirkungen
von Emissionen auf den künftigen Klimawandel beruhen. Mit der Zeit
werden diese Prognosen weiter verbessert und aktualisiert. Unternehmen, die die künftige Entwicklung einer Emissionssteuer unterschätzen, werden gegenüber Unternehmen, die ihre Planung auf genauen
Prognosen aufgebaut haben, einen Wettbewerbsnachteil erfahren. Die
Entwicklung der Emissionssteuer zu über- oder unterschätzen, wird
keinen Vorteil bringen. Die optimale Strategie für Unternehmen wird
daher darin bestehen, korrekte Schätzungen anzustellen. Steht uns
eine Zeit der schnellen, treibhausgasbedingten Klimaerwärmung be-
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
89
vor und sind wir in der Lage, verlässlich vorherzusagen, dass uns eine
solche Zeit bevorsteht, wird die Industrie wissen, dass mit einem stark
steigenden Emissionspreis zu rechnen ist. Das wiederum wird zu einer Reduzierung der Emissionen und zu Investitionen in Technologien
führen, durch die tiefere Emissionseinschnitte verkraftbar sind. Kann
der Nachweis dafür, dass uns eine solche Klimaerwärmung bevorsteht,
hingegen nicht glaubhaft erbracht werden, investieren Unternehmen
nur geringfügig in Vermeidungsoptionen und warten ab, bis bessere
Informationen vorliegen. Das sind die richtigen Antworten auf die dy90
namischen Unsicherheiten, denen die Welt heute gegenübersteht.
Die Berücksichtigung neuer Erkenntnisse bei der Gestaltung künftiger Emissionspreise
5.
Schlussfolgerungen
Es gibt vermutlich keinen anderen politischen Bereich, in den über die
vergangenen zwanzig Jahre so viele Anstrengungen und so viele Ressourcen investiert wurden und der so konsequent gescheitert ist wie
die Klimapolitik. Ich bin der Ansicht, dass dies darauf zurückzuführen
ist, dass die Klimapolitik seit langem auf einer falschen ökonomischen
Grundlage steht. Schlecht durchdachte Politik führt immer zum Scheitern. Um zufriedenstellende Fortschritte bei der Ausarbeitung einer
erfolgreichen Klimapolitik erzielen zu können, ist daher ein grundlegendes Umdenken erforderlich.
Ich habe in diesem Beitrag zunächst die meines Erachtens bestehenden vier grundlegenden Mängel der aktuellen Klimapolitik dargelegt. Zunächst erkannten weder die Bürokratie noch die Politik, dass es
sich beim Treibhausgas CO2 um einen Sonderfall handelt, der insbesondere nicht mit Schwefeldioxid- (SO2) oder FluorchlorkohlenwasserstoffEmissionen (FCKW) vergleichbar ist. In den beiden genannten Fällen ist
es den Parteien auf dem Verhandlungswege gelungen, sich auf Strategien zu verständigen, da die Gefahren offenkundiger und die Lösungen
wirtschaftlich deutlich günstiger waren. Die Verhandlungsmechanismen und politischen Initiativen, die in diesen Fällen Wirksamkeit bewiesen, wurden einfach auf die CO2-Problematik übertragen, für welche
sie jedoch ungeeignet und weitestgehend nutzlos sind.
Zweitens ist es der Politik nicht gelungen, mit dem Anstieg der
Grenzvermeidungskostenkurve (GVK) angemessen umzugehen, d. h.
zu verstehen, in welchem Maße die Kosten für die Vermeidungsoptionen bei Ausweitung der Ziele zur Emissionsreduzierung steigen, was
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
91
in direktem Zusammenhang mit dem oben genannten ersten Punkt
steht. Das führt dazu, dass politische Ziele verfolgt werden, die ohne
höhere Kosten, als die Öffentlichkeit zu akzeptieren bereit ist, nicht erreicht werden können. Nun verhält es sich aber so, dass politische Maßnahmen, die moderat genug sind, um finanzierbar zu sein, angesichts
der aktuell existierenden Technologien solch geringe Auswirkungen
auf das Klima zeitigen, dass sie nutzlos sind. Politische Maßnahmen,
die streng genug wären, um die allgemein vorgebrachten Ziele zur Reduzierung der Emissionen zu erreichen, würden deutlich höhere Kos92
ten verursachen, als die Öffentlichkeit zu tragen bereit ist, und auch
deutlich höhere Kosten, als die Politiker, die diesen Weg verfechten,
sich vor Augen zu führen scheinen. Das starre Festhalten an der Illusion, Subventionen und Vorschriften könnte eine erfolgreiche „grüne
Ökonomie“ hervorbringen, hat einzig und allein dazu geführt, die Kosten der Klimapolitik in die Höhe zu treiben – bedeutende Fortschritte
im Umweltschutz wurden dadurch nicht erzielt.
Drittens zeigt eine ökonomische Analyse, dass die Politik zur Reduzierung der Treibhausgase Emissionen mit Kosten belegen und keine Emissionsgrenzen festsetzen sollte. Alle bisherigen größeren globalen Initiativen, einschließlich des Kyoto-Protokolls und ähnlicher
Instrumente, legten ihren Fokus jedoch auf Mengenbegrenzungen
oder, was noch schlimmer ist, auf indirekte regulatorische Maßnahmen dahingehend, das Energieverbrauchsverhalten zu verändern.
Eine solche Politik ist kostenintensiv, intrusiv und häufig nutzlos. Die
einzig große Herausforderung dahingehend, die globale Klimapolitik
auf eine vernünftige Grundlage zu stellen, liegt also darin, die Diskussion in Richtung auf Preismechanismen umzulenken. Diese Herausforderung ist von grundlegender Bedeutung, wenn in den nächsten
zwanzig Jahren die teuren Fehler der vergangenen zwanzig Jahre vermieden werden sollen.
Schließlich ergibt sich für die Politik aus den großen Unsicherheiten, den langen Planungshorizonten sowie der Erwartung, dass in
Schlussfolgerungen
den kommenden Jahren einschlägige neue Informationen über das
Ausmaß der Umweltschädigung durch Treibhausgasemissionen und
die Kosten zu deren Vermeidung vorliegen werden, die Notwendigkeit,
sich primär auf zustandsabhängige (bzw. anpassungsfähige) Preisregelungen anstatt auf starre, langfristige Verpflichtungen zur Emissionsbegrenzung zu konzentrieren.
93
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
Literatur
Bengtsson, Lennart und Kevin Hodges (2010): On the evaluation of
temperature trends in the tropical troposphere | Climate Dynamics DOI
10.1007/s00382-009-0680-y
Berk, Richard A., Robert G. Fovell, Frederic Schoenberg und Robert E. Weiss
(2001): The use of statistical tools for evaluating computer simulations |
Climatic Change 51, S. 119 – 130
Brohan, P., Kennedy, J., Harris, I., Tett, S.F.B. und Jones, P.D. (2006): Uncertainty
estimates in regional and global observed temperature changes: a new dataset
from 1850 | J. Geophys | Res. 111, D12106, doi:10.1029/2005JD006548
CCSP (2008): Climate Models: An Assessment of Strengths and Limitations |
A Report by the U.S. Climate Change Science Program and the Subcommittee
on Global Change Research [Bader D.C., C. Covey, W.J. Gutowski Jr., I.M. Held,
K.E. Kunkel, R.L. Miller, R.T. Tokmakian und M.H. Zhang (Verf.)] | Department
of Energy, Office of Biological and Environmental Research, Washington, D.C.,
USA, S. 124 ff
Christy, J.R., Herman, B., Pielke, R., Sr., Klotzbach, P., McNider, R.T., Hnilo,
J.J., Spencer, R.W., Chase, T. und Douglass, D. (2010): What Do Observational
Datasets Say about Modeled Tropospheric Temperature Trends since 1979?
Remote Sens. 2010, 2, S. 2148 – 2169
Christy, John R., David E. Parker, Simon J. Brown, Ian Macadam, Martin
Stendel und William B. Norris (2001): Differential Trends in Tropical Sea
Surface and Atmospheric Temperatures since 1979 | Geophysical Research
Letters 28(1), S. 183 – 186
D. Diakoulaki, M. Mandaraka (2007): Decomposition analysis for assessing
the progress in decoupling industrial growth from CO2 emissions in the EU
manufacturing sector |Energy Economics 29 (2007), S. 636 – 664
Dinan, T.M. und D.L. Rogers (2002): Distributional effects of carbon allowance
trading: how government decisions determine winners and losers | National
Tax Journal LV (2002), S. 199 – 222
Ellerman, A. Danny und Paul L. Joskow (2008): The European Union’s
Emission Trading System in Perspective | Arlington: Pew Center on Global
Climate Change, Mai 2008
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
95
Essex, Chris (1991): What Do Climate Models Teach Us about Global Warming?
Pure and Applied Geophysics 135(1), S. 125 – 133
Folland, C.K. und D.E. Parker (1995): Correction of Instrumental Biases in
Historical Sea Surface Temperature Data | Quarterly Journal of the Royal
Meteorological Society (1995) 121, S. 319 – 367
Ghali, K.H. und M.I.T. El-Sakka (2004): Energy use and output growth in
Canada: a multivariate cointegration analysis | Energy Economics 26, S. 225 – 238
96
Hegerl, G.C., F. W. Zwiers, P. Braconnot, N.P. Gillett, Y. Luo, J.A. Marengo Orsini,
N. Nicholls, J.E. Penner und P.A. Stott, (2007): Understanding and Attributing
Climate Change | In: Climate Change 2007: The Physical Science Basis |
Contribution of Working Group I to the Fourth Assessment Report of the
Intergovernmental Panel on Climate Change [Solomon, S., D. Qin, M. Manning,
Z. Chen, M. Marquis, K.B. Averyt, M. Tignor und H.L. Miller (Hrsg.)] | Cambridge
University Press, Cambridge, United Kingdom and New York, NY, USA
Held, I. und B. J. Soden (2000): Water Vapor Feedback and Global Warming |
Annual Review of Energy and Environment 25, S. 441 – 75
Houghton, J. (1997): Global Warming: The Complete Briefing 2. Ausgabe
Cambridge: CUP, S. 15
Jones, P.D. und A. Moberg (2003): Hemispheric and Large-Scale Surface Air
Temperature Variations: An Extensive Revision and an Update to 2001 |
Journal of Climate 16, S. 203 – 223
Jones, P.D., M. New, D. E. Parker, S. Martin und I. G. Rigor (1999): Surface air
temperature and its changes over the past 150 years | Reviews of Geophysics
37, S. 173 – 199
Jorgenson, D.W., D.T. Slesnick, P.J. Wilcoxen, P.L. Joskow, R. Kopp (1992):
Carbon Taxes and Economic Welfare. Brookings Papers on Economics Activity |
Microeconomics. Vol. 1992, S. 393 – 454
Kelly, D. L. und C. D. Kolstad (1999): Bayesian learning, growth, and pollution |
Journal of Economic Dynamics and Control 23, Nr. 4, S. 491 – 518
Kent, E.,C. S.D. Woodruff und D.I. Berry (2007): Metadata from WMO
Publication No. 47 and an Assessment of Voluntary Observing Ship
Observations in ICAODS | Journal of Atmospheric and Ocean Technology 24
DOI: 10.1175/JTECH1949.1
Literatur
Kiehl, J.T. (2007): Twentieth century climate model response
and climate sensitivity | Geophysical Research Letters 34 L22710,
doi:10.1029/2007GL031383, 2007
Knutson, T. R.; Delworth, T. L.; Dixon, K. W.; Held, I. M.; Lu, J.; Ramaswamy,
V.; Schwarzkopf, M. D.; Stenchikov, G.; Stouffer, R. J (2006): Assessment of
Twentieth-Century Regional Surface Temperature Trends Using the GFDL CM2
Coupled Models | Journal of Climate 19, S. 1624 – 1651
Knutti, R. (2008): Why are climate models reproducing the observed
global surface warming so well? | Geophysical Research Letters 35, L18704,
doi:10.1029/2008GL034932, 2008
Knutti, R. und G. Hegerl (2008): The equilibrium sensitivity of the Earth’s
temperature to radiation changes | Nature Geoscience doi: 10.1038/ngeo337,
S. 735 – 743
Leach, A. J. (2007): The climate change learning curve | Journal of Economic
Dynamics and Control 31, Nr. 5, S. 1728 – 1752
Lockwood, John G. (1979): Causes of Climate | New York: John Wiley
Marland, G., T.A. Boden, R. J. Andres, A. L. Brenkert und C. Johnston. (2010):
Global, Regional, and National CO2 Emissions | In Trends: A Compendium of
Data on Global Change | Carbon Dioxide Information Analysis Center, Oak
Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, Tenn., USA |
http://cdiac.esd.ornl.gov/trends/emis/em_cont.htm
McKitrick, Ross R. (2010a): Economic Analysis of Environmental Policy |
Toronto: University of Toronto Press
McKitrick, Ross R. (2010b): A Simple State-Contingent Pricing Rule for
Complex Intertemporal Externalities Energy Economics doi:10.1016/
j.eneco.2010.06.013
McKitrick, Ross R. (2010c): Atmospheric Oscillations do not Explain the
Temperature-Industrialization Correlation | Statistics, Politics and Policy, Band
1, Juli 2010
McKitrick, Ross R. (2010d): A Critical Review of Global Surface Temperature
Data Products; SSRN Working Paper 1653928, August 2010
McKitrick, Ross R. und Nicolas Nierenberg (2010): Socioeconomic Signals in
Climate Data | Journal of Economic and Social Measurement, angenommen
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
97
McKitrick, Ross R., Stephen McIntyre und Chad Herman (2010): Panel and
Multivariate Methods for Tests of Trend Equivalence in Climate Data Sets |
Atmospheric Science Letters DOI: 10.1002/asl.290
Nordhaus, William D. (2007): To Tax or Not to Tax: Alternative Approaches to
Slowing Global Warming | Rev Environ Econ Policy 1, Nr. 1 (1. Januar): S. 26 – 44 |
doi:10.1093/reep/rem008
Ontario Power Authority (2007): Ontario’s Integrated Power System Plan |
Addendum to Discussion Paper 7” Toronto: mimeo
98
Parry, I.W.H. (2003): Fiscal Interactions and the Case for Carbon Taxes over
Grandfathered Carbon Permits | Resources for the Future Discussion Paper,
S. 3 – 46
Parry, I.W.H. (2004): Are Emission Permits Regressive? | Journal of
Environmental Economics and Management 47 (2004), S. 364 – 387
Peterson T.C. und R.S. Vose (1997): An Overview of the Global Historical
Climatology Network Temperature Database | Bulletin of the American
Meteorological Society 78, S. 2837 – 2849
Peterson, Thomas C., Russell Vose, Richard Schmoyer und Vyachesvslav
Razuavev (1998): Global Historical Climatology Network (GHCN) Quality
Control of Monthly Temperature Data | International Journal of Climatology
18, S. 1169 – 1179
Randall, D.A., R.A. Wood, S. Bony, R. Colman, T. Fichefet, J. Fyfe, V. Kattsov, A.
Pitman, J. Shukla, J. Srinivasan, R.J. Stouffer, A. Sumi und K.E. Taylor (2007):
Climate Models and Their Evaluation | In: Climate Change 2007: The Physical
Science Basis | Contribution of Working Group I to the Fourth Assessment
Report of the Intergovernmental Panel on Climate Change [Solomon, S., D.
Qin, M. Manning, Z. Chen, M. Marquis, K.B. Averyt, M.Tignor und H.L. Miller
(Hrsg.)] | Cambridge University Press, Cambridge, United Kingdom and New
York, NY, USA
Randall, Robb M. und Benjamin M. Herman (2008): Using limited time period
trends as a means to determine attribution of discrepancies in microwave
sounding unit-derived tropospheric temperature time series | Journal of
Geophysical Research 113 (5. März): D05105. doi:10.1029/2007JD008864
Literatur
Rayner, N. A., D. E. Parker, E. B. Horton, C. K. Folland, L. V. Alexander, D.
P. Rowell, E. C. Kent und A. Kaplan (2003): Global analyses of sea surface
temperature, sea ice, and night marine air temperature since the late
nineteenth century | Journal of Geophysical Research, 108(D14), S. 4407 |
doi:10.1029/2002JD002670
Rayner, N.A., P. Brohan, D.E. Parker, C.K. Folland, J.J. Kennedy, M. Vanicek, T.J.
Ansell und S.F.B. Tett (2006): Improved Analyses of Changes and Uncertainties
in Sea Surface Temperature Measured In Situ since the Mid-Nineteenth
Century: The HadSST2 Dataset Journal of Climate 19, S. 446 – 469
Reynolds, Richard W., Thomas C. Peterson und Jay Lawrimore (2008):
Improvements to NOAA’s Historical Merged Land-Ocean Surface Temperature
Analysis (1880 – 2006) | Journal of Climate DOI: 10.1175/2007JCLI2100.1
Schmalensee, Richard; Paul L. Joskow; A. Denny Ellerman; Juan Pablo
Montero; Elizabeth M. Bailey (1998): An Interim Evaluation of Sulfur Dioxide
Emissions Trading | The Journal of Economic Perspectives, Bd. 12, Nr. 3
(Sommer 1998), S. 53 – 68
Schwartz, Stephen E., R.J. Charlson und H. Rodhe (2007): Quantifying climate
change – too rosy a picture? | Nature reports climate change 2, S. 23 – 24
Spencer, R.W. und J.C. Christy (1990): Precise Monitoring of Global
Temperature Trends from Satellites. Science 247, S. 1558 – 1562
Stern, D.I. (2000): A multivariate cointegration analysis of the role of energy in
the US macroeconomy | Energy Economics 22, S. 267 – 283
Thompson, David W. J., John J. Kennedy, John M. Wallace und Phil D. Jones
(2008): A large discontinuity in the mid-twentieth century in observed
global-mean surface temperature Nature Bd. 453, 29. Mai 2008, doi:10.1038/
nature06982
Tol, R.S.J. (2005): The marginal damage costs of carbon dioxide emissions: an
assessment of the uncertainties | Energy Policy 33, Nr. 16, S. 2064 – 2074
Tol, R.S.J. (2007): The Social Costs of Carbon: Trends, Outliers and
Catastrophes | Economics Discussion Paper 2007-44
www.economics-ejournal.org, September 2007
Vose, R. S., R. L. Schmoyer, P. M. Steurer, T. C. Peterson, R. Heim, T. R. Karl und
J. Eischeid (1992): The Global Historical Climatology Network: Long-term
monthly temperature, precipitation, sea level pressure, and station pressure
data | ORNL/CDIAC-53, NDP-041, S. 325 ff
Eine vernünftige globale Klimapolitik in einer Welt voller Unsicherheiten
99
Weitzman, Martin L. (1974): Prices vs. Quantities | The Review of Economic
Studies 41(4), S. 477 – 491
Weitzman, Martin L. (2009): On Modeling and Interpreting the Economics of
Catastrophic Climate Change Review of Economics and Statistics 91(1), S. 1 – 19
Wigley, T.M.L. (1998): The Kyoto Protocol: CO2, CH4 and climate implications |
Geophysical Research Letters 25(13), S. 2285 – 2288
Woodruff, S.D., H.F. Diaz, S.J. Worley, R.W. Reynolds und S.J. Lubker, (2005):
Early ship observational data and ICOADS | Climatic Change, 73, S. 169 – 194
100
Woodruff, S.D., H.F. Diaz, E.C. Kent, R.W. Reynolds und S.J. Worley (2008):
The evolving SST record from ICOADS. In: Climate Variability and Extremes
during the Past 100 Years [S. Brönnimann, J. Luterbacher, T. Ewen, H.F. Diaz,
R.S. Stolarski und U. Neu (Hrsg.)] | Advances in Global Change Research, Bd. 33,
Springer, S. 65 – 83 (DOI: 10.1007/978-1-4020-6766-2_4)
Literatur
Manuel Frondel
Die EUKlimapolitik: Teuer
und ineffektiv
Für wissenschaftliche Vorarbeiten bin ich
Nolan Ritter und Ralf Koßmann besonderen
Dank schuldig.
1.
Einleitung
Die sogenannte Klimaerwärmung ist seit geraumer Zeit eines der
weltweit meistdiskutierten Themen. Unter Klimaerwärmung wird
allgemein die Erhöhung der globalen Durchschnittstemperatur verstanden. In der Tat ist die Durchschnittstemperatur der Erde im Laufe
der vergangenen hundert Jahre um etwa 0,8 Grad Celsius angestiegen
(IPCC 2008). Ein guter Teil dieses Anstiegs vollzog sich in den beiden
letzten Dekaden des vergangenen Jahrhunderts.
Für die Klimaerwärmung mit verantwortlich gemacht wird der
anthropogen bedingte Ausstoß von Treibhausgasen, allen voran von
Kohlendioxid (CO2). Dieses Treibhausgas entsteht größtenteils durch
die Verbrennung von fossilen Brennstoffen. In welchem Ausmaß dies
zur Klimaerwärmung beiträgt, ist nach wie vor umstritten, ebenso
wie die Stärke der Bedrohung durch den damit einhergehenden sogenannten Klimawandel. So umfasst das Spektrum der Positionen zum
Klimawandel sowohl Einschätzungen, nach denen der Beitrag des anthropogen generierten CO2 zur globalen Erwärmung vernachlässigbar klein und unbedeutend ist (Lüdecke 2008:163), als auch Aussagen,
dass die globale Erwärmung größere Schäden anrichtet als irgendein
Krieg dies vermag (Stiglitz 2006:1). Damit einhergehen könnten beispielsweise ein substantieller Anstieg des Meeresspiegels, eine Zunahme der Häufigkeit und der Intensität von Stürmen oder auch die
Ausdehnung von Wüsten.
Ohne dass eine Einmischung in diese Diskussion erforderlich
wäre, beschäftigt sich der vorliegende Beitrag mit der Effektivität und
Die EU-Klimapolitik: Teuer und ineffektiv
105
der Kosteneffizienz der Klimaschutzpolitik der Europäischen Kommission, die sich weitgehend auf die Verringerung des Treibhausgasausstoßes konzentriert, bislang vor allem auf die Verringerung von CO2,
während Maßnahmen zur Anpassung an den Klimawandel, wie etwa
die Verstärkung und Erhöhung von Deichen zum Schutz vor einem
Anstieg des Meeresspiegels, eher im Hintergrund stehen.
Der folgende Abschnitt 2 erläutert die treibende Rolle, welche die
Europäische Kommission beim Zustandekommen des unter dem Namen Kyoto-Protokoll weltbekannten internationalen Klimaschutzab106
kommens gespielt hat und die sie mit der Bekanntgabe eines unkonditionierten und ambitionierten Treibhausgasminderungsziels für das
Jahr 2020 noch deutlich untermauert hat. Dabei ist das Ziel unabhängig davon, ob andere bedeutende Emittentenländer wie China oder die
USA ebenfalls Minderungsanstrengungen unternehmen. Die bisherigen Treibhausgasreduktionsbemühungen der Europäischen Union
(EU) und ihrer Mitgliedstaaten werden daher in Abschnitt 2 mit denen
anderer führender Industrie- und Schwellenländer verglichen.
Abschnitt 3 erläutert die kontraproduktiven internationalen Rückwirkungen der ambitionierten, aber einseitigen Bemühungen der
Kommission zur Treibhausgasminderung. Der vierte Abschnitt stellt
die Frage nach der Kosteneffizienz der einseitigen EU-Politik, an der
sich aus vielfältigen Gründen zweifeln lässt. Abschnitt 5 erläutert die
Gründe dafür, dass die Chancen für das Zustandekommen eines globalen Klimaabkommens zur Treibhausgasminderung schlecht stehen,
obwohl ein solches höchst wünschenswert wäre, da Teilkooperationen
oder gar Alleingänge eher nutzlos verpuffen, wenn nicht gar kontraproduktiv sind.
Abschnitt 6 diskutiert aussichtsreichere Politikalternativen zur
Auferlegung von Emissionsrestriktionen, bei denen die einzelnen
Länder in erster Linie selbst von den zu ergreifenden Maßnahmen
profitieren und daher ein hohes Eigeninteresse an deren Umsetzung
haben. So hätte ein weltweites Abkommen über eine sukzessive Er-
Einleitung
höhung der Ausgaben für die Forschung und Entwicklung (F&E) von
Energieumwandlungs- und -speichertechnologien, mit dem man zwar
nicht unmittelbar, aber doch innerhalb einiger Jahrzehnte Treibhausgasminderungen erzielen könnte, eine realistische Chance auf ein Zustandekommen.
Abschnitt 7 setzt sich mit den Vorteilen von Maßnahmen zur Anpassung an die globale Erwärmung auseinander, zu denen unter anderem die gezielte Preisgabe von Land gehören könnte sowie die Umsiedelung der Bevölkerung in weniger gefährdete Landstriche. Einer
Strategie zur Umsetzung von Anpassungsmaßnahmen kommt insbesondere deshalb eine hohe Bedeutung zu, weil Anstrengungen zur
globalen Emissionsminderung letztendlich wenig Aussicht auf Erfolg
haben dürften. Der abschließende Abschnitt präsentiert ein Fazit zur
eingeschlagenen Klimapolitikstrategie der Kommission und schlägt
als Schlussfolgerung einen gravierenden Strategiewechsel vor.
Die EU-Klimapolitik: Teuer und ineffektiv
107
2.
Der geringe Effekt der
Treibhausgasminderungspolitik der EU
Seit Beginn der 1990er Jahre hat sich die Europäische Kommission − im
Folgenden kurz (EU-)Kommission genannt − aktiv für Maßnahmen zur
Minderung von Treibhausgasen auf internationaler Ebene eingesetzt
(Abbildung 1). Bei der Ratifizierung und Implementierung des KyotoProtokolls übernahm die Kommission sogar eine führende Rolle: Ohne
explizite und vergleichsweise hohe Minderungsziele seitens der EU
wäre das Kyoto-Protokoll wohl kaum 1997 verabschiedet worden und
ohne das strategische Geschick der Kommission wäre nach der US-amerikanischen Ablehnung des Protokolls im Jahr 2001 der Kyoto-Prozess
vermutlich gescheitert (Böhringer 2010:60). Erst mit der Ratifizierung
des Kyoto-Protokolls durch Russland, dem Land, dem als Zünglein an
der Waage die besondere diplomatische Aufmerksamkeit sowie zahlreiche Zugeständnisse der Kommission zuteil wurden (Requate 2010:1),
konnte das Protokoll als völkerrechtlich bindender Vertrag 2005 in
Kraft treten. Sanktionen bei Nichteinhaltung der im Protokoll vereinbarten Ziele sind damit allerdings nicht verbunden.
Die EU-Klimapolitik: Teuer und ineffektiv
109
Wichtige Eckpunkte der Klimapolitik seit 1990
Berliner Mandat
fordert
Emissionsziele
für die
Industriestaaten
Die USA lehnen eine Umsetzung
des Kyoto-Protokolls ab
Abbildung 1
Klimakonferenz
in Kopenhagen
Das Kyoto-Protokoll tritt in Kraft
1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
110
Kyoto-Protokoll wird beschlossen
Klimarahmenkonvention
der vereinten Nationen
beschlossen und von der
USA ratifiziert
Russland ratifiziert das Kyoto-Protokoll
Aktionsplan von Bali: parallele
Verhandlungen, Kyoto-Protokoll
und Klimarahmenkonvention
Klimakonferenz
in Cancún
Mit der Ratifizierung des Kyoto-Protokolls hat sich die EU verpflichtet, dafür Sorge zu tragen, dass der Treibhausgasausstoß der Jahre
2008 – 2012 im Schnitt um 8 % niedriger liegt als im Jahr 1990. Zur Erreichung dieses für die gesamte EU geltenden Ziels wurde mit dem sogenannten EU-Burden-Sharing-Agreement von 1998 festgelegt, welche
Lasten die einzelnen Mitgliedstaaten zu schultern haben. Mit dem Ziel,
die Treib­hausgasemissionen um 21 % gegenüber 1990 zu verringern
(Abbil­dung 2), trägt Deutschland mit Abstand die höchste Minderungslast: Die Reduktionsverpflichtung Deutschlands macht rund drei Viertel
der im Kyoto-Protokoll festgelegten Minderungsleistung der EU aus.
Mit einer Verringerung der Treibhausgasemissionen um 6,5 % gegenüber 1990 waren die EU-15-Staaten im Jahr 2008 ihrem Kyoto-Ziel
einer Minderung um 8 % nahe, auch wenn sich bei einigen Ländern
Der geringe Effekt der Treibhausgasminderungspolitik der EU
wie Dänemark, Österreich, Luxemburg, Italien oder Spanien erhebliche Schwierigkeiten bei der Zielerreichung andeuten (Abbildung 2).
Andere Mitgliedsländer wie Frankreich, Schweden, das Vereinigte Königreich oder Deutschland haben hingegen ihre Minderungsziele bereits erreicht.
Die Einhaltung der eigenen Kyoto-Verpflichtungen stellt selbstredend eine Grundvoraussetzung für die Glaubwürdigkeit der einseitigen und ambitionierten Minderungsziele dar, die sich die Kommission
für das Jahr 2020 gesetzt hat. So wurde im Energie- und Klimapaket
der Kommission Anfang 2009 festgelegt, die EU-weiten Treibhausgas­
emissionen bis zum Jahr 2020 um mindestens 20 % gegenüber dem
Niveau von 1990 zu senken − bei vergleichbaren Anstrengungen bedeutender anderer Industrienationen ist sogar ein Minderungsziel
von 30 % vorgesehen. Damit hat die Europäische Union endgültig die
Vorreiterrolle bei der Bekämpfung des Treibhausgasausstoßes übernommen. Andere Staaten haben sich keine derartig anspruchsvollen
Ziele für die Zeit nach der Kyoto-Erfüllungsperiode von 2008 – 2012
gesetzt, für die es bislang kein dem Kyoto-Protokoll vergleichbares internationales Klimaschutzabkommen gibt.
Zur besseren Einschätzung des Klimaschutzehrgeizes der Kommission sollte bedacht werden, dass die bisherigen Minderungserfolge weniger einer stringenten Politik, sondern zu erheblichen Teilen
einmaligen historischen Ereignissen zu verdanken sind. Dazu zählen
der wirtschaftliche Zusammenbruch der ehemaligen Ostblockstaaten infolge politischer Umwälzungen, die ökonomische Erneuerung
der ostdeutschen Länder nach der deutschen Wiedervereinigung sowie die tiefgreifende Rezession nach der Banken- und Finanzmarktkrise am Ende der ersten Dekade dieses Jahrtausends. Laut einer
2009 vom Europäischen Parlament in Auftrag gegebenen Studie ist
lediglich etwa die Hälfte der Emissionsminderungen in der EU seit
1990 auf einschlägige umweltpolitische Maßnahmen zurückzuführen (Böhringer 2010:63).
Die EU-Klimapolitik: Teuer und ineffektiv
111
EU-Burdensharing und Veränderung des
Treibhausgasausstoßes von 1990 – 2008
Abbildung 2
EU-Burdensharing
Veränderung des Treibhausgasausstoßes
15 %
42,3 %
27 %
32,3 %
112
13 %
23 %
25 %
22,8 %
– 13 %
10,8 %
– 6,5 %
4,7 %
– 0,3 %
0%
Spanien
Portugal
Irland
Griechenland
Österreich
Italien
Finnland
–6%
– 2,4 %
Niederlande
– 28 %
Luxembourg
– 4,8 %
– 6,1 %
Frankreich
0%
–8%
– 6,5 %
EU (EU-15)
– 7,5 %
– 7,1 %
Belgien
– 21 %
Dänemark
– 7,3 %
4%
– 11,7 %
– 12,5 %
– 18,5 %
– 21 %
– 22,2 %
Schweden
Großbritannien
Deutschland
– 30%
– 20%
–10% 0% 10%20%30% 40%50%
Der geringe Effekt der Treibhausgasminderungspolitik der EU
Darüber hinaus darf die Kommission nicht darüber hinwegsehen,
dass neben einigen europäischen Ländern zahlreiche andere Industrie­
länder, die das Kyoto-Protokoll unterzeichnet und gar ratifiziert haben,
von ihren Kyoto-Zielen sehr weit entfernt sind (Abbildung 3). So ist
Australien mit einer Emissionssteigerung um 38 % zwischen 1990 und
2008 unerreichbar weit von seinem Kyoto-Ziel entfernt. In den USA,
Kanada und Japan sind die Emissionen ebenfalls angestiegen, wohingegen die Kyoto-Verpflichtungen dieser Länder Emissionssenkungen
vorsehen, die kaum mehr erreichbar scheinen, vor allem für Kanada.
Bereits eine Umkehr der bislang steigenden Emissionstrends wäre für
diese Länder als ein Erfolg anzusehen, an eine Einhaltung der KyotoZiele ist hingegen kaum zu denken.
Quelle Abbildung 2: UNFCCC (2010) | GHG Total Emissions including LULUCF
(land-use, land-use change and forestry) | United Nations Framework Convention on Climate Change
Quelle Abbildungen 3/4: Cerina (2010) | Weltweite CO2-Emissionen: Länderranking 2009
Veränderung des CO2-Ausstoßes bedeutender
Emittenten von 1990 – 2009
Abbildung 3
Kyoto-Ziele
Veränderungen der aktuellen Emissionen (2009) zum Basisjahr (1990)
0%
202,9 %
0%
144,2 %
8%
– 5,2 %
–6%
–7%
–6%
China
Indien
38 %
Australien
27,1 %
Alle Länder
24,9 %
9%
3,9 %
–8%
– 3,2 %
– 21 %
– 22,5 %
Kanada
USA
Japan
EU (EU-15)
Deutschland
– 50% 0% 50% 100%150%200%250%
Die EU-Klimapolitik: Teuer und ineffektiv
113
Dies dürfte zusammen mit den substantiellen Kosten, die für
den Klimaschutz aufzubringen sind, wesentlicher Grund dafür gewesen sein, dass selbst Staaten wie Kanada, die durch das Kyoto-Protokoll vertraglich gebunden sind, davon Abstand nehmen (Böhringer,
Rutherford 2010). Dies ist wohl auch auf das Fehlen von wirksamen
Sanktionen zurückzuführen (Böhringer 2010:60). Insgesamt sind die
weltweiten CO2-Emissionen trotz der erfolgreichen Minderungsanstrengungen der Europäischen Union zwischen 1990 und 2008 um
rund 37 % gestiegen (Abbildung 3), anstatt um 5,2 % zu sinken, wie im
114
Kyoto-Protokoll vorgesehen ist.
Allem Eifer der Kommission sind aber nicht zuletzt auch dadurch Grenzen gesetzt, dass der Anteil der EU-15 an den weltweiten
CO2-Emissionen relativ gering ist und im Jahr 2008 knapp 12 % betrug (Abbildung 4). Ohne ein Mitwirken Chinas und der USA, der beiden bedeutendsten Emittentenländer, deren Anteile an den globalen
CO2-Emissionen 2008 bei 21,4 % und 19,1 % lagen, können die globalen
Emissionen in keinem Fall gesenkt werden, wie die Vergangenheit klar
gezeigt hat.
Der geringe Effekt der Treibhausgasminderungspolitik der EU
CO2-Emissionen der bedeutendsten Emittentenländer
im Jahr 2009
Abbildung 4
31.098
7.426
5.951
3.381
Alle Länder
China
USA
EU (EU-15)
1.534
Russland
1.529
Indien
1.225
Japan
797
Deutschland
664
Südkorea
606
Kanada
544
Saudi Arabien
544
Iran
531
Großbritannien
463
Südafrika
441
Mexiko
438
Italien
415
Brasilien
403
Frankreich
390
Indonesien
385
Australien
342
Spanien
279
Ukraine
0
5.000 10.00015.000 20.00025.00030.00035.000
Die EU-Klimapolitik: Teuer und ineffektiv
115
Tatsächlich lautet die unbequeme Wahrheit, dass der Treibhausgasminderung in der Europäischen Union im globalen Kontext lediglich
eine sehr untergeordnete Bedeutung zukommt (Böhringer 2010:56).
So haben sich die CO2-Emissionen in China zwischen 1990 und 2009
mehr als verdreifacht (Abbildung 3) und stiegen von 2,45 auf 7,43 Mrd.
Tonnen, wohingegen die CO2-Emissionen der EU-15-Staaten um 3,2 %
gesunken sind (Abbildung 3), von 3,49 auf 3,38 Mrd. Tonnen (Cerina
2010). Der Minderung der EU-15-Staaten um 0,11 Mrd. Tonnen stand somit ein Zuwachs an Emissionen in China von knapp 5 Mrd. Tonnen ge116
genüber. Auch im Vergleich zu den zu erwartenden Emissionsanstiegen
in Entwicklungs- und Schwellenländern wie China, Russland oder Indien wird die Emissionsentwicklung in der EU oder anderen Industrie­
ländern weiterhin eine untergeordnete Rolle spielen, wie die folgende
Abbildung 5 zeigt.
Würde der CO2-Ausstoß in den OECD-Ländern bis 2050 tatsächlich um 83 % gesenkt werden, wie es der nach den US-Kongressabgeordneten Waxman und Markey benannte Plan vorsieht, könnte
der künftige Anstieg der globalen Emissionen allenfalls moderat
gedämpft werden, wie Abbildung 5 zeigt. Der Emissionspfad ohne
Minderungen der OECD-Länder, wie sie der Waxman-Markey-Plan
vorsieht, entspricht dabei dem wirtschaftsorientierten A1-Szenario
des Intergovernmental Panel on Climate Change (IPCC 2010), das
eine zunehmende Globalisierung unterstellt. Gemäß dem A1-Szenario dreht sich der Trend zu höheren weltweiten Emissionen erst im
Jahr 2070 um. Hauptursache dafür ist der unterstellte Rückgang der
Weltbevölkerung.
Kurzum: Selbst wenn die EU zusammen mit allen anderen OECDLändern ihre CO2-Emissionen im Laufe der nächsten Jahrzehnte auf
Null zurückführen würde, hätte dies auf den globalen CO2-Ausstoß lediglich eine sehr beschränkte Wirkung. Im Klartext: Ohne drastische
Einschränkungen der künftigen Pro-Kopf-Emissionen in den prosperierenden Schwellenländern, welche bislang noch relativ niedrig aus-
Der geringe Effekt der Treibhausgasminderungspolitik der EU
fallen, ist der Anstieg der weltweiten Emissionen in Zukunft kaum zu
dämpfen, geschweige denn, dass der globale Treibhausgasausstoß gegenüber dem heutigen Niveau gesenkt werden kann.
Künftiger CO2-Ausstoß im A1-Szenario des IPCC (2010)
und bei Umsetzung des Waxman-Markey-Plans
Globale Emissionen A1 IPCC
OECD-1990 Emissionen A1 IPCC
Abbildung 5
Globale Emissionsreduktionen Waxman-Markey
OECD-1990 Emissionsreduktionen Waxman-Markey
117
80
Mrd. Tonnen CO2 (Gt CO2)
70
60
50
40
30
20
10
0
19902000201020202030204020502060207020802090
Quelle: Authors Calculations and IPCC (2001) | Special Report on Emissions Scenarios,
Intergovernmental Panel on Climate Change.
Die EU-Klimapolitik: Teuer und ineffektiv
3.
Kontraproduktive
internationale
Rückwirkungen
Die einseitigen Bemühungen der Kommission zur Treibhausgasminderung können nicht zuletzt auch deshalb wenig zur Dämpfung des weltweiten Emissionsanstiegs beitragen, weil sie kontraproduktive internationale Rückwirkungen haben können (Böhringer 2010:58). So könnten
Länder ihre Minderungsanstrengungen nach den Erkenntnissen der
umweltökonomischen Literatur zurücknehmen, wenn sich eine Nation
oder eine Staatengemeinschaft wie die Europäische Union weithin erkennbar und mit hoher Glaubwürdigkeit auf verstärkte Anstrengungen
zur Emissionsvermeidung festlegt (Beirat BMF 2010:14).
Denn: Je stärker eine Staatengemeinschaft wie die EU zur Dämpfung des Anstiegs oder gar Senkung der weltweiten Emissionen beiträgt, desto kleiner werden die Vorteile eines anderen Staates aus
dessen eigenen Minderungsanstrengungen (Beirat BMF 2010:16). In
anderen Worten: Der Grenznutzen der Vermeidungsmaßnahmen der
übrigen Staaten nimmt mit den zunehmenden EU-Bemühungen ab.
Bei sinkendem Grenznutzen ist es folglich für die Nicht-EU-Staaten
reizvoll, ihre eigenen Anstrengungen infolge der EU-Ambitionen einzuschränken.
Andere Länder profitieren daher in doppelter Hinsicht von den
Anstrengungen der EU. Zum einen steigt deren Wohlfahrt in unmittelbarer Weise durch die verstärkten Emissionsminderungen der EU-
Die EU-Klimapolitik: Teuer und ineffektiv
119
Länder, falls diese überhaupt einen positiven Effekt auf das Weltklima
haben. Zum anderen sinken infolge der verstärkten Vermeidungsanstrengungen der EU die Klimaschutzkosten der übrigen Staaten, wenn
diese ihre Emissionsminderungsmaßnahmen entsprechend zurückschrauben.
Kurzum: Die Änderung in ihrem Kosten-Nutzen-Kalkül führt
dazu, dass die Nicht-EU-Länder ihre Treibhausgasminderungspolitik
tendenziell weniger restriktiv bzw. ambitioniert ausgestalten könnten als ohne die EU-Anstrengungen, sodass die Nicht-EU-Länder ihre
120
Treibhausgasvermeidungskosten reduzieren könnten (Hoel 1991,
Warr 1993). Die Wirkung der Selbstverpflichtung, die sich die Kommission durch die Verkündung des 20-%-Ziels auferlegt hat, besteht
somit in einer als Crowding-Out bezeichneten Verdrängung der Vermeidungsanstrengungen anderer Länder. Unter sehr plausiblen Annahmen kann dies zu einem teilweisen oder gar nahezu gänzlichen
Ausgleich der durch die EU bewirkten Emissionsreduktionen führen
(Beirat BMF 2010:14).
Wenn folglich die Kommission eine einseitige Selbstverpflichtung zu hohen Emissionsminderungen eingeht, mag sie darauf hoffen, damit ein positives Beispiel zu setzen, dem andere Länder folgen.
In einer realen Welt, in der die Emissionen aller Länder durch deren
individuelles Kosten-Nutzen-Kalkül bestimmt sind, ist dies jedoch
eine fromme Hoffnung (Beirat BMF 2010:14). Es besteht vielmehr die
große Gefahr, dass andere Länder durch die starke Vorreiterrolle der
EU nicht mehr, sondern weniger Anstrengungen zur Verringerung der
globalen Emissionen unternehmen werden. Die kurzfristigen Wohlfahrtswirkungen einer solchen Vorreiterpolitik sind eindeutig: Die
Wohlfahrt in der sich selbst verpflichtenden EU sinkt, während sich
die Wohlfahrt aller anderen Länder – zumindest auf kurze Sicht – erhöht (Beirat BMF 2010:14).
Bei einer unilateralen Minderungspolitik der EU kommt es insbesondere zu Verlagerungen der Emissionen in Länder ohne Emissions-
Kontraproduktive internationale Rückwirkungen
beschränkungen (Hoel 1991, Felder, Rutherford 1993), ein Effekt, der
unter dem Begriff Emissions oder Carbon Leakage bekannt ist. Darunter versteht man das Phänomen, dass die einseitige Belastung der energieintensiven europäischen Industrie zu Erhöhungen der Emissionen
in Länder außerhalb der EU führen, in denen keine vergleichbaren Klimaschutzkosten anfallen. Dadurch stehen den Emissionssenkungen in
Europa erhöhte Emissionen im Nicht-EU-Ausland gegenüber (OliveiraMartins et al. 1992).
Dafür gibt es drei Gründe: Erstens kann es zu Standortverlagerungen umwelt- und energieintensiver Industrien ins Nicht-EU-Ausland
kommen. Kritiker halten dem entgegen, dass Umweltregulierung nur
einer von vielen Standortfaktoren wäre, räumen die Möglichkeit der
Standortverlagerung jedoch ein (Hentrich, Matschoss 2006:51). Zweitens können Importe umweltintensiver Güter die Produktion in Europa verdrängen. Dies dürfte nach den Ergebnissen einer empirischen
Studie von Demailly und Quirion (2006) beispielsweise bei Zement
in nicht unerheblichem Maße der Fall sein. Drittens könnte ein substantieller Nachfragerückgang in Ländern mit starken Emissionsminderungen zu weltweit geringeren Energiepreisen führen, sodass postwendend die Nachfrage nach fossilen Energierohstoffen in den übrigen Ländern steigt (Böhringer 2010:58).
Um diese kontraproduktiven Rückwirkungen abzuschwächen,
kann es sinnvoll sein, energie- und handelsintensive Industrien
weniger stark zu belasten, konstatieren Böhringer und Schwager
(2003:213), so wie dies etwa im Zusammenhang mit der Erhebung der
Stromsteuer in Deutschland bislang geschieht. Auch die Kommission
hat die Relevanz des Leakage-Effekts erkannt und wird die Unternehmen der handels- und zugleich energieintensiven Industriesektoren
von der Verpflichtung der Ersteigerung der von ihnen benötigten
Zertifikate ab dem Jahr 2013 teilweise ausnehmen. Unter die Ausnahmenregelungen fallen diejenigen Sektoren, bei denen die durch den
Emissionshandel verursachten zusätzlichen Energiekosten mindes-
Die EU-Klimapolitik: Teuer und ineffektiv
121
tens 5 % der Bruttowertschöpfung betragen und deren Handelsintensität17 zugleich über 10 % liegt. Als vom Carbon Leakage besonders
betroffen − und deshalb ebenfalls ausgenommen − gelten sodann
diejenigen Sektoren, für die bereits eines dieser beiden Kriterien bei
über 30 % liegt.
Bei diesen Ausnahmeregelungen ist allerdings zu beachten, dass
sie die so identifizierten Unternehmen nicht vollständig von den
CO2-Kosten entlasten. Vielmehr erhalten die energieintensiven Unternehmen, die sich erwiesenermaßen im internationalen Wettbewerb
122
behaupten müssen, in der kommenden Handelsperiode (2013 – 2020)
eine Gratiszuteilung der Zertifikate lediglich in einer Höhe, die sich
nach einem sektorspezifischen Benchmark bemisst (BMU 2008). Zur
Festlegung der EU-einheitlichen Benchmarks werden jeweils die effizientesten 10 % der Anlagen einer Branche in der EU betrachtet. Jene
Unternehmen aber, die bei weitem nicht zu den 10 % der effizientesten ihrer Branche gehören, könnten trotz Gratiszuteilung in Höhe des
Benchmarks mit erheblichen Kosten infolge des Erwerbs der darüber
hinaus benötigten Zertifikate konfrontiert sein.
Eine allzu ambitionierte unilaterale Klimapolitik, die in Zukunft
immer strengere Klimaschutzziele verfolgt, kann schließlich auch
dazu führen, dass fossile Energieressourcen schneller gefördert werden, weil die Rohstoffanbieter befürchten könnten, dass infolge künftig verstärkter Klimaschutzbemühungen die Nachfrage und damit die
Preise nach Energierohstoffen fallen. Nach dem „grünen Paradoxon“
von Sinn (2008:140) könnte so der weltweite Ausstoß an Treibhausgasen paradoxerweise sogar höher ausfallen als ohne Klimaschutzbemühungen.
17 Die Handelsintensität ist die Summe aus Importen und Exporten dividiert durch die Summe aus
dem in der EU erzielten Umsatz und den Importen (BMU 2008).
Kontraproduktive internationale Rückwirkungen
4.
Mangelnde
Kosteneffizienz der
Treibhausgasminderungspolitik der EU
Auch wenn die Klimapolitik der Kommission nach den vorangehenden Erläuterungen im weltweiten Maßstab wenig oder gar Kontraproduktives bewirkt, stellt sich die Frage nach der Kosteneffizienz
der einseitigen EU-Politik. An der Kosteneffizienz lässt sich aber vor
allem aus folgenden Gründen zweifeln (Böhringer 2010:63): Erstens
sind Mehrkosten dadurch vorprogrammiert, dass neben dem im Jahr
2005 eigens zum Zwecke der Treibhausgasminderung etablierten Klimaschutzinstrument des Handels von CO2-Emissionszertifikaten eine
Vielzahl von sich überlagernden Regulierungsinstrumenten in der EU
zum Einsatz kommen, obwohl laut umweltökonomischer Literatur die
Minderung von Treibhausgasen mit dem Emissionshandel auf kurze
Sicht zu den geringsten gesamtwirtschaftlichen Kosten erreicht werden kann: Durch dieses Klimaschutzinstrument können Emissionsminderungsziele nicht nur ökologisch treffsicher, sondern – zumindest in statischer bzw. kurzfristiger Betrachtungsweise – auch ökonomisch effizient realisiert werden (Bonus 1998:7).
Zweitens entstehen auch dadurch erhebliche Mehrkosten, dass
der Emissionshandel bislang auf die Europäische Union begrenzt ist
(Nordhaus 2009:50). Eine Ausweitung des EU-Emissionshandelssystems auf weitere Regionen, welche insbesondere die größten Emitten-
Die EU-Klimapolitik: Teuer und ineffektiv
123
ten wie die USA und China einschließen, würde die Vermeidung ein
und derselben Emissionsmenge zu günstigeren Kosten erlauben, da
mit Hilfe dieses Instrumentes die Emissionen dort gemindert werden,
wo es am kostengünstigsten ist (Böhringer 2010:64). Mit einer internationalen Ausweitung des Emissionshandels sollte sich die Anzahl
an zur Verfügung stehenden kostengünstigen Vermeidungsoptionen
vergrößern. Im Ergebnis führt dies zu einer Senkung der Kosten für die
Erreichung einer bestimmten Emissionsminderung.
Zu einer Ausweitung des EU-Emissionshandelssystem auf einen
124
weltweiten Handel besteht aber wenig Hoffnung, da dies ein weltumspannendes klimapolitisches Abkommen voraussetzt. Die Aussichten
auf den Abschluss eines wirkungsvollen internationalen Klimaabkommens mit völkerrechtlich bindenden Minderungszielen der bedeutendsten Emittenten sind allerdings sehr schlecht (Beirat BMF 2010:7),
wie im nächsten Abschnitt erläutert wird. Ein Hauptgrund dafür ist,
dass es keine Weltregierung gibt und es wenig wahrscheinlich ist, dass
es eine solche jemals geben wird.
Drittens ist die Europäische Union trotz der als positiv hervorzuhebenden Etablierung und Weiterentwicklung des Emissionshandels noch weit von einer kohärenten Klimapolitik entfernt (Böhringer 2010:66). Dies ist vorwiegend dem Umstand geschuldet, dass in
den Emissionshandel bislang nur der Stromerzeugungssektor und
die energieintensiven Produktionsbetriebe einbezogen sind, welche
zusammen für etwa 40 % der EU-weiten CO2-Emissionen verantwortlich sind. Andere Bereiche wie der Verkehrssektor oder die Sektoren
der privaten Haushalte oder der Gewerbe-, Handels- und Dienstleistungsunternehmen sind hingegen nicht in den Emissionshandel
integriert. Anstatt den Emissionshandel auf andere Bereiche auszuweiten, besteht in der Europäischen Union die Tendenz, jeden Sektor spezifisch zu regulieren, um so das EU-weite Minderungsziel zu
erreichen. Dies hat erhebliche Effizienzverluste zur Folge (Böhringer
et al. 2005).
Mangelnde Kosteneffizienz der Treibhausgasminderungspolitik der EU
So ist im Bereich des privaten Pkw-Verkehrs künftig ein spezifischer Emissionsstandard das von der Kommission präferierte Regulierungsinstrument (Frondel, Schmidt 2008:330). Mit der EU-Verordnung 443/2009 ist ab 2012 für Neuwagen ein zulässiges Höchstmaß an
spezifischen CO2-Emissionen je Kilometer vorgeschrieben, das mit der
Masse des Fahrzeugs ansteigen darf (Frondel, Schmidt 2009:179). Mit
dieser Art der Regulierung sind CO2-Vermeidungskosten verbunden,
die zwischen 475 und 950 Euro je Tonne CO2 liegen können (Frondel,
Schmidt, Vance 2010), während der CO2-Zertifikat-Preis im Rahmen
des Emissionshandels bislang noch nicht über 30 Euro je Tonne hinausging. Die hohen Vermeidungskosten, die mit dieser Regulierung
verbunden sein können, gehen bei einer zwar weitgehend unbekannten, aber definitiv endlichen Zahlungsbereitschaft der Bevölkerung
für Klima- bzw. Umweltschutz unmittelbar zu Lasten anderer, kostengünstigerer Treibhausgasvermeidungsmaßnahmen.
Der Existenz des Emissionshandels zum Trotz gibt es zusätzlich
dazu eine Vielzahl von Maßnahmen und Politikinstrumente, zu deren Rechtfertigung die Kommission die Verringerung des Treibhausgasausstoßes zumindest als eines von mehreren Motiven angibt. An
erster Stelle sind dabei Richtlinien zur Steigerung der Energieeffizienz
sowie zum Ausbau des Einsatzes von erneuerbaren Energietechnologien zu nennen. Damit sollen die im Energie- und Klimaschutzpaket
genannten 20-20-20-Ziele erreicht werden. Dabei stellt die Minderung der Treibhausgasemissionen um 20 % gegenüber 1990 eines der
Ziele für das Jahr 2020 dar, während die Ausweitung des Beitrags der
erneuerbaren Energietechnologien zur Deckung des Primärenergieverbrauchs in der EU auf 20 % bis 2020 sowie die Steigerung der Energieeffizienz um 20 % gegenüber dem Weiter-wie-Bisher die übrigen
Zielmarken sind.
Zu dem Bündel an Regulierungen zur Erreichung dieser Ziele zählt
nicht zuletzt auch das am 1. September 2009 erlassene sukzessive Verbot des Verkaufs herkömmlicher Glühbirnen, das bis spätestens 31. Au-
Die EU-Klimapolitik: Teuer und ineffektiv
125
gust 2012 den Verkauf sämtlicher Arten von Glühbirnen in der EU verbietet (EU-Verordnung 244/2009) und daher unter dem Begriff „Glühbirnenverbot“ firmiert. Dieses Verbot wird von der Kommission vor
allem mit zwei Argumenten gerechtfertigt (Frondel, Lohmann 2010).
Erstens würden energieeffiziente Energiesparlampen den privaten
Haushalten und übrigen Stromverbrauchern helfen, Strom und damit
Kosten zu sparen, sodass deren Stromrechnungen signifikant sinken.
Frondel, Lohmann (2010) halten dem entgegen, dass die Verwendung
von Energiesparlampen zwar bei häufiger Nutzung große Kostenvor126
teile aufweist. Bei sehr geringen Nutzungszeiten, wie dies etwa bei der
Keller- und Dachbodenbeleuchtung der Fall ist, erleiden die Verbraucher durch dieses Verbot aber wirtschaftlichen Schaden. Allein aus
diesem Grund ist das generelle Glühbirnenverbot der EU-Kommission
unangebracht und sollte wieder zurückgenommen werden.
Mit den Einsparungen an Strom infolge des Glühbirnenverbots
kann nach Auffassung der Kommission zweitens der Ausstoß an Treibhausgasen verringert werden, der mit der konventionellen Erzeugung
von Strom auf Basis fossiler Brennstoffe wie Kohle oder Gas verbunden ist. Tatsächlich aber ist der Nettoeffekt dieses Verbotes bei einer
Koexistenz mit dem 2005 etablierten Emissionshandel gleich Null,
ebenso wie bei allen anderen Maßnahmen, die auf eine Absenkung
des Stromverbrauchs und des damit verbundenen CO2-Ausstoßes
abzielen: Da der Emissionshandel eine bindende Obergrenze für die
CO2-Emissionen vorgibt, können mit Maßnahmen wie etwa dem Erneuerbare-Energien-Gesetz (EEG) zur Förderung alternativer Stromerzeugungstechnologien in Deutschland keinerlei weitere Einsparungen
erzielt werden (Frondel, Ritter, Schmidt 2008:4201).
Die via EEG geförderte Stromerzeugung sorgt zwar für geringere
Emissionen im deutschen Stromsektor, weshalb die Zertifikatpreise
niedriger ausfallen als ohne EEG. Dadurch werden jedoch Vermeidungsmaßnahmen in anderen am Emissionshandel beteiligten Sektoren nicht ergriffen, weil es kostengünstiger ist, stattdessen Zertifikate
Mangelnde Kosteneffizienz der Treibhausgasminderungspolitik der EU
zu kaufen. Andere Stromerzeugungssektoren in der EU sowie die Industriesektoren, die in den Emissionshandel eingebunden sind, weisen folglich höhere Emissionen auf und gleichen so die Emissionseinsparungen, die im deutschen Stromerzeugungssektor durch das EEG
ausgelöst werden, gänzlich aus.
Im Ergebnis ergibt sich lediglich eine Emissionsverlagerung,
der durch das EEG bewirkte CO2-Einspareffekt ist aber de facto Null
(BMWA 2004:8, Morthorst 2003). So kann es sich bei einem starken
Ausbau der erneuerbaren Energien in der EU und den damit verbundenen signifikanten den CO2-Preis senkenden Wirkungen gerade für
die Betreiber alter Kohlekraftwerke eher lohnen, ihre wenig effizienten,
emis­sionsintensiven Anlagen weiterzubetreiben, als den Anteil der Erneuerbaren weiter zu steigern. Durch die Regulierungsüberlagerung
kommt es somit sogar zu paradoxen Folgen (Böhringer 2010:69).
Letztlich werden vergleichsweise kostengünstige Maßnahmen
nicht ergriffen, die in der kontrafaktischen Situation ohne ein deutsches EEG und mit den in den übrigen EU-Staaten existierenden Instrumenten zur Förderung erneuerbarer Energietechnologien umgesetzt worden wären. Stattdessen wird gerade mit der Solarstromproduktion die teuerste aller derzeit in der Diskussion befindlichen
Technologien zur Vermeidung von CO2-Emissionen umgesetzt (Abbildung 6). So taxieren Frondel, Ritter, Schmidt, Vance (2010a:119) die
mit der Förderung der Photovoltaik in Deutschland einhergehenden
Vermeidungskosten auf mehr als 600 Euro je Tonne CO2. Die Internationale Energieagentur geht sogar von einem höheren Wert von rund
1.000 Euro je Tonne aus (IEA 2007:74).
Die EU-Klimapolitik: Teuer und ineffektiv
127
Emissionsvermeidungskosten verschiedener
technologischer Maßnahmen
Abbildung 6
700
585
600
611
540
128
Euro pro Tonne CO2
500
415
400
420
326
300
254
200
100
91
29
37
190
–5
215
102
34
7
0
75
52
–21
– 100
–113
– 200
Ke
rg
ne
e
rn
)
PR
k
(E
ie
K
D-
u
-G
as
er
ftw
ra
k
ie
er
ftw
ra
rm
e
rth
la
So
dg
Er
dk
in
W
E
z
ffi
i
te
en
e
Di
-P
l
se
g
un
m
äm
ed
m
är
W
kw
H
EF
te
en
n
Be
-P
zin
kw
G
Ef
i
fiz
ik
ffe
ta
to
ol
ts
v
f
o
ra
ot
ok
Ph
Bi
ie
rm
e
th
eo
Quelle: Fahl (2006)
Als Folge davon summieren sich die realen Nettokosten für alle
zwischen 2000 und 2009 in Deutschland installierten Photovoltaikmodule auf rund 52,3 Mrd. Euro (Frondel, Ritter, Schmidt, Vance
2010b:4051). Dies konterkariert das Prinzip des Emissionshandels, den
Treibhausgasausstoß dort zu verringern, wo es am kostengünstigsten
ist, bzw. die Treibhausgase mit den kosteneffizientesten Technologien
zu reduzieren.
Diese theoretische Argumentation wird durch die numerische
Analyse von Traber und Kemfert (2009) für Deutschland untermauert. Danach ändert sich der CO2-Ausstoß auf europäischer Ebene
Mangelnde Kosteneffizienz der Treibhausgasminderungspolitik der EU
kaum, obwohl die Emissionen im deutschen Stromerzeugungssektor
durch das EEG um 11 % reduziert werden. Der Grund dafür ist, dass die
Stromerzeugung auf Basis erneuerbarer Technologien in Deutschland
die Dringlichkeit der Emissionsreduktion in den übrigen EU-Ländern
verringert, indem die EU-weit geltenden Preise für CO2-Zertifikate gegenüber einer Situation ohne ein deutsches EEG um 15 % niedriger ausfallen (Traber, Kemfert 2009:169).
Nun wird häufig argumentiert, man könne die ökologische Unwirksamkeit des EEG bzw. des EU-weiten Ausbaus der Erneuerbaren
dadurch beheben, dass das Emissionsbudget beim Emissionshandel
um die zu erwartenden CO2-Minderungsbeiträge infolge des Ausbaus
der regenerativen Stromerzeugung reduziert wird (Diekmann, Kemfert 2005; Kemfert, Diekmann 2009). So sei in der EU-weit geltenden
Emissionsobergrenze für 2020 der CO2-senkende Einfluss des Zubaus
regenerativer Stromerzeugungstechnologien berücksichtigt worden
(COM 2008) und der Ausbau erneuerbarer Energien hätte daher sehr
wohl eine CO2-senkende Wirkung. Diese Argumentation ist unzutreffend, da es allein das Instrument des Emissionshandels ist, das die Einhaltung der Emissionsobergrenze (Cap) garantiert. Diese Obergrenze
würde auch dann eingehalten, wenn auf den weiteren Ausbau der erneuerbaren Energien in sämtlichen EU-Ländern verzichtet würde − zugegeben eine wenig wahrscheinliche Entwicklung.
Dennoch verdeutlicht diese Überlegung, dass es allein das Instrument des Emissionshandels ist, das eine Senkung der Treibhausgasemissionen bewirkt (Häder 2010:14). Dieser kaum bestreitbaren
Tatsache wird häufig entgegengehalten, dass es gerade die Förderung
der erneuerbaren Energien ist, die weit niedrigere zukünftige Obergrenzen im EU-Emissionshandel erlauben würde als andernfalls.
Dieses Argument ist wenig stichhaltig, da die EU-Länder sich mit
weitaus weniger Subventionen, als die Förderung der erneuerbaren
Energien verschlingt, in die Lage versetzen könnten, niedrige künftige Emissionsobergrenzen einzuhalten.
Die EU-Klimapolitik: Teuer und ineffektiv
129
Der Weiterbetrieb der Kernkraftwerke in Deutschland, die nach
geltendem Gesetz bereits nach 32 Jahren Laufzeit abgeschaltet werden
sollen, obwohl die technische Lebensdauer bei 60 Jahren und mehr
liegt, wäre nur eines von vielen Beispielen, wie man auf kostengünstige Weise strengere Emissionsgrenzen anstreben könnte. In diesem
Beispiel wären die volkswirtschaftlichen Kosten sogar negativ: Die
Wohlfahrt in der EU und vor allem in Deutschland würde zweifellos
gesteigert (Energieprognose 2009). Konträr dazu erweisen sich zusätzliche Politiken zur Förderung erneuerbarer Energien als besonders teu130
er: Böhringer et al. (2009a) wiesen darauf hin, dass sich die Kosten für
die Treibhausgasminderung in der Europäischen Union durch solche
Politikmaßnahmen sogar verdoppeln können.
Ein weiteres Beispiel für ein ebenfalls den Emissionshandel berührendes Instrument sind Stromsteuern. Eine solche wurde in
Deutschland unter dem Begriff Ökosteuer im Jahr 1999 eingeführt.
Unternehmen, die sowohl Stromsteuern bezahlen als auch dem
Emissionshandel unterliegen, vermeiden ineffizient viel (Böhringer
2010:68). Dadurch subventionieren sie indirekt die Unternehmen solcher EU-Länder, die ebenfalls in den Emissionshandel eingebunden
sind, aber nicht einer Stromsteuer unterworfen sind. Auch hier gilt:
Da die Gesamtemissionen im EU-Emissionshandel gedeckelt sind,
haben zusätzliche Strom- oder CO2-Steuern keinen CO2-senkenden
Effekt (Böhringer 2010:68).18
Dies gilt ebenso für alle weiteren Instrumente, die auf eine Senkung des Stromverbrauchs in den EU-Ländern abzielen. Dazu gehören
in Deutschland etwa das Energieverbrauchskennzeichnungsgesetz,
das den Kauf energieeffizienter Stromgeräte stärkt, die Förderung der
18 Dementsprechend sind die Vermeidungskosten je eingesparter Tonne CO2 im Prinzip unendlich
hoch, da ungeachtet der Höhe der Kosten, die durch die einzelnen Maßnahmen den Verbrauchern
auferlegt wird, der CO2-Einspareffekt Null ist und bei der Berechnung der spezifischen
Vermeidungskosten je Tonne CO2 durch Null dividiert werden müsste.
Mangelnde Kosteneffizienz der Treibhausgasminderungspolitik der EU
Kraft-Wärme-Kopplung (KWK) via KWK-Gesetz oder das Energiebetriebene-Produkte-Gesetz, das ineffiziente Geräte vom Markt ausschließt.
Infolge der gleichzeitigen Existenz des Emissionshandels sind diese
Gesetze ebenso nutzlos im Hinblick auf Treibhausgaseinsparungen
(Häder 2010:17) wie der in Italien und Großbritannien etablierte Handel mit sogenannten weißen Zertifikaten, mit dem Stromeinsparungen erreicht werden sollen.
Aber selbst wenn es keinen CO2-Emissionshandel gäbe, wären Weiße-Zertifikate-Systeme nicht das Instrument 1. Wahl: Jede Politik, die
pauschal an der Nachfrage nach Energie ansetzt, um Umweltexternalitäten zu verringern, ohne dabei den mit dem jeweiligen Energieträger
verbundenen spezifischen Umwelteffekten Rechnung zu tragen, ist
ineffizient (Mennel, Sturm 2009:27).
Tatsächlich sind solche auf den Emissionshandel aufgesattelten Instrumente wie auch technologie-spezifische Förderungen, allen voran
die Subventionierung der Erneuerbaren, nicht nur ineffektiv bzw. ökologisch überflüssig. Sie sind aus ökonomischer Sicht sogar kontraproduktiv, da Klimaschutz damit unnötig teuer wird (Häder 2010:15). Die
Förderung alternativer Technologien zur Produktion „grünen“ Stroms,
welche in Europa mit vielen Milliarden Euro im Jahr unterstützt wird −
allein in Deutschland betrugen die Einspeisevergütungen für „grünen“
Strom im Jahr 2009 rund 10 Mrd. Euro (Schiffer 2010:83) –, muss sich
daher aus anderen Gründen rechtfertigen.
Bedauerlicherweise darf man wegen der massiven finanziellen
Belastungen durch die Erneuerbaren-Politik der Kommission keine
positive Auswirkungen auf Beschäftigung erwarten (Frondel, Ritter,
Schmidt, Vance 2010b:4055). So gehen mit den höheren Strompreisen infolge der Förderung der erneuerbaren Energien, etwa durch das
deutsche Erneuerbaren-Energie-Gesetz (EEG), Kaufkraftverluste von
privaten Haushalten einher. Zusammen mit dem Entzug von Investitionskapital bei den industriellen Stromverbrauchern bewirkt dies
negative Arbeitsplatzeffekte in anderen Sektoren. Indem die Budgets
Die EU-Klimapolitik: Teuer und ineffektiv
131
der industriellen Verbraucher durch höhere Strompreise geschmälert
werden, stehen vor allem weniger Mittel für alternative und profitablere Investitionen zur Verfügung. Daher ist zu bezweifeln, ob die Arbeitsplatzeffekte des deutschen EEG im Saldo tatsächlich positiv ausfallen
können (Frondel, Ritter, Schmidt, Vance 2010a:123).
Demnach ist es nicht weiter verwunderlich, dass sich in der Vergangenheit zahlreiche Studien skeptisch in Bezug auf positive Nettobeschäftigungseffekte der Förderung erneuerbarer Energien in Deutschland äußerten. So konstatiert das Institut für Wirtschaftsforschung in
132
Halle, dass bei Berücksichtigung der Investitionskosten bzw. der Verdrängung der privaten Verwendung der Investitionsmittel „praktisch
keine Beschäftigungseffekte mehr festgestellt werden könnten“ (IWH
2004:72). Ähnlich äußerten sich Fahl, Küster und Ellersdorfer (2005),
Pfaffenberger (2006) und das RWI (2004) bzw. Hillebrand et al. (2006).
In jedem Falle sind die durch die Förderung erneuerbarer Energien geschaffenen Bruttoarbeitsplätze teuer erkauft. So erforderte die
Schaffung von 50.000 „grünen Jobs“ in Spanien Ausgaben von 28,7
Mrd. Euro (Álvarez et al. 2009:24). Pro Arbeitsplatz sind das 574.000
Euro. Ähnlich hohe Subventionen werden in Deutschland für jeden Arbeitsplatz in der Photovoltaikbranche bezahlt. Auf Basis der Nettokosten von rund 17,4 Mrd. Euro für alle im Jahr 2009 installierten Anlagen
(Frondel, Ritter, Schmidt, Vance 2010b:4051) lägen die Subventionen
pro Kopf bei rund 290.000 Euro, wenn man von 60.000 Beschäftigten
im deutschen Photovoltaiksektor ausgeht (BSW 2009).
Diese Ergebnisse sind nicht weiter überraschend, schließlich ist
der komparative Vorteil der Politik nicht unbedingt in der unmittelbaren Schaffung von Arbeitsplätzen zu vermuten. So würde man
eher dem Markt, welcher die wettbewerbsfähigen konventionellen
Stromerzeugungstechnologien begünstigen würde, als der Politik,
die sich als Förderer ineffizienter „grüner“ Technologien betätigt, zutrauen, für insgesamt mehr Beschäftigung und somit eine größere
Wohlfahrt zu sorgen.
Mangelnde Kosteneffizienz der Treibhausgasminderungspolitik der EU
Tatsächlich sollte der Handlungsschwerpunkt der Politik nicht in
der Schaffung von Arbeitsplätzen liegen, sondern in der Gestaltung
günstiger Rahmenbedingungen, welche die möglichst kostengünstige
Produktion von Gütern und Dienstleistungen erlauben. Zu diesen Rahmenbedingungen gehört die allgemeine Förderung der Erforschung
und Entwicklung neuer Produktionsmethoden, bei denen weniger
Ressourcen an Energie, Umwelt, Kapital oder auch an Arbeit eingesetzt
werden, um denselben Output zu erzeugen wie mit den bestehenden
Technologien. Indem die frei werdenden Ressourcen für andere Zwecke verwendet werden können, kann so der Lebensstandard der Bevölkerung gesteigert werden. Die von der Kommission mit der Steigerung
des Anteils der Erneuerbaren am Energiemix beabsichtigte Technologieförderung ist in dieser Hinsicht allerdings wenig erfolgreich, wie in
Abschnitt 7 dargestellt wird.
Die EU-Klimapolitik: Teuer und ineffektiv
133
5.
Schlechte Chancen
für ein globales
Klimaabkommen zur
Treibhausgasminderung
Nationale Klimapolitiken zur Senkung von Treibhausgasen sehen sich
einem fundamentalen Dilemma ausgesetzt19: Die Bürger eines einzelnen Landes, welche von dessen Regierung die vollen Kosten einer einseitigen Minderungspolitik aufgebürdet bekommen, profitieren nur
zu einem geringen Teil von dieser Klimapolitik, falls denn diese Minderung der Treibhausgase überhaupt die globale Erwärmung signifikant beeinflussen kann. Der weit überwiegende Nutzen einer solchen
Politik fällt im Ausland an (Beirat BMF 2010:8).
Aus diesem Grund haben einzelne Länder in der Regel nur geringe
Anreize20, erhebliche Kosten für Treibhausgasminderungen aufzuwenden, da diese wegen der weltweiten Auswirkungen des Ausstoßes von
Treibhausgasen allen zu Gute kommen, aber im weltweiten Maßstab
19 Das Dilemma wurde von Hardin (1968) als Tragedy of Commons bezeichnet. Damit gemeint ist
die Tragik der Allmende- bzw. öffentlichen Güter, die allen zur Verfügung stehen, dadurch keinen
Preis haben und daher unter Übernutzung leiden.
20Nur wenige Länder beteiligen sich freiwillig an der Vermeidung von Emissionen (Beirat BMF
2010:11). Dass ein Land zu dieser Gruppe gehört, ist umso wahrscheinlicher, je größer und
bevölkerungsreicher das Land ist, je wohlhabender das Land ist, je niedriger die Kosten der
Emissionsvermeidung für dieses Land sind, je dramatischer die Veränderung des Klimas
für das Land negativ zu Buche schlägt und je bedeutender und politisch einflussreicher die
Ökologiebewegung in einem Land ist.
Die EU-Klimapolitik: Teuer und ineffektiv
135
wenig bewirken (Abschnitt 2). Im Gegenteil: Ein einzelnes Land hat
vielmehr den Anreiz, sich als Trittbrettfahrer zu verhalten (Weimann
1994:73) und nichts zu tun, um ohne eigenen Kostenaufwand von den
Anstrengungen der anderen Länder zu profitieren.
Die zentrale Herausforderung ist daher, einen Weg zu finden, mit
dem es gelingen kann, Staaten vom Trittbrettfahrerverhalten abzubringen und die Chancen für das Zustandekommen eines Klimaabkommens auf globaler Ebene, mit dem sich nahezu alle Staaten oder zumindest sämtliche bedeutenden Emittenten, Treibhausgasrestriktionen
136
auferlegen, zu erhöhen. Aufgrund des Fehlens einer Weltregierung, die
ein Trittbrettfahrerverhalten wirksam sanktionieren könnte (Weimann
1994:73), welche es aber mit Sicherheit niemals geben wird, besteht internationale Klimapolitik allerdings allein aus freiwilligem Engagement.
Dabei stellt sich die Frage, welche Rolle Kooperationen einzelner Länder
spielen können, um die Teilnahmebereitschaft der übrigen Länder an
einem globalen Klimaabkommen zu beeinflussen.
Kooperationen einer Teilgruppe von Ländern, etwa der 27 EU-Mitgliedstaaten, können für die einzelnen Teilnehmerstaaten durchaus
attraktiv und ökonomisch rational sein, wie an dem folgenden Beispiel
erläutert werden soll. Nehmen wir vereinfachend an, dass sich die 27 EUStaaten dazu verpflichten, jeweils dieselbe Emissionsmenge zu vermeiden. Diese Verpflichtung lohnt sich für ein einzelnes EU-Mitglied genau
dann, wenn seine Emissionsminderungskosten geringer sind als der Nutzen, den die 27-mal so hohe Emissionsminderung, zu der sich die Partnerländer via Vertrag verpflichtet haben, stiftet.21 Man würde meinen,
dass die Teilnahme eines Landes an einem solchen Kooperationsvertrag
21 Die vereinfachende Annahme, dass alle Länder sich zur selben Minderungsmenge verpflichten,
ist irrelevant. Tatsächlich spielt es für das Kosten-Nutzen-Kalkül eines Landes, das sich zu einer
bestimmten Emissionsminderung verpflichtet, offenkundig keine Rolle, wie die Verteilung
der Minderungsverpflichtungen auf die übrigen Länder ausfällt, solange die gesamte
Minderungsmenge dieselbe bleibt.
Schlechte Chancen für ein globales Klimaabkommen zur Treibhausgasminderung
umso attraktiver ist, je mehr Kooperationspartner sich zu Minderungsanstrengungen verpflichten, da die eigenen Anstrengungen mit dem entsprechenden Vielfachen an Emissionsminderung belohnt werden.
Auf den ersten Blick würde man folglich erwarten, dass eine solche
Kooperation einer Teilgruppe von Ländern die Chancen für das Zustandekommen eines globalen Abkommens erhöht, da man sich von dieser
Kooperation eine förderliche Signalwirkung erhoffen könnte und die mit
der Kooperation übernommene Vorreiterrolle sich positiv auf die Erweiterung des Teilabkommens zu einem globalen Abkommen auswirkt.
Die Antwort der umweltökonomischen Literatur auf die Frage nach
der Bedeutung von Teilkooperationen für die Chancen eines weltweiten Klimaabkommens ist jedoch höchst ernüchternd: Aus genau denselben Gründen, die in Abschnitt 3 dargestellt wurden und die dazu
führen, dass das übermäßige Engagement eines einzelnen Landes oder
einer Staatengruppe wie der Europäischen Union die Bereitschaft der
übrigen Länder zur Emissionsminderung verringert, kann die Kooperationsbereitschaft der übrigen Länder durch eine Kooperation einer
Teilgruppe von Staaten reduziert und so das Zustandekommen eines
weltweiten Klimaabkommens sogar erschwert werden (Beirat BMF
2010:16), anstatt die Chancen auf ein solches zu verbessern.
Denn: Je mehr ein Land oder eine Staatengruppe bereit ist zu tun
und dies in einem Kooperationsvertrag zu manifestieren, desto attraktiver wird es für die übrigen Länder, selbst weniger zu vermeiden und
einem zu erheblichen Anstrengungen verpflichtenden Abkommen
fernzubleiben, da der Grenznutzen der eigenen Anstrengungen mit
den Bemühungen der Vorreiterländer sinkt22.
22 In der ökonomischen Literatur überwiegt das rationale Kosten-Nutzen-Kalkül als Basis für
individuelle Entscheidungen. In anderen Sozialwissenschaften wie auch in Teilbereichen der
Ökonomik werden dagegen häufig Entscheidungen mit unvollständiger Information oder
beschränkter Rationalität betrachtet. >>
|Fortsetzung der Fußnote am nächsten Seitenende|
Die EU-Klimapolitik: Teuer und ineffektiv
137
Das Abkommen einer Teilgruppe von Staaten, wie etwa die Selbstverpflichtung der EU-Staaten auf eine 20-%-Reduktion der Treibhausgase gegenüber 1990, kann somit die Dynamik zukünftiger Verhandlungen über ein weltweites Klimaabkommen negativ beeinflussen
(Beirat BMF 2010:17): „Das Vorwegmaschieren einer Teilgruppe von
Ländern und die Einigung auf hohe Emissionsminderungsziele markieren in der Politik vielleicht einen herausragenden moralischen
Sieg. Wenn es darum geht, das Weltklima im Rahmen eines globalen
Umweltabkommens zu retten, ist diese Form des moralischen Han138
delns jedoch eher verfehlt. Sie kann eine effiziente Lösung, die ohne
ein Vorwegmarschieren im Bereich des Möglichen gewesen wäre, sogar verhindern.“
Die Zusammenarbeit einer Teilgruppe von Ländern ist jedoch
nicht nur wenig hilfreich für das Zustandekommen eines globalen Klimaabkommens. Nach der umweltökonomischen Literatur birgt dies
sogar das Risiko einer erheblichen Umverteilung der Kosten zulasten
der Länder, die sich zur Kooperation bereit erklärt haben (Buchholz,
Haslbeck, Sandler 1998, Konrad 2003). Die Kommission sollte daher
diese Zusammenhänge und Wirkungsmechanismen bedenken, wenn
es um die Frage geht, ob die Klimapolitik in den Händen der einzelnen EU-Länder bleiben oder zentral von Brüssel aus koordiniert werden sollte. Während selbst eine koordinierte EU-Klimapolitik nur einen
kleinen Beitrag zur globalen Emissionsminderung leisten kann (Abschnitt 2), werden die Chancen für eine weltweit koordinierte Klimapolitik verringert, aber die Lasten für die Emissionsminderung eher den
>
> Abweichungen in dieser Richtung per se lassen allerdings die Ineffizienz noch nicht verschwinden.
Wenn beispielsweise die Länder ihre Vermeidungsanstrengungen in einem evolutionären
Prozess – statt über vollständig rationale Wohlfahrtsmaximierung – bestimmen, bleiben
Vorleistungen einzelner Länder ebenfalls wirkungslos. Länder imitieren in einem evolutionären
Prozess erfolgreiche Strategien anderer Länder; und erfolgreicher sind auch hier die Länder, die
nur geringe Vermeidungsanstrengungen leisten. Auch im evolutionären Prozess setzt sich die
ineffizient niedrige Vermeidung durch (Beirat BMF 2010:10).
Schlechte Chancen für ein globales Klimaabkommen zur Treibhausgasminderung
Mitgliedsstaaten aufgebürdet, wohingegen die übrigen OECD-Staaten
tendenziell eher entlastet werden (Beirat BMF 2010:14).
Abgesehen davon, dass die Klimapolitik der Kommission eher kontraproduktiv wirkt, stehen die Chancen für ein globales Klimaabkommen, das zu einer nennenswerten Verringerung der globalen Emissionen führt oder zumindest zu einer weitgehenden Stagnation, ohnehin
denkbar schlecht, falls dieses Abkommen auf die Beschränkung des
Treibhausgasausstoßes der Staaten mit dem umfangreichsten Treibhausgasausstoß abzielt. So wird sich der weltweit größte Treibhausgasemittent China mit Sicherheit keinerlei Emissionsbeschränkung
unterwerfen wollen, wenn diese zulasten der wachsenden Prosperität
dieses Landes gehen würde.
Zu Recht würde China stattdessen zuerst von denjenigen Ländern
ihren substantiellen Tribut verlangen, die in der Vergangenheit vorwiegend für den Anstieg der Treibhausgaskonzentration maßgeblich
verantwortlich waren. Mit dem ebenso berechtigten Hinweis auf die
geringe Effektivität verweigert der zweitgrößte Emittent, die USA, bereits heute einschneidende Vermeidungsmaßnahmen, falls Schwellenländer wie China oder Indien sich nicht ebenfalls zu Minderungsanstrengungen verpflichten, die den künftigen Anstieg ihrer Emissionen
deutlich dämpfen. Einen möglichen Ausweg aus diesem Dilemma, der
nicht unmittelbar bei der Vermeidung von Emissionen ansetzt, präsentiert der folgende Abschnitt.
Die EU-Klimapolitik: Teuer und ineffektiv
139
6.
Erfolgsträchtigere
Alternativen
Aussichtsreichere Alternativen zur Auferlegung von Emissionsrestrik­
tionen bestehen in solchen Strategien und Politiken, bei denen die
einzelnen Länder in erster Linie selbst von den zu ergreifenden Maßnahmen profitieren und daher ein hohes Eigeninteresse an deren Umsetzung haben. Dazu gehören Anpassungsmaßnahmen an den Klimawandel, die wie der Bau von Deichen zum Schutz vor einem Anstieg
des Meeresspiegels darauf abzielen, die Folgekosten der globalen Erwärmung zu reduzieren, und damit unmittelbar der Bevölkerung desjenigen Landes zugute kommen, das diese Maßnahmen durchführt.
Zusätzlich zu einer solchen Politik, deren Umsetzungsgrad vor allem im Ermessen des einzelnen Landes liegt, könnten sich Länder in
einem weltweiten Abkommen zu einer sukzessiven Erhöhung ihrer
Ausgaben für die Forschung und Entwicklung (F&E) von Energieumwandlungs- und -speichertechnologien verpflichten.23 Mit derartigen
F&E-Maßnahmen werden zwar nicht unmittelbar Treibhausgasminderungen erzielt. Über Zeiträume von einigen Jahrzehnten hinweg
23 Weil davon auszugehen ist, dass von den Früchten der F&E-Investitionen zum großen
oder gar überwiegenden Teil die investierenden Länder selbst profitieren, sollte das
Trittbrettfahrerverhalten in Form von nicht investierenden Ländern geringer sein als bei
Aktivitäten zur Treibhausgasvermeidung. Allerdings ist zu konzedieren, dass einzelne Länder
deshalb zu wenig in F&E investieren könnten, weil Kosten und Nutzen dieser Investitionen zeitlich
weit auseinander fallen können und der eigene Nutzen der F&E-Investitionen nicht korrekt bzw.
zu niedrig eingeschätzt wird.
Die EU-Klimapolitik: Teuer und ineffektiv
141
können F&E-Investitionen in revolutionäre Technologien nichtsdestotrotz zu sehr hohen Treibhausgasminderungserfolgen führen.
Ein Beispiel für eine solche Technologie ist die Kernfusion. Diese
stellt eine CO2-freie Technologie zur Stromerzeugung dar, der ein großes Potential attestiert wird, langfristig in großem Umfang zu einer
sauberen, versorgungssicheren und gefahrlosen Stromversorgung
beizutragen (DPG 2010:122). Im Gegensatz zu Kernkraftwerken würde
der Betrieb von Fusionskraftwerken keine radioaktiven Abfälle hinterlassen. Im Erfolgsfall des praktischen Einsatzes, den die Deutsche
142
Physikalische Gesellschaft bei der derzeitigen vergleichsweise geringen Forschungsförderung für die Mitte dieses Jahrhunderts erwartet
(DPG 2010:122), könnte die europäische Stromerzeugung bis 2100 allein auf Basis dieser Technologie wohl gänzlich emissionsfrei erfolgen.
In Kombination mit den erneuerbaren Energietechnologien sowie mit
der Kernkraft könnte so bereits ab der Mitte dieses Jahrhunderts eine
weitgehende Dekarbonisierung des Stromerzeugungssektors Realität
werden, so wie dies von Deutschland heute bereits angepeilt wird, allerdings allein auf Basis von erneuerbaren Energietechnologien.
Das Beispiel des experimentellen Reaktors ITER, dessen Bau in Südfrankreich in weltweiter Zusammenarbeit begonnen wurde, zeigt, dass
ein globales Abkommen über Verpflichtungen der Länder zu wachsenden F&E-Anteilen am jeweiligen Bruttoinlandsprodukt im Bereich des
Möglichen liegt. Mit einem derartigen Abkommen über Quoten zu F&EFörderausgaben für Energieumwandlungs- und -speichertechnologien
können auf lange Sicht negative externe Umwelteffekte verringert, aber
auch die typischen positiven Spill-Over-Effekte von F&E-Aktivitäten erzielt werden (Jaffe, Newell, Stavins 2002). Somit haben F&E-Ausgaben
eine doppelte Dividende, eine Umwelt- und eine Technologiedividende,
die zwar allen Ländern, aber in hohem Maße auch demjenigen Land zugutekommen, das diese Ausgaben finanziert. Im Erfolgsfall einer weitreichenden Diffusion einer Technologie profitieren davon insbesondere diejenigen Unternehmen, die diese Technologien vertreiben.
Erfolgsträchtigere Alternativen
Darüber hinaus kann ein Land mit einer sukzessiven Steigerung
seiner F&E-Ausgabenanteile ein chronisches Manko beseitigen. So fällt
die von privaten Marktakteuren finanzierte Forschungsleistung tendenziell zu gering aus (Nelson 1959). Dabei liegt aus volkswirtschaftlicher Sicht ein Zuwenig an Forschung vor, wenn die Ausgaben geringer ausfallen als die daraus zu erwartenden Erträge. Vor allem an der
Finanzierung von Grundlagenforschung dürften private Akteure ein
sehr geringes Interesse zeigen, da bei dieser die Wahrscheinlichkeit für
die unmittelbare marktwirtschaftliche Nutzung von Forschungserfolgen relativ klein ist und die Erfolge in der Regel allen zugutekommen.
In diesem Falle von Marktversagen ist es Aufgabe des Staates, die Forschungs- und Technologieförderung voranzutreiben.
Die staatliche Forschungs- und Technologieförderung sollte allerdings ungezielt betrieben werden, da die Politik die zukünftig erfolgreichen Technologien nicht Jahrzehnte im Voraus identifizieren kann
(Karl, Wink 2006:275-276). Von Hayek (1978) führt dies vor allem auf
das Informationsdefizit des Staates zurück, der in der Regel nicht über
die notwendigen Informationen verfügt. Demnach sollte der Staat viele verschiedene Technologien gleichermaßen fördern, nicht zuletzt
auch deshalb, weil eine Bevorzugung einer Technologie, etwa aus industriepolitischen Motiven, zugleich immer auch eine Diskriminierung anderer technologischer Entwicklungen bedeutet (Kronberger
Kreis 2009:34).
Mit der höchst privilegierten EEG-Förderung der Photovoltaik, die in
Deutschland mit Abermilliarden Euro in exorbitantem Ausmaße gefördert wird, geschieht indessen das Gegenteil: Der Staat maßt sich mit der
drastischen Überförderung der Photovoltaik nicht vorhandenes Wissen
an. Die Photovoltaik erhält im Vergleich zum damit erzielten Stromoutput mit Abstand die meisten Subventionen (Frondel, Ritter, Schmidt,
Vance 2010a:116): Für alle zwischen 2000 und 2010 in Deutschland installierten Photovoltaikmodule belaufen sich die Nettokosten real auf
rund 81,5 Mrd. Euro (Frondel, Ritter, aus dem Moore, Schmidt 2011)).
Die EU-Klimapolitik: Teuer und ineffektiv
143
Mit ihrer Erneuerbaren-Politik verstößt auch die Kommission gegen das Prinzip der Technologieoffenheit einer guten F&E-Förderung
in eklatanter Weise. Mittels symbolischer Ziele, deren Zielwerte nicht
das Resultat rationaler Optimierungsüberlegungen sind, sondern offenkundig mit dem Zieljahr zusammenhängen, wie dies etwa beim
20-%-Anteil der Erneuerbaren für das Jahr 2020 der Fall ist, soll der
Ausbau der erneuerbaren Energietechnologien vorangetrieben werden, obwohl diese Privilegierung der Erneuerbaren bei einer Koexistenz mit dem Emissionshandel nicht durch die Beseitigung negativer
144
externer Klimaschutzeffekte gerechtfertigt werden kann.
Wenn die Kommission mit ihrem Erneuerbaren-Ziel für 2020
eine Technologieförderung im Sinn hat, so sollte außerdem die
Wahl des Förderinstruments nicht den Mitgliedsländern überlassen
bleiben. Besonders ineffektiv ist diesbezüglich das in Deutschland
verwendete Einspeisevergütungssystem, bei dem die Forschung
und Entwicklung (F&E) lediglich auf indirekte Art gefördert wird. In
Deutschland hat dies in der Praxis nicht zu hohen Forschungsaufwendungen der durch das EEG begünstigten Unternehmen geführt:
Obwohl sich die EEG-Vergütungen zwischen 2000 und 2009 mehr
als verzehnfacht haben und von etwa 0,9 auf rund 10 Mrd. Euro gestiegen sind (BDEW 2001, 2009), waren die Ausgaben der Privatwirtschaft für die Energieforschung in Deutschland allgemein rückläufig.
Investierte die Wirtschaft im Jahr 1991 noch etwa 503 Mio. Euro in
die Energieforschung, so waren es im Jahr 2007 nur noch 139 Mio.
Euro (BMWi 2010). Im Vergleich zu den Vergütungen für erneuerbare
Energien von 7,6 Mrd. Euro im Jahr 2007 sind 139 Mio. Euro ein geringer Betrag, welcher nicht einmal der Erforschung regenerativer Technologien allein diente, sondern der Forschungsförderung sämtlicher
Energietechnologien.
Dass die Ausgaben für Forschung und Entwicklung im Bereich
erneuerbare Energien sowohl in absoluter Höhe wie auch in Relation
zu den erzielten Umsätzen gering ausfallen, wird durch Zahlen zu den
Erfolgsträchtigere Alternativen
Forschungsausgaben von Photovoltaikunternehmen bestätigt. Die
beiden größten deutschen Solarunternehmen, Q-Cells und Solarworld,
gaben im Jahr 2009 mit 26,5 Mio. Euro bzw. 12,0 Mio. Euro lediglich
rund 1,2% bzw. 3,3% ihres Umsatzes für Forschung aus (Breyer 2010).
Damit liegen diese noch vergleichsweise jungen Unternehmen weit
hinter den F&E-Ausgaben traditioneller Firmen zurück. Siemens etwa
investierte im Jahr 2008 mit 3,8 Mrd. Euro etwa 4,9% des Umsatzes in
Forschung und Entwicklung, während Unternehmen aus dem Gesundheitsbereich üblicherweise sehr hohe Forschungsausgaben tätigen. So
investierte Roche 5,6 Mrd. Euro bzw. bis zu 19,4% ihres Umsatzes des
Jahres 2008 in F&E (Booz & Company 2009).
Auch die Deutsche Physikalische Gesellschaft kritisiert in ihrer
Studie vom Juni 2010, dass trotz des massiv über das EEG unterstützten Marktes die F&E-Intensität der Photovoltaikindustrie in den vergangenen Jahren von 2 % auf unter 1,5 % des Umsatzes gesunken ist,
wohingegen forschungsintensive Unternehmen wie große Pharmaunternehmen eine Forschungsintensität von 15 – 20 % aufweisen; Firmen
der Computerbranche wie Intel oder Microsoft haben entsprechende
F&E-Quoten von 15,2 % bzw. 13,8%. Zudem konzentrierten sich die geringen F&E-Aktivitäten der Solarbranche vorwiegend auf fertigungsnahe Aspekte (DPG 2010:102).
Anstatt zur Technologieförderung, zu der die Finanzierung von
Prototypen genügt (Kronberger Kreis 2009:34), wurden die Fördergelder für Erneuerbare folglich in weit überwiegendem Maße zur flächendeckenden Verbreitung von Anlagen benutzt. Von der so geförderten Verbreitung von Anlagen profitieren neben den heimischen
auch ausländische Unternehmen. So stieg das 2001 gegründete chinesische Unternehmen Suntech Power vor allem aufgrund der deutschen Einspeisevergütungen in die Weltspitze der Photovoltaikmodulhersteller auf, während es in China bislang keine nennenswerte
Förderung gab. Einspeisevergütungssysteme wie das EEG verschaffen
der Konkurrenz offenkundig genau dieselben Chancen auf technolo-
Die EU-Klimapolitik: Teuer und ineffektiv
145
gische Entwicklung und Export wie den heimischen Unternehmen.
Wenngleich dies unter Wohlfahrtsgesichtspunkten nicht negativ bewertet werden muss, entspricht dies nicht unbedingt der Zielsetzung
der Förderung.
Um die Wettbewerbsfähigkeit seiner Unternehmen zu verbessern,
wäre folglich jeder Staat gut beraten, wenn er direkt auf F&E-Förderung setzen würde, anstatt auf die gießkannenartige und indirekte
Förderung mittels Einspeisevergütungen, von der ausländische Unternehmen ebenso profitieren können und die nicht notwendigerweise
146
zu hohen Forschungsaufwendungen privater Unternehmen führen.
Entscheidend für die Erlangung tatsächlicher Wettbewerbsvorteile ist,
dass gezielte Anreize geboten werden, die zur Entwicklung besserer
Technologien führen. In dieser Hinsicht versagt ein Einspeisevergütungssystem nahezu auf ganzer Linie, da es die Anreize für Innovationen weitgehend dadurch erstickt, dass jede Technologie Subventionen
entsprechend ihres Wettbewerbsdefizits erhält.24
Die Internationale Energieagentur (IEA 2007:74,77) schlägt daher
in ihrem Länderbericht zur Energiepolitik Deutschlands vor, andere
24 Auch mit dem immer wieder angeführten Argument des First-Mover-Vorteils von Ländern,
die im weltweiten Markt frühzeitig Fuß fassen und sich so vermeintlich langfristige Vorteile
verschaffen könnten, ist es nicht weit her. Dass dieses Argument wenig haltbar ist, zeigt
aktuell das Beispiel Deutschlands, das die Photovoltaiktechnologie nun seit einer Dekade
mittels Einspeisevergütungen fördert − seit 2005 in extrem steigendem Maße − und dennoch
zunehmend mit der Dominanz der asiatischen Hersteller − vor allem aus China − auf dem
Weltmarkt zu kämpfen hat. Obwohl die chinesischen Firmen sich keiner so exorbitanten
nationalen Förderung erfreuen durften wie die deutschen Hersteller, konnten sich diese
keinen entscheidenden Vorteil gegenüber den asiatischen Herstellern sichern. Im Gegenteil:
Es ist wahrscheinlich, dass die hohen EEG-Vergütungen für Solarstrom eine Mitschuld an
den Effizienznachteilen deutscher Unternehmen tragen, da die Anreize zu entsprechenden
Effizienzanstrengungen gefehlt haben. Bei dem Argument des First-Mover-Vorteils sollte zudem
bedacht werden, dass die Förderung der erneuerbaren Energietechnologien immer auch zu Lasten
anderer Sektoren geht, die diese Vorreiterrolle mit zu finanzieren haben. Im Saldo betrachtet
sind negative makroökonomische Effekte sehr wahrscheinlich, da produktive, wettbewerbsfähige
Sektoren zugunsten der ansonsten nicht wettbewerbsfähigen Erneuerbaren-Branche
geschwächt werden. Um ein Bild zu verwenden: Es ist wenig wahrscheinlich, dass Deutschland
im ökonomischen Wettlauf um die höchsten Wachstumsraten unter den besten Ländern sein
wird, wenn es seine schnellsten Läufer dazu verpflichtet, ihr Tempo zugunsten seiner weniger
konkurrenzfähigen Läufer zu drosseln, um diesen als Wasserträger zu dienen.
Erfolgsträchtigere Alternativen
Instrumente als Einspeisevergütungen zur Förderung der Photovoltaik zu benutzen, welche vorwiegend die Forschung und Entwicklung
dieser Technologie fördern und nicht deren flächendeckende Verbreitung. Diesem Ratschlag sollte die Kommission folgen und zu einer
F&E-Förderung sämtlicher Energieumwandlungs- und -speichertechnologien übergehen, anstatt durch die Vorgabe symbolischer Ziele für
den Anteil der Erneuerbaren am Energiemix allein die Verbreitung
von erneuerbaren Energietechnologienanlagen zu forcieren. Dies
verhilft diesen Technologien nicht zu den entscheidenden internationalen Wettbewerbsvorteilen, wie das Negativbeispiel der deutschen
Photovoltaikförderung zeigt.
Erfolgversprechender sollte ein Weg sein, bei dem die Kommission den Mitgliedsländern zur Energietechnologieförderung F&E-Ausgaben-Quoten in Bezug auf das Bruttoinlandsprodukt (BIP) vorgibt.
Damit kann eine sehr viel stärkere Forschungsförderung erfolgen als
mit der Vorgabe von Erneuerbaren-Energien-Anteilen. Der Weg der
sukzessiven Steigerung der F&E-Ausgabenanteile für Energietechnologien dürfte wegen der damit verbundenen Spill-Over-Effekte gleichzeitig auch umso effektiver für die langfristige Senkung der globalen
Treibhausgasemissionen sein, je mehr Nachahmung das Beispiel weltweit findet. Der Weg zu einem globalen Abkommen mit Energieforschungsförderungszielen dürfte dann nicht mehr weit sein.
Die EU-Klimapolitik: Teuer und ineffektiv
147
7.
Anpassung an die
globale Erwärmung
Zusätzlich zur Vermeidung von Emissionen gibt es die Möglichkeit,
den Folgen der Klimaerwärmung durch Anpassung zu begegnen. Bestehen die Folgen etwa in einer Zunahme der Häufigkeit und Intensität
von Stürmen, wofür es bislang allerdings keinen wissenschaftlichen
Beweis gibt (Bouwer 2010), kann eine Anpassungsreaktion seitens des
Staates in baurechtlichen, städtebaulichen und land- oder forstwirtschaftliche Maßnahmen bestehen.
Zu den Anpassungsprozessen können viele andere Maßnahmen
gehören, wie die Gewinnung neuer Anbauflächen und Siedlungsgebiete in derzeit noch zu kalten Regionen, falls diese durch die globale
Erwärmung weniger unwirtlich werden, Änderungen in der landwirtschaftlichen Produktion, die Umsiedelung der Bevölkerung von Inseln,
die durch einen Meeresspiegelanstieg bedroht sind, oder eine Verbesserung der Malariaprävention.
Emissionsvermeidung und Anpassung sind selbstverständlich
keine Substitute hinsichtlich der Senkung von Emissionen.25 Wohl aber
25 Zwischen der Vermeidungs- und Anpassungsstrategie gibt es einen Zusammenhang, der bisher in
der politischen Debatte wie auch in der ökonomischen Literatur wenig Beachtung gefunden hat
(Tol 2005): Setzt ein Land verstärkt auf Anpassungsmaßnahmen und reduziert demzufolge seine
Minderungsanstrengungen, könnte dies in Umkehrung der Argumentation von Abschnitt 3 dazu
führen, dass die übrigen Länder höhere Vermeidungsbemühungen unternehmen und so höhere
Kosten übernehmen. >>
|Fortsetzung der Fußnote am nächsten Seitenende|
Die EU-Klimapolitik: Teuer und ineffektiv
149
sind beide Strategien substitutiv, wenn es darum geht, die Folgekosten
der globalen Erwärmung zu minimieren. Denn man kann die Folgekosten entweder dadurch verringern, dass man weniger CO2 emittiert
oder dass man sich auf die mit dem CO2-Ausstoß verbundenen Folgen
besser einstellt (Beirat BMF 2010:26).
Die Anpassungsstrategie wurde bereits zu Beginn der Klimadebatte von Autoren wie William Nordhaus (1994) sehr ernsthaft diskutiert.
Wenngleich diese Strategie in der aktuellen Klimadebatte etwas im
Hintergrund steht, hat Deutschland erste wichtige Schritte in Rich150
tung einer umfassenderen Anpassungsstrategie übernommen (Beirat
BMF 2010:25). So wurden in der im Dezember 2008 beschlossenen
„Deutschen Anpassungsstrategie an den Klimawandel“ zahlreiche Bereiche wie die Landwirtschaft oder das Gebiet der Gesundheit identifiziert, für die Bund und Länder bis 2011 einen detaillierten Aktionsplan
vorlegen sollen.
Der Grund ist, dass je nach Anpassungsmaßnahme diese vernünftigerweise auf einer von vielen unterschiedlichen Ebenen angesiedelt sein sollte, entweder auf internationaler, nationaler, Länder-,
kommunaler oder gar individueller Ebene. So könnte es allein Sache
der Hauseigentümer sein, ihr Wohneigentum durch bauliche Maßnahmen individuell gegen Sturmschäden zu wappnen. Alternativ
oder ergänzend könnten entsprechende Versicherungen abgeschlossen werden. Dieses Beispiel zeigt: Bei vielen Anpassungsmaßnahmen
kann davon ausgegangen werden, dass die individuellen Anpassungsentscheidungen auch sozial optimal sind und ein Staatseingriff nicht
>
> Eine solche Strategie kann in Umkehrung der Argumentation von Abschnitt 5 ferner dazu
führen, dass sich die Chancen für das Zustandekommen eines weltweiten Klimaabkommens
verbessern: „Sollte es auf der Seite der weniger entwickelten und armen Länder unrealistisch
hohe oder übertriebene Erwartungen hinsichtlich der tatsächlichen Opferbereitschaft der
Industrieländer geben, kann eine sichtbare und konsequent verfolgte Anpassungsstrategie
seitens der entwickelten Industrienationen diese Erwartungen korrigieren helfen und so zu einer
internationalen Konsensfindung beitragen“ (Beirat BMF 2010:27).
Anpassung an die globale Erwärmung
notwendig ist, da individuelle und kollektive Kosten-Nutzen-Kalküle
übereinstimmen.
„Wer sein Haus gegen vermehrt drohende Sturmschäden absichert, berücksichtigt im Wesentlichen alle relevanten Vor- und Nachteile einer solchen Anpassungsmaßnahme. Hier muss und soll der
Staat in die individuellen Anpassungsmaßnahmen nicht eingreifen.
Lediglich wenn das individuelle vom kollektiven Kosten-Nutzen-Kalkül abweicht, ist der Staat in der Pflicht“ (Beirat BMF 2010:28). Dies ist
etwa bei der Erhöhung von Deichen zum Schutz aller Einwohner einer
Region vor den Folgen von Stürmen der Fall.
Im Vergleich zu Anstrengungen zur Emissionsminderung haben
Anpassungsmaßnahmen einige Vorteile. Erstens: Derjenige, der die
Kosten der Anpassungsmaßnahme zu tragen hat, wie etwa ein Hausbesitzer, der die Dachbedeckung sturmtauglicher macht, hat den alleinigen oder zumindest den überwiegenden Nutzen davon. Im Gegensatz dazu trägt derjenige, der Minderungsmaßnahmen durchführt, die
vollen Kosten dafür, profitiert aber, wenn überhaupt, nur geringfügig
davon, während der Hauptnutzen auf alle diejenigen entfällt, die unter der globalen Erwärmung etwas weniger zu leiden haben, falls diese
Maßnahme sich als effektiv erweist.
Es gibt daher ein Übergewicht an potentiellen Nutznießern von
Minderungsmaßnahmen, während nur einige wenige die Kosten dafür zu tragen haben. Der Anreiz zu Minderungsanstrengungen dürfte
demnach ungleich geringer sein als zur Durchführung von Anpassungsmaßnahmen. Das fundamentale Dilemma des Trittbrettfahrerverhaltens, das die Chancen auf eine effektive Verringerung der globalen Treibhausgase gegen Null gehen lässt, tritt folglich bei einer Strategie, die auf Anpassungsmaßnahmen setzt, nicht auf.
Zweitens: Bei Minderungsanstrengungen gibt es eine große zeitliche Divergenz von Kosten und potentiellem Nutzen: Während der
Nutzen dieser Maßnahmen sich erst sehr viel später zeigen wird, möglicherweise erst in Jahrzehnten, fallen die Kosten dafür unmittelbar
Die EU-Klimapolitik: Teuer und ineffektiv
151
an, wenn sie heute ergriffen werden. Es ist eine höchst strittige gesellschaftliche Frage der Diskontierung, wie ein erst Jahrzehnte später anfallender Nutzen im Vergleich zu dem bereits heute anfallenden Kostenaufwand zu bewerten ist (Nordhaus 2007, Weitzman 2007, Stern
2007). Ökonomisch zweifelsfrei ist lediglich, dass Aufwendungen von
einer Milliarde Euro für Treibhausgasreduktionen heute höhere Kosten darstellen als eine Milliarde Euro für Anpassungsmaßnahmen in
20 Jahren.
Bei Anpassungsnahmen ist die zeitliche Diskrepanz zwischen Kos152
ten und Nutzen in der Regel weit geringer. So wird man Maßnahmen
zur Erhöhung von Deichen erst dann treffen, wenn absehbar ist, dass
bei einem weiteren Meeresspiegelanstieg die bestehende Deichhöhe
eventuell nicht mehr ausreicht. Ein wichtiger Vorteil der Anpassungsstrategie ist folglich, dass kein jahrzehntelanger Vorlauf benötigt wird,
wie bei der Vermeidungspolitik (Beirat BMF 2010:30). Vielmehr können Anpassungsmaßnahmen relativ zeitnah und als Reaktion auf sich
in ihrem Umfang vergleichsweise klar abzeichnende Umweltveränderungen ergriffen werden.
Drittens: Der Umfang der mit der globalen Erwärmung einhergehenden Schäden ist gegenwärtig noch mit einer sehr hohen Unsicherheit behaftet. Wegen der potentiell irreversiblen Folgen des CO2Ausstoßes müsste die Politik im Prinzip möglichst früh reagieren und
Maßnahmen zur Senkung der CO2-Emissionen ergreifen. Denn: Lässt
man ein zu hohes Emissionsniveau zu, wobei derzeit höchst unklar ist,
was zu hoch bedeutet, könnten eventuelle gravierende Folgeschäden
nicht mehr vermieden werden. Daher könnte die Politik geneigt sein,
frühzeitig relativ hohe Vermeidungsanstrengungen zu unternehmen.
Dies könnte sich als Fehler herausstellen, wenn die Folgeschäden weitaus kleiner als erwartet ausfielen. Zu warten, bis sich die Unsicherheit über die Folgeschäden reduziert hat, wäre in diesem Fall
kostensparend gewesen. Aus Sicht der Politik könnte es sich folglich
lohnen, klimapolitische Maßnahmen in die Zukunft zu verschieben,
Anpassung an die globale Erwärmung
falls die Unsicherheit über die Folgeschäden durch weitere Forschung
nach und nach verringert werden könnte. Diese Strategie des Abwartens könnte die Gesellschaft aber im schlimmsten Fall teuer zu stehen
kommen.
Ein Ausweg aus diesem Dilemma stellt die Anpassungsstrategie
dar, die es zumindest teilweise gestattet, die Kosten sparende Option
zu ergreifen, mit Gegenmaßnahmen zu warten, da man durch Anpassungsmaßnahmen schwerwiegende Folgen auch noch in Zukunft verringern kann (Beirat BMF 2010:29). Diese Option spart deshalb Kosten,
weil sie der Politik erlaubt, heute auf teure Vermeidungsmaßnahmen
zu verzichten, um im Eventualfall hohe künftige Folgeschäden durch
entsprechend umfangreiche Anpassungsmaßnahmen zu bekämpfen.
Viertens: Es besteht in der Wissenschaft Einigkeit darüber, dass
die globale Erwärmung Verlierer, aber auch Gewinner hervorbringt
(Tol 2010). Anpassungsmaßnahmen werden indessen nur diejenigen
ergreifen, die von der globalen Erwärmung negativ betroffen sind.
Denjenigen Regionen, die von der globalen Erwärmung profitieren,
bleiben bei einer Anpassungsstrategie die Vorteile erhalten. Im Gegensatz dazu werden durch Minderungsanstrengungen eventuell die
negativen, aber auch die positiven Auswirkungen einer globalen Erwärmung verringert.
Während es nichtsdestoweniger unklar ist, ob es am Ende nicht wesentlich teurer kommt, allein auf Anpassungsmaßnahmen zu setzen,
als im Falle, dass ausschließlich Anstrengungen zur Emissionsminderung ergriffen werden, würde sich die reine Anpassungsstrategie letztlich in zwei Fällen als überlegen erweisen: Falls es sich herausstellen
sollte, dass Treibhausgase und die anthropogene Beeinflussung ihrer
Konzentration in der Atmosphäre entgegen den jetzigen, nicht gesicherten Erkenntnissen nur einen geringfügigen Einfluss auf die globale Erwärmung haben und diese weitgehend durch nicht-anthropogene
Ursachen gesteuert wird, könnte es zum einen sein, dass es zu weit
geringeren Auswirkungen auf das Klima kommt, als die heutigen Kli-
Die EU-Klimapolitik: Teuer und ineffektiv
153
mamodelle vorhersagen. In diesem Falle würden kaum oder gar keine
Anpassungsmaßnahmen erforderlich sein und die Kosten dafür entsprechend gering sein oder gar nicht anfallen. Zum anderen könnten
die nicht-anthropogenen Ursachen zu ähnlichen oder gar noch gravierenderen Auswirkungen führen als von den heutigen Klimamodellen
vorhergesagt wird. Dann sind Anpassungsmaßnahmen die adäquatere
Antwort, wohingegen Minderungsmaßnahmen in diesem Fall weitgehend nutzlos und im ersten Fall sogar überflüssig wären.
154
Anpassung an die globale Erwärmung
8.
Zusammenfassung und
Schlussfolgerung
Klimapolitik ist eindeutig eine ökonomische Angelegenheit: Böhringer et al. (2010) schätzen, dass die Klimapolitik der Kommission die
EU-Staaten im Jahr 2020 zwischen 1 und 4 % an Wohlfahrt kosten
könnte. Eine gute Klimapolitik orientiert sich grundsätzlich am Prinzip des rationalen Mitteleinsatzes. Demnach sollte ein Ziel wie die
Vermeidung der negativen Folgen der globalen Erwärmung mit möglichst geringen volkswirtschaftlichen Kosten umgesetzt werden. In der
Regel wird diesem Prinzip am ehesten ein Mix an kosteneffizienten
Maßnahmen gerecht, der sich sowohl aus Anstrengungen zur Treibhausgasminderung zusammensetzt, die bis zu einem gewissen Maße
durchgeführt werden, als auch aus Maßnahmen zur Anpassung an die
globale Erwärmung.
Übermäßige Anstrengungen zur Vermeidung von Treibhausgasen sollten sich hingegen als ineffizient erweisen, vor allem, wenn nur
ein Teil der bedeutendsten Staaten sich dazu verpflichtet (Nordhaus
2009:51): Kosten-Nutzen-Analysen von Maßnahmen zur Treibhausgassenkung zeigen in der Tat, dass diese lediglich in einem begrenzten Umfang umgesetzt werden sollten (Tol 2010). So argumentiert
etwa Nordhaus (1993), dass die optimale Emissionsreduktionsrate
gegenüber einem Szenario ohne eine jegliche globale Klimapolitik
bei 10 – 15 % liegt. Demnach wäre die Klimapolitik der EU-Kommission
nicht optimal, da sie den Staaten der Europäischen Union bis zum Jahr
2020 eine Emissionsreduktion um 20 % gegenüber 1990 als Ziel ge-
Die EU-Klimapolitik: Teuer und ineffektiv
155
setzt hat. Falls andere bedeutende Industrieländer sich zu ähnlichen
substantiellen Anstrengungen verpflichten, würde die Kommission
das Reduktionsziel für das Jahr 2020 sogar auf 30 % erhöhen.
Eine solche Vorreiterrolle der Kommission bei Treibhausgasminderungsmaßnahmen wäre indessen nicht nur ineffizient, sie wäre sogar kontraproduktiv: Erstens werden West- bzw. Osteuropa von zahlreichen Studien als die Gewinnerregionen der globalen Erwärmung
angesehen (Tol 2010:16). So schätzt Maddison (2003), dass sich als Folge das BIP Westeuropas um 2,5 % erhöhen könnte.
156
Zweitens können die hohen selbst gesetzten Emissionsminderungsziele dazu führen, dass andere Länder in ihren klimapolitischen
Anstrengungen nachlassen, statt diese zu erhöhen. Denn: Je mehr die
Europäische Union bereit ist zu tun, desto attraktiver wird es für die
übrigen Länder, selbst weniger zu vermeiden, da der Grenznutzen der
eigenen Anstrengungen mit den Bemühungen der EU sinkt. Eine klimapolitische Vorreiterrolle der EU führt deshalb tendenziell zu hohen
Kosten, ohne dass eine entscheidende Reduzierung des globalen Emissionsniveaus sichergestellt werden kann.
Drittens können die besonderen Anstrengungen der EU die
Chancen für das Zustandekommen eines globalen Abkommens verschlechtern, da die Verringerung des verbleibenden Vorteils aus einem globalen Klimaabkommen dessen Zustandekommen unwahrscheinlicher machen. Klimaabkommen müssen aber darauf gerichtet sein, möglichst alle Länder mit einzuschließen. Teilabkommen
zwischen Ländern wie den EU-Mitgliedsstaaten führen hingegen aus
denselben Gründen wie besondere Anstrengungen einer Staatengruppe wie der EU zu einem Nachlassen der Anstrengungen der übrigen Länder. Wenn wichtige Länder sich nicht beteiligen, kann es daher sinnvoll sein, auf ein Abkommen zu verzichten, selbst wenn eine
Teilgruppe von Ländern sich einig sein sollte (Beirat BMF 2010:16), so
wie dies bei den Mitgliedstaaten der Europäischen Union weitgehend
der Fall ist.
Zusammenfassung und Schlussfolgerung
All diese Argumente sprechen gegen einen Alleingang der Europäischen Union, aber keinesfalls gegen Verhandlungen über ein effektives
weltweites Abkommen. Für ein globales Abkommen über Treibhausgasrestriktionen stehen die Chancen allerdings denkbar schlecht. So
wird sich der weltweit größte Treibhausgasemittent China mit Sicherheit keinerlei Emissionsbeschränkung unterwerfen wollen, wenn diese
zulasten der wachsenden Prosperität dieses Landes gehen würde.
Zu Recht würde China stattdessen zuerst von denjenigen Ländern
ihren substantiellen Tribut verlangen, die in der Vergangenheit vorwiegend für den Anstieg der Treibhausgaskonzentration maßgeblich
verantwortlich waren. Mit dem ebenso berechtigten Hinweis auf die
geringe Effektivität verweigert der zweitgrößte Emittent, die USA, bereits heute einschneidende Vermeidungsmaßnahmen, falls Schwellenländer wie China oder Indien sich nicht ebenfalls zu Minderungsanstrengungen verpflichten, die den künftigen Anstieg ihrer Emissionen
deutlich dämpfen.
Einen möglichen Ausweg aus diesem Dilemma besteht in Politik­
alternativen zur Auferlegung von Emissionsrestriktionen (The Hartwell Paper 2010), bei denen die einzelnen Länder in erster Linie selbst
von den zu ergreifenden Maßnahmen profitieren und daher ein hohes
Eigeninteresse an deren Umsetzung haben. So dürfte ein weltweites
Abkommen über eine sukzessive Erhöhung der Ausgaben für die Forschung und Entwicklung (F&E) von Energieumwandlungs- und -speichertechnologien eine realistische Chance auf ein Zustandekommen
haben. Damit könnte man zwar nicht unmittelbar, so doch innerhalb
einiger Jahrzehnte Treibhausgasminderungen erzielen − möglicherweise in massiver Weise, wie das Beispiel der Fusionstechnologie zeigt.
Auch bei Anpassungsmaßnahmen an die globale Erwärmung, wie
dem Bau oder der Erhöhung von Deichen, profitieren im Idealfall in
erster Linie diejenigen davon, welche die Kosten dafür zu tragen haben. Einer Strategie zur Umsetzung von Anpassungsmaßnahmen
kommt eine besonders hohe Bedeutung zu, weil zum einen Anstren-
Die EU-Klimapolitik: Teuer und ineffektiv
157
gungen zur Emissionsminderung letztendlich wenig Aussicht auf
Erfolg haben dürften und diese Strategie zum anderen zumindest
teilweise gestattet, die Kosten sparende Option zu ergreifen, mit Vermeidungsmaßnahmen zu warten und stattdessen auf die F&E-Förderstrategie zu setzen. Denn: Durch Anpassungsmaßnahmen kann man
die schwerwiegendsten Folgen auch noch in Zukunft verringern. Diese
Option spart deshalb Kosten, weil sie der Politik erlaubt, heute auf teure Vermeidungsmaßnahmen zu verzichten, um im Eventualfall hohe
künftige Folgeschäden durch Anpassungsmaßnahmen zu bekämpfen,
158
deren Umfang sich vergleichsweise genau an den sich abzeichnenden
Folgen orientieren kann.
In dasselbe Horn stößt Goklany (2009:35), der zeigt, dass eine fokussierte Anpassungsstrategie, bei der etwa Malaria direkt bekämpft
wird, anstatt mit Vermeidungsmaßnahmen den Klimawandel und somit indirekt die damit verbundene Verbreitung von Malaria mildern
zu wollen, bei weitem einen größeren Nutzen haben würde als gar die
intensivste Vermeidungsstrategie − und dies zu weitaus geringeren
Kosten von lediglich einem Fünftel der Belastungen, die durch die Umsetzung des ineffektiven Kyoto--Protokolls zustande kommen (Goklany
2009:30). Während der Nutzen von Vermeidungsmaßnahmen wegen
der Unsicherheit der Wirkungen, die mit dem Klimawandel verbunden
sind, ebenfalls höchst ungewiss ist und sich erst nach Jahrzehnten herausstellen wird, gibt es keinen Zweifel, dass fokussierte Anpassungsmaßnahmen zur Bekämpfung sehr drängender aktueller und schwerwiegender Probleme wie Malaria, Hungersnöte und Überschwemmungen ganzer Küstenregionen in kürzester Zeit und mit großer Sicherheit
einen weitaus größeren Nutzen stiften (Goklany 2009:25), da diese
Geißeln der Menschheit derzeit ungleich höhere Schäden verursachen als der häufig in unzutreffender Weise als höchst gravierend dargestellte Klimawandel.
Zusammenfassung und Schlussfolgerung
Literatur
Álvarez, G.C., Jara, R.M., Julián, J.R.R., Bielsa, J.I.G. (2009): Study of the Effects
on Employment of Public Aid to Renewable Energy Sources | Universidad REY
Juan Carlos
www.juandemariana.org/pdf/090327-employment-public-aid-renewable.pdf
BDEW (2001 bis 2009): EEG Jahresabrechnungen, Bundesverband der Energieund Wasserwirtschaft | Berlin
Beirat BMF (2010): Klimapolitik zwischen Emissionsvermeidung
und Anpassung | Gutachten des Wissenschaftlichen Beirats beim
Bundesministerium der Finanzen | Berlin, Januar 2010
BMU (2006): Erneuerbare Energien: Arbeitsplatzeffekte, Wirkungen des
Ausbaus erneuerbarer Energien auf den deutschen Arbeitsmarkt | Kurzund Langfassung | Bundesministerium für Umwelt, Naturschutz und
Reaktorsicherheit | Berlin
BMU (2008): Kernelemente der neuen EU-Richtlinie zum Emissionshandel |
Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit | Berlin
www.bmu.de/files/pdfs/allgemein/application/pdf/hintergrund_ets_
richtilinie.pdf
BMWA (2004): Zur Förderung erneuerbarer Energien | Gutachten des
Wissenschaftlichen Beirats beim Bundesministerium für Wirtschaft und
Arbeit | Berlin | Dokumentation Nr. 534
BMWi (2010): Energiestatistiken | Bundesministerium für Wirtschaft und
Technologie | Berlin
www.bmwi.de/energie
Böhringer, C. (2010): 1990 bis 2010: Eine Bestandsaufnahme von zwei
Jahrzehnten europäischer Klimapolitik | Perspektiven der Wirtschaftspolitik
11(s1), S. 56 – 74
Böhringer, C., Rutherford, T. F. (2010): Canada’s Policy Options under the
Kyoto Protocol | The World Economy 33, S. 177 – 211
Böhringer, C., Rutherford, T. F. Tol, R.S.J., (2010): The EU 20/20/20 Targets: An
Overview of the EMF 22 Assessment | Energy Economics, forthcoming
Böhringer, C., Tol, R.S.J., Rutherford, T. F. (2009a): The EU 20/20/20 Targets: An
Overview of the EMF 22 Assessment | Energy Economics 31, S. 268 – 273
Die EU-Klimapolitik: Teuer und ineffektiv
159
Böhringer, C., Löschel, A., Moslener, U., Rutherford, T. F. (2009b): EU Climate
Policy Up to 2020: An Economic Impact Assessment | Energy Economics 31,
S. 295 – 305
Böhringer, C., Hoffmann, T., Lange, A., Löschel, A., Moslener, U. (2005):
Assessing Emission Reduction in Europe | An Interactive Simulation Approach |
The Energy Journal 26, S. 1 – 22
Böhringer, C., Schwager, R. (2003): Die Ökologische Steuerreform in
Deutschland – ein umweltpolitisches Feigenblatt | Perspektiven der
Wirtschaftspolitik 4 (2), S. 211 – 222
160
Bonus, H. (1998): Umweltzertifikate | Der steinige Weg zur Marktwirtschaft |
Herausgeber des Sonderheftes 9. Zeitschrift für Angewandte Umweltforschung
Booz & Company (2009): Profits Down, Spending Steady: The Global
Innovation 1000, strategy+business, issue 57, Winter 2009 | Booz & Company
Bouwer, L. M. (2010): Have Disaster Losses Increased due to Anthropogenic
Climate Change | Bulletin of the American Meteorological Society,
forthcoming
Breyer, Christian (2010): Global Photovoltaic Diffusion, Regions, Market
Segments and Cost, 8. Workshop Student Chapters – GEE, 7. Mai 2010 |
Mannheim
BSW (2009): Statistics for the German solar power industry (photovoltaics),
Mai 2009 | Bundesverband Solarwirtschaft
www.bsw-solar.de
COM (2008): Annex to the Impact Assessment | Document accompanying the
package of implementation measures for EU’s objectives on climate change
and renewable energy for 2020 | Commission Staff Working Document,
SEC(2008) 85, Vol. II Brüssel, 27.2.2008
Cerina (2010): Weltweite CO2-Emissionen: Länderranking 2009
www.cerina.org/?page_id=366&lang=de
Demailly, D., Quirion, P. (2006): CO2-Abatement, Competitiveness, and
Leakage in the European Cement Industry under the EU ETS: Grandfathering
versus Output-based Allocation | Climate Policy (6), S. 93 – 113
Diekmann, J., Kemfert, C. (2005): Erneuerbare Energien: Weitere Förderung
aus Klimaschutzgründen unverzichtbar | Wochenbericht DIW 29, S. 439 – 451
Literatur
Energieprognose (2009): Die Entwicklung der Energiemärkte bis 2030 |
Gutachten für das Bundesministerium für Wirtschaft und Technologie
(BMWi) | bearbeitet von IER, Stuttgart, RWI, Essen, und ZEW, Mannheim
Fahl, U. (2006): Optimierter Klimaschutz – CO2-Vermeidungskosten
von Maßnahmen im Vergleich, in: N. Metz und U. Brill (Hrsg.) |Abgasund Verbrauchsverringerungen – Auswirkungen auf Luftqualität und
Treibhauseffekt | Haus der Technik Fachbuch Bd. 72, expert Verlag | Renningen
2006, S. 73 – 94
Fahl, U., Küster, R., Ellersdorfer, I. (2005): Jobmotor Ökostrom?
Beschäftigungseffekte der Förderung von erneuerbaren Energien in
Deutschland | Energiewirtschaftliche Tagesfragen 55 (7), S. 476 – 481
Felder, S., Rutherford, T., F. (1993): Unilateral CO2-Reductions and Carbon
Leakage – The Consequences of International Trade of International Trade
in Oil and Basic Materials | Journal of Environmental Economics and
Management 25, S. 162 – 176
Frondel, M., Lohmann, S. (2010): Das Glühbirnendekret der EU – ein unnötiges
Verbot | Zeitschrift für Energiewirtschaft, Ausgabe 4/2010, S. 247 – 253
Frondel, M., Ritter, N. (2010): Deutschlands Art der Förderung erneuerbarer
Energien: Nicht zur Nachahmung zu empfehlen | Zeitschrift für Umweltpolitik
& Umweltrecht, S. 261 – 283
Frondel, M., Ritter, N., aus dem Moore, N. Schmidt, C.M., (2011): Die Kosten des
Klimaschutzes am Beispiel der Strompreise für private Haushalte | Zeitschrift
für Energiewirtschaft 35(3), erscheint
Frondel, M., Ritter, N., Schmidt, C.M., Vance, C. (2010a): Die ökonomischen
Wirkungen der Förderung Erneuerbarer Energien: Erfahrungen aus
Deutschland | Zeitschrift für Wirtschaftspolitik, 59 (2), S. 107 – 133
Frondel, M., Ritter, N., Schmidt, C. M., Vance, C. (2010b): Economic Impacts
from the Promotion of Renewable Energy Technologies: The German
Experience | Energy Policy 38, S. 4048 – 4056
Frondel, M., Ritter, N., Schmidt, C. M. (2008): Photovoltaik: Wo viel Licht ist, ist
auch viel Schatten | List Forum für Wirtschafts- und Finanzpolitik, 34 (1), S. 28 – 44
Frondel, M., Schmidt, C.M. (2008): Benötigt die EU Nachhilfe in
Regressionsrechnung? Eine statistische Analyse des Vorschlags der EUKommission zur Begrenzung der CO2-Emissionen von Pkw | AStA Wirtschaftsund Sozialstatistisches Archiv 2 (4), S. 329 – 341
Die EU-Klimapolitik: Teuer und ineffektiv
161
Frondel, M., Schmidt, C.M. (2009): Die Begrenzung der CO2-Emissionen
von Pkw: Ein wohlkonzipierter Beschluss der EU-Kommission? Jahrbuch für
Wirtschaftswissenschaften 59, S. 177 – 191
Frondel, M., Schmidt, C.M., Vance, C. (2010): A Regression on Climate
Policy: The European Commission’s Legislation to Reduce CO2 Emissions
from Automobiles | Transportation Research Part A: Policy and Practice,
forthcoming
Gagelmann, F., Frondel, M. (2005): The Impact of Emissions Trading on
Innovation – Science Fiction or Reality? | European Environment, 15, S. 203 – 211
162
Graichen, P., Requate, T. (2005): Der steinige Weg von der Theorie in die Praxis
des Emissionshandels: Die EU-Richtlinie zum CO2-Emissionshandel und ihre
nationale Umsetzung | Perspektiven der Wirtschaftspolitik 6 (1), S. 41 – 56
Goklany, I. M. (2009): Addressing Climate Change in the Context of Other
Problems: A Plea for Realism over Ideology | Occasional Paper 78 | Liberal
Institute, Friedrich-Naumann-Stftung für die Freiheit | This paper is based on
‘Discounting the Future’ | Regulation, Spring 2009, S. 36 – 40, and Goklany,
I. M. (2009) ‘Is Climate Change the Defining Challenge of Our Age?’ | Energy &
Environment 20 (3), S. 279 – 302
Häder, M. (2010): Klimaschutzpolitik in Deutschland − eine ökonomische
Konsistenzanalyse der Rahmenbedingungen für den Strommarkt | Zeitschrift
für Energiewirtschaft 43 (1), S. 11 – 19
Hardin, G. (1968): The Tragedy of Commons | Science 162, S. 1243 – 1248
The Hartwell Paper (2010): A new direction for climate policy after the crash
of 2009 | Institute for Science, Innovation, and Society, University of Oxford,
and London School of Economics (LSE)
http://eprints.lse.ac.uk/27939
Hayek, F.A. von (1978): The errors of constructivism, in F.A.v. Hayek (Ed.) | New
Studies in Philosophy, Politics, Economics and the History of Ideas | London
Hentrich, S., Matschoss, P. (2006): Emissionshandel in Deutschland –
Klimaschutz im Schatten von Lobbyismus und Industriepolitik |
Energiewirtschaftliche Tagesfragen, 56. Jahrgang, Heft 10, S. 50 – 53
Hillebrand, B., H.-G. Buttermann, M. Bleuel und J.- M. Behringer (2006):
The Expansion of Renewable Energies and Employment Effects in Germany |
Energy Policy 34 (18), S. 3484 – 3494
Literatur
Hoel, M. (1991): Global Environmental Problems: The Effect of Unilateral
Actions Taken by One Country | Journal of Environmental Economics and
Management 20, S. 55 – 70
IEA (2007): Energy Policies of IEA Countries: Germany, 2007 Review |
Internationale Energie Agentur, OECD | Paris
IPCC (2008): Climate Change 2007: Synthesis Report | Intergovernmental
Panel of Climate Change | Geneva
IPCC (2010): Special Report on Emissions Scenarios | Intergovernmental Panel
on Climate Change | Geneva
www.grida.no/publications/other/ipcc_sr/?src=/climate/ipcc/emission
IWH (2004): Beschäftigungseffekte durch den Ausbau erneuerbarer Energien |
Steffen Hentrich, Jürgen Wiemers, Joachim Ragnitz | Sonderheft 1/2004 |
Institut für Wirtschaftsforschung Halle | Halle
Jaffe, A. B., Newell, R. G., Stavins, R. N. (2002): Environmental Policy and
Technological Change | Environmental and Resource Economics 22, S. 41 – 69
Karl, H., Wink, R. (2006): Innovation Policy and Federalism: the German
experience, International Journal of Foresight and Innovation Policy, 2 (3/4),
S. 265 – 284.
Kemfert, C., Diekmann, J. (2009): Förderung erneuerbarer Energien und
Emissionshandel − wir brauchen beides | Wochenbericht DIW 11, S. 169 – 174
Kronberger Kreis (2009): Für einen wirksamen Klimaschutz | Band 49 der
Schriftenreihe der Stiftung Marktwirtschaft | Der Kronberger Kreis ist der
Wissenschaftliche Beirat der Stiftung Marktwirtschaft. Ihm gehören Juergen
B. Donges, Johann Eekhoff, Lars P. Feld, Werner Möschel und Manfred J. M.
Neumann an.
Lüdecke, H.-J. (2008): CO2 und Klimaschutz – Fakten, Irrtümer, Politik |
2. Auflage | Bouvier
Maddison, D.J. (2003): The Amenity Value of the Climate: The Household
Production Function Approach | Resource and Energy Economics 25, S. 155 – 175
Mennel, T., Sturm, B. (2009): Energieeffizienz – eine neue Aufgabe staatlicher
Regulierung? | Zeitschrift für Wirtschaftspolitik 58 (1), S. 3 – 35
Michaels, R., Murphy, R. P. (2009): Green Jobs: Fact or Fiction? | Institute for
Energy Research, January 2009 | Washington DC
Die EU-Klimapolitik: Teuer und ineffektiv
163
Morris, A. P., Bogart, W. T., Dorchak, A., Meiners, R. E. (2009): 7 Myths about
Green Jobs | PERC POLICY SERIES, No. 44 | Montana
Morthorst, P. (2003): National environmental targets and international
emission reduction instruments | Energy Policy 31 (1), S. 73 – 83
Nelson, R. R. (1959): The Simple Economics of Basic Scientific Research | The
Journal of Political Economy 67 (3), S. 297 – 306
Nordhaus, W. D. (2009): The Impact of Treaty Nonparticipation on the Costs of
Slowing Global Warming | Special Edition 2009: Climate Change Policies after
2012 | The Energy Journal 30 (Special Issue 2), S. 39 – 51
164
Nordhaus, W. D. (2007): A Review of the Stern Review on the Economics of
Climate Change | Journal of Economic Perspectives XLV, S. 686–702
Nordhaus, W. D. (1994): Managing the Global Commons: The Economics of
Climate Change | MIT-Press, Cambridge, MA
Nordhaus, W. D. (1993): Rolling the ‘DICE’: An Optimal Transition Path for
Controlling Greenhouse Gases | Resource and Energy Economics 15, S. 27 – 50
Oliveira-Martins, J., Burniaux, H.M., Martin, J.P. (1992): Trade and the
Effectiveness of Unilateral CO2-Abatement Policies: Evidence from GREEN,
OECD Economic Studies 19 | Paris
Pfaffenberger, W. (2006): Wertschöpfung und Beschäftigung durch grüne
Energieproduktion? | Energiewirtschaftliche Tagesfragen 56 (9), S. 22 – 26
Requate, T. (2010): Klimaschutz: Stand und Perspektiven | Vorwort des
Gastherausgebers | Perspektiven der Wirtschaftspolitik 11(s1), S. 1 – 3
RWI (2004): Gesamtwirtschaftliche, sektorale und ökologische Auswirkungen
des Erneuerbaren Energien Gesetzes (EEG) | Energiewirtschaftlichen Institut
(EWI) der Universität Köln | Institut für Energetik und Umwelt, Leipzig |
Rheinisch-Westfälisches Institut für Wirtschaftsforschung (RWI), Essen |
Gutachten im Auftrag des Bundesministeriums für Wirtschaft und Arbeit
(BMWA)
Schiffer, H.-W. (2010): Deutscher Energiemarkt 2009 | Energiewirtschaftliche
Tagesfragen, 60. Jahrgang, Heft 3, S. 76 – 88
Sinn, H.-W. (2008): Das grüne Paradoxon: Warum man das Angebot bei der
Klimapolitik nicht vergessen darf | Perspektiven der Wirtschaftspolitik 9
(Sonderheft), S. 109 – 142
Literatur
Stern, Nicholas (2007): The Economics of Climate Change: The Stern Review |
Cambridge University Press | Cambridge and New York
Stiglitz, J.E. (2006): A New Agenda for Global Warming | Economists Voice | The
Berkely Electronic Press
www.bepress.com/ev
Traber, T., Kemfert, C. (2009): Impacts of the German Support for Renewable
Energy on Electricity Prices, Emissions, and Firms | The Energy Journal, 30(3),
S. 155 – 178
Tol, R.S.J. (2010): The Economic Impact of Climate Change | Perspektiven der
Wirtschaftspolitik 11(s1), S. 13 – 37
Tol, R.S.J. (2005): Adaptation and Mitigation: Trade-offs in Substance and
Methods | Environmental Science & Policy 8, S. 572 – 578
Weimann, J. (2008): Die Klimapolitik-Katastrophe – Deutschland im Dunkel
der Energiesparlampe | Metropolis | Marburg
Weimann, J. (1994): Umweltökonomik, eine theorieorientierte Einführung,
3. Auflage | Springer
Weitzman, M. L. (2007): A Review of The Stern Review on the Economics of
Climate Change | Journal of Economic Perspectives XLV, S. 703 – 724
Die EU-Klimapolitik: Teuer und ineffektiv
165
Die Autoren
Ross McKitrick
Manuel Frondel
Die Herausgeber
Steffen Hentrich
Holger Krahmer
Ross McKitrick
Ross McKitrick ist Professor der Wirtschaftswissenschaften (Umweltökonomie) an der University of Guelph in Ontario. Außerdem ist
er Senior Fellow des Fraser Institute in Vancouver, ein Mitglied des
Academic Advisory Boards des John Deutsch Institute in Kingston,
Ontario und der Global Warming Policy Foundation in London, Großbritannien.
Seine Forschungsinteressen erstrecken sich auf das Modellieren
des Verhältnisses zwischen wirtschaftlichem Wachstum und Schadstoffemissionen, das Design von Regulierungsmechanismen sowie
auf verschiedene Aspekte der Wissenschaft und der Politik der globalen Erwärmung. Seine Forschungsergebnisse wurden in führenden wissenschaftlichen Zeitschriften veröffentlicht, wie dem Journal
of Environmental Economics and Management, Energy Economics,
Economic Modeling, dem Canadian Journal of Economics, Empirical
Economics, dem Energy Journal sowie Environmental and Resource
Economics. Seine physikalischen Forschungsergebnisse erschienen in
Zeitschriften wie dem Journal of Geophysical Research, den Geophysical Research Letters, den Atmospheric Science Letters, dem Journal of
Non-Equilibrium Thermodynamics and den Proceedings of the National Academy of Sciences.
Er ist Autor des Lehrbuchs „Economic Analysis of Environmental
Policy” (University of Toronto Press 2010) und veröffentlichte 2002 zusammen mit Christopher Essex von der University of Western Ontario
das Buch „Taken by Storm: The Troubled Science, Policy and Politics of
Global Warming” (2. überarbeitete Auflage 2008), ausgezeichnet mit
dem Donner Prize for the Best Book on Canadian Public Policy.
Die Autoren und Herausgeber
169
Manuel Frondel
Prof. Dr. Manuel Frondel ist Diplom-Physiker und Diplom-Wirtschaftsingenieur und führt seit 2003 die Forschungsabteilung für Umwelt
und Ressourcen des Rheinisch-Westfälischen Instituts für Wirtschaftsforschung (RWI). Seit 2009 ist er Professor für Energieökonomik und
170
angewandte Ökonometrie an der Ruhr-Universität Bochum. Von 2001
bis 2003 war er wissenschaftlicher Mitarbeiter am Zentrum für Europäische Wirtschaftsforschung (ZEW) in Mannheim und Professor in
Teilzeit an der Hochschule Heilbronn. Er hat an der wirtschaftswissenschaftlichen Fakultät der Universität Heidelberg promoviert.
Seine Forschungsinteressen liegen im Bereich der Umwelt-, Ressourcen- und Energieökonomik. Prof. Frondel hat in führenden Zeitschriften, wie der Review of Economics and Statistics und den Economic Letters, Beiträge veröffentlicht.
Die Autoren und Herausgeber
Steffen Hentrich
Steffen Hentrich ist Referent am Liberalen Institut der FriedrichNaumann-Stiftung für die Freiheit in Potsdam. Nach seinem Studium
der Wirtschaftswissenschaften an der Technischen Universität Berlin
war er Mitarbeiter am Institut für Wirtschaftsforschung in Halle und
arbeitete für mehrere Jahre als wissenschaftlicher Mitarbeiter beim
Sachverständigenrat für Umweltfragen. Er hat sich auf Umwelt- und
Ressourcenfragen spezialisiert.
Die Autoren und Herausgeber
171
Holger Krahmer
Holger Krahmer wurde 1970 in Leipzig geboren. Nach der Schulzeit
und einer Berufsausbildung zum Instandhaltungsmechaniker begann er 1990 seine berufliche Laufbahn als Bankkaufmann bei der
Commerzbank AG. Seit 1993 ist er Mitglied der FDP und seit 2004 Vor172
stand der GANOS Kaffee-Kontor & Rösterei AG in Leipzig.
Im Juni 2004 wurde er erstmals in das Europäische Parlament gewählt. Er ist Mitglied des Parlamentsausschusses für Umwelt, Volksgesundheit und Lebensmittelsicherheit und stellvertretendes Mitglied
im Ausschuss für Industrie, Forschung und Energie. Als Berichterstatter des Parlaments bzw. der liberal-demokratischen Fraktion ALDE war
er federführend an EU-Gesetzgebungen unter anderem zur Luftreinhaltung, zur Minderung von CO2-Emissionen und der Arzneimittelzulassung beteiligt. So arbeitete er an den EU-Richtlinien für Luftqualität, Industrieemissionen, an Luftschadstoffnormen für Pkw, leichte
Nutzfahrzeuge sowie schwere Lkw und Busse. Auch an der Richtlinie
zur Einbeziehung des Luftverkehrs in den CO2-Emissionshandel und
der Verordnung zur Vermeidung von Arzneimittelfälschungen war er
federführend beteiligt.
Im Jahr 2010 veröffentlichte er die viel diskutierte Schrift „Unbequeme Wahrheiten über die Klimapolitik und ihre wissenschaftlichen
Grundlagen“.
Die Autoren und Herausgeber
Wissenschaftler, Medien und Politiker scheinen sich einig: Der
Klimawandel ist Realität und der Mensch ist schuld daran. Es
muss etwas geschehen – koste es, was es wolle. Doch der Schein
trügt: Noch steckt die Klimaforschung in den Kinderschuhen,
kämpft mit ungenauen Daten und einer Natur, die sich auch mit
den komplexesten Modellen nicht zufriedenstellend beschreiben lässt. Zukunftsprognosen bleiben Kaffeesatzleserei.
Angesichts dieser Unsicherheiten zerbrechen sich die Experten
den Kopf, wie dem Problem Herr zu werden ist. Für die einen
steht das Klima und damit die Zukunft von Natur und Menschheit auf dem Spiel, die anderen sehen in klimapolitischem Aktionismus eine Gefahr für Wohlstand und Entwicklung. Folglich
wird auf dem Basar der internationalen Klimapolitik von der Beschleunigung des grünen Wachstumsmotors bis zum kräftigen
Tritt auf die Klimaschutzbremse alles feilgeboten. Kein Wunder,
dass die Verhandlungen feststecken.
Nur ein Realitätscheck kann die Situation noch retten. Die Wirtschaftswissenschaftler Ross McKitrick und Manuel Frondel
decken unangenehme Wahrheiten auf und weisen einen Weg
aus der Sackgasse der Klimapolitik.
ISBN 978-3-00-036040-4 | Print
ISBN 978-3-00-036041-1 | eBook
Herunterladen