Sind die behaupteten globalen RekordTemperaturen haltbar? Ich möchte den geneigten Leser auf das folgende Zitat von Taylor (1982) aufmerksam machen: Der wichtigste Punkt hinsichtlich der Messungen unserer beiden Experten ist: Wie bei den meisten wissenschaftlichen Messreihen wären beide wertlos gewesen, falls sie nicht zuverlässige Aussagen bzgl. ihrer Unsicherheiten enthalten“. Bevor ich fortfahre ist es wichtig, dass der Leser den Unterschied zwischen Genauigkeit und Präzision versteht. Genauigkeit sagt, wie nahe eine Messung (oder eine Reihe wiederholter Messungen) am tatsächlichen Wert liegt, und Präzision ist die Auflösung, mit der die Messung angegeben werden kann. Eine weitere Möglichkeit zum Verständnis bietet die folgende Graphik: Die Abbildung impliziert, dass Reproduzierbarkeit oder verringerte Varianz Teil von Präzision ist. Das ist so, aber noch wichtiger ist die Fähigkeit, mit größerer Sicherheit aufzuzeichnen, wo eine Messung im Kontinuum einer Messskala lokalisiert ist. Geringe Genauigkeit ist die Folge systematischer Fehler. Sehr geringe Präzision jedoch, welche sich aus Zufallsfehlern oder ungeeigneter Instrumentierung ergibt, kann dazu beitragen, dass individuelle Messungen geringe Genauigkeit haben. Genauigkeit Um die folgende Diskussion nicht zu sehr ausufern zu lassen, werde ich Dinge wie Fehler bei den Örtlichkeiten bei der Aufstellung von Wetterstationen ignorieren, welche potentiell repräsentative Temperaturen korrumpieren und einen Bias einbringen können. Hier kann man sich einen Überblick über diese Probleme verschaffen. Ebenso werde ich die Art und Weise der Datengewinnung ignorieren, welche ein wesentlicher Kritikpunkt bei historischen pH-Messungen war, doch gilt dieses Problem nicht weniger stark auch für Messungen der Temperatur. Grundsätzlich sind Temperaturen räumlich verzerrt mit einer Überrepräsentanz industrialisierter, städtischer Gebiete in den Mittleren Breiten. Und doch werden diese Werte als für den ganzen Globus repräsentativ angegeben. Es gibt zwei wesentliche Aspekte hinsichtlich der Vertrauenswürdigkeit gegenwärtiger und historischer Temperaturdaten. Ein Aspekt ist die Genauigkeit der aufgezeichneten Temperaturen über die nutzbare Bandbreite der Temperatur, wie sie in Tabelle 4.1 im folgenden Link beschrieben wird: http://www.nws.noaa.gov/directives/sym/pd01013002curr.pdf Im Abschnitt 4.1.3 im o. g. Link liest man: 4.1.3 Allgemeine Instrumente. Der WMO zufolge sind gewöhnliche Thermometer in der Lage, mit hoher Genauigkeit Temperaturen in der Bandbreite zwischen -29°C und 46°C zu messen, wobei der maximale Fehler kleiner ist als 0,2°C… Im Allgemeinen wird von modernen Temperatur-Messgeräten eine Genauigkeit von ±0,56°C bei der Referenztemperatur verlangt sowie ein Fehler, der kleiner ist als ±1,1°C über den Messbereich. Tabelle 4.2 verlangt, dass die Auflösung (Präzision) 0,06°C beträgt mit einer Genauigkeit von 0,2°C. In den USA gibt es eines der besten Wetterüberwachungssysteme der Welt. Allerdings sollten Genauigkeit und Präzision in dem Zusammenhang betrachtet werden, wie globale Mittelwerte und historische Temperaturen aus den Aufzeichnungen berechnet werden, im besonderen aus jenen mit geringerer Genauigkeit und Präzision. Es ist extrem schwierig, die Genauigkeit historischer Temperaturaufzeichnungen abzuschätzen, sind doch die OriginalInstrumente kaum noch für eine Kalibrierung verfügbar. Präzision Der zweite Aspekt ist die Präzision, mit der die Temperaturen aufgezeichnet werden, sowie die sich daraus ergebende Anzahl signifikanter Ergebnisse, wenn die Berechnungen durchgeführt werden wie etwa das Ableiten von Mittelwerten und Anomalien. Dies ist der wichtigste Teil dieser Kritik. Falls eine Temperatur mit dem nächsten Zehntel eines Grades aufgezeichnet wird, lautet die Konvention, dass deren Wert gerundet oder geschätzt wird. Das heißt, eine Temperaturmessung mit einem Wett von 98,6°F kann zwischen 98,55°F und 98,64°F liegen. Die allgemeine Faustregel für Addition/Subtraktion lautet, dass rechts vom Komma nicht mehr signifikante Zahlen in der Summe auftauchen als die Anzahl signifikanter Angaben in der am wenigsten präzisen Messung. Bei Multiplikation/Division lautet die allgemeine Faustregel, dass höchstens eine zusätzliche signifikante Zahl im Ergebnis auftaucht im Vergleich mit dem Multiplikanden, welche die am wenigsten signifikanten Angaben enthält. Allerdings folgt man gewöhnlich der Regel, nur so viele signifikante Zahlen zu erhalten wie der am wenigsten präzise Multiplikand enthält. (Eine ausführliche Erklärung all dieser Regeln steht hier). Anders als in einem Fall mit ganzen Zahlen lässt eine Reduktion der Anzahl signifikanter Angaben bereits um nur eine Messung in einer Reihe die Unsicherheit im Mittel zunehmen. Intuitiv könnte man vermuten, dass die Herabsetzung der Präzision einer oder mehrerer Messungen in einem Datensatz auch die Präzision der Ergebnisse mathematischer Berechnungen reduzieren sollte. Man nehme zum Beispiel an, dass jemand das arithmetische Mittel der Zahlen 50; 40,0 und 30,0 berechnen will, wobei die nach dem Komma stehenden Nullen die letzte signifikante Angabe sind. Die Summe der drei Zahlen beträgt 120 mit drei signifikanten Angaben. Dividiert man durch die ganze Zahl 3 (exakt) erhält man 40,0 mit einer Unsicherheit bei der nachfolgenden Stelle von ± 0,05. Wie ist das nun aber, wenn wir die implizite Unsicherheit aller Messungen berücksichtigen? Man beachte zum Beispiel, dass im zuvor untersuchten Satz alle Messungen eine implizite Unsicherheit enthalten. Die Summe von 50 ±0,5; 40,0 ±0,05 und 30 ±0,05 beträgt 120,0 ±0,6. Zwar ist das nicht gerade sehr wahrscheinlich, doch könnte es sein, dass alle diese Fehler das gleiche Vorzeichen haben. Das bedeutet, dass der Mittelwert so klein sein kann wie 39,80 oder so groß wie 40,20. Das heißt, dass die Zahl 40,00 ±0,20 abgerundet werden sollte auf 40,0 ±0,2. Vergleicht man diese Ergebnisse mit den zuvor erhaltenen, kann man erkennen, dass es eine Zunahme der Unsicherheit gibt. Die potentielle Differenz zwischen den Grenzen des mittleren Wertes können zunehmen, wenn mehr Daten gemittelt werden. Es ist vor allem unter Begutachtern [surveyors] allgemein bekannt, dass die Präzision multipler, gemittelter Messwerte invers variiert mit der Quadratwurzel der Anzahl der verwendeten Messungen. Mittelung neigt dazu, den Zufallsfehler bei der Rundung zu entfernen, wenn man einen festen Wert misst. Allerdings sind die Schwächen hier, dass alle Messungen mit dem gleichen Gerät durchgeführt werden müssen, mit dem gleichen festen Parameter wie etwa einer Winkeländerung mit einem Durchgang [an angle turned with a transit]. Außerdem warnt Smirnoff (1961): „bei einer niedrigen Größenordnung der Präzision wird aus wiederholten Messungen keine Zunahme der Genauigkeit folgen“. Dies führt er noch weiter aus mit der Bemerkung: „Implizit ist hier, dass es ein Limit gibt, wie viel der Präzision überhaupt zunehmen kann, während die Definition des Standardfehlers des Mittels die Standardabweichung der Mitglieder ist dividiert durch die Quadratwurzel der Anzahl der Mitglieder. Dieser Prozess kann nicht unendlich oft wiederholt werden, um irgendeine gewünschte Präzision zu erhalten!“ Während mittels einer Vielzahl von Beobachtern ein systematischer Bias dieser Beobachter eliminiert werden kann, sind die anderen Erfordernisse weniger vernachlässigbar. Unterschiedliche Geräte werden unterschiedliche Genauigkeiten aufweisen und können die gemittelten Werte ungenauer machen. Genauso sagt die Messung unterschiedlicher Betrachtungswinkel einem nichts über Genauigkeit und Präzision eines bestimmten interessierenden Betrachtungswinkels. Folglich sagt einem die Messung multipler Temperaturen über eine Reihe von Stunden oder Tagen nichts über die Unsicherheit der Temperaturwerte an einer gegebenen Stelle zu einer bestimmten Zeit, und es kann auch nichts zur Eliminierung von Rundungsfehlern beitragen. Allerdings sind Temperaturen kurzlebig, und man kann die Temperatur irgendwann später nicht noch einmal messen. Grundsätzlich hat man nur eine Gelegenheit, die präzise Temperatur an einer Stelle zu einer bestimmten Zeit zu bestimmen. Das Automated Surface Observing System (ASOS) der NOAA verfolgt einen unkonventionellen Weg der Behandlung umgebender Temperaturdaten. Im User’s Guide heißt es in Abschnitt 3.1.2: Einmal pro Minute berechnet die ACU das 5-minütige Mittel der Umgebungstemperatur und des Taupunktes aus den 1-Minute-Beobachtungen … Diese 5-Minuten-Mittel werden zum nächstgelegenen Grad Fahrenheit gerundet, zum nächsten 0,1 Grad Celsius konvertiert und einmal pro Minute ausgegeben als das 5-Minuten-Mittel der umgebenden Temperatur und des Taupunktes…“. Dieses automatisierte Verfahren wird mit Temperatursensoren durchgeführt, welche geeicht sind auf einen RMS-Fehler von 0,5°C, einen Maximum-Fehler von ±1,0°C und einer Auflösung von 0,06°C in den wahrscheinlichsten TemperaturBandbreiten, die in den kontinentalen USA angetroffen werden. Die Angabe der gerundeten Temperatur in Grad Celsius, wie oben aus dem Zitat hervorgehend, impliziert eine Präzision von 0,1°C, obwohl nur 0,6 ±0,3°C gerechtfertigt sind. Damit wird eine Präzision impliziert, die 3 bis 9 mal größer ist als sie ist. In jedem Falle ist selbst bei der Verwendung modernster Instrumente die Angabe von zwei oder mehr signifikanter Ziffern rechts vom Komma bei Anomalien der verfügbaren Temperaturdaten nicht garantiert! Konsequenzen Diese Dinge werden besonders wichtig, wenn die Temperaturdaten aus unterschiedlichen Quellen stammen, wobei unterschiedliche Instrumente mit variierender Genauigkeit und Präzision verwendet werden, um alle verfügbaren globalen Temperaturen zusammenzubringen und zu konsolidieren. Auch werden sie wichtig beim Vergleich historischer mit modernen Daten und besonders bei der Berechnung von Anomalien. Ein bedeutendes Problem mit historischen Daten ist, dass Temperaturen typischerweise nur in ganzen Zahlen gemessen wurden (wie es bei modernen ASOS-Temperaturen der Fall ist!). Folglich weisen die historischen Daten geringe Präzision (und unbekannte Genauigkeit) auf, und die oben genannte Regel für die Subtraktion kommt ins Spiel, wenn man berechnet, was gemeinhin Temperaturanomalie genannt wird. Das heißt, die Daten werden gemittelt, um eine so genannte Temperatur-Grundlinie [einen Temperatur-Referenzwert] zu berechnen, typischerweise für einen Zeitraum von 30 Jahren. Dieser Referenzwert wird von den aktuellen Daten subtrahiert, um eine Anomalie zu definieren. Ein Weg zur Umgehung dieser Subtraktion ist es, das beste verfügbare historische Mittel zu berechnen und danach so zu definieren, als wären genauso viele signifikante Angaben eingegangen wie in moderne Daten. Dann ist es nicht erforderlich, moderne Daten zu beschneiden und zu runden. Man kann dann legitimerweise sagen, wie sich die derzeitigen Anomalien darstellen hinsichtlich des definierten Referenzwertes, obwohl nicht offensichtlich ist, ob die Differenz statistisch signifikant ist. Unglücklicherweise macht man sich nur etwas vor, wenn man glaubt, dass diese Anomalien irgendetwas darüber aussagen können wie aktuelle Temperaturdaten im Vergleich zu historischen Temperaturdaten dastehen, wenn die Variationen nur rechts des Kommas zu finden sind! Bezeichnend für das Problem ist, dass die von der NASA veröffentlichten Daten bei Anomalien am Ende des 19. Jahrhunderts und aktuelle Anomalien die gleiche implizite Präzision aufweisen (±0,005°C). Der Charakter der Datentabelle mit der Eingabe von 1 bis 3 Ziffern ohne Komma zeigt, dass die Aufmerksamkeit für signifikante Angaben wenig Berücksichtigung gefunden hat. Sogar noch ungeheuerlicher ist die Repräsentation einer Präzision von ±0,0005°C für Anomalien in einem Wikipedia-Beitrag, in welchem die NASA als Quelle angegeben wird. Idealerweise sollte man eine kontinuierliche Aufzeichnung von Temperaturen über einen Zeitraum von 24 Stunden haben und die Fläche unter dem TemperaturZeit-Graphen integrieren, um eine wahre mittlere tägliche Temperatur zu erhalten. Allerdings ist diese Art einer Temperaturreihe nur selten, was besonders für ältere Daten gilt. Folglich müssen wir mit den Daten, die wir haben, alles in unserer Macht Stehende tun, was oftmals eine Bandbreite von Tag zu Tag ist. Zieht man die tägliche Höchst- bzw. Tiefsttemperatur heran und mittelt diese separat, gibt dies einen Einblick, wie sich Temperaturen an einer Station mit der Zeit ändern. Beweise zeigen, dass die Höchst- und Tiefsttemperaturen sich während der letzten 100 Jahre nicht in gleicher Weise geändert haben – bis vor Kurzem, als die Tiefsttemperaturen rascher gestiegen sind als die Höchsttemperaturen. Das bedeutet, sogar auch für langfristig gut betreute Wetterstationen, dass wir kein wahres Mittel der Temperatur mit der Zeit haben. Im besten Falle haben wir einen Mittelwert der täglichen Höchstund Tiefsttemperaturen. Diese zu mitteln erzeugt ein Artefakt, bei welchem Informationen verloren gehen. Wenn man ein Mittel berechnet zum Zwecke einer wissenschaftlichen Analyse wird diese konventionell mit einer Standardabweichung gezeigt, also einer Maßzahl der Variabilität der individuellen Einzelwerte innerhalb der Stichprobe. Ich habe bis heute noch keine einzige veröffentlichte Standardabweichung gesehen im Zusammenhang mit jährlichen globalen Temperatur-Mittelwerten. Wendet man jedoch das Theorem von Tchebysheff und die Empirische Regel (Mendenhall 1975) an, können wir mit einer konservativen Schätzung der Standardabweichung für globale Mittelwerte aufwarten. Das heißt, die Bandbreite der globalen Temperaturen sollte angenähert vier mal die Standardabweichung sein (Range ≈ ±4s). Bedenkt man jetzt, dass sommerliche Temperaturen in der Wüste etwa 130°F [ca. 54°C] und winterliche Temperaturen in der Antarktis -120°F [ca. -84°C] erreichen können, ergibt sich eine jährliche Bandbreite der Temperatur auf der Erde von mindestens 250°F [ca. 140 K] und damit eine geschätzte Standardabweichung von etwa 31°F [ca. 17 K]! Weil es in Wüsten und den Polargebieten kaum Messungen gibt, ist es wahrscheinlich, dass die Bandbreite (und damit die Standardabweichung) größer ist als meinen Vermutungen zufolge. Man sollte intuitiv den Verdacht haben, dass die Standardabweichung für das Mittel hoch ist, liegen doch nur wenige der globalen Messungen nahe dem Mittelwert! Und trotzdem werden globale Anomalien allgemein mit signifikanten Angaben rechts vom Komma präsentiert! Die Mittelung der jährlichen Höchsttemperaturen separat von den jährlichen Tiefstwerten würde die geschätzte Standardabweichung deutlich reduzieren, aber es würde immer noch nicht die Präzision rechtfertigen, von der allgemein die Rede ist. Diese geschätzte Standardabweichung sagt uns möglicherweise mehr über die Häufigkeitsverteilung von Temperaturen als die Präzision, die bzgl. des Mittels bekannt ist. Sie sagt, dass möglicherweise etwas mehr als zwei Drittel der aufgezeichneten Temperaturen zwischen -26°F und +36°F liegen [ca. zwischen -32°C und +2°C]. Weil der Zentralwert [median] dieser Bandbreite 5,0°F[*] beträgt und die allgemein akzeptierte mittlere globale Temperatur bei etwa 59°F [ca. 15°C], zeigt dies, dass es noch einen langen Schwanz bei dieser Verteilung gibt, was die Schätzung des Zentralwertes hin zu einer niedrigeren Temperatur verzerrt. [*Die Umrechnung der absoluten Fahrenheit-Temperaturen in Grad Celsius ist einfach, aber der angegebene Zentralwert von 5°F lässt sich nicht umrechnen. Nehme ich den Zentralwert der Celsius-Angaben, komme ich auf einen Wert bei 15 K. Wahrscheinlich unterläuft mir hier ein logischer Denkfehler, aber ich bekenne, dass ich ihn nicht finden kann. Anm. d. Übers.] Summary Zusammengefasst lässt sich sagen, dass es zahlreiche Arten der Datenbehandlung gibt, welche Klimatologen allgemein ignorieren. Sie kompromittieren ernsthaft die Wahrhaftigkeit der Behauptungen über rekordhohe Mitteltemperaturen und reflektieren eine ärmliche [poor] Wissenschaft. Die statistische Signifikanz von Temperaturunterschieden 2 oder sogar 3 Stellen nach dem Komma ist höchst fragwürdig. Die Anwendung des Verfahrens der Berechnung des Standardfehlers des Mittelwertes, um dessen Präzision zu verbessern, wird nicht gerechtfertigt durch das Entfernen von Zufallsfehlern, weil es keinen festgelegten einzelnen Wert gibt, um den sich die Zufallsfehler verteilen. Das globale Mittel ist ein hypothetisches Konstrukt, welches in der Natur nicht existiert. Stattdessen ändern sich Temperaturen; sie erzeugen variable Fehler systematischer Art. Echte Wissenschaftler sind besorgt hinsichtlich der Größenordnung und des Ursprungs der unvermeidlichen Fehler in ihrem Messungen. References Mendenhall, William, (1975), Introduction to probability and statistics, 4th ed.; Duxbury Press, North Scituate, MA, p. 41 Smirnoff, Michael V., (1961), Measurements for engineering and other surveys; Prentice Hall, Englewood Cliffs, NJ, p.181 Taylor, John R., (1982), An introduction to error analysis – the study of uncertainties in physical measurements; University Science Books, Mill Valley, CA, p.6 Link: https://wattsupwiththat.com/2017/04/12/are-claimed-global-record-temperatures -valid/ Übersetzt von Chris Frey EIKE Anmerkung: Der Autor hat zu diesem Grundlagen-Artikel einen Folgebeitrag geschrieben, in welchem er diese Erkenntnisse auf die gegenwärtige Mainstream-„Klimaforschung“ überträgt. Dieser befindet sich in der Übersetzung und wird in einigen Tagen ebenfalls hier gepostet. – C. F. Südpazifische Oszillation und Kosmische Strahlung Auch die durch die Magnetfelder der Sonnenwinde ausgelösten Periodizitäten der Kosmischen Strahlung sind in diesem Zeitraum mit der zeitverzögerten Südpazifische Oszillation (SO) in Resonanz (K=0,8). Das führt zu solar gesteuerter Bewölkungsreduktion durch den Svensmark-Effekt und dadurch zu verstärkter Sonneneinstrahlung. Es erfolgt so ein zusätzlicher Temperaturanstieg und eine zusätzliche Erwärmung des Ozeans in der südlichen Hemisphäre. Diese solar bewirkte Meereserwärmung führt zur Emission von gelöstem CO2, was als Zusatzdüngung der Weltflora dient. Eine Temperaturerhöhung durch CO2 lässt sich aus den Messwerten nicht ableiten. Mit Beendigung der Sonnenaktivität im Dezember 2006 hat auch in der südlichen Hemisphäre eine kalte Wetterperiode begonnen. Der vollständige Text des Beitrags, der vom EIKE-Mitgleid Dr. Borchert (Dipl.-Physiker) verfasst wurde, ist seiner Länge und der zahlreichen Abbildungen wegen zur besseren Lesbar- und Verfügbarkeit als herunterladbarer pdf-File "SO_Borchert.pdf" beigefügt. Sie können ihn auch permanent unter Menuepunkt Publikationen > Dr. Borchert finden. Die EIKE – Redaktion Related Files so_borchert-pdf Südpazifische Oszillation und Kosmische Strahlung Auch die durch die Magnetfelder der Sonnenwinde ausgelösten Periodizitäten der Kosmischen Strahlung sind in diesem Zeitraum mit der zeitverzögerten Südpazifische Oszillation (SO) in Resonanz (K=0,8). Das führt zu solar gesteuerter Bewölkungsreduktion durch den Svensmark-Effekt und dadurch zu verstärkter Sonneneinstrahlung. Es erfolgt so ein zusätzlicher Temperaturanstieg und eine zusätzliche Erwärmung des Ozeans in der südlichen Hemisphäre. Diese solar bewirkte Meereserwärmung führt zur Emission von gelöstem CO2, was als Zusatzdüngung der Weltflora dient. Eine Temperaturerhöhung durch CO2 lässt sich aus den Messwerten nicht ableiten. Mit Beendigung der Sonnenaktivität im Dezember 2006 hat auch in der südlichen Hemisphäre eine kalte Wetterperiode begonnen. Der vollständige Text des Beitrags, der vom EIKE-Mitgleid Dr. Borchert (Dipl.-Physiker) verfasst wurde, ist seiner Länge und der zahlreichen Abbildungen wegen zur besseren Lesbar- und Verfügbarkeit als herunterladbarer pdf-File "SO_Borchert.pdf" beigefügt. Related Files die_suedpazifische_oszillation_und_kosmische_strahlung-pdf Neue Forschungsergebnisse: Die Warmzeit ist zuende! „Sonnenaktivität verursacht Klimawandel“ Abb. 30: Globalstrahlung, Sonnenscheindauer und Sonnenaktivität Messungen der Globalstrahlung (ZIMEN) und der Sonnenscheindauer (DWD) in Mitteleuropa zeigten synchron zum Auftreten außergewöhnlich starker Sonnenströme in Erdnähe ab 1989 einen sprunghaften Anstieg im Jahresmittel um fast 1,5 bis 2 mW/cm2 bzw. 0,4 bis 0,5 h. Er war offenbar eine Folge des Rückgangs der Bewölkung, und dieser eine Folge der starken Forbush – Reduktion der Höhenstrahlung, ausgelöst durch starke Magnetfelder der Sonnenwinde zunehmender Sonnenaktivität, wie an Beispielen gezeigt wird. Die bodennahen Temperaturen folgten global dieser Entwicklung bis zu einem Maximum um 2000. (Abb.31). Mit Rückgang der Sonnenaktivität und Ende der Einwirkung von Sonnenwinden (Solarprotonen) auf das Wetter stagniert nun die terrestrische Temperaturentwicklung und zeigt Ansätze eines Rückgangs ab 2007 (Abb.26).Die Auswertung von Veränderungen im Magnetfeld der Erde als Folge der Einwirkung von Sonnenwinden, dargestellt durch den Sonnenwindindex, bestätigt die Steuerung der globalen Temperaturen durch die Sonnenaktivität in den zurückliegenden 150 Jahren. Als Ergebnis der hier gezeigten Gegenüberstellungen muss gefolgert werden, dass besonders ab etwa 1980 die Erhöhung der bodennahen Temperatur, also der sogenannte „Klimawandel der Neuzeit“, ein natürlicher klimatischer Effekt war, der durch eine besondere Wirkung der Sonnenaktivität, quasi durch eine „solare Zusatzheizung“ verursacht wurde: Mit ansteigender Sonnenaktivität in der 21. Sonnenfleckenperiode erfolgte ein entsprechend zunehmender synchroner Rückgang der Höhenstrahlung und dadurch ein Rückgang der globalen Bewölkung. Die dadurch bedingte Zunahme der Sonneneinstrahlung (Globalstrahlung) führte zum Anstieg der bodennahen Temperatur. Aber seit 13. Dezember 2006 trat nach dem Verschwinden des Sonnenflecks Nr. 930 keine besondere Aktivität auf der Oberfläche der Sonne mehr auf. Auf Grund der hier beschriebenen Beobachtungen ist bei weiter anhaltender Ruhe langfristig ein Rückgang der bereits stagnierenden Globaltemperatur zu erwarten Dieser Rückgang wird langsam erfolgen mit einer Halbwertzeit von ca. sechs bis acht Jahren als Folge der hohen Wärmekapazität von Land und Ozean. Der anhaltende kontinuierliche Anstieg des CO2 war eine Folge der Erwärmung der Ozeane wegen des Rückganges seiner Löslichkeit im Wasser bei steigender Temperatur. Bei weiterem Ausbleiben einer solaren Zusatzheizung ist ein langsamer Rückgang der Endgasung der Ozeane zu erwarten. Abb. 31: Globaler Temperaturverlauf zu Land und Ozean von 1970 bis 2009 Diese Beobachtungen und Folgerungen aus allgemein zugänglichen meteorologischen Messungen wurden schon seit 2004 beschrieben und durch ergänzende Beobachtungen fortlaufend bestätigt und entsprechend publiziert (Borchert, H. 2004-2009). Die hier als globale Temperaturen angegebenen Werte sind Mittelwerte von Messungen über Landregionen und Ozeanen. Sie unterscheiden sich gemäß NOAA insbesondere während der Ausbildung der letzten Wärmeperiode erheblich. In beiden Bereichen der Nordhalbkugel wird schon um 2006 ein Ende des Temperaturanstiegs signalisiert. Zu diesem Zeitpunkt ist bereits der Einfluss einer Aktivität der Sonnenoberfläche beendet und der Solarwindindex auf Werte der Kaltzeit um 1900 gesunken. Auch die Höhenstrahlung zeigt zur Zeit eine seit Beginn der fortlaufenden Messungen ab 1958 höchste Intensität der kosmischen Strahlung an und erzeugt höchste Bedeckung neben den bekannten anderen Ursachen. Eine Ursache für diese unterschiedlichen Temperaturentwicklungen von Land und Ozean kann durch die extraterrestrische Wolkensteuerung und Wolkenbildung durch Höhenstrahlung überwiegend über den Ozeanen verstanden werden. Die Wolken reduzieren ihre Dichte durch Abregnen auf ihrem Wege zum Land und dadurch wird das Albedo dort angehoben, es scheint mehr die Sonne auf dem Land als auf den Ozeanen, dadurch wird es dort wärmer.. Ein Temperaturanstieg durch noch weiter ansteigendes CO2 als Folge der Remanenz der Ozeane oder durch anthropogenes CO2 kann wegen der bereits bei 250 ppm vorliegenden Sättigung der 15 µm Absorptionslinie des CO2 nicht erfolgen (Dietze, 2007; Ditrich, 2008; Gerlich, 2006; Seinfeld und Pandis, 1996;). Mit Beendigung der hier beschriebenen Sonnenaktivität ist eine fortlaufende Abkühlung der unteren Luftschichten zu erwarten. Es ist ab etwa 2010 wieder der Beginn einer kleinen Kaltzeit wie zwischen 1930 und 1980 zu erwarten. Es gibt Signale, die ankündigen, dass der Anstieg der globale Temperatur beendet ist, bereits in eine Stagnation übergeht und mit sehr hoher Wahrscheinlichkeit in künftiger Zeit auf Werte um 1900 zurückgehen wird. Das bedeutet, dass die seit dreißig Jahren erlebte Wärmeperiode sich ihrem Ende zuneigt. Das bedeutet auch, dass diese Temperaturerhöhung solaren Ursprungs und nicht anthropogen war. Eine anthropogene Steuerung der globalen Temperatur durch CO2 ist physikalisch nicht möglich. Der Sonnenwind – Index, ein Maß für die Einwirkung der Magnetfelder der Sonnenwinde auf das Magnetfeld der Erde und damit auf das terrestrische Wetter, ist nach den hohen Werten in den zurückliegenden dreißig Jahre seit 2008 auf Tiefstwerte um 10 nTesla gesunken, wie sie erst in der Kaltzeit vor etwa 100 Jahren auftraten, danach bis 2008 aber immer höhere Werte annahmen. Das signalisiert, dass auch der Anstieg der globalen Temperatur zwischen 1920 bis 1940 solar verursacht wurde. CO2-Emissionen führen zu keiner weiteren Temperaturerhöhung. Die Besteuerung von CO2 aus Gründen des sogenannten Klimaschutzes hat keine wissenschaftliche Grundlage. Methan zeigt weltweit seit etwa sechs Jahren keinen Anstieg mehr (IPCC), die Akkumulation ist beendet und es befindet sich auf einem konstanten Level von globa1 ca. 1800 ppb. Eine wissenschaftlich fundierte Ursache wurde hierfür noch nicht gefunden. Möglicherweise befindet sich CH4 im luftchemischen Gleichgewicht mit CO2, d. h. es geht in CO2 über und betreibt zusätzlich dessen Anstieg (Seinfeld und Pandis, 1996), (Methan-Symposium in Toronto 1997). Warum die Sonne diese außergewöhnliche Aktivität seit 1988 entwickelte, ist noch nicht geklärt. Es gibt die plausible Ansicht, dass die besondere Nähe der Drehmomente von Sonnensystem und Sonne zueinander während der 22. Sonnenfleckenperiode Turbulenzen in der Sonnenoberfläche auslöste. Dann wäre der Jupiter als der das Sonnensystem gravimetrisch dominierende Planet der Auslöser des jüngsten Klimawandels (Landscheid 2005). Andere Ansichten sprechen von einem Schwarm vom Kometen, die in den letzten Jahrzehnten in die Sonne stürzten und dort die besonders starken Protonenströme auslösten. Das erscheint weniger wahrscheinlich, da die Protonenströme eindeutig den jeweiligen Sonnenflecken zuzuordnen sind in Verbindung mit den "StartFlares", die jeweils als Startsignale (Röntgenstrahlung) der Protonenströme auftreten und als Warnsignale für das orbitale Space – Personal der NASA genutzt werden. Es wird auch von Messungen des Sonnenspektrums berichtet, wonach seit dem letzten Jahrhundert zusätzliche Linien durch Ca und Fe entstanden, die zu einer Zunahme der Solarkonstanten um Größenordnung von ca. 1 bis 2 Promille führten. Diesen Effekten wird ebenfalls eine, wenn auch geringe terrestrische Klimarelevanz zugeschrieben. Hierzu sind allerdings weitere Untersuchungen des umfangreichen Datenmaterials angesagt, um den Einfluss extraterrestrischer Vorgänge auf das Wetter und damit auf die Klimaentwicklung noch genauer kennen zu lernen – für die Verbesserung der Verlässlichkeit von "Klimaprognosen mit astronomischen Mitteln" (Landscheid, Th. +, 2004). Den ganzen Aufsatz finden Sie im Anhang Dr. rer. nat Borchert. EIKE Related Files die_waermeperiode_neigt_sich_dem_ende_zu_2009_2-pdf