Über die Wahrscheinlichkeit der jüngsten Rekordwärme

Vor kurzem in Nature veröffentlich:

The Likelihood of Recent Record Warmth
[Die Wahrscheinlichkeit der jüngsten Rekordwärme]

Autoren: M.E. Mann, S. Rahmstorf, B.A. Steinman, M. Tingley, and S.K. Miller

Zusammenfassung aus Nature, o.g. Link

2014 war nominell das wärmste Jahr der Aufzeichnung sowohl für den Globus als auch der Nordhalbkugel, basierend auf historischen Aufzeichnungen der letzten anderthalb Jahrhunderte (1), (2). Es war der jüngste in einer letzten Serie von Temperaturen Rekorden der letzten fünfzehn Jahre. Die Presse berichtet von Chancen wie eins zu 650 Millionen, dass die beobachteten Temperatur-aufzeichnungen auch in der Abwesenheit der von Menschen verursachten globalen Erwärmung auftreten würden. Ungeachtet der Frage, wie wahrscheinlich die beobachteten Temperaturaufzeichnungen sowohl mit als auch ohne Einfluss des Menschen gewesen sein könnten, ist das als eigene Frage interessant. Hier versuchen wir diese Frage mit einem semi-empirischen Ansatz anzugehen, die die neuesten (CMIP53) Klimamodellsimulationen mit Beobachtungen der globalen und hemisphärischen Temperatur kombiniert. Wir fanden, dass einzelne Rekordjahre und die beobachteten Rekord-Temperaturen in Abwesenheit vom Menschen verursachten Klimawandel extrem unwahrscheinlich stattgefunden haben könnten, wenn auch bei weitem nicht so unwahrscheinlich, wie nach den Presseberichten vorgeschlagen. Dieselben Rekordtemperaturen können im Gegensatz dazu sehr wahrscheinlich in Gegenwart von anthropogenem Klima stattgefunden haben.

Die Abhandlung wird einige mediale Aufmerksamkeit bekommen, hier sind zwei Artikel die die Bandbreite anzeigen:

Die Rekorde von heißen Jahren sind mit ziemlicher Sicherheit durch von Menschen gemachter Erwärmung verursacht

Die neue von Prof. Mann gemachte Studie zur Erderwärmung ist eine „wissenschaftlich wertlose Abhandlung“

Judith Curry: Mein Kommentar wurde für den Examiner Artikel erbeten:

Die Analyse von Mann et al. beschönigt 3 große Streitigkeiten in der Klimaforschung:

a) Fehler und Unsicherheiten in der Temperaturaufzeichnung, um den Rekord der Oberflächentemperaturen in Einklang zu bringen (die eine gewisse Erwärmung in den letzten Jahrzehnten zeigen) gegen den globalen Datensatz der Satelliten (die im Wesentlichen keine Erwärmung für die letzten 18 Jahre zeigen).

b) Die Klimamodelle, die deutlich zu heiß laufen. Für die letzten zehn Jahre waren die globalen durchschnittlichen Oberflächentemperaturen an der Unterseite des Toleranzbandes von Klimamodell – Simulationen gewesen. Selbst das sehr warme Jahr 2015 (anomal warm aufgrund eines sehr starken El Nino) ist kühler als die Vorhersage des Multi-Modell-Ensembles.

c) Wie die vom Menschen verursachte Klimavariabilität aus natürlichen Klimaschwankungen zu trennen ist, bleibt ein herausforderndes und ungelöstes Problem. Mann et al. verwendet die Methode von Steinmann et al. um die Zwangs Variabilität (zB. CO2, Sonne, Vulkane) abzuleiten, als Berechnung der internen Variabilität (zB. von Meereszirkulationen) als Rest. In der Tat, das von Steinmann et al verwendete Multi-Modell-Ensemble geht davon aus, dass alle jüngste Erwärmung durch CO2 angetrieben wurde. Meine Kollegen, angeführt von Sergey Kravtsov, veröffentlichten vor kurzem eine Abhandlung in Science; [siehe auch diesen blog post] und argumentieren, dass die Methode von Steinman et al. fehlerhaft ist und zu einer erheblichen Unterschätzung führt, der internen Variabilität der in großem Maßstab multi-dekadischen Ozean Schwingungen.

Die globalen Temperaturen haben sich insgesamt schon seit mehr als 200 Jahren erhöht. Menschliche verursachte CO2-Emissionen können eine erhebliche Menge dieser Erwärmung vor 1950 nicht erklären. Worauf die jüngsten Schwankungen der globalen Temperatur zu zuschreiben ist, ist weiterhin ein mit erheblichen Unsicherheiten behaftetes Problem. Die Arbeitsberichte des IPCC kommen zu dem Schluss: "mehr als die Hälfte" der Erwärmung seit 1950 wird durch den Menschen verursacht, mehr als die Hälfte Implizieren> 50% [wer weiß, was das tatsächlich bedeutet, siehe meine Meinungsverschiedenheiten mit Gavin]. Diese Einschätzung räumt Unsicherheiten in den Klimamodellen ein, die feststellen, dass seit 1950 alle Erwärmung durch den Menschen verursacht wird. Die Mann et al. Abhandlung geht von der Annahme aus, dass alle Erwärmung durch den Menschen verursacht wurde, nach unserem aktuellen Wissensstand ist das eine ungerechtfertigte Annahme.

Ein weiterer Kommentar, zu technisch, um ihn an den Examiner zu senden:

d) Die Verwendung des Multimodell-Ensemble auf diese Weise ist aus einer statistischen Perspektive einfach unangemessen. Siehe mein früheren Post: Wie sollen wir ein Ensemble von Klimamodelle deuten? Auszüge:

Wie sollen wir Angesichts der Unzulänglichkeiten der gegenwärtigen Klimamodelle, die Multi-Modell-Ensemble-Simulationen des Klimas im 21. Jahrhunderts interpretieren, die in den IPCC-Berichten verwendet werden? Dieses Ensemble-von-Gelegenheiten, besteht aus Modellen mit allgemein ähnlichen Strukturen, aber unterschiedlichen Parametern an Auswahl und Kalibrierung. McWilliams (2007) und Parker (2010) argumentieren, dass die derzeitigen Klimamodell Ensembles nicht darauf ausgelegt sind, gegenständliche Unsicherheit auf gründliche oder strategische Weise darzustellen.

Stainforth et al. (2007) argumentieren, dass Modell Unzulänglichkeiten und eine unzureichende Anzahl von Simulationen im Ensemble sinnvolle Wahrscheinlichkeitsverteilungen von der Frequenz [Häufigkeit / Dichte] der Modellergebnisse des zukünftigen Klimas erzeugen. Bei Stainforth et al. heißt es: "Bei gegebenen, nichtlinearen Modellen, die unter den gegenwärtigen Bedingungen große systematische Fehler haben, wurde keine Verbindung bezüglich der Verteilung der Modellzustände unter veränderten Bedingungen zu entscheidungsrelevanten Wahrscheinlichkeitsverteilungen auch nur annähernd feststellt. . . Darüber hinaus sind sie irreführend, weil die Schlussfolgerungen, in der Regel in Form von PDF-Dateien, viel mehr Vertrauen implizieren als die zugrunde liegenden Annahmen rechtfertigen."

[Hinweis des Übersetzers: Das Thema der Klimasimulationen gehört nicht zu meiner Expertise. Einige unter den Lesern können das bestimmt besser. Hier der Originaltext zu vorstehender Übersetzung:

Given nonlinear models with large systematic errors under current conditions, no connection has been even remotely established for relating the distribution of model states under altered conditions to decision-relevant probability distributions. . . Furthermore, they are liable to be misleading because the conclusions, usually in the form of PDFs, imply much greater confidence than the underlying assumptions justify.”]

Kommentar Nic Lewis:

Ich bat Nic Lewis um seinen Kommentar zu der Abhandlung, er schickte ein paar schnelle Anfangsüberlegungen dazu, die überarbeitete Version ist unten eingearbeitet:

  Hallo Judy, Es ist eine Abhandlung, die sehr wenig wissenschaftlichen Wert hat,   auch wenn sie zu 100% korrekt wäre. Ich habe einige besondere Bemerkungen:

1. Sie sagen: "Es ist angemessen, ein stationäres, stochastisches Zeitreihenmodell zu definieren, mit Parametern aus dem Rest der Serie geschätzt." Dies ist eine nicht unterstützte Behauptung. Im Gegenteil, diese Methode mit Restgrößen zwischen den aufgezeichneten und den im Modell simulierten Temperaturänderungen die interne Variabilität zu schätzen, ist unzureichend; der beobachtete Datensatz ist zu kurz um die interne Variabilität vollständig abzutasten und es gibt nur eine Instanz davon. Darüber hinaus sind die Modellparameter und ihre Antriebskräfte sehr wahrscheinlich aufeinander abgestimmt, so dass Modellsimulationen von historischen Zeiten die beobachteten Temperaturänderungen sehr gut treffen (zB. durch stark negative Einflüsse der Aerosole im dritten Viertel des 20. Jahrhunderts, um eine bessere Übereinstimmung mit dem „großen Pause" zu erreichen). Dadurch werden die Restgrößen künstlich reduziert. Schätzungen, die auf Testläufen über lange Perioden und nicht angetriebenen AOGCM [Atmosphere-Ocean General Circulation Model, gefunden hier] beruhen, routinemäßig zur Erkennung und Zuordnung von Studien durchgeführt, sind ein viel weniger unbefriedigendes Verfahren, allerdings bei weitem nicht perfekt.

2. Der bessere Weg anthropogene Antriebe von natürlichen Klimaänderungen und von internen Variabilitäten zu trennen ist es, einen Nachweis und eine Zuordnungsanalyse der Multimodelle durchzuführen und Rasterdaten zu verwenden und nicht nur globale oder der nördlichen Hemisphäre. Zwei gründlichere neuere Studien, die es so machten, wurden im IPCC AR5 Bericht verwendet, um ihre anthropogenen Aussagen [Zuordnung] zu erreichen. Diese Studie hat keine vergleichbare Komplexität und ermöglicht keine Aussagen stärker als in AR5 [bereits] gemacht wurden.

3. Sie sagen, dass eine Langzeitkorrelation (Langzeitspeicher) des Rauschens [noise process] nicht unterstützt wird: "Einige Forscher haben argumentiert, dass das Klima Rauschen erster Ordnung ein nichtstationäres Verhalten aufweisen könnte, dh. so genannte „Langzeit-Abhängigkeit". Analysen von modernen und Paläoklima Beobachtungen unterstützen jedoch den Schluss, dass es nur das anthropogene Klimawandel Signal ist, das nicht-stationäres Verhalten erster Ordnung zeigt, mit klimatischen Störgrößen am besten durch ein stationary noise model [stationäres Modell der Störgrößen(?); A.D.] beschrieben wird. Wir haben dennoch den zusätzlichen Fall von (3) „des anhaltenden“ roten Rauschens berücksichtigt, wobei das Rauschmodell die Roh – Beobachtungsreihe trifft."

[Rotes Rauschen: Leistungsdichte umgekehrt proportional zum Quadrat der Frequenz (~ 1/f^2)]

Drei Probleme gibt es:

a) Die "Analyse" die sie zitieren, ist ein redaktioneller Kommentar von Michael Mann.

b) Langzeitkorrelation betrifft im Allgemeinen NICHT das nicht-stationäre Verhalten erster Ordnung. Ein klassischer Fall von Langzeit-Abhängigkeit ist ein fraktionelles Differenzmodell, welches nicht-stationärer erster Ordnung ist unter der Bedingung, dass der Differenzparameter kleiner als 0,5 ist.

Ein solches Modell wird als eine physikalisch plausible, einfache Ein-Parameter-adjustierbare Charakterisierung der internen Klimaviariabilität betrachtet, genau wie das autoregressive Modell mit Abhängigkeit im Kurzfrist-Zeitraum, das sie verwenden (AR 1). … Imbers et al. fanden heraus, dass beide Modelle zu der internen Variabilität des Klimas angemessen im GMST über die historische Zeitperiode passten, dass jedoch im Modell mit der langfristigen Abhängigkeit die Unsicherheitsbereiche größer waren.

c) Das „anhaltende“ roten Rauschen Modell hat überhaupt keine Langzeitkorrelation (es ist ein AR (1) -Modell mit einem unterschiedlich geschätzten Autokorrelationsparameter), es bietet es wenig oder gar keine Prüfung der Auswirkungen der wahren internen Variabilität bei Langzeit Beziehungen.

4. Nichts in dieser Studie betrachtet die Wahrscheinlichkeit, dass die hohen, letzten aufgezeichneten Temperaturen den Fall ergeben haben, wo es eine anthropogene Komponente gibt, aber diese ist weniger stark als von den CMIP5 Modellen simuliert, d.h. weil sie zu sensitiv sind. Darüber hinaus haben einfache Modelle eine geringere Empfindlichkeit gegenüber Antrieben von Treibhausgasen, aber auch weniger Aerosol-Kühlung, als in den meisten CMIP5 Modellen und können eine genauso gute oder bessere Übereinstimmung mit den historischen Aufzeichnungen als das CMIP5 Multimodell bieten – besser, wenn bekannte, natürliche Multidekade Variabilität (AMO) berücksichtigt wird. Das ist / diese sind wirklich die Schlüsselfragen – ist die ganze Erwärmung über [den Zeitraum] der historischen Periode anthropogenen; und unter der Annahme, sie ist es auch, kann sie durch Modelle berücksichtigt werden, die weniger empfindlich auf steigende Konzentration von Treibhausgasen reagieren? Nur wenige ernsthafte Menschen behaupten in diesen Tagen, das kein Teil der Erwärmung in der historischen Periode eine anthropogene Ursache hat, was alles ist, was Manns Verfahren versuchen kann auszuschließen.

5. Ich denke, dass ihre Erweiterung der CMIP5 auf historische Simulationen 2005-2014 höchst fragwürdig ist. Sie sagen, "Wir haben die CMIP5 Serie bis 2014 erstreckt, die durch Referenz 13 bereitgestellten Schätzungen genutzt (Hintergrundinformationen)." Das heißt, ich glaube, dass sie die CMIP5 Modell Temperaturtrends nach 2005 reduzieren, um angeblich niedrigere [Temperaturen] als die tatsächlichen zu erzwingen. In der Simulation bezieht er sich stattdessen auf Referenz 12. Weder Ref. 12 noch Ref. 13 scheinen solche Schätzungen zu erzeugen. Ref 14, die in ihrer Referenzliste den Titel eines anderen Berichtes trägt (der korrekte Titel ist "Die Vereinbarkeit von Erwärmungstrends“) ist sehr wahrscheinlich falsch in der Schlussfolgerung, dass die Antriebe in CMIP5 Modellen in den letzten zehn Jahren oder so überschätzt wurden. Sie berücksichtigten nur Antriebe, von denen sie dachten, sie würden in den Modellen positiv geändert. Die Frage wurde in einer neueren Arbeit korrekt untersucht, Outen et al 2015, die alle Antriebe berücksichtigten und feststellten, dass es "keinen Beweis gibt, dass Fehler bei der Erklärung der Pause eine bedeutende Rolle spielen" – sie fanden einen vernachlässigbaren Unterschied, wenn sie die letzten Beobachtungs-Schätzungen substituieren mit diejenigen, die in einem CMIP5 Modell verwendet werden.

6. Sie verwenden modellierte SST (TOS) [Sea surface temperature] [Temperature over surface] eher als Lufttemperatur (TAS) in 2m Höhe über dem Ozean. Im Prinzip ist dies sinnvoll, wenn es mit HadCRUT4 und alte Versionen von GISTEMP verglichen wird, aber nicht mit der neuesten Version von GISTEMP oder mit den neuen NOAA (Karl et al – MLOST?) Aufzeichnungen, da es die SST anpasst um, mit der oberflächennahen Lufttemperatur zu übereinstimmen auf einer dekadischen und multidekadischen Zeitskala.

Ich hoffe das hilft Dir, Nic

Fazit, Judith Curry 

Die Abhandlung von Mann et al. produziert sicherlich eine schlagkräftige Titelzeile und es ist eine Herausforderung, die Probleme mit der Abhandlung an die Öffentlichkeit zu kommunizieren.

Wie ich es sehe, ist diese Arbeit eine riesige Übung im Zirkelschluss:

1. Nehmen Sie an, die globalen Oberflächentemperatur Schätzungen sind zutreffend; dann ignorieren sie die Unterschiede mit den durch atmosphärische Satelliten gemessenen Temperaturen.

2. Nehmen Sie an, dass CMIP5 Multimodell Ensemble kann verwendet werden, um Wahrscheinlichkeiten genau darzustellen.

3. Nehmen Sie an, die CMIP5 Modelle simulieren eine ausreichend interne Variabilität

4. Nehmen Sie an, externe Daten über Antriebe sind ausreichend sicher,

5. Nehmen Sie an, dass die Klimamodelle im Wesentlichen 100% der jüngsten Erwärmung durch CO2 korrekt erklären,

Damit die Mann et al. Analyse funktioniert, muss man ihm jede dieser fünf Annahmen abkaufen; jede davon ist fraglich, in unterschiedlichem Ausmaß.

Erschienen auf Judith Curry am 26. Januar 2016

Übersetzt durch Andreas Demmig

http://judithcurry.com/2016/01/26/on-the-likelihood-of-recent-record-warmth/




Klimawandel: US Bewerberin um die Präsidentschaftskandidatur Carly Fiorina trifft den Nagel auf den Kopf

In den politischen Schlachten bzgl. des Klimawandels gibt es drei eindeutige, klare und relevante Fragen:

Erstens, hat die Menschheit einen merkbaren Einfluss auf das Klima der Erde?

Zweitens, falls die Menschheit das Klima beeinflusst, ist dieser Einfluss schädlich?

Und drittens, falls wir annehmen, dass die Menschheit die Umwelt schädigt – wird jedwede politische Maßnahme oder ein Maßnahmenbündel in Amerika eine bedeutende vorteilhafte Auswirkung haben?

Bisher hat sich die konservative Bewegung hauptsächlich darauf beschränkt, den hinsichtlich der ersten Frage kolportierten „wissenschaftlichen Konsens“ in Frage zu stellen – das Ausmaß des menschlichen Einflusses auf das Klima der Erde. Um ein Beispiel aus dem Lehrbuch anzuführen, verfolge man das Interview, dass Ted Cruz Anfang dieses Jahres mit Katie Couric hatte, als er sie mit der miserablen jüngeren Historie von Prophezeiungen von Umweltaktivisten konfrontierte. (Anmerkung von JC: Das Klimawandel-Statement von Ted Cruz wurde in diesem Beitrag behandelt).

Aber gibt es einen Weg zum Konsens der dritten politische Schlüsselfrage, nämlich ob auf den Klimawandel bezogene Vorschriften irgendeinen bedeutenden Einfluss auf das Klima haben. Klimawandel-Aktivisten werden nicht müde zu sagen, dass „wir irgendwo beginnen müssen“. Aber was ist, falls wir tatsächlich nirgendwo beginnen? Was ist, wenn wir die Amerikaner auffordern, Opfer für nichts zu bringen? Was ist, wenn Amerika den Klimawandel nicht stoppen kann?

Das ist das Argument von Carly Fiorina, und es könnte der beste – und am einfachsten zu verfolgende – Weg vorwärts zu einem Konsens sein.

Anmerkung von JC: Man klicke auf den Originalbeitrag, um Fiorinas Interview mit Couric zu hören. Sie vertritt folgende Punkte: Wir brauchen viel mehr Innovation anstatt Regulierung – wir müssen die Kohle sauberer machen. Wir müssen den Menschen die Wahrheit sagen über Zielkonflikte und das Kleingedruckte, und darüber, wie Windturbinen reihenweise Vögel schreddern. Sie findet eine Menge weitere ernsthaftere Bedrohungen als den Klimawandel – wir müssen den Klimawandel in die richtige Perspektive gegenüber anderen, ernsteren Problemen sehen, vor denen wir stehen.

Die Kurzversion von Fiorinas Argument ist Folgende: Falls der wissenschaftliche Konsens darin besteht, dass der vom Menschen verursachte Klimawandel real ist, gibt es auch einen Konsens, dass Amerika allein den Klimawandel nicht stoppen kann. Wirklich, die Chinesen sind nur zu froh darüber, dass wir unsere Wirtschaft in Ketten legen, wenn sie den Markt mit sauberer Kohle überschwemmen. Kalifornien setzt Vorschriften in Kraft, die hinsichtlich des globalen Klimas keinerlei Unterschied machen. Die Obama-Administration setzt Vorschriften in Kraft, die hinsichtlich des globalen Klimas keinerlei Unterschied machen. Und doch werden die Amerikaner aufgefordert, den Preis zu zahlen für – um nur ein Beispiel zu nennen – Klimavorschriften, die im Jahre 2030 mit einem Äquivalent zu etwas mehr als 13 Tagen mit chinesischen Emissionen die Welt retten sollen.

Die Linke stellt die Prämisse, dass die amerikanischen Vorschriften nicht den Planeten retten werden, nicht ernsthaft in Frage, aber sie rechtfertigen die Forderung nach Opfern von Amerikanern im Wesentlichen mit der Zuordnung einer mystischen Macht zu unserer nationalen Politik – als ob unsere Entscheidung, in unser eigenes Schwert zu fallen, Indien und China dazu bringt, das Gleiche zu tun ebenso wie die übrige entwickelte Welt. Und dass sie im Wesentlichen ihre eigene „Folgt Jesus!“-Bewegung haben unter Missachtung nationaler Interessen und Jahrhunderte langer nationaler politischer Kultur.

„Amerika geht voran!“ proklamieren sie. „Die Welt lacht“, ist die richtige Antwort. Einem alten Sprichwort zufolge haben Nationen keine Freunde, sondern nur Interessen. Unsere geopolitischen Konkurrenten werden ihre strategischen Interessen nicht im Namen des Kampfes gegen die globale Erwärmung opfern. Auch werden Entwicklungsländer nicht ihre Ökonomien oder das Leben ihrer Bürger opfern, indem sie ihr eigenes wirtschaftliches Wachstum begrenzen.

Die Amerikaner haben wieder und immer wieder bewiesen, dass sie bereit sind, Opfer zu bringen – falls sie davon überzeugt sind, dass das Opfer einen Sinn hat, dass damit einer Objektive gedient ist. Es gibt mit Sicherheit Spielraum für den Klimawandel-Skeptizismus von Cruz in der nationalen Diskussion, aber es gibt noch mehr Spielraum für Fiorinas ökonomischen, wissenschaftlichen und geopolitischen Realismus. Die Linke fordert die Amerikaner auf, Opfer für nichts zu erbringen – nicht für wirkliche wirtschaftliche Vorteile, nicht für wirklichen Klima-Vorteil und nicht für wirkliche oder bedeutende „globale Führung“. Das ist ein schlechter Deal, selbst für jene, die an den vom Menschen verursachten Klimawandel glauben, und doch ist dies genau der „Deal“, den die Linke fordert.

Gedanken von JC dazu

Die Debatte um den Klimawandel muss sich hin zu Frage drei bewegen, also ob die losgetretene Politik irgendeinen Einfluss auf das Klima haben wird. Nicht nur auf den Beitrag Amerikas zur Reduktion von Emissionen, sondern kumulativ auf die globalen Indiens und Chinas. Die Antwort lautet, dass diese Politik keinerlei bedeutsamen Einfluss auf das Klima haben wird. Ist dies erst einmal akzeptiert, dann ist das Problem Klimawandel für ein Überdenken offen sowie für den Druck auf den Restart-Button.

Als eine politische Taktikerin trifft Carly Fiorina den Nagel auf den Kopf. Sie fordert nicht den wissenschaftlichen Konsens heraus, sondern konzentriert sich vielmehr auf die Tatsache, dass falls der vom Menschen verursachte Klimawandel real ist, dieser nicht von uns allein in einem Zeitraum von wenigen Jahrzehnten gestoppt werden kann. Ihre Empfehlung nach mehr Innovation und weniger Vorschriften trifft genau ins Schwarze; Wind und Solar werden daran nichts ändern.

Carly Fiorina hat in der ersten Debatte der Republikaner einen Volltreffer gelandet und beginnt den Umfragen zufolge in der Wählergunst zu steigen.

Link: http://judithcurry.com/2015/08/12/carly-fiorina-hits-the-sweet-spot-on-climate-change/

Übersetzt von Chris Frey EIKE




Wie dringend ist ,dringend‘? Analyse der Sprüche zur Panikschürung beim Klimawandel

Zu Judith Curry schreibt Wikipedia

Judith A. Curry ist Professorin für Geo- und Atmosphärenwissenschaften am Georgia Institute of Technology. Sie ist Autorin und Herausgeberin einiger Bücher sowie von über 130 Fachartikeln. Wir fügen hinzu, dass sie zu den prominentesten Klimaforschern nicht nur der USA sondern weltweit gezählt wird. Anerkannt wird sie von allen wissenschaftlichen "Klimaglaubensrichtungen", von den strammen Alarmisten freilich nur mit Zähneknirschen. Sie hat sich durch ihre neutrale, ehrliche Arbeit fast  Unantastbarbarkeit erworben. Ihr empfehlenswerter Blog (hier).
Vom deutschen Klimaforscher Hans v.Storch, der ebenfalls Neutralität auf seine Fahne geschrieben hat, unterscheidet sie sich durch freundliche Umgangsformen und dem Abschwören jeden "Glaubens" (H. v.Storch "glaubt" an den anthropogenen Klimawandel, für einen Wissenschaftler eine etwas fragwürdige Haltung). Judith Curry schreibt dagegen auf ihrem Blog vom 3.Okt.14 unter "challenging the 2 °C Target (Hallo Herr Schellnhuber und Mister Al Gore aufgepasst!): "…the inconvenient truth that there is no detection of any increase in most types of extreme weather events and it is extreme difficult to attribute any change to humans …". Ob’s unsere Freunde vom PIK, Rahmstorf, Edenhofer zur Kenntnis nehmen? Kann man natürlich nicht erwarten. Die gleiche Aussage findet sich übrigens schon 1997 im Sondergutachten des wissenschaftlichen Beirats der Bundesregierung über globale Umweltveränderungen (WBGU) auf S. 8, letzter Absatz (hier). Damals bestand der WBGU noch aus ausgewiesenen Fachwissenschaftlern.

Nun zum Text im Blog von Frau Prof. J. Curry

"Ich glaube, dass wir nur noch wenig Zeit haben, die Klimaänderung anzugehen… höchstens noch ein Jahrzehnt." James Hansen 2006
"Wir haben nur noch 4 weitere Jahre, Maßnahmen gegen den Klimawandel zu ergreifen."James Hansen 2009
Es sieht so aus, als sei die Zeit jetzt abgelaufen, oder vielleicht bleiben uns zwei weitere Jahre, abhängig davon, ob man von der Version 2006 oder der Version 2009 ausgeht.
Falls man von der 2°C-„Gefahr“ ausgeht, hat Michael Mann kürzlich gesagt, dass die Erde den Absturz im Jahre 2036 erleben wird.
Und heute hören wir von der Sunday Times: Experten: Nur noch 16 Jahre, um die Kohlenstoff-Katastrophe zu vermeiden.

AR 5 Synthese-Bericht (Summary)

Auslöser für diesen speziellen Beitrag ist die Veröffentlichung des IPCC AR5 Synthesis Report und der Presseerklärung und der Pressekonferenz. Eine gute Zusammenfassung dessen, was da vor sich geht, liefert der BBC-Artikel [übersetzt] Fossile Treibstoffe sollten bis zum Jahre 2100 ausgeschlossen werden [hier]. Die Höhepunkte daraus:
● CO2-Emissionen müssen bis zum Jahr 2030 um die Hälfte reduziert werden, wenn die globalen Temperaturen nicht um 2°C bis 5°C steigen sollen
● Die Menschen dürfen nicht mehr als eine weitere Trillion Tonnen CO2 in die Atmosphäre blasen, wenn der Temperaturanstieg unter 2°C gehalten werden soll.
● Um die Erwärmung unter 2°C zu halten, muss die Welt ihre Treibhausgas-Emissionen bis zum Jahr 2050 um 40 bis 70% kappen und dann bis zum Jahre 2100 auf nahe Null zurückfahren.

Twitter-Kommentare von Ban-Ki Moons Pressekonferenz:

● Die Wissenschaft hat gesprochen. Ihre Aussage ist eindeutig. Die Führer müssen agieren. Die Zeit steht nicht auf unserer Seite.
● Wenn unsere Kinder krank sind mit hohem Fieber, muss man ihnen alle erforderliche Medizin verabreichen.
● Der Synthese-Bericht verleiht bis zur Konferenz in Paris einen kräftigen Schub, um Maßnahmen gegen die 2°C-Erwärmung zu ergreifen.
Wie lange müssen wir Maßnahmen ergreifen?
Wollen wir mal einen Moment lang so tun, als gäbe es das Risiko, dass zusätzliche CO2-Emissionen eventuell zu einer unerwünschten Klimaänderung führen können. Außerdem scheint es eine grobe Übereinstimmung zu geben, dass es in jedermanns langfristigem Interesse ist, von fossilen Treibstoffen als primäre Energiequelle wegzukommen (diese Ressourcen sind begrenzt, irgendwann wird deren weitere Extraktion sehr teuer werden, und es gibt Verschmutzungs- und Gesundheitsprobleme bei und durch deren Verbrennung).
Aber wie dringend ist es, Maßnahmen hinsichtlich Dekarbonisierung zu ergreifen, selbst wenn man das 2°C-Ziel akzeptiert? Die 16-Jahre-Frist stammt aus dem Business as Usual-Szenario, während Projektionen von Klimamodellen feststellen, dass die 2°C-Grenze im Jahre 2040 überschritten wird.
Aus folgenden Gründen ist es zunehmend unwahrscheinlich, dass wir die Gefahrengrenze von 2°C bis zum Jahre 2040 erreichen:
● Der andauernde Temperatur-Stillstand, der sich bis in die dreißiger oder sogar die vierziger Jahre dieses Jahrhunderts fortsetzen könnte, falls die zunehmende Anzahl von Hypothesen rund um AMO, PDO und die natürliche innere Variabilität korrekt sind.
● Die wachsende Zahl auf Beobachtungen basierender Studien zur Klimasensitivität, die viel geringere Werte kurzlebiger und Gleichgewichts-Klimasensitivität finden (z. B. Lewis & Curry, in einem Op Ed im WSJ).
● Unrealistische Szenarien bzgl. der Menge des in der Zukunft verbrannten Kohlenstoffes durch das IPCC (siehe Dave Rutledge’s frühere Beiträge)
● Unterschätzung der CO2-Aufnahme durch Pflanzen um 16% (hier).
Wie stark also verzögern diese Faktoren individuell und kollektiv die Erwärmung nach 2040? Nun, der Faktor Stillstand ist ziemlich wegweisend. Man hat geschätzt, dass Lewis und Curry zufolge die Erwärmung um 10 Jahre verzögert werden könnte. Keine Schätzung, die ich gesehen habe, ist verbunden mit Szenarien des Kohlenstoff-Haushaltes.

Was bringen uns 10 Jahre?

Für den Augenblick wollen wir einmal so tun, als ob uns diese Faktoren 10 weitere Jahre verschaffen (ich persönlich denke, dass es viel mehr sind) nach dem vom IPCC festgesetzten Zeitpunkt. Welchen Unterschied machen 10 Jahre aus?
Schauen wir mal, wie es vor 10 Jahren aussah, also im Jahre 2004 oder auch 2006, als Hansen seine erste Proklamation vom Stapel ließ:
● Von Fracking war nirgendwo die Rede.
● Es gab nur einen sehr geringen Beitrag durch Wind und Solar.
● Es gab viel Optimismus hinsichtlich Cap and Trade.
● Der Stillstand war noch keine 10 Jahre alt und ist als solcher auch noch nicht identifiziert gewesen.
● Die USA waren führend hinsichtlich CO2-Emissionen.
● Die massive chinesische Modernisierung hatte gerade erst begonnen.
● Es gab verheerende Hurrikane an den Küsten des US-Festlandes in den Jahren 2004 und 2005
● Andere?
Heute sieht alles sehr viel anders aus als vor 10 Jahren. Was können wir während der nächsten 10 Jahre erwarten?
● Der Stillstand wird sich fortsetzen, oder die Erwärmung wird wieder einsetzen. Falls Letzteres der Fall sein sollte, würde sich zeigen, dass die Klimamodelle nicht fähig sind zur Projektion des Klimawandels und der Klimasensitivität im 21. Jahrhundert, und die Schlussfolgerungen des IPCC bzgl. der Ursache werden nicht mehr haltbar sein.
● Größere Klarheit der Rolle der Sonne bei den Klimavariationen im 20. und 21. Jahrhundert und deren Änderungen.
● Längere historische Perspektiven bzgl. des Meereises, der Ozean-Wassertemperaturen usw. sowie Verfeinerungen der paläoklimatischen Analysen der letzten beiden Jahrtausende, welche das Ausmaß des anthropogenen Klimawandels im Vergleich zur natürlichen Variabilität klären.
● Weitere Zunahme der Emissionen, vor allem in Entwicklungsländern
● Weitere Verknappung von Nahrung und Wasser im Zuge wachsender Bevölkerung, solange keine effektiven Pläne vorliegen, die dieses Problem angehen.
● Wachsende Verwundbarkeit gegenüber Extremwetterereignissen im Zusammenhang mit der Zunahme der Bevölkerung und deren Eigentum in anfälligen Gebieten, solange keine effektiven Pläne vorliegen, die dieses Problem angehen.
● Weitere Fortschritte bei Energie-Technologien
● Weiter gehende regionale Experimente mit neuen Technologien und solcher für Erneuerbare.
● Andere?

Business as usual, oder Umsetzung der UNFCCC-Politik?

Wie oben beschrieben kann Business as usual im Zeitmaßstab von Jahrzehnten mit unerwarteten Überraschungen einhergehen – Wissenschaft, Technologie und gesellschaftliche Änderungen. Sollen wir wirtschaftliche Entwicklung und andere Maßnahmen auslaufen lassen, vielleicht mit einer klimabezogenen Entscheidungs-Analyse? Oder sollen wir die UNFCCC-Politik umsetzen und die Wirtschaft drastisch dekarbonisieren?
10 Jahre (oder sogar nur 5 Jahre) werden die relative Bedeutung anthropogener und natürlich auftretender Klimaänderungen substantiell klären, und wie schnell Menschen das Klima im 21. Jahrhundert verändern können.
Die Lösungen zur Dekarbonisierung der globalen Wirtschaft werden eher durch technologische Fortschritte denn durch globale UNFCCC-Abkommen erreicht werden. Ist es in irgendeiner Weise sinnvoll, die Dekarbonisierung schneller voranzutreiben als die Technologie dazu in der Lage ist?
Die UN scheinen ein Spiel zu spielen, das treffend von Rupert Darwell beschrieben wird:

Es gibt ein Wort, das man niemals vom IPCC hören wird, nämlich die Aussage: „Zum handeln ist es jetzt zu spät!“ Nur so kann das IPCC auf immer und ewig weiter bestehen!

Link: http://judithcurry.com/2014/11/02/how-urgent-is-urgent/
Übersetzt von Chris Frey EIKE




Die merkwürdige Logik des Zuordnungs (attribution)-Statements des IPCC

Ja, wir befinden uns mitten in (oder vielleicht am Ende, oder vielleicht am Anfang) eines Stillstands hinsichtlich des globalen Temperaturanstiegs. Die Beweise scheinen zuzunehmen, dass die natürliche Variabilität bedeutender ist als in den IPCC-Berichten zuvor angenommen. Und doch wächst das Vertrauen des IPCC in die anthropogene globale Erwärmung.

Nun kenne ich nicht die Findungsprozesse im IPCC dergestalt, dass man von einer komplexen Organisation vielleicht gar nicht sagen kann, ob es überhaupt einen Findungsprozess gibt. Allerdings seien all jene, die glauben, dass das IPCC bei diesem speziellen Thema unwissenschaftlich arbeitet, an etwas Wichtiges erinnert: Trotz der wachsenden Divergenz unterstützen die Beweise zunehmendes Vertrauen in das IPCC-Statement.

•Fehlende Erwärmung seit 1998 und die wachsenden Diskrepanzen zwischen Beobachtungen und Klima-Modellprojektionen.

•Beweise für eine geringere Klimasensitivität auf zunehmende atmosphärische CO2-Konzentrationen

•Beweise, dass der Anstieg des Meeresspiegels zwischen 1920 und 1950 von gleicher Größenordnung ist wie zwischen 1993 und 2012.

•Sich ausdehnende Eisbedeckung um die Antarktis

Auch den folgenden Aussagen aus meiner Anhörung stimmt Nielsen-Gammon zu:

„Viele Beweislinien im AR 5 zeigen, dass der Fall anthropogene Erwärmung schwächer ist als noch im Vorbericht AR 4 aus dem Jahr 2007 dargestellt. Die anthropogene globale Erwärmung ist eine vorgeschlagene Theorie, dessen grundlegender Mechanismus gut verstanden, dessen Größenordnung jedoch höchst ungewiss ist. Die wachsenden Beweise, dass die Klimamodelle das Klima als zu sensitiv hinsichtlich CO2 zeigen, haben Auswirkungen auf die Zuordnung der Erwärmung zum Ende des 20. Jahrhunderts und den Projektionen des Klimas im 21. Jahrhundert.

Wenn der gegenwärtige Erwärmungs-Stillstand natürlicher Variabilität geschuldet ist, dann erhebt sich die Frage, bis zu welchem Grad die Erwärmung zwischen 1975 und 2000 ebenfalls durch natürliche Variabilität verantwortlich ist“.

Nielsen-Gammon gibt dann relativ langatmige Ausführungen zur möglichen Bedeutung der natürlichen internen Variabilität, die ich hier kurz zusammenfasse:

Falls natürliche Zyklen regelmäßig und wiederholt auftreten, wird die Temperaturänderung insgesamt über einen vollständigen natürlichen Zyklus etwa Null sein. Die Erwärmungsphase des Zyklus‘ wird durch die Abkühlungsphase kompensiert. Übrig bleibt der langzeitliche Anstieg verursacht durch den Menschen.

Warum kommt das IPCC zu dem Ergebnis, dass der langzeitliche Anstieg vom Menschen verursacht ist? Die primäre Logik ist wirklich einfach. Von allen Antrieben, die das Klimasystem steuern, war bei weitem der größte während der letzten 60 Jahre die Treibhausgase. An zweiter Stelle auf der Liste steht die Verschmutzung durch Aerosole, die teilweise den Treibhausgasen entgegen wirken. Während der letzten 60 Jahre hatten natürliche Antriebe (Sonne, Vulkane) ebenfalls einen abkühlenden Effekt. Also spielt die Frage über die relative Bedeutung unterschiedlicher Antriebe keine wirkliche Rolle, um den Temperaturanstieg der letzten 60 Jahre zu erklären: der einzige große Antrieb auf der positiven Seite sind die Treibhausgase.

Natürlich reicht es nicht zu sagen, dass Treibhausgase die Temperatur in die richtige Richtung lenken. Die Größenordnung spielt natürlich auch eine Rolle. Auch hier sagt uns der Stillstand, dass es einen bedeutenden positiven Antrieb außer Treibhausgasen gibt. Je kleiner die Erwärmungsrate, umso geringer die Möglichkeit, dass ein separater, zusätzlicher Grund für die Erwärmung übersehen wird. Daher ist die meiste oder die gesamte Erwärmung den Treibhausgasen geschuldet.

Curry hat recht mit ihrer Aussage, dass der Stillstand und die zunehmenden Abweichungen zwischen Modellen und Beobachtungen beweisen, dass die Modelle die Antriebsanteile, vor allem CO2, zu sensitiv modellieren. Sie hat auch recht, dass die Beweise dafür immer stärker werden, dass vieles der Erwärmung vor dem Jahr 2000 natürlichen Ursprungs war, je länger und größer die Abweichung wird. Gleichzeitig werden auch die Beweise dafür immer stärker, dass die Modelle die zukünftige Erwärmung überschätzen. Um diese Fragen zu klären, bedarf es der Evaluation aller verfügbaren Beweise, nicht nur die letzten 60 Jahre des Temperaturverlaufs. Dazu wird einen weiteren Blogbeitrag geben.

Aber der Punkt ist Folgender: Falls sich über 60 Jahre die natürliche Variabilität zu Null mittelt, spielt es keine Rolle, wie stark diese natürliche Variabilität zu Buche schlägt im Vergleich zur vom Menschen verursachten Klimaänderung – übrig bleibt der menschliche Anteil. Folglich kann und sollte das IPCC es als extrem wahrscheinlich ansehen, dass der menschliche Einfluss den Gesamt-Temperaturanstieg während der letzten 60 Jahre dominiert.

Falls man an eine starke natürliche Variabilität glaubt und man das IPCC kritisieren möchte, könnte man sich darüber beklagen, dass sie ihre Schätzungen der Klimasensitivität nicht ausreichend reduzieren, oder dass sie nicht angemessen auf die zunehmenden Beweise für die natürliche Variabilität eingehen, wenn es um deren Einfluss auf die Temperatur von Jahrzehnt zu Jahrzehnt geht. Aber nichts davon, und keine der von Curry oder wem auch immer angeführten Beweise, die ich gesehen habe, reduziert die Wahrscheinlichkeit, dass die Temperaturänderung während der letzten 60 Jahre oder so zumeist anthropogenen Ursprungs war.

Kommentar von J. C.: Hier auf die Schnelle ein Kommentar zu dem genannten Argument relativ zu dem Wellenstadium [stadium wave {?}]. Erstens ist das Wellenstadium ein Element der natürlichen internen Variabilität, speziell für multidekadische Zeiträume (es sagt nichts über die interne Variabilität in längeren Zeiträumen). Selbst im Maßstab von dekadischen bis multidekadischen Zeiträumen gibt es eine zusätzliche natürliche Variabilität,  die nicht vom Wellenstadium erfasst wird, namentlich die NAO/AO (die auch nicht vollständig ein rein interner Zustand sein kann).

Erörterung der Klima-Ungewissheit

Nielsen-Gammon und ich stimmen hinsichtlich der Beweise erster Ordnung überein, die ich in meiner Anhörung vorgebracht habe. Wie kommt es dann, dass wir hinsichtlich des Zuordnungs-Statements des IPCC bzgl. der Erwärmung seit 1950 so weit auseinander liegen? Diese Aussage von N-G bringt es auf den Punkt:

Nun kenne ich nicht die Findungsprozesse im IPCC dergestalt, dass man von einer komplexen Organisation vielleicht gar nicht sagen kann, ob es überhaupt einen Findungsprozess gibt.

Die IAC-Begutachtung des IPCC beanspruchte Transparenz bei der Erörterung zur Abschätzung des Vertrauens. Ich stimme N-G zu, dass dieser Vorgang beim IPCC nicht transparent war.

Also zurück zur ursprünglichen Frage: wie können verschiedene Individuen oder Organisationen auf die gleichen primären Beweise schauen und zu unterschiedlichen Schlussfolgerungen kommen? Einsicht gibt hier meine 2011 veröffentlichte Studie in einer Sonderausgabe zur Klimaänderung mit dem Titel Reasoning about Climate Uncertainty, die ich in einem Satz zusammen fassen kann:

Wie man Ungewissheiten im komplexen Klimasystem und seiner Computer-Simulationen analysiert, ist nicht einfach oder offensichtlich.

Argumentation von J.C. über die Zuordnung

Die Logik hinter meinen Ausführungen ist Folgende:

Nach der Art und Weise, mit der das Zuordnungs-Argument des IPCC ausgebreitet wird, gibt es zwei mögliche Gründe der Klimaänderung seit 1950: anthropogener Antrieb und natürliche Variabilität. Die Summe dieser beiden Beiträge ist 100%; das Hauptinteresse ist die jeweilige relative Prozentzahl zwischen anthropogenem und natürlichem Antrieb.

Das IPCC äußert sich mit extremer Sicherheit, dass ‚der größte Teil‘ der Erwärmung anthropogenen Antrieben zugeordnet werden kann, und ich verstehe unter ‚der größte Teil‘ eine Bandbreite von 51 bis 95 Prozent. Das IPCC erkennt implizit, dass das Thema Zuordnung ungewiss ist, weil keine Verteilung der Werte oder eine ‚beste Schätzung‘ angegeben wird. Vielmehr nennen sie einen eingeschränkten Bereich mit etwa 44%.

In Abwesenheit eines überzeugenden theoretischen Grundes für die untere Grenze 51% gehe ich davon aus, dass das IPCC eine Wahrscheinlichkeit von unter 60% für den anthropogenen Antrieb gar nicht betrachtet; anderenfalls wäre es schwierig zu argumentieren, dass die untere Grenze nicht gebrochen werden würde. Zur Zeit des Erscheinens des AR 4 hatte ich in Gesprächen mit den IPCC-Leitautoren das Gefühl, dass die meisten Wissenschaftler dachten, der anthropogene Beitrag läge über 90% (das ist meine subjektive Einschätzung; ich wäre interessiert an anderen Bewertungen hiervon).

Um nun also irgendwo mit meiner Argumentation anzufangen, möchte ich mit diesem Abriss aus dem IPCC AR 5-Statement zur Zuordnung seit 1950 beginnen:

anthropogen:  75%

natürlich:  25%

Die Elemente größter Sicherheit in diesem Argument sind die Komponenten des anthropogenen Antriebs. Die Elemente größter Unsicherheit sind die Sensitivität von CO2 (und die schnellen thermodynamischen Rückkopplungen), die natürliche interne Variabilität sowie auch Unbekannte wie z. B. solare Effekte.

Die Ungewissheit hinsichtlich der Sensitivität von CO2 wird vom IPCC anerkannt durch die Herabsetzung der unteren Grenze in ihrer ‚Wahrscheinlichkeits‘-Bandbreite; dies deutet auf eine Verringerung des Anteils des menschlichen Beitrags bei der Zuordnung. Der ‚Stillstand‘ lässt die Bedeutung der natürlichen internen Variabilität zunehmen. Andere Daten reflektieren die Bedeutung der natürlichen internen Variabilität, die N-G als nicht relevant eingestuft hat: Die Bedeutung der natürlichen Variabilität des Meeresspiegel-Anstiegs im 20. Jahrhundert, angezeigt durch die Spitze (bump) zur Mitte des Jahrhunderts, und die Bedeutung der natürlichen internen Variabilität bei der Bestimmung der Meereis-Ausdehnung in Arktis und Antarktis. Hinsichtlich des Rückgangs des arktischen Meereises habe ich im AR 5, Kapitel 10, das folgende Statement entdeckt:

Der Vergleich vom CCSM4-Ensemble mit beobachteten Trends zeigt, dass die interne Variabilität etwa die Hälfte des Eisrückgangs zwischen 1979 und 2005 ausgelöst haben könnte.

Also … All diese Beweise sprechen für eine Verringerung des anthropogenen Beitrags und für einen höheren Beitrag der natürlichen Variabilität, und ich würde sagen, dass diese Erniedrigung nicht als trivial angesehen werden sollte. Ja, die 44% bieten viel Raum für Spekulation, aber es ist nicht unvernünftig, auf der Grundlage der vom IPCC gelieferten Beweise zu sagen, dass die anthropogene Komponente unter 70%  und sogar unter 60% gefallen ist. In dieser Hinsicht scheint das Setzen einer Untergrenze des extremen Vertrauens auf 51% unhaltbar. Vor allem im Hinblick auf Unbekannte wie indirekten solaren Einflüssen.

Die Betrachtungsweise von N-G hinsichtlich der Relativ-Beiträge von natürlichen bzw. anthropogenen Antrieben habe ich hier in etwa auch angewandt, aber nicht genau. Ich bin folgendermaßen vorgegangen: Man betrachte zwei Perioden: 1975 bis 1998 (Erwärmung) und 1998 bis 2013 (Stillstand). Jetzt bringe man die Prozentanteile der natürlichen Variabilität (unter der Annahme von Erwärmung in der ersten und Abkühlung in der zweiten Periode) und den anthropogenen Antrieb ins Spiel, berücksichtige die relative Länge beider Perioden und schaue dann, welcher Prozentanteil-Rückgang für beide Perioden bedeutet. Und welche Implikationen sich aus einer weiteren Verlängerung des Stillstands um 10 Jahre ergeben. Man wird keine Zahlen erhalten, die über 75% für anthropogene Antriebe liegen.

Falls man mir eine Bandbreite von 44% als Arbeitsgrundlage gegeben hätte, würde ich die anthropogene Bandbreite zwischen 28% und 75% ansetzen. Meine Bandbreite überlappt sich mit der IPCC-Bandbreite von 51% bis 70%, aber ich lasse auch Zahlen unter 50% zu. Die hauptsächlichen Unsicherheiten scheinen alle in Richtung eines zunehmenden Beitrags durch natürliche Variabilität zu deuten.

Unter dem Strich: Mit der wachsenden Erkenntnis über die Bedeutung der natürlichen Variabilität ist es immer schwieriger, die unterste Grenze von 51% für den anthropogenen Antrieb aufrecht zu erhalten. Folglich sehe ich die behauptete Vertrauenszunahme auf ‚extrem wahrscheinlich‘ als nicht gerechtfertigt an.

Aktualisierung: N-G ist am Ende seines Beitrags auf diesen Essay eingegangen. Er klärt definitiv die Unterschiede in unserer Argumentation. Ohne über seine neuen Antworten ins Detail zu gehen, folgen hier einige seiner Statements.

Die relevante Frage für Politiker lautet, wie viel der jüngsten Erwärmung natürlichen natürlichen bzw. anthropogenen Ursprungs ist. Angesichts des Umstands, dass der anthropogene Antrieb sowohl positiv als auch negativ wirken kann, und dass auch die natürliche Variabilität zu verschiedenen Zeiten positiv oder negativ wirken kann, ist es wenig sinnvoll, die Relativbeiträge von Mensch bzw. Natur hinsichtlich der Erwärmung seit 1950 abzuschätzen (und die Erwärmung hat nicht vor 1975 begonnen).

Die Bedeutung des Wörtchens ‚most’ bietet viel Spielraum zur Interpretation. Klugerweise heißt es im AR 5 ‚über die Hälfte‘ anstatt ‚most‘. N-G sagt, dass dies bis zu 100% geht und dass der AR 5 als beste Schätzung 100% für den natürlichen Beitrag feststellt. Falls das stimmt, warum hat der AR 5 dann nicht von ‚nahezu alles‘ anstatt ‚über 50%‘ gersprochen?

N-G sagt: Wenn man beiden eine Bandbreite beimisst, haben sie ihren wahrscheinlichsten Wert irgendwo in der Mitte dieser Bandbreite. Um des Argumentes willen würde 51% bis 135% eine vernünftige Bandbreite sein.

Diese Art der Argumentation, bei der der anthropogene Beitrag 100% übersteigen soll, scheint mir sinnlos, selbst wenn man lediglich auf den Zeitraum 1975 bis 2000 schaut, in dem es einen eindeutigen Erwärmungstrend gibt. Es ist etwas, das aus der Übersensitivität der Modelle hinsichtlich des CO2-Antriebs kommt in Verbindung mit einer Übersensitivität bzgl. Aerosole.

Link: http://judithcurry.com/2014/01/23/the-logic-of-the-ipccs-attribution-statement/

Übersetzt von Chris Frey EIKE




Unsicherheiten bei Messungen der Wassertemperatur und in Datensätzen

Die erste Studie von John Kennedy vom UK Met Office enthält eine kompakte und dringend nötige Ungenauigkeits-Analyse der Messungen und Analysen von Wassertemperaturen SST:

Eine Übersicht über in-situ-Messungen und Datensätze der Wassertemperatur

John Kennedy

Abstract: Archive mit In-Situ-Messungen der Wassertemperatur (SST) reichen über 160 Jahre zurück. Die Qualität der Messungen ist variabel und die Fläche der vermessenen Ozeane begrenzt, vor allem zu Beginn der Reihe und während der beiden Weltkriege.

SST-Messungen und darauf basierende gerasterte Datensätze werden in vielen Untersuchungen verwendet, so dass das Verständnis für und die Abschätzung der Unsicherheiten vital ist. Ziel dieser Übersicht ist es, die verschiedenen Komponenten aufzuzeigen, die zu der Gesamt-Unsicherheit der SST-Messungen beitragen sowie der daraus abgeleiteten Datensätze. Dabei bezweckt sie auch, gegenwärtige Lücken des Verständnisses zu identifizieren. Unsicherheiten entstehen auf der Ebene individueller Messungen sowohl durch systematische als auch durch Zufallseffekte. Obwohl diese eingehend untersucht worden sind, schreitet die Verbesserung der Fehlermodelle voran. Jüngste Verbesserungen gab es hinsichtlich des Verständnisses allgegenwärtiger systematischer Fehler, die die Abschätzung langzeitlicher Trends und der Variabilität betreffen. Allerdings sind die Adjustierungen zur Minimierung dieser systematischen Fehler unsicher, und diese Unsicherheiten sind vor den siebziger Jahren größer und vor allem in den Zeiträumen um den Zweiten Weltkrieg, und zwar infolge des Fehlens zuverlässiger Metadaten. Die Unsicherheiten in Zusammenhang mit der Auswahl der statistischen Methoden, mit denen man global vollständige SST-Datensätze erzeugen möchte, wurden mit Hilfe unterschiedlicher Analysemethoden erkundet, aber sie enthalten nicht die jüngsten Einsichten von Messfehlern, und sie verlangen nach einem ordentlichen Eckpfeiler zum Vergleich, mit dem ihre Eignung objektiv bestimmt werden kann. Diesen Problemen kann man begegnen durch die Erzeugung neuer SST-Analysen [new end-to-end SST analyses] und durch die Gewinnung und Digitalisierung von Daten und Metadaten aus Schiffslogbüchern und anderer zeitnaher Unterlagen.

Veröffentlicht in Reviews of Geophysics, Link zum Abstract und zum ganzen Manuskript.

Auszüge:

Bei der Verwendung der SST-Beobachtungen und der darauf basierenden Analysen ist es wichtig, die darin enthaltenen Unsicherheiten sowie die Hypothesen und statistischen Methoden zu verstehen, die zur Erzeugung beigetragen haben. Mit dieser Übersicht beabsichtige ich, die verschiedenen Komponenten aufzuzeigen, die zu der Gesamtunsicherheit der SST-Messungen und der daraus abgeleiteten Datensätze beitragen. Auch Wissenslücken möchte ich damit schließen.

Abschnitt 2 beschreibt eine Klassifizierung der Unsicherheiten. Die Einteilungen nach Klassen sind nicht definitiv und auch nicht ganz eindeutig. Allerdings spiegeln sie die Art und Weise, mit der man sich dieser Unsicherheiten in der Literatur angenommen hat. Und sie bieten einen nützlichen Rahmen, an Unsicherheiten in den SST-Datensätzen zu denken. …

Während dieser gesamten Studie wird unterschieden zwischen einem Fehler und einer Unsicherheit. Der Fehler in einer Messung ist der Unterschied zwischen einem idealisierten „wahren Wert“ und dem gemessenen Wert. Er ist nicht bestimmbar. Die Unsicherheit einer Messung ist definiert als der „Parameter zusammen mit dem Ergebnis der Messung, der die Verteilung der Werte charakterisiert, die man vernünftigerweise der Messgröße zuordnen kann“. In diesem Sinne ist Unsicherheit in der folgenden Diskussion gemeint. Das ist nicht notwendigerweise so wie in den zitierten Studien. Allgemein wird das Wort Fehler als Synonym für Unsicherheit gesehen, wie es in den üblichen Phrasen Standardfehler und Analysefehler zum Ausdruck kommt.

Grob gesagt wurden Fehler in individuellen SST-Beobachtungen aufgeteilt in zwei Gruppen: beobachtete zufällige Fehler [random observational errors] und systematische Fehler. Obwohl dies ein bequemer Weg ist, mit den Unsicherheiten umzugehen, werden sich allgemein Fehler in den SST-Messungen ein wenig durch gleiche Charakteristiken auszeichnen.

Zufällige Fehler treten aus vielen Gründen auf: falsche Ablesung des Thermometers, Rundungsfehler, die Schwierigkeit, ein Thermometer mit größerer Präzision als der vorgegebenen Skaleneinteilung zu lesen, falsch aufgezeichnete Werte, Fehler bei der Digitalisierung und Rauschen des Messfühlers. Obwohl all diese Fehler eine Einzelmessung beeinträchtigen, tendieren sie dazu, sich gegenseitig aufzuheben, wenn große Datenmengen miteinander verglichen werden. Daher ist der Beitrag von beobachteten Randwert-Fehlern zu den Unsicherheiten der globalen mittleren SST viel kleiner als der Beitrag eines Randwertfehlers zur Unsicherheit einer Einzelbeobachtung, selbst in Jahren mit geringster Anzahl von Messungen. Dennoch können, wenn nur wenige Beobachtungen vorliegen, beobachtete Randwert-Fehler einen wichtigen Beitrag zur Gesamtunsicherheit leisten.

Systematische Fehler sind viel problematischer, weil deren Auswirkungen relativ ausgeprägter sind, wenn größere Datenmengen zusammengeführt werden. Systematische Fehler können auftreten, weil ein bestimmtes Thermometer falsch kalibriert ist oder an einer ungeeigneten Stelle steht. Egal wie viele Daten man mittelt von einem Thermometer, das wegen falscher Kalibrierung stets 1 K zu viel anzeigt, wird den Fehler nicht unter dieses Niveau reduzieren, es sei denn durch Zufall. Allerdings wird der systematische Fehler in vielen Fällen von der Umgebung des Thermometers im Einzelnen abhängen und daher von Schiff zu Schiff verschieden sein. In diesem Falle wird die Mittelbildung von Messungen vieler verschiedener Schiffe oder Bojen dazu tendieren, den Beitrag systematischer Fehler zur Unsicherheit des Mittels zu reduzieren.

Kennedy et al. (2011b) haben zwei Formen der Unsicherheit betrachtet: die grid-box sampling-Unsicherheit und large scale sampling-Unsicherheit.* Grid-box sampling-Unsicherheit bezieht sich auf die Unsicherheit der Schätzung der mittleren Wassertemperatur in einem Gebiet innerhalb einer Gitterbox mit einer endlichen und oftmals kleinen Anzahl von Messungen. Large scale Sampling-Unsicherheit bezieht sich auf die Unsicherheit, die aus der Abschätzung der Wassertemperatur eines größeren Gebietes resultieren mit vielen Gitterboxen ohne eine Messung. Obwohl diese beiden Arten von Unsicherheit eng zusammenhängen, ist es oft einfacher, die Grid-box sampling-Unsicherheit abzuschätzen, wo man es nur mit der Variabilität innerhalb einer Gitterbox zu tun hat. Bei der großräumigen Sampling-Unsicherheit muss man das große Spektrum der Variabilität im globalen Maßstab berücksichtigen.

Im Zusammenhang mit der Unsicherheit der Wassertemperatur-[Daten] sind unbekannte Unbekannte die Dinge, die man leicht übersieht. Ihrem Wesen nach sind unbekannte Unbekannte nicht quantifizierbar; sie repräsentieren die tieferen Unsicherheiten, die allen wissenschaftlichen Unternehmungen anhaften. Mit dieser Übersicht hoffe ich zeigen zu können, dass die Bandbreite für Revolutionen in unserem Verständnis begrenzt ist. Nichtsdestotrotz kann eine Verbesserung durch eine kontinuierliche Entwicklung unseres Verständnisses nur erfolgen, wenn wir akzeptieren, dass unser Verständnis unvollständig ist. Unbekannte Unbekannte werden nur mit kontinuierlichen, sorgfältigen und manchmal erfinderischen Untersuchungen der Daten und Metadaten ans Tageslicht kommen.

Kommentar von Judith Curry: Das Uncertain T. Monster [das ist hier als „Name“ zu verstehen] ist SEHR erfreut über diese umfassende Diskussion der Unsicherheiten. Die größten Herausforderungen (in der Studie ausführlich beschrieben) sind die Annahme struktureller Unsicherheiten der Analysemethoden und die Kombination aller Unsicherheiten. Jedwede Applikation dieser Daten (einschließlich der Trendanalyse) erfordert die Berücksichtigung dieser Dinge.

In der zweiten Studie wird versucht, das Unsicherheits-Monster zu schlachten.

Coverage bias in the HadCRUT4 temperature series and its impact on recent temperature trends

[etwa: Betrachtung des Bias’ in den Temperaturreihen von HadCRUT4 und dessen Auswirkungen auf jüngste Temperaturtrends]

Kevin Cowtan und Robert Way

Abstract: Eine unvollständige globale Abdeckung ist eine potentielle Bias-Quelle bei globalen Temperatur-Rekonstruktionen, falls die nicht mit Daten erfassten Gebiete nicht gleichmäßig auf der Planetenoberfläche verteilt sind. Der meistverwendete HadCRUT4-Datensatz erfasst im Mittel 84% des Globus‘ während der letzten Jahrzehnte, wobei sich die datenfreien Gebiete um die Pole und in Afrika konzentrieren. Drei bestehende Rekonstruktionen mit einer fast globalen Überdeckung werden untersucht, wobei jede zeigt, dass HadCRUT4 anfällig für Bias ist infolge der Behandlung datenfreier Gebiete. Zwei alternative Vorgehensweisen, die globale Temperatur zu rekonstruieren, werden untersucht. Eine davon basiert auf einem optimalen Interpolations-Algorithmus und die andere auf einer Hybrid-Methode [?] mit zusätzlichen Informationen aus Satellitendaten. Die Methoden werden validiert auf Basis ihrer Eignung, fehlende Daten zu rekonstruieren. Beide Methoden führen zu besseren Ergebnissen als wenn man die datenfreien Regionen ausschließt, wobei vor allem die Hybrid-Methode gut geeignet ist für diese datenfreien Gebiete. Temperaturtrends der Hybrid-Methode und der Rohdaten von HadCRUT4 werden verglichen. Der weithin genannte Trend seit 1997 ist nach der Hybrid-Methode zweieinhalb mal größer als der korrespondierende Trend in den HadCRUT4-Daten. Der Bias verursacht einen kühlenden Bias der Temperaturen der letzten Zeit verglichen mit Ende der neunziger Jahre. Trends, die in den Jahren 1997 oder 1998 beginnen, sind hinsichtlich des globalen Trends besonders verzerrt. Das wird verschärft durch das starke El Nino-Ereignis von 1997/1998, der auch dazu tendiert, Trends zu unterdrücken, die in jenen Jahren begannen.

Veröffentlicht von der Royal Meteorological Society, link zum abstract.

Es gibt eine Website mit Daten und Metadaten und auch ein erklärendes youtube video.

Im Guardian findet sich ein ausführlicher Artikel. Auszüge daraus:

Es gibt große Gebiete mit Lücken in der Datenerfassung, hauptsächlich in der Arktis, der Antarktis und Afrika, wo es nur ganz vereinzelt Stationen gibt, an denen die Temperatur gemessen wird.

Die Temperaturaufzeichnungen von NASA’s GISTEMP versuchen, diese Meldelücke zu schließen, indem Temperaturmessungen in der Umgebung auf diese Gebiete extrapoliert werden. Allerdings fehlen den NASA-Daten Korrekturen von der Art, wie Wassertemperaturen gemessen werden – ein Problem, das bislang nur vom Met. Office angegangen worden ist.

In ihrer Studie wenden Cowtan & Way das Kriging-Verfahren an, um die Lücken in den Messungen zu füllen, allerdings tun sie das sowohl für das Festland als auch für die Ozeane. In einem zweiten Anlauf nutzen sie auch die nahezu globale Erfassung von Satellitendaten, indem sie die Satelliten-Temperaturmessungen der University of Huntsville in Alabama (UAH) mit den verfügbaren Oberflächendaten kombinieren, um die Lücken mit einem ‚Hybrid‘-Datensatz zu füllen. Sie fanden heraus, dass das Kriging-Verfahren die besten Ergebnisse liefert, um Temperaturen über den Ozeanen zu bestimmen, während die Hybrid-Methode am Besten auf dem Festland und vor allem auch über Meereis funktioniert, das große Teile der datenfreien Gebiete ausmacht.

Cowtan & Way untersuchen die Behauptung eines ‚Stillstands‘ der globalen Erwärmung der letzten 16 Jahre, indem sie die Trends von 1997 bis 2012 betrachten. Während aus den HadCRUT4-Daten während dieser Zeit lediglich ein Trend von 0,046°C pro Jahrzehnt hervorgeht – die NASA nennt 0,08°C pro Dekade – schätzen das neue Kriging-Verfahren und die Hybrid-Datensätze einen Trend von jeweils 0,11°C bzw. 0,12°C pro Jahrzehnt.

Diese Ergebnisse zeigen, dass die Verlangsamung der Erwärmung der globalen mittleren Temperatur nicht so signifikant ist wie ursprünglich gedacht. Die Erwärmung hat sich verlangsamt, zum größten Teil deswegen, weil mehr der Erwärmung während des letzten Jahrzehnts in die Ozeane transferiert worden ist (hier). Allerdings erfolgt diese Art der vorübergehenden Verlangsamung der Erwärmung (und Beschleunigungen) auf regelmäßiger Basis infolge kurzfristiger natürlicher Einflüsse.

Die Ergebnisse dieser Studie haben auch Auswirkungen auf die jüngste Forschung. Zum Beispiel ergibt die Korrektur des jüngsten Kalt-Bias‘, dass die globale Temperatur nicht so weit vom Mittel der Modellprojektionen entfernt liegt als ursprünglich gedacht. Sie liegen mit Sicherheit noch innerhalb der Bandbreite der individuellen Temperatursimulationen der Klimamodelle (hier). Jüngste Studien, die ursprünglich zu dem Ergebnis gelangt waren, dass das globale Klima etwas weniger sensitiv auf zunehmende Treibhausgase reagiert als vorher gedacht, könnten ebenfalls die tatsächliche Klimasensitivität unterschätzt haben.

Das ist natürlich nur eine einzige Studie, beeilt sich Dr. Cowtan anzumerken.

„Kein schwieriges wissenschaftliches Problem wird jemals in einer einzigen Studie gelöst. Ich erwarte nicht, dass unsere Studie das letzte Wort hierzu ist, aber ich hoffe, dass wir die Diskussion vorangebracht haben“.

Beispiele für Tweets hierzu:

Dana Nuccitelli:  Diese neue Studie killt den Mythos des Stillstands der globalen Erwärmung.

John Kennedy: Die Ironie ist, dass die zum Zerschlagen der HadCRUT4-Daten verwendete Studie annimmt, dass HadCRUT4 dort korrekt ist, wo es Daten gibt.

Die Studie erregt viel Aufmerksamkeit in den Medien, und auch ich selbst bekomme Fragen von Reportern.

Beurteilung von Judith Curry

Schauen wir zuerst auf die drei Methoden, die sie anwenden, um Datenlücken zu füllen, vor allem in Afrika sowie in der Arktis und der Antarktis.

1. Kriging

2. UAH-Satellitenanalysen der Lufttemperatur

3. Reanalysen von NCAR NCEP

Der größte Unterschied in ihrem rekonstruierten globalen Mittel kommt aus der Arktis, so dass ich mich darauf konzentriere (wobei ich gerade diesbezüglich einige Erfahrung habe).

Erstens, Kriging. Das Kriging-Verfahren über Eis auf Land und Wasser macht physikalisch keinen Sinn. Während in der Studie Rigor et al. (2000) genannt werden, die ‚eine gewisse‘ Korrelation im Winter zwischen Festland und Meereis bis zu einer Höhe von 1000 km gefunden haben, würde ich in anderen Jahreszeiten keine Korrelation erwarten.

Zweitens, UAH-Satellitenanalysen. Sie sind unbrauchbar in höheren Breiten bei Temperaturinversionen, und sie sind unbrauchbar über Meereis, das räumlich eine sehr komplexe Verteilung der Abstrahlung im Mikrowellenbereich aufweist). Hoffentlich wird sich John Christy dieses Problems annehmen.

Drittens, Reanalysen in der Arktis. Man betrachte Abbildung 1 in dieser Studie, die einem das Gefühl für die Größenordnung der Gitterpunktfehler an einem Punkt während eines jährlichen Zyklus‘ gibt. Zwar sind sie in gewisser Weise brauchbar, aber Reanalysen sind unbrauchbar, um Trends aufzuzeigen, die temporären Inhomogenitäten in den Datensätzen geschuldet sind.

Also denke ich, dass die Analyse von Cowtan und Way nichts zusätzlich zu unserem Verständnis des globalen Temperaturfeldes und des ‚Stillstands‘ hinzufügt.

Unter dem Strich bleibt die Graphik von Ed Hawkins, in der Klimamodell-Simulationen in Gebieten verglichen werden, in denen Beobachtungen existieren. Das ist der geeignete Weg, um Klimamodelle mit Beobachtungen und Messungen zu vergleichen, und es bleibt die Tatsache, dass Klimamodelle und Beobachtungen stark voneinander abweichen.

Gibt es irgendetwas Nützliches von Cowtan und Way? Nun, sie machen deutlich, dass wir versuchen sollten, auf irgendeine Weise Temperatur-Variationen über dem Arktischen Ozean zu erfassen. Daran wird gegenwärtig geforscht.

Link: http://judithcurry.com/2013/11/13/uncertainty-in-sst-measurements-and-data-sets/

Übersetzt von Chris Frey EIKE