Vor kurzem in Nature veröffentlich:

The Likelihood of Recent Record Warmth
[Die Wahrscheinlichkeit der jüngsten Rekordwärme]

Autoren: M.E. Mann, S. Rahmstorf, B.A. Steinman, M. Tingley, and S.K. Miller

Zusammenfassung aus Nature, o.g. Link

2014 war nominell das wärmste Jahr der Aufzeichnung sowohl für den Globus als auch der Nordhalbkugel, basierend auf historischen Aufzeichnungen der letzten anderthalb Jahrhunderte (1), (2). Es war der jüngste in einer letzten Serie von Temperaturen Rekorden der letzten fünfzehn Jahre. Die Presse berichtet von Chancen wie eins zu 650 Millionen, dass die beobachteten Temperatur-aufzeichnungen auch in der Abwesenheit der von Menschen verursachten globalen Erwärmung auftreten würden. Ungeachtet der Frage, wie wahrscheinlich die beobachteten Temperaturaufzeichnungen sowohl mit als auch ohne Einfluss des Menschen gewesen sein könnten, ist das als eigene Frage interessant. Hier versuchen wir diese Frage mit einem semi-empirischen Ansatz anzugehen, die die neuesten (CMIP53) Klimamodellsimulationen mit Beobachtungen der globalen und hemisphärischen Temperatur kombiniert. Wir fanden, dass einzelne Rekordjahre und die beobachteten Rekord-Temperaturen in Abwesenheit vom Menschen verursachten Klimawandel extrem unwahrscheinlich stattgefunden haben könnten, wenn auch bei weitem nicht so unwahrscheinlich, wie nach den Presseberichten vorgeschlagen. Dieselben Rekordtemperaturen können im Gegensatz dazu sehr wahrscheinlich in Gegenwart von anthropogenem Klima stattgefunden haben.

Die Abhandlung wird einige mediale Aufmerksamkeit bekommen, hier sind zwei Artikel die die Bandbreite anzeigen:

Die Rekorde von heißen Jahren sind mit ziemlicher Sicherheit durch von Menschen gemachter Erwärmung verursacht

Die neue von Prof. Mann gemachte Studie zur Erderwärmung ist eine „wissenschaftlich wertlose Abhandlung“

Judith Curry: Mein Kommentar wurde für den Examiner Artikel erbeten:

Die Analyse von Mann et al. beschönigt 3 große Streitigkeiten in der Klimaforschung:

a) Fehler und Unsicherheiten in der Temperaturaufzeichnung, um den Rekord der Oberflächentemperaturen in Einklang zu bringen (die eine gewisse Erwärmung in den letzten Jahrzehnten zeigen) gegen den globalen Datensatz der Satelliten (die im Wesentlichen keine Erwärmung für die letzten 18 Jahre zeigen).

b) Die Klimamodelle, die deutlich zu heiß laufen. Für die letzten zehn Jahre waren die globalen durchschnittlichen Oberflächentemperaturen an der Unterseite des Toleranzbandes von Klimamodell – Simulationen gewesen. Selbst das sehr warme Jahr 2015 (anomal warm aufgrund eines sehr starken El Nino) ist kühler als die Vorhersage des Multi-Modell-Ensembles.

c) Wie die vom Menschen verursachte Klimavariabilität aus natürlichen Klimaschwankungen zu trennen ist, bleibt ein herausforderndes und ungelöstes Problem. Mann et al. verwendet die Methode von Steinmann et al. um die Zwangs Variabilität (zB. CO2, Sonne, Vulkane) abzuleiten, als Berechnung der internen Variabilität (zB. von Meereszirkulationen) als Rest. In der Tat, das von Steinmann et al verwendete Multi-Modell-Ensemble geht davon aus, dass alle jüngste Erwärmung durch CO2 angetrieben wurde. Meine Kollegen, angeführt von Sergey Kravtsov, veröffentlichten vor kurzem eine Abhandlung in Science; [siehe auch diesen blog post] und argumentieren, dass die Methode von Steinman et al. fehlerhaft ist und zu einer erheblichen Unterschätzung führt, der internen Variabilität der in großem Maßstab multi-dekadischen Ozean Schwingungen.

Die globalen Temperaturen haben sich insgesamt schon seit mehr als 200 Jahren erhöht. Menschliche verursachte CO2-Emissionen können eine erhebliche Menge dieser Erwärmung vor 1950 nicht erklären. Worauf die jüngsten Schwankungen der globalen Temperatur zu zuschreiben ist, ist weiterhin ein mit erheblichen Unsicherheiten behaftetes Problem. Die Arbeitsberichte des IPCC kommen zu dem Schluss: "mehr als die Hälfte" der Erwärmung seit 1950 wird durch den Menschen verursacht, mehr als die Hälfte Implizieren> 50% [wer weiß, was das tatsächlich bedeutet, siehe meine Meinungsverschiedenheiten mit Gavin]. Diese Einschätzung räumt Unsicherheiten in den Klimamodellen ein, die feststellen, dass seit 1950 alle Erwärmung durch den Menschen verursacht wird. Die Mann et al. Abhandlung geht von der Annahme aus, dass alle Erwärmung durch den Menschen verursacht wurde, nach unserem aktuellen Wissensstand ist das eine ungerechtfertigte Annahme.

Ein weiterer Kommentar, zu technisch, um ihn an den Examiner zu senden:

d) Die Verwendung des Multimodell-Ensemble auf diese Weise ist aus einer statistischen Perspektive einfach unangemessen. Siehe mein früheren Post: Wie sollen wir ein Ensemble von Klimamodelle deuten? Auszüge:

Wie sollen wir Angesichts der Unzulänglichkeiten der gegenwärtigen Klimamodelle, die Multi-Modell-Ensemble-Simulationen des Klimas im 21. Jahrhunderts interpretieren, die in den IPCC-Berichten verwendet werden? Dieses Ensemble-von-Gelegenheiten, besteht aus Modellen mit allgemein ähnlichen Strukturen, aber unterschiedlichen Parametern an Auswahl und Kalibrierung. McWilliams (2007) und Parker (2010) argumentieren, dass die derzeitigen Klimamodell Ensembles nicht darauf ausgelegt sind, gegenständliche Unsicherheit auf gründliche oder strategische Weise darzustellen.

Stainforth et al. (2007) argumentieren, dass Modell Unzulänglichkeiten und eine unzureichende Anzahl von Simulationen im Ensemble sinnvolle Wahrscheinlichkeitsverteilungen von der Frequenz [Häufigkeit / Dichte] der Modellergebnisse des zukünftigen Klimas erzeugen. Bei Stainforth et al. heißt es: "Bei gegebenen, nichtlinearen Modellen, die unter den gegenwärtigen Bedingungen große systematische Fehler haben, wurde keine Verbindung bezüglich der Verteilung der Modellzustände unter veränderten Bedingungen zu entscheidungsrelevanten Wahrscheinlichkeitsverteilungen auch nur annähernd feststellt. . . Darüber hinaus sind sie irreführend, weil die Schlussfolgerungen, in der Regel in Form von PDF-Dateien, viel mehr Vertrauen implizieren als die zugrunde liegenden Annahmen rechtfertigen."

[Hinweis des Übersetzers: Das Thema der Klimasimulationen gehört nicht zu meiner Expertise. Einige unter den Lesern können das bestimmt besser. Hier der Originaltext zu vorstehender Übersetzung:

Given nonlinear models with large systematic errors under current conditions, no connection has been even remotely established for relating the distribution of model states under altered conditions to decision-relevant probability distributions. . . Furthermore, they are liable to be misleading because the conclusions, usually in the form of PDFs, imply much greater confidence than the underlying assumptions justify.”]

Kommentar Nic Lewis:

Ich bat Nic Lewis um seinen Kommentar zu der Abhandlung, er schickte ein paar schnelle Anfangsüberlegungen dazu, die überarbeitete Version ist unten eingearbeitet:

  Hallo Judy, Es ist eine Abhandlung, die sehr wenig wissenschaftlichen Wert hat,   auch wenn sie zu 100% korrekt wäre. Ich habe einige besondere Bemerkungen:

1. Sie sagen: "Es ist angemessen, ein stationäres, stochastisches Zeitreihenmodell zu definieren, mit Parametern aus dem Rest der Serie geschätzt." Dies ist eine nicht unterstützte Behauptung. Im Gegenteil, diese Methode mit Restgrößen zwischen den aufgezeichneten und den im Modell simulierten Temperaturänderungen die interne Variabilität zu schätzen, ist unzureichend; der beobachtete Datensatz ist zu kurz um die interne Variabilität vollständig abzutasten und es gibt nur eine Instanz davon. Darüber hinaus sind die Modellparameter und ihre Antriebskräfte sehr wahrscheinlich aufeinander abgestimmt, so dass Modellsimulationen von historischen Zeiten die beobachteten Temperaturänderungen sehr gut treffen (zB. durch stark negative Einflüsse der Aerosole im dritten Viertel des 20. Jahrhunderts, um eine bessere Übereinstimmung mit dem „großen Pause" zu erreichen). Dadurch werden die Restgrößen künstlich reduziert. Schätzungen, die auf Testläufen über lange Perioden und nicht angetriebenen AOGCM [Atmosphere-Ocean General Circulation Model, gefunden hier] beruhen, routinemäßig zur Erkennung und Zuordnung von Studien durchgeführt, sind ein viel weniger unbefriedigendes Verfahren, allerdings bei weitem nicht perfekt.

2. Der bessere Weg anthropogene Antriebe von natürlichen Klimaänderungen und von internen Variabilitäten zu trennen ist es, einen Nachweis und eine Zuordnungsanalyse der Multimodelle durchzuführen und Rasterdaten zu verwenden und nicht nur globale oder der nördlichen Hemisphäre. Zwei gründlichere neuere Studien, die es so machten, wurden im IPCC AR5 Bericht verwendet, um ihre anthropogenen Aussagen [Zuordnung] zu erreichen. Diese Studie hat keine vergleichbare Komplexität und ermöglicht keine Aussagen stärker als in AR5 [bereits] gemacht wurden.

3. Sie sagen, dass eine Langzeitkorrelation (Langzeitspeicher) des Rauschens [noise process] nicht unterstützt wird: "Einige Forscher haben argumentiert, dass das Klima Rauschen erster Ordnung ein nichtstationäres Verhalten aufweisen könnte, dh. so genannte „Langzeit-Abhängigkeit". Analysen von modernen und Paläoklima Beobachtungen unterstützen jedoch den Schluss, dass es nur das anthropogene Klimawandel Signal ist, das nicht-stationäres Verhalten erster Ordnung zeigt, mit klimatischen Störgrößen am besten durch ein stationary noise model [stationäres Modell der Störgrößen(?); A.D.] beschrieben wird. Wir haben dennoch den zusätzlichen Fall von (3) „des anhaltenden“ roten Rauschens berücksichtigt, wobei das Rauschmodell die Roh – Beobachtungsreihe trifft."

[Rotes Rauschen: Leistungsdichte umgekehrt proportional zum Quadrat der Frequenz (~ 1/f^2)]

Drei Probleme gibt es:

a) Die "Analyse" die sie zitieren, ist ein redaktioneller Kommentar von Michael Mann.

b) Langzeitkorrelation betrifft im Allgemeinen NICHT das nicht-stationäre Verhalten erster Ordnung. Ein klassischer Fall von Langzeit-Abhängigkeit ist ein fraktionelles Differenzmodell, welches nicht-stationärer erster Ordnung ist unter der Bedingung, dass der Differenzparameter kleiner als 0,5 ist.

Ein solches Modell wird als eine physikalisch plausible, einfache Ein-Parameter-adjustierbare Charakterisierung der internen Klimaviariabilität betrachtet, genau wie das autoregressive Modell mit Abhängigkeit im Kurzfrist-Zeitraum, das sie verwenden (AR 1). … Imbers et al. fanden heraus, dass beide Modelle zu der internen Variabilität des Klimas angemessen im GMST über die historische Zeitperiode passten, dass jedoch im Modell mit der langfristigen Abhängigkeit die Unsicherheitsbereiche größer waren.

c) Das „anhaltende“ roten Rauschen Modell hat überhaupt keine Langzeitkorrelation (es ist ein AR (1) -Modell mit einem unterschiedlich geschätzten Autokorrelationsparameter), es bietet es wenig oder gar keine Prüfung der Auswirkungen der wahren internen Variabilität bei Langzeit Beziehungen.

4. Nichts in dieser Studie betrachtet die Wahrscheinlichkeit, dass die hohen, letzten aufgezeichneten Temperaturen den Fall ergeben haben, wo es eine anthropogene Komponente gibt, aber diese ist weniger stark als von den CMIP5 Modellen simuliert, d.h. weil sie zu sensitiv sind. Darüber hinaus haben einfache Modelle eine geringere Empfindlichkeit gegenüber Antrieben von Treibhausgasen, aber auch weniger Aerosol-Kühlung, als in den meisten CMIP5 Modellen und können eine genauso gute oder bessere Übereinstimmung mit den historischen Aufzeichnungen als das CMIP5 Multimodell bieten – besser, wenn bekannte, natürliche Multidekade Variabilität (AMO) berücksichtigt wird. Das ist / diese sind wirklich die Schlüsselfragen – ist die ganze Erwärmung über [den Zeitraum] der historischen Periode anthropogenen; und unter der Annahme, sie ist es auch, kann sie durch Modelle berücksichtigt werden, die weniger empfindlich auf steigende Konzentration von Treibhausgasen reagieren? Nur wenige ernsthafte Menschen behaupten in diesen Tagen, das kein Teil der Erwärmung in der historischen Periode eine anthropogene Ursache hat, was alles ist, was Manns Verfahren versuchen kann auszuschließen.

5. Ich denke, dass ihre Erweiterung der CMIP5 auf historische Simulationen 2005-2014 höchst fragwürdig ist. Sie sagen, "Wir haben die CMIP5 Serie bis 2014 erstreckt, die durch Referenz 13 bereitgestellten Schätzungen genutzt (Hintergrundinformationen)." Das heißt, ich glaube, dass sie die CMIP5 Modell Temperaturtrends nach 2005 reduzieren, um angeblich niedrigere [Temperaturen] als die tatsächlichen zu erzwingen. In der Simulation bezieht er sich stattdessen auf Referenz 12. Weder Ref. 12 noch Ref. 13 scheinen solche Schätzungen zu erzeugen. Ref 14, die in ihrer Referenzliste den Titel eines anderen Berichtes trägt (der korrekte Titel ist "Die Vereinbarkeit von Erwärmungstrends“) ist sehr wahrscheinlich falsch in der Schlussfolgerung, dass die Antriebe in CMIP5 Modellen in den letzten zehn Jahren oder so überschätzt wurden. Sie berücksichtigten nur Antriebe, von denen sie dachten, sie würden in den Modellen positiv geändert. Die Frage wurde in einer neueren Arbeit korrekt untersucht, Outen et al 2015, die alle Antriebe berücksichtigten und feststellten, dass es "keinen Beweis gibt, dass Fehler bei der Erklärung der Pause eine bedeutende Rolle spielen" – sie fanden einen vernachlässigbaren Unterschied, wenn sie die letzten Beobachtungs-Schätzungen substituieren mit diejenigen, die in einem CMIP5 Modell verwendet werden.

6. Sie verwenden modellierte SST (TOS) [Sea surface temperature] [Temperature over surface] eher als Lufttemperatur (TAS) in 2m Höhe über dem Ozean. Im Prinzip ist dies sinnvoll, wenn es mit HadCRUT4 und alte Versionen von GISTEMP verglichen wird, aber nicht mit der neuesten Version von GISTEMP oder mit den neuen NOAA (Karl et al – MLOST?) Aufzeichnungen, da es die SST anpasst um, mit der oberflächennahen Lufttemperatur zu übereinstimmen auf einer dekadischen und multidekadischen Zeitskala.

Ich hoffe das hilft Dir, Nic

Fazit, Judith Curry 

Die Abhandlung von Mann et al. produziert sicherlich eine schlagkräftige Titelzeile und es ist eine Herausforderung, die Probleme mit der Abhandlung an die Öffentlichkeit zu kommunizieren.

Wie ich es sehe, ist diese Arbeit eine riesige Übung im Zirkelschluss:

1. Nehmen Sie an, die globalen Oberflächentemperatur Schätzungen sind zutreffend; dann ignorieren sie die Unterschiede mit den durch atmosphärische Satelliten gemessenen Temperaturen.

2. Nehmen Sie an, dass CMIP5 Multimodell Ensemble kann verwendet werden, um Wahrscheinlichkeiten genau darzustellen.

3. Nehmen Sie an, die CMIP5 Modelle simulieren eine ausreichend interne Variabilität

4. Nehmen Sie an, externe Daten über Antriebe sind ausreichend sicher,

5. Nehmen Sie an, dass die Klimamodelle im Wesentlichen 100% der jüngsten Erwärmung durch CO2 korrekt erklären,

Damit die Mann et al. Analyse funktioniert, muss man ihm jede dieser fünf Annahmen abkaufen; jede davon ist fraglich, in unterschiedlichem Ausmaß.

Erschienen auf Judith Curry am 26. Januar 2016

Übersetzt durch Andreas Demmig

http://judithcurry.com/2016/01/26/on-the-likelihood-of-recent-record-warmth/

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken