Unser Planet verbrennt – wirklich? Oder nur wegen (bewusst) falsch ausge­werteter Proxi­daten?

Ein fingierter Hockeystick

Der besagte “NoTricksZone Artikel”:
NoTricksZone 13. December 2018:
[1] A Fabricated ‘Uptick’? Marcott’s 2013 Hockey Stick Graph Debunked By Marcott’s Own 2011 Ph.D Thesis referiert, wie Studienautoren aus Proxidaten zu Ergebnissen – hier eine Bestätigung der Hockeystick-Temperaturkurve – gelangten, obwohl die angegebenen Daten dieser Aussage (und weiteren in der Studie) eklatant widersprechen.
Trotzdem wurde diese Studie bisher nicht zurückgezogen. Im Gegenteil, sie wird von Klimaforschern und dem IPCC – zum Beispiel im aktuellen SR1.5 Sonderbericht – weiterhin zitiert.

Anmerkung: Der Autor hat in der folgenden Darstellung im Wesentlichen (orientierend übersetzte) Ausschnitte des Originalartikels von NoTricksZone verwendet und nur ab und zu erklärende Ergänzungen zugefügt. Die (fast durchgängigen) Zitate sind nicht extra kursiv ausgewiesen. Man möge dies aus Gründen der besseren Lesbarkeit entschuldigen.

NoTricksZone, Artikel: [1] Unmasking Marcott’s “Uptick”
Die besagte Studie listet in ihrer Zusammenfassung (Summary):
Marcott et al., 2013 [2] (in grober Übersetzung): Eine Rekonstruktion der regionalen und globalen Temperatur der letzten 11.300 Jahre
… Temperaturrekonstruktionen der letzten 1500 Jahre deuten darauf hin, dass die jüngste Erwärmung in dieser Zeit beispiellos ist. Hier bieten wir eine breitere Perspektive, indem wir regionale und globale Temperaturanomalien der letzten 11.300 Jahre aus 73 global verteilten Datensätzen rekonstruieren. Auf die frühe Holozän (vor 10.000 bis 5000 Jahren) Wärme folgt eine Abkühlung von ~0,7°C durch das mittlere bis späte Holozän (vor <5000 Jahren), die in den kühlsten Temperaturen des Holozäns während der Kleinen Eiszeit vor etwa 200 Jahren gipfelt. Diese Abkühlung ist weitgehend mit einer Veränderung von ~2°C im Nordatlantik verbunden. Die aktuellen, globalen Temperaturen des letzten Jahrzehnts haben die interglazialen Spitzenwerte noch nicht überschritten, sind aber wärmer als während ~75% der holozänen Temperaturgeschichte. Die Modellprognosen des Zwischenstaatlichen Ausschusses für Klimaänderungen für 2100 übersteigen die volle Verteilung der Holozäntemperatur unter allen plausiblen Szenarien für Treibhausgasemissionen.

Bild 1 Hockeysticks aus [2] Marcott et al., 2013. Auszug aus Fig. 1. Comparison of different methods and reconstructions of global and hemispheric temperature anomalies. (E and F) Published temperature anomaly reconstructions that have been smoothed with a 100-yearcenteredrunning mean, Mann08Global (2), Mann08NH (2), Moberg05 (3), WA07 (8), Huange04 (36), and plotted with our global temperature stacks [blue band as in (A)].
[1]: In einem von RealClimate.org veröffentlichten Interview mit Marcott wurde anerkannt, dass der „Aufwärtstrend“ keine Rekonstruktion auf globaler Ebene darstellt, da er auf wenigen Proxy-Datensätzen beruht und keine statistische Signifikanz aufweist (Bild 2).

Anmerkung: Es wurde im Ansatz ein ähnliches Verfahren wie beim „Original“-Hockestick angewendet. Nachdem die Weiterführung der Proxidaten das (gewünschte?) Ergebnis nicht lieferte, wurde das „notwendige“ Ende – ein steiler Temperaturanstieg“ – durch Selektion der Daten und statistische Kunstgriffe „erzeugt“.

Bild 2 [1]
[1]: Trotz dieses eingeräumten Mangels an Belegen für den „Aufwärtstrend“ des 20. Jahrhunderts wude die Marcott et al (2013) „Hockeyschläger“ -förmige Kurve von anderen Autoren fast 700-mal zitiert.
Die gleichen 73 global verteilten Proxy-Temperaturaufzeichnungen, welche zur Herstellung von Marcott et al. (2013) verwendet wurden, wurden zwei Jahre zuvor in Shaun Marcotts Doktorarbeit an der Oregon State University vorgestellt.
Anmerkung: Der Haupt-Studienautor, Shaun Marcott, führte die grundlegenden Arbeiten der Studie von 2013 bereits zuvor in seiner Dissertation durch (Marcott 2011). Darin ist die Ausarbeitung natürlich wesentlich detaillierter dargestellt und auch die Daten hinterlegt. Allerdings ist das Ergebnis in der Dissertation trotz der gleichen Daten vollkommen anders, als zwei Jahre später in der Studie (2013) dargestellt.

Marcott, 2011: “ Spätpleistozän und Holozängletscher und Klimawandel”

Anmerkung: Nun bezieht sich die Beschreibung auf die Dissertation.
[1]: Interessanterweise weisen die meisten Diagramme keine Temperaturen auf, die sich bis zur rechten Y-Achse erstrecken, was darauf hindeutet, dass die meisten der 73 Proxy-Datensätze nicht das moderne Zeitalter umfassen und eine Analyse der relativen Temperaturunterschiede zwischen Vergangenheit und Gegenwart ausschließen.
Tatsächlich haben nur 32 der 73 Diagramme allgemeine Trendlinien, die sich im Marcott-Dissertationspapier auf „0 Jahre BP“ (Anmerkung: Before Present, also vor der aktuellen Zeit) erstrecken. Der Rest endet irgendwo im späten Holozän (oder früher). Die 32 Rekonstruktionen, die sich bis zur rechten Y-Achse erstrecken, sind unten dargestellt.

Bild 3 [1] Die Temperaturproxis, welche in Marcott, 2011 [3] bis zur aktuellen Zeit reichen

Gleiche Daten, widersprüchliche Ergebnisse

[1]: Wie schon ein flüchtiger Blick auf die 32 Rekonstruktionen verdeutlicht, zeigte Marcott’s Dissertation aus dem Jahr 2011 nach einem bescheidenen Holozän-Abkühlungstrend keinen Temperaturanstieg im 20. Jahrhundert.

Eine Zusammenstellung aller 73 Holozän-Temperaturtrends der letzten 11.300 Jahre ist in einem komprimierten Diagramm auf Seite 204 (Anmerkung: hier Bild 4) dargestellt. Beachten Sie, dass die große Amplitude von Änderungen, die Temperaturänderungen von mehreren Grad Celsius in den Proxy-Rekonstruktionen enthalten, durch viel kleinere, variable Bereiche ersetzt wurden (Zehntel Grad).

Bild 4 [1] Temperaturrekonstruktion in Marcott, 2011 (Dissertation) [3]
[1]: Im Gegensatz dazu zeigt die Studie von 2013 – unter Verwendung der gleichen Temperaturrekonstruktionen – den explosionsartigen Temperaturanstieg in der modernen Zeit, der von Klimaaktivisten populär gemacht wird (Bild 5).

Bild 5 Hockeystick aus [2] Marcott et al., 2013 (andere Darstellung in der Studie von Bild 1)

Bild 6 Die Verläufe von Bild 4 und von Bild 5 vom Autor übereinander kopiert. Anm.: Der Verlauf Bild 5 (Rot) wurde vom Autor aus der violetten Linie von Bild 5 nachgezeichnet

[1]: Auf diesen krassen Widerspruch zwischen Marcotts Veröffentlichungen von 2011 und 2013 wies Professor Paul Matthews in einem von der Zeitschrift Science veröffentlichten Kommentar hin:

Bild 7 Einspruch von Professor Paul Matthews zu den Thesen von [2]. Quelle: Image Source: Science [1] Link: Science

Grobe Übersetzung (Text, Bild 7)
Kurzkommentar zu „Rekonstruktion der regionalen und globalen Temperatur in den letzten 11.300 Jahren“
Paul Matthews, School of Mathematical Sciences, Universität Nottingham, Großbritannien, 16. März 2013
… Dieses Papier enthält mehrere Grafiken, die langsame Temperaturschwankungen in den letzten 10000 Jahren zeigen, gefolgt von einem rapiden Anstieg im 20. Jahrhundert. Dieser Aspekt des Papiers wurde überraschenderweise von Klimaaktivisten und Journalisten begeistert aufgenommen. Es ist jedoch klar, dass dieses Ergebnis falsch ist. Beachten Sie die folgenden Punkte:
1. Die Proxy-Daten in der beiliegenden Excel-Datei zeigen im 20. Jahrhundert keinen dramatischen Anstieg. Dies kann einfach durch Zeichnen der gelieferten Daten überprüft werden.
2. Die Abbildungen S5 und S6 zeigen überhaupt keinen Aufschwung.
3. Die Doktorarbeit des Erstautors verwendet die gleichen Datensätze und stellt ähnliche Diagramme dar, ohne jedoch einen starken Anstieg zu erkennen. Diese frühere, widersprüchliche Arbeit wird im Papier nicht zitiert.
4. In dem ergänzenden Material wird nicht erläutert, wie die Grafiken erstellt wurden. Die Mittelwertbildung der Proxy-Daten führt zu einem Diagramm, das dem in der Dissertation ähnelt, und unterscheidet sich stark von dem in der Arbeit. Warum wurde keine detaillierte Erklärung des Verfahrens gemeldet? Liefern die Autoren den verwendeten Code?

Jede dieser Aussagen würde ernsthafte Fragen über den Wahrheitsgehalt dieser Arbeit aufwerfen. Zusammengenommen lassen sie keinen Zweifel daran, dass die vorgelegten Ergebnisse falsch und irreführend sind. Das Papier sollte sofort zurückgezogen werden. Die Tatsache, dass ein so offensichtlich fehlerhaftes Papier veröffentlicht wurde, wirft ernsthafte Fragen über die Autoren, die Qualität des Reviewprozesses und die Handhabung des Papiers durch die Redakteure von “science” auf.

[1]: Marcott’s ausgewählte Rekonstruktionen zeigen wärmeren Temperaturen um 2 ° C während des frühen bis mittleren Holozäns
Interessanterweise zeigen die Rekonstruktionen bei der Temperatur, die Marcott 2011 sowohl für seine Doktorarbeit als auch für seine wissenschaftliche Arbeit von 2013 verwendet hat, dass:
(a) die Temperaturen im frühen bis mittleren Holozän im Durchschnitt um mehr als 2 ° C wärmer waren als heute und
(b ) Sie variierten im gesamten Holozän um mehrere
Grad Celsius statt nur um den Zehntelgrad, der sowohl in den Papieren von 2011 als auch von 2013 gezeigt wurde.

Von den 32 Rekonstruktionen, die sich in Marcotts Papieren auf die Y-Achse erstrecken, definieren 25 eindeutig die moderne oder gegenwärtige Temperatur relativ zur Vergangenheit. Die anderen 7 hatten keine modernen oder aktuellen Temperaturwerte, die im paper eindeutig definiert waren. Bei den 25 Rekonstruktionen, die einen Vergleich ermöglichten, wurden die ermittelten Spitzentemperaturen des Holozäns mit durchschnittlich 2,3 ° C wärmer als heute ermittelt. Dieses Ergebnis widerspricht völlig den Behauptungen von Marcotts Papier von 2013.

Beispiele der wärmeren, als heutigen Aufzeichnungen

[1]: Vielleicht hat Marcott den Inhalt der von ihm referierten Papiere nicht genau genug untersucht. Hätte er dies getan, hätte er vielleicht bemerkt, dass bei Rodrigues et al., 2009 die derzeitige Temperatur in der iberischen Region bei 15 ° C liegt, was etwa 1 ° C kälter ist als während der Kleinen Eiszeit (16 ° C) C) und 4 ° C kälter als die Spitzentemperatur des Holozäns .

Bild 8 [1]
Isono et al. (2009) berichten, dass die „gegenwärtige“ Temperatur 16,7 ° C beträgt, aber die Spitzentemperatur des Holozäns 21,4 ° C betrug, was bedeutet, dass die Temperaturen im Nordpazifik vor etwa 7000 oder 8000 Jahren etwa 5 ° C wärmer waren.

Bild 9 [1]
Sogar eine Grafik, die anfänglich einen deutlichen Temperaturanstieg in der Neuzeit zu unterstützen scheint (ein „Aufwärtstrend“) wie Nielsen et al. (2010) sagt tatsächlich, dass der Holozän-Peak 4 ° C wärmer war als der heutige Mittelwert in der Studie.

Bild 10 [1]
Wie Bendle und Rosell-Mele, 2007 (Bild 11), hervorheben , könnte die Amplitude früherer Temperaturänderungen innerhalb von Jahrhunderten bis zu 10 ° C betragen. Dies scheint der Behauptung zu widersprechen, dass die Holozän-Temperaturvariabilität viel weniger ausgeprägt war (einige Zehntel Grad über Jahrtausende).

Bild 11 [1]

Bemerkenswert ist, dass keine der untersuchten Rekonstruktionen die Behauptung stützt, dass moderne Temperaturen ungewöhnlich hoch oder beispiellos sind.

Wenn die Beweise aus dem Paläoklima keinen kürzlich ausgesprochenen „Aufwärtstrend“ unterstützen, woher kommt er?

[1]: Marcott selbst hat eingeräumt, dass der „Aufwärtstrend“ des 20. Jahrhunderts nur auf „wenigen“ Rekonstruktionen beruht, die weder global repräsentativ, noch statistisch robust sind. Das wirft die Fragen auf:
1. Welcher Datensatz wird verwendet, um die Darstellung eines ausgeprägten Temperaturanstiegs zu rechtfertigen?
2. Wurde das „Uptick“ hergestellt?
3. Auf welcher Grundlage veröffentlichte die Zeitschrift
Science die Ausgabe 2013 eines Papiers, dem ein früheres Werk desselben Autors widerspricht?
Anmerkung: Im Originalartikel kommt nun eine Listung der Studien mit den (interessanten) Proxigrafiken, welche alle zeigen, dass der (re-)konstruierte Hockeystick daraus nicht abgeleitet werden kann.

Wie geht es mit den Daten weiter?

[1]: Allein in den letzten Jahren wurden hunderte (neue Studien) von Menschen veröffentlicht, die zeigen, dass der Großteil des Holozäns um 2-5 ° C wärmer war als heute.
Beginnen Sie mit diesen Links unten. Wir aktualisieren regelmäßig. Die Links sind auch dauerhaft auf unserer rechten Seitenleiste zu finden („450 Diagramme ohne Erwärmung“ 1 und 2).
~ 300 Grafiken von 2017 und 2018
~ 300 Grafiken aus den 2000er Jahren bis 2016

Damit ist die Zitierung aus dem „NoTricksZone”-Artikel zu Ende.

Ergänzende Zitate aus einer vergleichbaren Rezension zur Marcott-Studie (2013) von „kaltesonne“

kaltesonne 17. April 2013: [5] Nach drei Wochen erneutem Hockeyschläger-Alarm war der Spuk wieder vorbei und der Skandal perfekt: Wie Jungforscher Shaun Marcott die Medienwelt hinters Licht führte

Bild 12 Bild 4 in anderer Darstellung in der Dissertation (2011). “kaltesonne”: [5] Abbildung 5: Globale Temperaturentwicklung der letzten 2000 Jahre laut Marcotts Doktorarbeit 2011. Es fehlt die ominöse moderne Wärmespitze, das Herzstück des späteren Science Artikels.
kaltesonne”: [5] … Offensichtlich hat die Marcott-Truppe aber auch an den Originaldaten herumgedoktort, um die Wärmespitze herbeizuzaubern. Spürnasen wie Steve McIntyre fanden schließlich, was passiert war. Marcott nahm sich die „künstlerische Freiheit“ die Altersdatierungen unliebsamer Datenpunkte zu modifizieren, um die gewünschte Hockey Stick-Geometrie zu erhalten. Schauen Sie sich das mal an:

Bild 13 [5] Abbildung 7: Originaltemperaturdaten (rot) und was daraus nach phantasievoller Modifikation durch Marcott et al. wurde. Quelle: Climate Audit.

Niemand von den etablierten Fachpersonen und Medien bemerkte die Manipulationen

kaltesonne: [5] Ein Skandal und keine Folgen?
Der Skandal ist aufgeflogen und trotzdem scheint es keinen der ehemaligen Berichterstatter der Studie zu interessieren. Tagesspiegel, Stuttgarter Zeitung und Klimaretter haben noch immer ihren Originalartikel im Netz (Anmerkung: Auch heute, nach 15 Jahren noch), ohne Hinweis oder Addendum auf den sinnentstellenden Fehler. Die klimaalarmistische Gemeinde verstummte plötzlich und ging auf Tauchstation. Klimarealisten wie Ross McKittrick mussten die Lücke füllen und die Öffentlichkeit über die veränderte Sachlage in der Presse informieren.

Und heute nach ca. 15 Jahren, tut der IPCC im SR1.5 so, als gäbe es diese Kritik an der Studie nicht

In dem noch rechtzeitig vor dem gerade erst vergangenen Klimagipfel herausgekommenem – alarmistischen – Klima-Zwischenbericht SR1.5 des IPCC haben die vielen Autoren und beteiligten Wissenschaftler scheinbar immer noch nichts von den beschriebenen Ungereimtheiten (eher gravierenden Fehlern) festgestellt, beziehungsweise ignorieren sie einfach, weil deren Ergebnis zum Beleg der Alarmierung „erforderlich“ ist.
Gleich im Kapitel 1 am Anfang wird sie als Beleg angezogen:
SR1.5, Chapter 1: Framing and Context
Box 1.1: The Anthropocene: Strengthening the global response to 1.5°C global warming
Introduction
… Since 1970 the global average temperaturehas been rising at a rate of 1.7°C per century, compared to a long-term decline over the past 7,000 years at a baseline rate of 0.01°C per century (NOAA 2016,
Marcott et al. 2013). These global-level rates of human-driven change far exceed the rates of change driven by geophysical or biosphere forces that have altered the Earth System trajectory in the past …

Ein schöner Beleg, dass es dem IPCC in seinen Berichten nicht um die Darstellung von Wahrheiten geht.

Wie sehen es Klima(Folgen)Forscher vom PIK

Herr Rahmstorf konnte sich damals gar nicht genug über die in seinen Augen hohe Qualität dieser Studie auslassen. Das Ergebnis entsprach schließlich genau seiner “Vorstellung”. Zudem bestätigt es ja (in seinen Augen) auch die damals gerade abgeschlossene, große Proxyanalysesammlung Pages2k (die für den Autor nur bestätig, dass die Proxiqualitäten so schlecht sind, dass sie für historische Aussagen nicht angewendet werden können – siehe Anlage). Auch kann man auf seinem Blog nachlesen, wie Herr Rahmstorf die Ergenisse von Studien ignoriert, welche zeigen, dass in der Klimavergangenheit wesentlich höhere Temperaturschwankungen vorkamen (Bild 11).

Anbei Auszüge aus der damaligen Bewertung von Professor Rahmstorf in seinem Klimablog:
Stefan Rahmstorf, 17. Juni 2013:
[4] BLOG KlimaLounge Nah dran am Wandel

Paläoklima: Das ganze Holozän
Über die letzten Jahrzehnte haben zahlreiche Forscher in mühsamer Kleinarbeit viele Datenreihen z.B. aus Sedimentbohrungen in der Tiefsee gewonnen, analysiert, datiert, kalibriert usw. Nun haben Shaun Marcott und Kollegen erstmals 73 solcher Datenreihen aus aller Welt zu einer globalen Temperaturrekonstruktion für das Holozän zusammengefügt. Oder genau genommen zu vielen: sie haben rund zwanzig verschiedene Mittelungsmethoden ausprobiert und außerdem 1000 Monte-Carlo-Simulationen mit zufälligen Datierungsfehlern der einzelnen Datenreihen durchgeführt, um die Robustheit ihrer Ergebnisse zu belegen.
Um das Hauptergebnis gleich vorweg zu nehmen, es sieht so aus:

Bild 14 [4] Abb. 1. Blaue Kurve: Globale Temperaturrekonstruktion aus Proxydaten von Marcott et al., Science 2013. Gezeigt ist die RegEM-Version – nennenswerte Unterschiede zwischen den Varianten mit verschiedenen Mittelungsmethoden gibt es allerdings ohnehin nur gegen Ende, wo die Zahl der Proxyreihen abnimmt, wo der Verlauf aber aus instrumentellen Messungen gut bekannt ist. Rote Kurve: Globale Temperatur aus Messdaten (HadCRU). Grafik: Klaus Bittermann.

Vergleich mit PAGES 2k
Die verwendeten Daten unterscheiden sich von denen des PAGES 2k Projekts (nur Land-Daten) hauptsächlich darin, dass sie zu 80% aus Tiefseesedimenten stammen …

… Insgesamt ist die neue Marcott-Rekonstruktion weitestgehend unabhängig von und schön komplementär zu der PAGES 2k Rekonstruktion: Ozean statt Land, ganz andere Methodik. Daher ist ein Vergleich zwischen beiden interessant:

Bild 15 [4] Abb. 3. Die letzten zweitausend Jahre von Abb. 1 im Vergleich mit der PAGES-Rekonstruktion (grün), die in Teil 1 von uns näher erläutert wird. Grafik: Klaus Bittermann.
Wie wir sehen, ergeben beide Rekonstruktions-Verfahren konsistente Ergebnisse. Dass der Verlauf in den letzten eintausend Jahren praktisch identisch ist, ist übrigens auch eine weitere Bestätigung des „Hockeyschlägers“ von Mann et al. 1999 – siehe Teil 2 dieser Serie, Die Hockeyschläger-Debatte.
Entscheidend ist vielmehr, dass der rasche Anstieg im 20. Jahrhundert im ganzen Holozän einmalig ist. Ob das wirklich so ist, darüber wurde nach Erscheinen des Papers in den Blogs intensiv diskutiert. Denn die Proxydaten haben nur eine grobe zeitliche Auflösung – hätten sie es überhaupt erfasst, wenn es im Holozän schon einmal eine ähnlich rasche Erwärmung gegeben hat?
Ich halte es aus drei Gründen für praktisch sicher, dass es eine so rasche Erwärmung noch nicht gab:
Es gibt auch eine Reihe von hochaufgelösten Proxydaten über das Holozän, z.B. die Eiskerne aus Grönland und der Antarktis. Sie zeigen einen glatten Verlauf ohne eine frühere starke Erwärmung wie im 20. Jahrhundert. Hätte es eine solche
globale Erwärmung schon einmal gegeben, müsste man sie zumindest in einigen Datenreihen deutlich sehen, selbst wenn sie in der gemittelten Marcott-Kurve untergeht.
… Es gibt keinerlei Hinweise in den Forcing-Daten, dass ein solcher Klimaantrieb plötzlich aufgetaucht und wieder verschwunden sein könnte, und ich kann mir auch nicht vorstellen, was der Mechanismus gewesen sein sollte …

Schlimmer geht`s nimmer

Ein NGO, Climate Analytics, führt im WEB einen sogannten „ClimateActioTracker“, welcher Temperaturprojektionen anzeigt. Man ahnt, welche Institution die Daten „speist“, es ist das PIC, welches auf deren Homepage als „Collaborateur“ gelistet ist.

Bild 16 Temperaturszenarien des ClimateActionTracker

Fügt man die Temperatur-Verlaufsdaten von Marcott at al. (2013) und die des ClimateActionTrackers zusammen, dann „verbrennt“ die Welt demnächst wohl tatsächlich.

Bild 17 Verlauf Marcott at al (2013) und ClimateActionTracker Projektion Baseline. Vom Autor zusammengestellt

Nun stellt sich die Frage: Wer glaubt solchen Darstellungen, gegenüber denen die Vorhersagen von Zukunfts-Grausamkeiten im Alten Testament fast als „Kinderkram“ erscheinen?
Zum Beispiel die Redaktion der Tageszeitung des Autors: Auf eine Anfrage zu den Datenquellen ihrer während des Klimagipfels (ausschließlich) höchst alarmistischen Kommentare kam die Antwort der Redaktion, dass Angaben von diesem ClimateActionTracker übernommen wurden.
Wenn es das PIK simuliert und der IPCC nicht widersprochen hat, kann es ja niemals falsch sein? Gott verweigerte den Menschen damals den Apfel vom „Baum der Erkenntnis“, damit sie nicht gescheiter würden. Der Ökogot muss nichts verweigern, seine Anhänger machen es freiwillig.

Klimapropaganda in den „Öffentlich-Rechtlichen“

Etwas abweichend, aber zum Thema Propagand passend, ein Trailer des BR. Ein Wissenschaftserzähler wechselt sich dort bei der Klimapropaganda inzwischen mit Harald Lesch ab.
Im Trailer geht es um den wieder einmal „immer schneller“ steigenden Meeresspiegel.
BR, Sendung: Gut zu wissen
Land unter – Meeresspiegel steigen immer schneller. Dass die Meeresspiegel weltweit ansteigen, ist nichts Neues. Eine aktuelle Studie zeigt nun, dass das offenbar viel schneller passiert als bislang angenommen. „Gut zu wissen“ erklärt warum.

Bild 18 Screenshot von der BR Mediathek. Link zum Trailer: BR Mediathek

Erklär-Stichworte in der Sendung:
BR, Sendung: … Die Malediven gehen unter … weil es so warm ist, taut das Grönlandeis seit ein paar Jahren fast auf der gesamten Fläche an … und es wird noch schlimmer werden, wenn irgendwann das Festlandeis am Südpol, also in der Antarktis schmilzt … das Festlandeis könnte dann schneller nachrutschen und im Meer schmelzen … CO2 muss reduziert werden … denn irgendwann ist es soweit und dann schmilzt das Grönlandeis komplett und dann steigt der Meeresspiegel um 7 m …

Damit endet die „Information“. Außer alarmistischen Statements und Schlagwörtern ist keinerlei wirkliche Detaillierung zum Thema, schon gar nicht eine kritische, oder zur eigenen Meinungsbildung anregende, enthalten.

Diese deshalb kurz nachgeholt:
„Immer schnellerer Pegelanstieg“: Bezug genommen wird wohl auf die in den folgenden Rezensionen analysierte Pegelalarm-Studie:
EIKE 7. März 2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2 und Abschluss)
EIKE 06.03.2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 1)
EIKE 01.06.2017: Der Meerespegel steigt drei Mal so stark an – ohne dass sich an dessen Verlauf etwas verändert hat
Judit Curry: Sea level rise acceleration (or not): Part IV – Satellite era record
„Malediven gehen unter“: Sie denken in Wirklichkeit gar nicht daran „unterzugehen“. So ist es inzwischen von vielen Wissenschaftlern – und vor allem auch mit dem aktuellen Seepegelverlauf – belegt. „Unter“ gehen sie ausschließlich in entsprechend parametrierten Computersimulationen:
EIKE 03.11.2017: Das Wochenende, an dem die Welt (wieder) begann unterzugehen

EIKE 18.10.2016: Wie steht es um den Untergang der Marshall-Inseln?
EIKE 17.09.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven
Dass das Grönlandeis – und das der Antarktis- komplett schmilzt, kann natürlich passieren. Falls es dazu käme, dauert es allerdings mehrere Tausend Jahre. Aktuell nimmt das Eis in der Antarktis jedoch eher zu:
kaltesonne:
Neuer Kälterekord in der Antarktis: fast minus 100 Grad (4.7.2018)
EIKE 14.03.2017: Auch das Antarktiseis schrumpft – aber nur partiell – und nur im Sommer!
kaltesonne: Alfred-Wegener-Institut: Ostantarktischer Eisschild ist stabil und wächst sogar leicht an (5.5.2015)

Um den „erforderlichen“ Untergang trotzdem zu erreichen, propagiert das PIK die „Gletscher Rutsch-Hypothese“. Nur mittels dieser Hypothese lässt sich eine Verringerung des Anatarktischen Festlandeises überhaupt simulieren:
ntv, 22. Mai 2017: Kettenreaktion teilweise im Gang Düstere Prognosen fürs Antarktis-Schelfeis
Selbst wenn Schelfeis zum Teil auf dem Wasser schwimmt, hat es fatale Folgen, wenn es schmilzt: Inlandseis fließt dann schneller ab. In der Antarktis hat dieser Vorgang bereits begonnen – und könnte sich dramatisch beschleunigen …
Forscher des Potsdamer Institutes für Klimafolgenforschung haben berechnet, wie es bei einem unverminderten Klimawandel um das Filchner-Ronne-Schelfeis und die dahinterliegenden Eisströme steht. Das Ergebnis: Innerhalb von 200 Jahren könnte der weltweite Meeresspiegel um bis zu 40 Zentimeter steigen.
Was man sogar anhand des ntv-Alarmartikels herauslesen kann: Selbst das über-alarmistische PIK simuliert hier einen Pegelanstieg, der weit unter allen alarmistischen Szenarien liegt (20 cm in 200 Jahren ist fast in der Größenordnung des natürlichen Anstiegs [7]).

Ob dann allerdings die (simulierte) Erwärung wirklich kommt, steht in den Sternen. Viel wahrscheinlicher beginnt bald die nächste – bereits überfällige – Eiszeit. In den Klimasimulationen ist diese nur nicht einprogrammiert, im Erdklima jedoch seit einer Million Jahren:
EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

Was zeigt das Video allerdings wieder? Es ist leider nicht so, dass eine Ausbildung in MINT-Fächern wirklich gegen Alarmismus hilft, wie es viele EIKE-Blogeinträge meinen.
Der Redakteur des Videos ist studierter Physiker. Er weiß also bestimmt zwischen Simulation und Messergebnissen zu unterscheiden. Er weiß aber auch, mit welcher Darstellung man in Deutschland im öffentlichen Bereich am sichersten aufsteigt und viel Geld (und Ehre) verdient. Wie Herr Lesch und Herr Schellnhuber hat auch er sich deshalb ausschließlich dafür entschieden. Alle zeigen, dass man dann (und nur dann) fast schon „automatisch“ mit Arbeiten, Ehrungen, Posten und Geld regelrecht „beworfen“ wird.
Wie perfekt das funktioniert, wurde gerade erst an einer anderen Stelle präsentiert:
Achgut:
Claas Relotius oder: Der Spiegel lässt die Hosen runter

Die Diskussion der möglichen Wirklichkeit

Auf eines weisen alle Medien und „offiziellen“, bedeutet, von öffentlichen Geldern abhängigen, Klima(Folgen)Forscher mit Bedacht nicht hin: Dass an dem, das ganze Schreckensszenario alleine bestimmendem Forcingwert aktuell massiv „gerüttelt“ wird.

Sowieso gibt es in Deutschland seit vielen Jahren eine konsequente Unterdrückung kritischer Meinungen (nicht nur) zum AGW-Klimawandel. Eine GRÜNE „Vorzeigedame“ sagte es ganz deutlich, was sie davon hält, wenn jemand es wagt, Klimadogmen in Frage zu stellen:
EIKE 11. Dezember 2017: Bärbel Höhn beschwert sich, dass Herr Kachelmann Fakten über den Klimawandel erzählt
Eine Regierungsberaterin vermittelte es über ihre Homepage:
EIKE 09.04.2017: Klima-Lügendetektor:
Wer der Bildzeitung sagt, Eisbären würden nicht durch den Klimawandel sterben, ist ein schlimmer Demagoge
Und eine Umweltministerin (Frau Hedricks) wusste sogar, dass es in Deutschland gar keine (von ihrer) abweichendeMeinung geben kann:
EIKE 27.03.2017:
Nee, bei uns gibt´s keine Klimaleugner

Dabei fällt mit der aktuellen Diskussion zum wirklichen Forcing das ganze Alarmgebäude in sich zusammen:
kaltesonne, 24.12.2018:
Die Sonne im November 2018 und die Sache mit der „Pause“
EIKE 17. Dezember 2018: Klimasensitivität –  Wer rechnet hier falsch ? 
[x] EIKE 21.02.2018: Und plötzlich wird die Zukunft glücklicher
Bei einem wahrscheinlichen Forcingwert in der Gegend von 1,5 … 1 Grad besteht keinerlei alarmistischer Anlass mehr. Sollten die dazu noch Recht behalten, welche eine Größenordnung von ca. 0,6 Grad vermuten, dann bleibt es nicht mehr als ein Rauschen im Mülleimer der Erdgeschichte.

Proxibilder Kontinente/Großregionen

Wer immer noch (wie beispielsweise Professor Rahmstorf vom PIK) glaubt, mit Proxis ließen sich (ausreichend genaue) Aussagen zur Klimahistorie ableiten, der sollte sich solche einfach ansehen, wie es der Autor gemacht hat:
Zum Beispiel in einer exemplarischen Sichtung von Temperaturproxis des größten, von Herrn Rahmstor gelobten, internationalen Proxi-Rekonstruktions- und Sammlungsprojektes, Pages2k:
EIKE
11.05.2016: [6] Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k
Das gilt nicht nur für Temperatur-, sondern auch für Pegelproxis. Dort allerdings weniger wegen fehlender Genauigkeit, sondern der Erkenntnis, dass das aktuell gemessene – und als AGW-alarmistisch publizierte – “Pegelwackeln” im historischen Pegelrauschen verschwindet:
EIKE 07.0
4.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Beispielhaft nun die TemperaturProxi-Globaldiagramme für die letzten 2.000 Jahre aus dem Pages2k-Projekt für einzelne Kontinente. Die “Farbspaghettis” sind die übereinander gelegten Temperatur-Proxikurven der gleichen Region. Dabei soll es sich um die besten Proxis handeln (Kritik dazu siehe [6]).
Daraus bitte ableiten, dasss:
ein so schneller und großer Temperaturanstieg wie aktuell noch nie in der Vergangenheit vorgekommen ist,
es noch nie (in den letzten 2000 Jahren) so warm war wie heute,
die Erde unaufhaltsam der “Selbstverbrennung” entgegengeht, da Temperatur-Kipppunkte bereits überschritten sind.

Bild 19 Antarctic. Quelle: Pages2k-Viewer

Bild 20 Arctic. Quelle: Pages2k-Viewer

Bild 21 Australien. Quelle: Pages2k-Viewer

Bild 22 Europe. Quelle: Pages2k-Viewer

Bild 23 Asia. Quelle: Pages2k-Viewer

Bild 24 NAmerica. Quelle: Pages2k-Viewer

Bild 25 SAmerica. Quelle: Pages2k-Viewer

Quellen

[1] NoTricksZone 13. December 2018: A Fabricated ‘Uptick’? Marcott’s 2013 Hockey Stick Graph Debunked By Marcott’s Own 2011 Ph.D Thesis

[2] Marcott et al., 2013: A Reconstruction of Regional and Global Temperature for the Past 11,300 Years

[3] Marcott, 2011: Late Pleistocene and Holocene Glacier and Climate Change

[4] Stefan Rahmstorf, 17. Juni 2013: BLOG KlimaLounge Nah dran am Wandel Paläoklima: Das ganze Holozän

[5] kaltesonne 17. April 2013: Nach drei Wochen erneutem Hockeyschläger-Alarm war der Spuk wieder vorbei und der Skandal perfekt: Wie Jungforscher Shaun Marcott die Medienwelt hinters Licht führte

[6] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k

[7] EIKE 29.09.2016: Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 1




@NYT lügt hinsichtlich Klima – indem die Vergangenheit verschwiegen wird

[*In diesem Beitrag tauchen noch öfter Zahlenangaben durchweg in den in den USA gebräuchlichen Einheiten auf. Des besseren Verständnisses halber werden diese Angaben hier aber gleich in europäische Einheiten umgerechnet. Anm. d. Übers.]

[**Vermutlich war das in Mitteleuropa anders, aber es geht hier auch darum aufzuzeigen, dass Deutschland eben nicht der Nabel der Welt ist und dass das Wetter auf der ganzen Welt nicht so ist (oder zu sein hat) wie in Deutschland. Anm. d. Übers.]

In irgendeinem Zusammenhang dazu sandte mir ein Leser einen Link zu einer interaktiven Website der New York Times, welche von sich behauptet, die Anzahl der Tage mit einer Temperatur über 32°C [in US-Einheiten ist das eine Art ,magische Schwelle‘ von 90°F. Anm. d. Übers.] pro Jahr für Städte im ganzen Land zu listen. Die Ergebnisse werden für die Times zusammengestellt von einer Institution (man könnte es auch eine Umwelt-Propagandagruppe nennen) mit der Bezeichnung Climate Impacts Lab.

https://www.nytimes.com/interactive/2018/08/30/climate/how-much-hotter-is-your-hometown.html?action=click&module=Most%20Popular&pgtype=Homepage

Da ich viele Datensätze dieser Art zusammengestellt habe, schaute ich mal darauf. Die Website fragt nach der Stadt und dem Geburtsjahr und präsentiert dann eine Zeitreihe, die vermeintlich die Anzahl der Tage mit einer Temperatur über 32°C pro Jahr zeigt seit Geburt und wie die Anzahl dieser Tage zugenommen hat.

Obwohl ich in Kalifornien geboren wurde, habe ich mehr Jahre in Huntsville gelebt als an irgendeinem anderen Ort. Also gab ich mein Geburtsdatum ein und Huntsville als meine Geburtsstadt. Sofort wurde dann aber mein Argwohn geweckt, als der erscheinende Datensatz erst im Jahre 1960 begann, also einige Jahre nach meiner Geburt! Offensichtlich wollen die Times und das Climate Impact Lab nichts mit Menschen zu tun haben, die älter sind als 58 Jahre.

Für Huntsville und Montgomery sind hier die entsprechenden Ergebnisse – irgendwie Angst erzeugend. Es scheint, dass die Anzahl der Tage mit über 32°C auf das höchste Niveau jemals gestiegen ist. Man macht mir weis, dass es im Jahre 1960 45 derartige Tage in Huntsville gegeben hat, in 2017 dagegen 57 Tage, Tendenz steigend.

Um das alles noch ängstigender zu machen, beziehen sie Klimamodell-Projektionen bis zum Jahr 2090 mit ein, um mir zu sagen, dass wenn ich im Jahre 2040 80 Jahre alt werde es 73 derartige heiße Tage in Huntsville geben wird, siehe Graphik. Hilfe!

Bevor man nun sein Haus verkauft und nach Kanada zieht, betrachte man die wahre Geschichte. Nachdem ich viele Klima-Datensätze für Alabama erstellt hatte, einige davon ab dem Jahr 1850, wusste ich, dass die Story in der Times darauf ausgelegt war, Alarm zu schreien und die Behauptung voranzutreiben, dass Menschen, welche auf Kohlenstoffbasis Energie verbrauchen, die ihnen zu einem besseren Leben verhilft, unsere Sommer sogar noch schlimmer macht. Vorsicht,liebe Leser, dieses Webtool ist nicht darauf angelegt, genaue Informationen zu verbreiten.

Erstens, Klimadaten für Alabama begannen im 19. Jahrhundert, nicht erst im Jahre 1960. Im Jahre 2016 veröffentlichten Dr. Richard McNider (mein Vorgänger) und ich selbst eine sorgfältig konstruierte Zeitreihe der Sommertemperaturen für den Staat ab 1883 unter Einbeziehung zahlreicher Stationsaufzeichnungen. Einige davon hatten noch nicht einmal Eingang in die Datensätze der [US-]Bundesregierung gefunden, also die Hauptquelle für Institutionen wie das Climate Impact Lab. Ich habe diese Arbeiten aktualisiert bis einschließlich Sommer 2018 – das Ergebnis zeigt die Graphik unten. Diese zeigt nicht nur, dass die Tagestemperaturen im Sommer im Verlauf der letzten 136 Jahre nicht nur nicht gestiegen, sondern sogar gesunken sind. Hmmm … wenn man sich diese Graphik so betrachtet – warum wohl hat Climate Impact Lab das Jahr 1960 als Startjahr seiner Graphik gewählt?

Wir gingen in jener Studie noch einen Schritt weiter und wiesen nach, dass Klimamodelle komplett falsch lagen bei der Replikation des Abwärtstrends der Temperatur in Alabama während der letzten 120 Jahre – 76 unterschiedliche Modelle mit einer Fehlerquote von 100%. Sollte man diesen gleichen Modellen trauen, dass sie uns so Auskunft über die Zukunft geben wie die Times es behauptet? Warum nur hat man die Modelle nicht auf deren Validität untersucht?

Was ist nun also mit den „heißen“ (oder, wie wir in Alabama sagen „typischen“) Tagen mit einer Temperatur über 32°C? Für Alabama und die gesamte Nation habe ich seit 1895 die mittlere Anzahl pro Station für jedes Jahr berechnet. Die Ergebnisse unten sprechen für sich (es gibt keine Zunahme der Anzahl von Tagen mit über 32°C) – und sie stellen die Falschinformation bloß, welche die Times hinaus posaunt.

Genaue Informationen hinsichtlich des Klimas in Alabama zu verbreiten ist genau das, was wir in unserem Büro machen. Tatsächlich kann ich bei Heranziehen der realen Daten nicht einmal ansatzweise die Bilder reproduzieren, mit denen das Climate Impact Lab aufwartet und welchen zufolge die Zehnerjahre dieses Jahrhunderts die meisten Tage mit 32°C verzeichnete – ich vermute mal, sie verwenden mehr theoretische Ergebnisse als sich an Beobachtungen zu orientieren. Man beachte, wie glatt ihre Graphik ist im Vergleich zu den realen Daten – das sieht mir sehr unecht aus.

Dies ist ein wunderbarer Staat, in dem wir leben, in dem Menschen das Leben genießen und Industrien sich entfalten können – und unsere Klimabedingungen sind einer der Gründe, warum wir so erfolgreich sind bzgl. des Zuzugs weiterer Menschen. Gelegentlich jedoch kommen Zeiten, in welchen ich Behauptungen von jenen entgegen treten muss, deren Absicht nicht die Information ist, sondern das Schüren falschen Alarms – dies ist normalerweise dann der Fall, wenn Umwelt-Interessengruppen eine Presseerklärung fabrizieren, deren dramatische Inhalte von willigen Medien verbreitet werden (ohne jede Fakten-Recherche). Jetzt ist eine solche Zeit, und ich bin sicher, dass es nicht das letzte Mal ist.

Striche

Citation:

Christy, J.R. and R.T. McNider, 2016: Time series construction of summer surface temperatures for Alabama, 1883-2014, and comparisons with tropospheric temperature and climate model simulations.  J. Applied Meteor. Climatology, DOI: 10.1175/JAMC-D-15-0287.1.

Data from the New York Times website accessed on 5 and 6 September 2018.

– John Christy
The Alabama State Climatologist

Link: https://wattsupwiththat.com/2018/09/12/nyt-lies-about-climate-by-omitting-the-past/




Temperatur-Manipulationen mildern Wutanfälle

Normalerweise habe ich den RSS-Datensatz als meine Hauptquelle herangezogen, weil es der erste war, der seine monatlichen Daten veröffentlichte. Im November 2015 jedoch, nachdem der Datensatz seit 18 Jahren und 9 Monaten keine Erwärmung gezeigt hatte, zeigte Senator Ted Cruz unsere Graphik der RSS-Daten bei einer Anhörung im US-Senat, um eben diesen Stillstand zu erklären. Die Demokraten waren darob sichtlich ungehalten und suchten nichts Geringeres als einen Admiral aus, der – erfolglos – versuchen sollte, die Graphik zu widerlegen. Ich habe bereits damals vorausgesagt, dass Carl Mears, der Betreiber jenes Datensatzes, zur rechten Zeit alle drei längsten terrestrischen Datensätze kopieren – GISS, NOAA und HadCRUT4 – und diese so überarbeiten würde, dass der lange Stillstand daraus verschwinden würde. Damit sollte eine erheblich größere globale Erwärmung suggeriert werden als die ursprünglich veröffentlichten Daten gezeigt hatten.

Der lineare Regressionstrend kleinster Quadrate im Satelliten-Datensatz RSS der globalen mittleren Temperatur-Anomalie zeigt vor der Revision seit 18 Jahren und 9 Monaten keine Erwärmung (von Februar 1997 bis Oktober 2015), obwohl ein Drittel aller anthropogenen Antriebe während genau dieses Zeitraumes angefallen war. Ted Cruz forderte im November 2015 mit dieser Graphik die „Demokraten“ im Senat heraus.

Wie könnte es anders sein – gleich im nächsten Monat unterwarf Dr. Mears (der die RSS-Website dazu missbraucht, Skeptiker der globalen Erwärmung als „Leugner“ zu verunglimpfen) seinen Datensatz dem Adjustozän, indem er den RSS-Datensatz gebührend bearbeitete, um den Stillstand zu eliminieren. Zweifellos ist er von seinen Klima-extremistischen Gesinnungsgenossen bedrängt worden, etwas zu tun, um die Skeptiker zum Schweigen zu bringen, damit diese nicht mehr auf das auffallende Fehlen jedweder globaler Erwärmung hinweisen während eines Zeitraumes, als ein Drittel des menschlichen Einflusses auf das Klima angefallen war. Und siehe da, auf einmal war der Stillstand weg:

Willkommen im Adjustozän: RSS fügt 1 K pro Jahrhundert dem hinzu, was einst der Stillstand war.

Wie sich herausstellte, hätte sich Dr. sMear* nicht die Mühe machen brauchen, den Stillstand zu beseitigen. Ein großes El Niño-Ereignis machte das sowieso. Allerdings zeigt eine interessante Analyse von Prof. Fritz Vahrenholt und Dr Sebastian Lüning hier, dass dieser Datensatz nicht länger als zuverlässig gelten kann, nachdem man ihn derartig manipuliert hatte. Die Analyse bringt ans Tageslicht, wie der RSS Datensatz bearbeitet worden war. Die zwei Wissenschaftler kommen zu dem Ergebnis, dass die Nachbearbeitung [ex-post-facto post-processing] der Satellitendaten seitens RSS unzureichend gerechtfertigt worden ist:

[*Wieder ein solches Wortspiel. Der Lord verschiebt das ,s‘ im Namen nach vorne, so dass sich ,smear‘ ergibt = Dr. Schmiere. Anm. d. Übers.]

Monatliche globale mittlere Temperaturanomalien von RSS vom Januar 1979 bis Juni 2018. Die nicht manipulierte Version ist in rot, die bearbeitete Version in blau dargestellt. Die dicken Kurven sind über 37 Monate geglättete Mittelwerte. Graphik von Prof. Ole Humlum von seiner guten Website www.climate4you.com.

RSS hob die zuvor gemessenen Temperaturen seit dem Jahr 2000 an, was die Erwärmungsrate insgesamt seit 1979 um 0,15 K, nämlich von 0,62 K auf jetzt 0,77 K hat zunehmen lassen:

Man hätte es nicht machen dürfen, aber Lüning und Vahrenholt haben entdeckt, dass RSS das getan hat.

Im Jahr bevor die RSS-Daten Mannipuliert [in Anspielung auf Prof. Mann, Anm. d. Übers.] worden waren, hatte RSS begonnen, sich ernsthaft für die Länge des Stillstands zu interessieren. Dr. Mears schrieb darüber auf seinem Blog hier. Seine damaligen Ergebnisse sind hier zusammengefasst:

Ergebnis von 33 IPCC-Modellen (türkis) im Vergleich zur gemessenen globalen Temperaturänderung seitens RSS (schwarz), 1979 bis 2014.

Darauf bekam Dr. Mears einen Temperatur-Wutanfall und schrieb:

„Die Leugner lieben es zu vermuten, dass die Ursache der Diskrepanz zwischen Modellen und Beobachtungen in irgendeinem Problem mit der zugrunde liegenden Modellphysik zu finden ist, und sie verwerfen jede andere Art der Erklärung. Dies verleitet sie zu der – sehr wahrscheinlich falschen – Schlussfolgerung, dass die langfristige Klima-Sensitivität viel geringer ist als gegenwärtig gedacht“.

Dr. Mears räumte die wachsende Diskrepanz zwischen RSS-Daten und Modellen ein, aber er unterstellte uns, dass wir den Startzeitpunkt der globalen Temperatur-Graphik cherry-picked hätten:

„Jüngst ging aus einer Anzahl von Artikeln in der Mainstream-Presse hervor, dass es während der letzten zwei Jahrzehnte kaum eine oder gar keine Änderung der globalen mittleren Temperatur gegeben hat. Deswegen hat man uns viele Fragen gestellt nach dem Motto ,Ich sah diese Graphik auf einer Leugner-Website. Sind das wirklich Ihre Daten?‘ Während die Endpunkte in einigen dieser Berichte cherry-picked worden sind, um den Beweis noch besser aussehen zu lassen, gibt es kaum Zweifel daran, dass die Erwärmungsrate seit Ende der neunziger Jahre geringer ist als die meisten IPCC AR5-Simulationen des historischen Klimas prophezeit hatten. Damit liegt das starke ENSO-Ereignis am Beginn ihrer Zeitreihe, was zu einer geringen linearen Anpassung mit der geringstmöglichen Steigung führte“.

Tatsächlich wurde die durch den El Nino ausgelöste Wärmespitze 1998 fast vollständig ausgeglichen durch zwei Faktoren: die nicht unähnliche Spitze des El Nino 2010 und der schieren Länge des Stillstands selbst.

Graphiken von Werner Brozek und Prof. Brown der RSS- und GISS-Temperaturen. Beide beginnen 1997 und 2000. In jedem Datensatz sind die Trendlinien nahezu identisch. Folglich ist die Aussage, dass der Stillstand dem El Nino 1998 geschuldet ist, falsch.

Obige Graphik demonstriert, dass die Trends der globalen Temperatur im RSS-Datensatz vor der Manipulation und im GISS-Datensatz genau gleich waren, und zwar vor und nach dem El Nino 1998. Dies zeigt, dass die Länge des Stillstands ausreichend war, um den imaginären Einfluss zu nullifizieren.

Es ist nützlich, die Erwärmung seit 1990, genommen als Mittel der vier Adjustozän-Datensätze (RSS, GISS, NCEI und HadCRUT4: erste Graphik unten) zu vergleichen mit dem UAH-Datensatz, den Lüning und Vahrenholt als zuverlässig einstufen (zweite Graphik unten):

Mittel der monatlichen mittleren Temperaturanomalien nach RSS, GISS, NCEI und HadCRUT4 von Januar 1990 bis Juni 2018 (dunkelblaue Zackenkurve) und des linearen Regressionstrends kleinster Quadrate (hellblaue Linie) im Vergleich mit dem geringeren der beiden IPCC-Mittelfrist-Prophezeiungen (Bereich in orange).

Anomalien der unteren Troposphäre nebst Trend von Januar 1990 bis Juni 2018 nach UAH.

Man sieht, dass der Erwärmungstrend in den Adjustozän-Datensätzen über den Zeitraum fast 50% größer ist als im UAH-Datensatz, welchen Lüning und Vahrenholt zuverlässiger finden.

Nach den Adjustierungen zeigt der RSS-Datensatz seit 1990 jetzt eine stärkere Erwärmung als jeder andere Datensatz, die sogar noch über den vielfach manipulierten GISS-Datensatz hinausgeht:

Auf ein Jahrhundert umgerechnete globale Erwärmungstrends von Januar 1990 bis Juni 2018. Die beiden mittelfristigen IPCC-Prophezeiungen für das Szenario ,Business as Usual‘ und unsere überarbeiteten Prognosen nach Korrektur des Fehlers in der Definition von Temperatur-Rückkopplung seitens der offiziellen Klimatologie (weiße Beschriftung) im Vergleich zu beobachteten Raten (blaue Beschriftung) aus den fünf am weitesten zurückreichenden Datensätzen.

Man beachte, dass die RSS-Erwärmungsrate seit 1990 nahezu doppelt so hoch ist wie bei UAH, wo man dessen globale Erwärmungsrate vor zwei oder drei Jahren nach unten korrigiert hatte. Und doch beruhen beide Datensätze auf genau den gleichen Satellitendaten. Die Differenz von fast 1 K pro Jahrhundert zeigt, wie stark Temperatur-Datensätze auf subjektive Adjustierungen reagieren anstatt objektive Messungen zu repräsentieren.

Sollen wir einmal zynisch annehmen, dass alle diese Adjustierungen – RSS, GISS, NCEI und HadCRUT4 zum Wärmeren, UAH leicht zum Kälteren – die politische Ausrichtung der jeweiligen Datensatz-Besitzer reflektieren? Lüning und Vahrenholt können keine rationale Rechtfertigung finden für die große und plötzliche Änderung des RSS-Datensatzes so bald, nachdem Ted Cruz unsere den Stillstand zeigende RSS-Graphik für eine Anhörung vor dem Senat herangezogen hatte. Allerdings konnten sie auch nicht feststellen, dass die UAH-Daten fälschlich adjustiert worden waren. Sie empfehlen UAH als in Ordnung.

Die MofB [= Monckton of Brenchley]-Nachhersage basiert auf zwei Fakten: Wir berechnen die Charney-Sensitivität auf lediglich 1,17 K pro CO2-Verdoppelung, und außerdem ist in vielen Modellen die prognostizierte Gleichgewichts-Erwärmung bei einer Verdoppelung der CO2-Konzentration die Charney-Sensitivität in etwa gleich der flüchtigen Erwärmung aus allen anthropogenen Quellen im 21. Jahrhundert. Dies ist daher eine provisorische Prognose, aber sie ist konsistenter mit dem UAH-Datensatz als mit den fragwürdigen Datensätzen des Adjustozäns.

Das Ausmaß der Manipulation in manchen Datensätzen ist enorm. Eine andere erhellende Graphik vom nimmermüden Professor Humlum folgt hier. Er publiziert eine große Vielfalt von Graphiken zur globalen Erwärmung in seinem öffentlich zugänglichen monatlichen Report bei climate4you.com:

Mann-gemachte globale Erwärmung: wie GISS die offensichtliche Erwärmung um über die Hälfte verstärkte

Das GISS, dessen Datensatz inzwischen derartig politisiert ist, dass er vollkommen wertlos ist, sMeared die Daten über einen Zeitraum von weniger als sieben Jahren, nämlich von März 2010 bis Dezember 2017, und zwar so erheblich, dass die zutage tretende Erwärmungsrate über das 20. Jahrhundert über ein halb mal so groß ist. Die größte Änderung erfolgte im März 2013, zu einem Zeitpunkt also, an dem der lang dauernde Stillstand bereits zu einer permanenten Peinlichkeit der offiziellen Klimatologie geworden war. Nur einen Monat zuvor hat war jetzt in Ungnade gefallene Chef des IPCC, der Eisenbahn-Ingenieur Pachauri, einer der ersten Sprecher der offiziellen Klimatologie, welcher die Existenz des Stillstandes einräumte. Das tat er auf einem Vortrag in Melbourne, worüber in der Folge nur in einer einzigen Zeitung berichtet worden war, nämlich The Australian. Diese Zeitung steht schon lange unter Verdacht, weil sie immer wieder beide Seiten der Klimadebatte hat zu Wort kommen lässt.

Faszinierend ist, dass selbst nach den erheblichen Datenmanipulationen zum Ende des Stillstandes in vier der fünf langzeitlichen Datensätze, und obwohl der Trend in allen Datensätzen aufgrund des starken El Nino vor ein paar Jahren ebenfalls gestiegen ist, die Original-Prophezeiungen des IPCC aus dem Jahr 1990, welche die Angst erzeugen sollten, ungeheuer exzessiv bleiben.

Inzwischen hat jedoch das IPCC selbst erkannt, wie absurd seine Original-Prophezeiungen waren. Im 5. Zustandsbericht 2013 wurde die Abhängigkeit von Modellen erstmals aufgegeben und ersetzt durch etwas, das als „Experten-Beurteilung“ ihrer überhitzten Resultate bezeichnet wird. Außerdem wurde die mittelfristige Prognose halbiert. Damit inkonsistent hat man jedoch sorgfältig dessen Gleichgewichts-Prophezeiung – 1,5 bis 4,5 K pro CO2-Verdoppelung – beschämend unverändert gelassen.

Die unzähligen Apologeten des IPCC in den Marxstream-Medien haben eine Parteilinie entwickelt, um das erbärmliche prognostische Scheitern der IPCC-Prophezeiungen aus dem Jahr 1990 hinweg zu erklären. Ja sie verstiegen sich absolut fälschlich sogar dazu zu versuchen, dass alles „noch viel, viel schlimmer sei als wir jemals gedacht haben“.

Eine seiner allgemeinsten Entschuldigungen, vorgebracht im Büßer-Tonfall, nämlich die monotone Darbietung und das Zombie-artige Auftreten der unglaublich Gehirngewaschenen ist, dass dank des UN Framework Convention on Global Government Climate Change die CO2-Reduktion so eindrucksvoll war, dass die Emissionen jetzt deutlich unter dem Business-as-Usual-Szenario im IPCC-Bericht 1990 liegen und viel näher dem weniger extremistischen Szenario B.

Mit Verlaub – nein! Obwohl die Aufzeichnung der CO2-Emissionen in das Adjustozän hineingezogen worden ist dergestalt, dass jetzt so getan wird, als ob – per impossibile – die globalen CO2-Emissionen während der letzten fünf Jahre unverändert geblieben waren, zeigt der jüngste Bericht zu diesen Emissionen diese als fast konsistent mit dem usiness-as-Usual-Szenario des IPCC (1990).

Globale CO2-Emissionen folgen dem Business-as-Usual-Szenario A des IPCC.

Als man mit dieser lügnerischen Ausrede gescheitert war, entwickelte die Partei eine interessante Rückzugslinie mit der Auswirkung, dass obwohl die Emissionen nicht dem IPCC-Szenario B folgten, die resultierenden Strahlungsantriebe viel geringer sind als vom IPCC 1990 prophezeit. Und das sind sie auch. Was jedoch die Parteilinie sorgfältig versteckt, ist der Grund für diesen Umstand.

Die Partei erkannte, dass deren Schätzungen des kumulativen anthropogenen Gesamt-Strahlungsantriebs aus allen Quellen hoch genug waren in Relation zur beobachteten Erwärmung, dass sich eine weit geringere Gleichgewichts-Sensitivität auf Strahlungsantriebe zeigte als ursprünglich verfügt. Dem zufolge reflektierte der 3. Zustandsbericht ordnungsgemäß die adjustierte Parteilinie, indem magische Windungen sowie künstliche und erhebliche Reduktion des gesamt-anthropogenen Antriebs damit verwoben wurden. Man führte nämlich etwas ein, was Prof. Lindzen unverblümt „den Aerosol-Frisier-Faktor“ nannte. Der Einfluss dieses schädlichen Frisier-Faktors wird im 5. Zustandsbericht deutlich:

Fudge, mudge, kludge [etwa: frisieren, schummeln, flickschustern]: Der Aerosol-Frisier-Faktor reduziert den menschengemachten Strahlungseinfluss erheblich und erhöht fälschlich die Klima-Sensitivität (IPCC 2013, Abb. SPM.5)

Die IPCC-Liste der Strahlungsantriebe im Vergleich mit der vorindustriellen Ära zeigt einen gesamt-anthropogenen Strahlungsantrieb von 2,29 W/m² relativ zum Jahr 1750. Allerdings wäre diese Gesamtzahl noch deutlich höher ohne die beiden Aerosol-Frisier-Faktoren, nämlich insgesamt 0,82 W/m². Falls zwei Drittel dieser Gesamtzahl zurück hinzugefügt werden, wie es sein sollte, weil anthropogene Aerosole sich in nichts von natürlichen Aerosolen in den Sahara-Winden unterscheiden, welche bis nach Schottland verfrachtet werden können, wird der gesamt-anthropogene Faktor zu 2,85 W/m². Der Unterschied zur offiziellen Klima-Sensitivität sieht so aus:

Wie der Aerosol-Frisier-Faktor künstlich den Systemerhaltungs-Faktor A erhöht.

Im linken Bild ist die Referenz-Sensitivität (also die anthropogene Temperaturänderung zwischen 1850 und 2010 vor Berücksichtigung von Rückkopplungen) das Produkt des Planck-Parameters 0,3 K pro W/m² und der mittelfristigen IPCC-Schätzung von 2,29 W/m² des gesamt-anthropogenen Strahlungsantriebs in der industriellen Ära 2011: d. h. 0,68 K.

Die Gleichgewichts-Sensitivität ist etwas komplexer, weil es die offizielle Klimatologie liebt sich vorzustellen (vermutlich ohne jede Rechtfertigung), dass bislang noch nicht die ganze anthropogene Erwärmung wirksam geworden ist. Daher haben wir für die Mittelfrist-Schätzung bei Smith (2015) des Gesamt-Strahlungs-Ungleichgewichtes von 0,6 W/m² zugelassen. Dies konvertiert die gemessene Erwärmung von 0,75 K von 1850 bis 2011 zu einer Gleichgewichts-Erwärmung von 1,02 K.

Der Systemerhaltungs-Faktor verwendet den Delta-Wert der Systemerhaltungs-Gleichung, welche derzeit universal bei der offiziellen Klimatologie ist. Der Faktor ist das Verhältnis der Gleichgewichts- zur Referenz-Sensitivität, d. h. 1,5. Da die Referenz-Sensitivität bei CO2-Verdoppelung, abgeleitet aus den CMIP5-Modellen bei Andrews (2012) 1,04 K beträgt, beläuft sich die Charney-Sensitivität auf 1,5 X 1,04 oder 1,55 K.

Im rechten Bild wurden etwas über zwei Drittel des Aerosol-Frisier-Faktors von 0,82 K dem gesamt-anthropogenen Antrieb zurück hinzugefügt, worauf sich 2,85 K ergaben. Warum zurück addiert? Nun, ohne zu viele Geheimnisse zu verraten, die offizielle Klimatologie hat angefangen zu begreifen, dass der Aerosol-Frisier-Faktor viel, viel zu hoch ist. Er ist so unrealistisch, dass er Zweifel weckt hinsichtlich der Glaubwürdigkeit der übrigen Tabelle mit den Antrieben in IPCC 1990 (Abb. SPM.5). Man erwarte signifikante Änderungen im nächsten IPCC-Zustandsbericht, welcher etwa 2020 geplant ist.

Verwendet man den korrigierten Wert des gesamt-anthropogenen Antriebs, fällt der Systemerhaltungs-Faktor auf 1,13. Das führt zu einer Charney-Sensitivität von 1,13 X 1,04 oder 1,17 K.

Wir wollen noch einen anderen Weg einschlagen, das zu testen, und zwar unter Verwendung der Absolutwert-Gleichung, welche durch die fälschlich restriktive Definition einer „Temperatur-Rückkopplung“ der offiziellen Klimatologie ausgeschlossen wird:

Der System-Erhaltungs-Faktor 2011: (Links) ohne und (rechts) mit Frisier-Faktor-Korrektur

Hier zeigt sich ein bedeutender Vorteil, wenn man die Systemerhaltungs-Gleichung mit Absolutwerten anwendet, welche von der offiziellen Klimatologie verworfen wird. Änderungen der Delta-Werte führen zu großen Änderungen des Systemerhaltungs-Faktors, aber nur sehr geringe Änderungen, wenn er mittels der Absolutwert-Gleichung abgeleitet wird. Tatsächlich sind die Systemerhaltungs-Faktoren der Jahre 1850 und 2011, wenn mit der Absolutwert-Gleichung abgeleitet, nahezu identisch mit 1,13. Dies zeigt, dass unter den heutigen Bedingungen Nicht-Linearitäten in Rückkopplungen nur sehr geringen Einfluss auf den Systemerhaltungs-Faktor haben.

Unter dem Strich: Kein noch so großer Wutanfall ob des Temperaturverlaufs kann die Tatsache verändern, dass der Systemerhaltungs-Faktor und damit auch die Gleichgewichts-Temperaturen gering sind – egal ob man die Delta-Wert-Gleichung heranzieht (Charney-Sensitivität 1,55 K) oder die Absolutwert-Gleichung (Charney-Sensitivität 1,17 K).

Link: https://wattsupwiththat.com/2018/08/21/temperature-tampering-temper-tantrums/

Übersetzt von Chris Frey EIKE




NOAA erneut ertappt: Datenmani­pulation, diesmal mit der Elimi­nierung einer Rekord-Kältewelle

Dieses Mal waren die Daten betroffen, welche die jüngste Rekord-Kältewelle im Nordosten der USA belegen. Die NOAA möchte diese Kältewelle aus der Historie entfernen.

Falls man die NOAA-Graphiken zum Maß aller Dinge macht, gibt es nichts besonders Ungewöhnliches hinsichtlich der Kälte dieses Winters, welche dazu geführt hat, dass Haie im Ozean erfroren sind und Leguane von den Bäumen fielen (hier).

Die NOAA-Graphik vom Januar 2018 für den Nordosten der USA sieht folgendermaßen aus (das Gebiet umfasst die Neuengland-Staaten sowie die angrenzenden Staaten NY, PA, NJ, DE und MD):

Man würde beim Betrachten dieser Graphik nie darauf kommen, dass es in diesem Gebiet jüngst zu einer Rekorde brechenden Kältewelle gekommen war, oder?

Das liegt daran, wie Paul Homewood entdeckt hat, dass die NOAA die Daten manipuliert hat. Wieder einmal hat die NOAA Temperaturen in der Vergangenheit nach unten korrigiert, um sie kälter aussehen zu lassen, als sie waren, während sie Temperaturen aus jüngster Zeit nach oben korrigiert hat, damit sie wärmer aussehen als sie waren. Gründe? Vermutlich haben die Gründe mehr mit Ideologie als mit Meteorologie zu tun.

Wir sprechen hier nicht über Grad-Bruchteile. Die Korrekturen addieren sich zu atemberaubenden ca. 1,7°C! Das liegt weit jenseits aller Fehlerbandbreiten oder einfacher Fehler und reicht tief in den Bereich Fiktion und politische Propaganda.

Aufmerksam wurde Homewood auf diese Manipulationen, als er die Datensätze von New York unter die Lupe nahm.

Vor allem irritierte ihn, wie die NOAA mit dem besonders kalten Winter umgegangen war, der New York 2013/14 heimgesucht hatte, was er hier beschreibt.

————————–

Die ganze Story von James Delingpole steht hier. Ich empfehle die Lektüre dringend. Er kommentiert ganz am Schluss:

Das ist ein Skandal! Die Klima-Wächter der NOAA sind politische Aktivisten, aber keinesfalls ehrliche Wissenschaftler. Der US-Steuerzahler darf deren Propaganda nicht länger finanzieren!

Legt den Sumpf endlich trocken!

Politik und Medien bei uns machen ja auch begeistert mit. Kann man da wirklich nichts machen außer immer wieder auf derartige Praktiken hinzuweisen? – Chris Frey, Übersetzer

Link: https://wattsupwiththat.com/2018/02/20/noaa-caught-cooking-the-books-again-this-time-by-erasing-a-record-cold-snap/

Übersetzt von Chris Frey EIKE




Schummel, Schummel! Wie sie daran scheiterten, die Kluft zwischen prophe­zeiter und gemessener Erwär­mung zu verschleiern

Abbildung 1: Die Regression kleinster Quadrate über die monatlichen globalen Anomalien während des gesamten Satelliten-Zeitraumes zeigt von Dezember 1978 bis Dezember 2017 eine Erwärmung mit einer Rate äquivalent zu lediglich 1,28°C pro Jahrhundert.

Nimmt die Rate der globalen Erwärmung unaufhaltsam zu? Die Antwort lautet Nein, wie aus Abbildung 2 hervorgeht:

Abbildung 2: Der Trend kleinster Quadrate im UAH-Datensatz zeigt von Februar 1997 bis Dezember 2017 Erwärmung mit einer Rate äquivalent zu 0,85°C pro Jahrhundert.

Die Erwärmungsrate der 251 Monate mit Daten über die Hälfte des gesamten UAH-Datensatzes ist nicht höher als die Rate über den gesamten Zeitraum von 469 Monaten. Sie liegt ein Drittel niedriger, von 1,28 auf 0,85°C pro Jahrhundert. Ich habe den Startzeitpunkt für Abbildung 2 gewählt, weil er den Beginn der längsten Periode des Großen Stillstands markiert, welche dem RSS-Satelliten-Datensatz zufolge spektakuläre 18 Jahre und 9 Monate dauert, von Februar 1997 bis Oktober 2015, wie Abbildung 3 zeigt:

Abbildung 3: Der Trend kleinster Quadrate im RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung von Februar 1997 bis Oktober 2015, also 18 Jahre und 9 Monate lang. Das ist die längste Periode des Stillstands, obwohl ein Drittel aller anthropogenen Antriebe in diesen Zeitraum fällt.

Ein wenig Historie. Im Zuge seiner Vorbereitung auf eine Debatte im Senat Ende 2015 ist Senator Ted Cruz an das Heartland Institute herangetreten und hat um eine einzelne Graphik gebeten, welche am Besten den klimaskeptischen Standpunkt belegt. Man wählte Abbildung 3, und Senator Cruz zeigte sie im Senat, zum sichtlichen Unbehagen der Demokraten. Bob Carter schrieb mir kurz vor seinem viel zu frühen Tod, wie erfreut er war von unserer Linie zu hören, dass ein Drittel des gesamten Einflusses des Menschen auf das Klima seit 1750 während des Stillstands aufgetreten war, jedoch ohne auch nur die geringste Erwärmung auszulösen.

In meinem Bericht über den Stillstand im November 2017 bei WUWT prophezeite ich, dass der RSS-Datensatz rasch manipuliert werden würde, um den Stillstand daraus zu entfernen. Nur wenige Wochen später verkündete der Betreiber jenes Datensatzes, Dr. Carl Mears, welcher dazu neigt, Skeptiker als „Leugner“ zu diffamieren, dass es tatsächlich eine Revision geben würde. Als diese dann erschien, war der Stillstand daraus verschwunden.

Interessant dabei ist, dass dieser Vorgang, d. h. die Veränderung von Daten ex post facto, um sie an die Parteilinie anzupassen, immer noch weitergeht. Aus dem Datensatz, so wie er vor ein paar Monaten gezeigt worden ist, war der empörende Null-Trend während des 18 Jahre und 9 Monate langen Stillstands daraus verschwunden und ersetzt worden durch einen Trend äquivalent zu 0,77°C pro Jahrhundert (Abbildung 4).

Allerdings reichte diese Temperatur-Manipulation* nicht aus. Der RSS-Datensatz, so wie er heute gezeigt wird, zeigt eine Erwärmungsrate äquivalent zu 0,83°C pro Jahrhundert über genau den gleichen Zeitraum (Abbildung 5).

[*Monckton verwendet hier eines seiner unübersetzbaren und auch unnachahmlichen Wortspiele. Er schreibt tamparature change, zusammengesetzt aus tamper und temperature. Anm. d. Übers.]

Abbildung 4: Der Trend kleinster Quadrate im RSS-Datensatz über die 18 Jahre und 9 Monate des Stillstands auf der Grundlage der Mitte 2017 gezeigten Daten.

Abbildung 5: Der Trend kleinster Quadrate im RSS-Datensatz über die 18 Jahre und 9 Monate des Stillstands, diesmal mit den Daten, wie sie heute gezeigt werden.

Man vergleiche die Abbildungen 4 und 5 mit Abbildung 6, den derzeitigen UAH-Daten über die 18 Jahre und 9 Monate des Stillstands. Sie zeigen eine statistisch nicht signifikante Erwärmung äquivalent zu 0,05°C pro Jahrhundert über den Stillstands-Zeitraum.

Zu der Zeit des Stillstands zeigten die UAH-Daten eine höhere Erwärmungsrate als RSS. Seitdem sind die UAH-Daten überarbeitet worden mit dem Effekt der Reduktion der zuvor erkennbaren geringen Erwärmungsrate während der Stillstands-Periode, während die RSS-Daten weiterhin und immer noch dergestalt überarbeitet werden, dass die offensichtliche Erwärmungsrate über den gleichen Zeitraum immer stärker in Erscheinung tritt.

Aus all diesen Daten geht klar hervor, dass die Rate der globalen Erwärmung sehr erheblich unter dem liegt, was ursprünglich prophezeit worden war. In einem weiteren Beitrag werde ich für jedermann verständlich zeigen, wie groß die Diskrepanz ist zwischen nervös machender Prophezeiung und belangloser Beobachtung, und wie falsch die vielfachen künstlichen Behauptungen in gewissen begutachteten Studien waren, die belegen sollten, wie recht das IPCC mit seinen ursprünglichen Prophezeiungen hatte, und wie falsch jene Prophezeiungen wirklich waren.

Und schließlich werde ich zu gegebener Zeit genau zeigen, welcher Fehler in dem Modellen zu diesen außerordentlichen Über-Prophezeiungen geführt haben, und wie gering die angemessen prophezeite Erwärmungsrate ist, nachdem dieser verhängnisvolle Fehler korrigiert ist.

Abbildung 6: Der Trend kleinster Quadrate des gegenwärtigen UAH-Datensatzes stimmt überein mit dem Original-RSS-Datensatz und zeigt während der 18 Jahre und 9 Monate von Februar 1997 bis Oktober 2015 eine globale Erwärmung mit einer Rate, die nicht unterscheidbar ist von Null.

Link: https://wattsupwiththat.com/2018/01/03/tamper-tamper-how-they-failed-to-hide-the-gulf-between-predicted-and-observed-warming/

Übersetzt von Chris Frey EIKE




Eine Merkwürdig­keit bei den Adjustie­rungen von Bojen-Daten von Karl et al. 2015

Das Argument lautet also, dass es der Übergang zu Bojendaten ist, der Warm-Änderungen in den ERSSTv4-Daten erforderlich macht.

Aber falls das so ist, was ist mit dem Zeitraum 1986 bis 2003? Während dieses Zeitraumes gab es eine Zunahme von Bojendaten von etwa 8% auf 50%.

Warum aber ist es nicht notwendig, den Zeitraum 1986 bis 2003 zu warm-adjustieren, wie man es im Zeitraum 2003 bis 2016 gemacht hatte?

Zwar kann dieser Umstand schon öfter zuvor angesprochen worden sein, aber davon habe ich nichts gesehen.

Daten des Bojen-Anteils in % sind Schätzungen aus diesem Artikel:

https://judithcurry.com/2015/11/22/a-buoy-only-sea-surface-temperature-record/

Bis 2006 sind die Prozentwerte aus der Graphik in diesem Artikel abgelesen. Und außerdem schreiben sie, dass der Bojen-Anteil nach 2007 über 70% gelegen habe. Folglich reflektieren die Zahlen der Jahre 2007 bis 2015, dass der Anteil 2015 über 70% gelegen hat.

Aber im Raum bleibt stehen, dass der Bojen-Anteil im Jahre 2003 auf 50% gestiegen ist, aber trotzdem nur einher ging mit immer noch kälteren Temperatur-Adjustierungen.

Es „sollte“ also einen sehr wichtigen Grund geben für die Kalt-Adjustierung von 1986 bis 2000 – welcher dominanter ist als der für die „notwendige“ Warm-Adjustierung infolge der Bojen.

Link: https://wattsupwiththat.com/2017/02/14/an-oddity-in-the-karl-et-al-2015-buoy-data-adjustments/

Übersetzt von Chris Frey EIKE




Mehr zum ein­schlägigen Artikel von David Rose: Insta­bilität im Global Historical Climate Network GHCN

Nachdem ich diese beiden Individuen kennen gelernt und ihren Zelotismus gesehen habe, überrascht mich kein einziger der Taschenspielertricks, die David Rose in seinem Artikel ans Tageslicht gebracht hat.

Die Gläubigen behaupteten, dass es keinen Unterschied gebe zwischen den Temperatur-Datensätzen der NOAA und von der HadCRUT, die im Rose-Artikel angesprochen worden waren, und sagen, dass die Differenz ein Grundlagen-Fehler ist. Sei’s drum, und vielleicht war es auch einfach ein Fehler der Graphik-Abteilung bei der Mail on Sunday – ich weiß es nicht.

Wenn man die Grundlinien der Anomalien übereinander legt, verschwindet die Differenz:

Abbildungen: Vergleich der monatlichen globalen Temperatur-Anomalien von HadCRUT4 und NOAA Ozean und Festland bezogen auf die allgemeine Basisperiode 1961 bis 1990. h/t The CarbonBrief

Aber … es gibt weitere ernste Probleme mit den globalen Klimadaten.

Was auch immer man denken mag, NOAA und HadCRUT sind nicht vollständig „unabhängig“. Beide verwenden Daten des GHCN, und das GHCN wurde betrieben von … Trommelwirbel! … Thomas Peterson von der NOAA, also von einem der Mitautoren der „Pausebuster“-Studie von Karl et al. 2015.

Der Fuchs bewacht den Hühnerstall, und wie man unten erkennt, sind die Daten ernstlich dubios.

Paul Matthews schreibt auf der Website CliScep:

Ziel dieses Beitrags ist es, eine der Beschwerden von Bates zu bestätigen. Im Mail-Artikel heißt es, dass „der für die Studie herangezogene Festlands-Temperaturdatensatz mit verheerenden Fehlern in dessen Software behaftet war, welche dessen Ergebnisse ,instabil‘ machten“. Weiter unten liest man: „Außerdem war auch die GHCN-Software von ernsten Fehlern befallen. Diese machten das Ganze so ,instabil‘, dass jedes Mal, wenn die Rohdaten der Temperatur im Computer berechnet wurden, unterschiedliche Ergebnisse herauskamen“.

Da hat Bates so ziemlich recht. Ich selbst habe die Instabilität des Algorithmus‘ der GHCN-Adjustierungen zum ersten Mal im Jahre 2012 entdeckt. Paul Homewood hat die Adjustierungen auf seinem Blog viele Jahre lang hinterfragt, besonders in Island, siehe Beispiele hier, hier, hier und hier. Oftmals wird die Vergangenheit durch diese Adjustierungen kälter, um die Erwärmung stärker aussehen zu lassen als es in den Rohdaten zum Ausdruck kommt. Als ich die Adjustierungen der Werte von Alice Springs in Australien betrachtete, bemerkte ich (siehe meinen Beitrag aus dem Jahr 2012), dass sich die Adjustierungen der Temperaturen in der Vergangenheit oftmals innerhalb nur weniger Wochen ziemlich dramatisch veränderten. Ich denke, dass auch Paul Homewood dies irgendwo auf seinem Blog kommentiert hat. Als wir diese Änderungen zum ersten Mal bemerkten, dachten wir, dass vielleicht der Algorithmus selbst verändert worden wäre. Aber es wurde bald klar, dass sich die Adjustierungen so oft änderten, dass dies nicht der Fall sein konnte, und es war der Algorithmus selbst, der instabil war. Mit anderen Worten, immer wenn dem System jede Woche neue Daten hinzugefügt wurden, wurde der Algorithmus erneut durchlaufen, und die sich daraus ergebenden Temperaturen der Vergangenheit waren jedes Mal ziemlich unterschiedlich.

Hier folgt eine von mir zu jener Zeit erstellte Graphik mit Daten, die von der GHCN ftp site heruntergeladen werden können. (die nicht adjustierten bzw. adjustierten Files sind ghcnm.tavg.latest.qcu.tar.gz bzw. ghcnm.tavg.latest.qca.tar.gz). Sie illustrieren die Instabilität des Adjustierungs-Algorithmus‘:

Die dunkelblaue Linie zeigt die Rohdaten-Temperaturaufzeichnung für Alice Springs. Die grüne Linie zeigt die adjustierten Daten, wie sie im Januar 2012 vom GHCN genannt worden sind. Man sieht, dass die Adjustierungen ziemlich gering sind. Die rote Linie zeigt die adjustierte Temperatur nach Durchlaufen des GHCN-Algorithmus‘, wie sie vom GHCN im März 2012 angegeben wurden. In diesem Falle sind die Temperaturen der Vergangenheit um 2 Grad abgekühlt worden. Im Mai erwärmte der Adjustierungs-Algorithmus die Temperaturen der Vergangenheit, so dass diese etwa 3 Grad höher lagen als die Temperaturen, die sie im März gezeigt hatten! Man beachte, dass alle Graphen am rechten Rand zusammenlaufen, da der Adjustierungs-Algorithmus in der Gegenwart beginnt und rückwärts läuft. Die Divergenz der Linien mit zunehmender Vergangenheit illustriert die Instabilität.

Es gibt einen Blogbeitrag von Peter O’Neill Wanderings of a Marseille January 1978 temperature, according to GHCN-M, in welchem die gleiche Instabilität des Algorithmus‘ gezeigt wird. Er betrachtet adjustierte Temperaturen von Marseille, welche die gleichen offensichtlich zufällig verteilten Sprünge zeigen, wenngleich die Amplitude der Instabilität etwas geringer ist als im Falle Alice Springs. Sein Beitrag zeigt auch, dass jüngere Versionen des GHCN-Codes das Problem nicht gelöst haben, gehen doch seine Graphiken bis zum Jahr 2016. Man findet auf seinem Blog viele ähnliche Beiträge.

Es gibt noch viel mehr zu sagen über die Temperatur-Adjustierungen, aber ich möchte mich in diesem Beitrag auf diesen einen Punkt beschränken. Der GHCN-Algorithmus ist instabil, wie von Bates festgestellt, und erzeugt praktisch bedeutungslose adjustierte Temperaturdaten der Vergangenheit. Die hier gezeigten Graphiken ebenso wie diejenigen von Peter O’Neill belegen dies. Kein ernsthafter Wissenschaftler sollte sich eines derartig instabilen Algorithmus‘ bedienen. Man beachte, dass diese unechten adjustierten Daten danach als Input verwendet werden für weithin gebräuchliche Datensätze wie etwa GISTEMP. Was sogar noch absurder ist: das GISS führt selbst noch weitere Adjustierungen der schon adjustierten GHCN-Daten durch. Es ist unfasslich, dass sich die Klimawissenschaftler bei GHCN und GISS dieses sehr ernsten Probleme bei ihren Verfahren nicht bewusst sind.

Zum Schluss habe ich noch die jüngsten Roh- und adjustierten Temperaturdaten vom GHCN heruntergeladen, bis zum 5. Februar 2017. Hier folgen die Plots für Alice Springs. Es gibt keinen Preis, wenn man richtig rät, welches die Rohdaten und welches die adjustierten Daten sind. Beim GISS gibt es eine sehr ähnliche Graphik.

Der ganze Beitrag dazu steht hier: https://cliscep.com/2017/02/06/instability-of-ghcn-adjustment-algorithm/

Link: https://wattsupwiththat.com/2017/02/07/more-on-the-bombshell-david-rose-article-instability-in-the-global-historical-climate-network/

Übersetzt von Chris Frey EIKE




100% der Erwärmung in den USA gehen auf Daten­manipulationen der NOAA zurück

Zunächst noch Anmerkung zur Übersetzung: Es tauchen naturgemäß immer wieder die Begriffe „mild – warm – hot“ auf. Anders als bei anderen Übersetzungen bleibe ich hier bei der direkten Übersetzung zu „mild – warm – heiß“. Außerdem werden viele Temperaturangaben in Grad Fahreinheit genannt. Den Celsius-Wert setze ich in eckigen Klammern daneben. Differenzwerte in Grad Fahrenheit werden zur Basis 32°F = 0°C berechnet. – Chris Frey

Auf der Website von ClimateCentral.org erschien jüngst folgende Meldung, welche die Washington Post sofort aufgriff. Es wird behauptet, dass das Jahr 2016 in den USA ein „überwältigend heißes Jahr“ gewesen ist und dass die Temperaturen seit dem 19. Jahrhundert um 1,5°F [ca. 0,8°C] gestiegen seien:

In den USA war es dieses Jahr überwältigend heiß. Quelle: Climate Central

Das erste Problem ihrer Analyse besteht darin, dass es in den USA im Jahre 2016 kaum heißes Wetter gegeben hatte. Der Prozentsatz heißer Tage lag unter dem Mittelwert und liegt für das Jahr an 80. Stelle seit 1895. Nur 4,4% aller Tage wiesen eine Temperatur über 95°F [ca. 35°C] auf im Vergleich zum vieljährigen Mittel von 4,9%. Bei Climate Central bläht man milde Temperaturen mit heißen Temperaturen auf.

Man behauptet dort auch, dass die US-Temperaturen um 1,5°F [ca. 0,8°C] gestiegen seien

Klima auf einen Blick. Quelle: National Centers for Environmental Information (NCEI)

Das Problem bei der NOAA-Graphik ist, dass es geschummelte Daten sind [fake data]. Die NOAA erzeugt den Erwärmungstrend mittels Veränderung der Daten. Die Rohdaten der NOAA zeigen im vorigen Jahrhundert keine Erwärmung.

Die „Korrekturen“ ergeben fast genau 1,5°F, also genau die in dem Artikel behauptete Erwärmung.

Die Adjustierungen korrelieren fast perfekt mit atmosphärischem CO2. Die NOAA [die Abkürzung steht für National Oceanic and Atmospheric Administration. Anm. d. Übers.] adjustiert die Daten dergestalt, dass sie zur Theorie der globalen Erwärmung passen. Dies ist bekannt unter der Bezeichnung PBEM (Policy Based Evidence Making.) [etwa: Auf Politik beruhende Herstellung von Beweisen].

Der Hockeyschläger von Adjustierungen seit dem Jahr 1970 geht fast ausschließlich auf die Phantasiewerte der NOAA zurück, mit denen sie fehlende Stationsdaten ersetzte. Im Jahre 2016 fehlten über 42% der monatlichen Daten ihrer Stationen, also hat man die Werte dort einfach erfunden. Das lässt sich auch leicht feststellen, hat man doch fabrizierte Temperaturen in der Datenbasis mit einem „E“ gekennzeichnet.

Als ich meine Behauptungen über den Betrug der NOAA präsentierte, reagierte die NOAA wie üblich und wischte die Behauptungen mit diesen beiden Aussagen vom Tisch:

1. NOAA hat Gitterpunkts-Daten verwendet Gitterpunkts-Daten und ich reale Daten [un-gridded data].

2. Man „musste“ die Daten adjustieren, um einem Bias wegen des Beobachtungszeitpunktes und Stationsverlagerungen Rechnung zu tragen.

Beide Behauptungen lassen sich leicht widerlegen. Der einzige Effekt, den Gitterpunkte haben ist, dass Temperaturen geringfügig erniedrigt werden.Der Trend der Gitterpunkts-Daten ist fast identisch mit dem Trend der realen Daten.

Der Beobachtungszeit-Bias [Time of Observation Bias (TOBS)] ist ein reales Problem, allerdings nur ein sehr kleines. TOBS fußt auf dem Gedanken, dass falls man ein Min/Max-Thermometer zu nahe dem nachmittäglichen Maximum neu einstellt, warme Temperaturen doppelt zählen (und umgekehrt bei Neueinstellung am Morgen). Ihre Behauptung lautet, dass während der heißen dreißiger Jahre an den meisten Stationen die Thermometer zu früh, also am Nachmittag eingestellt wurden.

Das lässt sich leicht überprüfen mittels Verwendung nur der Stationsdaten, die ihre Thermometer während der dreißiger Jahr nicht neu eingestellt hatten. Das Bild ist nahezu identisch mit dem aller Stationen. Keine Erwärmung im vorigen Jahrhundert. Man beachte, dass der Graph unten dazu neigt, zu viel Erwärmung zu zeigen wegen TOBS am Morgen.

Die eigenen Dokumente der NOAA zeigen, dass die TOBS-Adjustierung gering ist (0,3°F) und nach 1990 flach verläuft.

https://www.ncdc.noaa.gov/img/climate/research/ushcn/ts.ushcn_anom25_diffs_pg.gif

Gavin Schmidt von der NASA erklärt sehr eindeutig, warum die US-Temperaturaufzeichnungen nicht adjustiert werden müssen:

Man kann 50% der Stationsdaten oder mehr aussortieren, und man bekommt im Grunde die gleichen Antworten.

Eine der neuesten Innovationen ist das Erstellen eines Klima-Referenz-Netzwerkes parallel zu den gegenwärtigen Stationen, so dass man nach potentiell ernsten Dingen in großem Maßstab suchen kann – und sie haben bisher keine solchen Dinge gefunden.

Ausführlicher:

NASA – NASA Climatologist Gavin Schmidt Discusses the Surface Temperature Record

Die NOAA hat immer gewusst, dass es in den USA nicht wärmer wird:

US-Daten zeigen seit 1895 keinen Erwärmungstrend – NYTimes.com

Sämtliche Behauptungen im Climate Central-Artikel sind betrügerisch. In den USA wird es nicht wärmer, und 2016 war kein heißes Jahr. Es war ein sehr mildes Jahr.

Link: http://realclimatescience.com/2016/12/100-of-us-warming-is-due-to-noaa-data-tampering/

Übersetzt von Chris Frey EIKE

Bemerkung zu den letzten beiden Graphiken: Es ist mir nicht gelungen, sie lesbarer darzustellen. Wer nachlesen möchte, klicke bitte auf den Link zum Original.