Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 2)

…siehe hierhier und hier.“ (Pat Frank 9.12.2019[1])

Teil 1 hier und Teil 3 hier

Zu 3 Messregime

Da es praktisch undurchführbar war die gemessene Temperatur in kurzen Zeitabständen abzulesen, wünschenswert wären bspw. alle 5 Minuten gewesen, definierte man entweder wenige feste Tageszeiten, an denen abgelesen (und notiert) wurde, dies wurde insbesondere in Zentraleuropa – aber zu verschiedenen Zeiten und auch unterschiedlich oft- so gemacht, oder man las nur die Max. und die Min-Werte von speziellen Thermometern ab, und war dadurch zeitlich nicht so gebunden. Man handelte sich aber damit die Unkenntnis ein, nicht genau zu wissen, wann am Tag der Max. bzw. Min. Wert aufgetreten war. Das führte zu einem speziellen, aber kräftigen Fehler bei der Auswertung, der sogar einen eigenen Namen bekam, der Time of Observation Error (TOBs). Vor allem die praktischen Briten und mit ihnen dann alle ihre Kolonien und Einflussgebiete benutzten bis zum Ende des vergangenen Jahrhunderts diese Methode.

Abbildung 5 Kleine Auswahl aus historisch vielfach verwendeten Mittelwertbildungsalgorithmen
Aus diesen punktuellen Messwerten wurden dann arithmetische Mittelwerte gebildet, das sog. Tagesmittel. Diese (verschiedenen) Tagesmittel erlaubten nun Monatsgänge der Tagestemperaturen zu bilden. Sie wurden und werden dann weiter zu arithmetischen Monatsmitteln zusammengefasst, die es wiederum erlaubten Jahresgänge zu bilden, welche den Verlauf der Jahreszeiten anhand der Mittel-Temperatur zeigten.  Diese können dann zu Zeitreihen für langjährige klimatologisch interessante Zeiten zusammengefasst werden, was auch geschieht.
Es geschieht aber noch etwas anderes mit diesen Daten, sie werden in „Anomalien“ umgerechnet, d.h. es werden Differenzen aus dem aktuellen Wert abzüglich eines Referenzwertes gebildet. Dies geschieht wegen der berechtigten Annahme, dass Anomalien die eigentlich gesuchten Veränderungen präziser und weiträumig vergleichbarer abbilden, als die der absoluten Temperaturen, die zusätzlich noch weiteren Einflüssen wie Höhenlagen, windhöffiger oder stiller Messort etc. ausgesetzt sind. Doch damit handelt man sich neue Fehlerquellen ein, von denen die wenigsten Klimaforscher etwas wissen, ja schlimmer noch, die wegen falscher, wenn auch plausibler Analogien, zu völlig falschen Ergebnissen führen müssen. Welche das im Einzelnen sind und was das bedeutet wird im Teil „Weiterverarbeitung“ ausführlich beleuchtet.

Zu 4. Die geografische und zeitliche Abdeckung

Sobald die so gewonnenen Daten etwas mehr zur Beobachtung und Deutung von großräumigem Wettergeschehen herangezogen werden sollen, was in der Natur der Sache liegt, denn Wettergeschehen ist großräumig, kommt es unmittelbar auf eine genügende räumliche wie zeitliche Abdeckung der in Frage kommende Gebiete an. Doch da setzen ebenso technische wie finanzielle Machbarkeit enge Grenzen. Errichtung und Betrieb von Wetterstationen ist nicht nur teuer, sondern verlangt neben der genügenden Verfügbarkeit der richtigen Messmittel, auch genügend personelle Kapazität, großes Know How  und Disziplin für ihren Betrieb. Und das permanent über lange, im politischen Maßstab sehr lange Zeiträume. All das war von Anfang an nicht selbstverständlich und musste erst langsam nach dem Entstehen reifen. So wundert es nicht, dass die Stationsdichte sich ausnahmslos in früh entwickelten Ländern konzentriert, während weite Teile der Welt bis Anfang der 50er Jahre praktisch ohne Messstationen blieben. Das gilt für Südamerika, Afrika und weite Teile Asiens, ebenso wie die mehr als doppelt so große Ozeanfläche dieser Welt.



Abbildung 6 Entwicklung der Zahl und Position der historischen Messstationen
darunter Aktueller Stand der im Global Historical Climate Networks GHCN der NOAA mit Monatsmittelwerten der  Temperatur  insgesamt zuliefernden 7.280 Stationen mit mindesten 10 Jahren  kontinuierlicher Datenreihen. Für Stationen mit Max/Min Erfassung gibt es ähnliche Grafiken. Quelle (http://www.ncdc.noaa.gov/oa/climate/ghcn-monthly/index.php fig. 1). Man beachte jedoch, dass von GISS und CRU davon nur ungefähr 1/7 ausgewertet werden.
Quelle https://climateaudit.org/2008/02/10/historical-station-distribution/

Abbildung 7 Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611
 

Zu 5. Die Weiterverarbeitung! Was geschieht mit den meteorologischen Messdaten?

Wie zuvor schon kurz angesprochen werden die Einzeldatensätze erst einer umfassenden Prüfung auf Konsistenz, Dauer, und Plausibilität, mit anschließender Weiterverarbeitung unterzogen. Zunächst bleibt es bei den einzelnen Stationen und ihren Daten. Je nach Verwendungszweck wird aus diesen erst Tagesmittel und daraus das Monatsmittel gebildet und von diesem eines als „Station Normal“ bezeichneten langjährigem (bspw. über 360 Monate also 30 Jahre) Mittel abgezogen. Die so entstehende Differenz wird als so gut wie fehlerfrei betrachtet, weil – so die Annahme – die lokalen systematischen Fehler ja auch im „Station Normal“ vorhanden seien, und, wenn man beide Werte voneinander abzöge, sich der Fehler kompensierte (stellvertretend dafür [Brohan et al. 2006])[2],[3]. Manchmal werden aber auch zunächst die Jahresmittel gebildet und diese vom „Station Normal“ abgezogen. Die Grundannahme aber, von der Fehlerselbstkorrektur bei Bildung von Anomalien, bleibt aber dieselbe.
Und daher behaupten so gut wie alle Klimaforscher, auch Stefan Rahmstorf vom PIK unwidersprochen[4], dass Anomalien viel genauer seien als die ihnen zugrunde liegenden Absolutwerte. Liest man seinen Text genauer, dann muss man feststellen, dass er sich mit der Materie nicht beschäftigt hat, sondern nur auf die Korrelation zwischen den Trends von absoluten Temperaturdaten verweist, wie sie schon von James Hansen für seine Schwarze Kunst verweist. Es bleibt ein bitterer Treppenwitz der Wissenschaftsgeschichte, dass Annahmen über Korrelationskoeffezienten herunter bis 0,33 (Hansens Grenzwerte) die Politik in ein nie dagewesenes Desaster treiben konnte.  Wer Näheres dazu wissen möchte sei auf diesen Beitrag verwiesen: Von Korrelationen, Trends bei Anomalien![5]
Doch diese Annahme ist – bei Zeitreihen von Anomalien – und das werde ich im Folgenden belegen, bis auf eine Ausnahme, immer falsch!

Anmerkung:

Der folgende Text ist einem Artikel entnommen, den ich am 7. Februar 2011 bei EIKE einstellte, und der am 23.11.2018 aktualisiert wurde.
In der Klimatologie werden zur Bestimmung des Referenzwertes, die errechneten Monatsmittel oder Jahresmittel der gemessenen Temperatur einer Station, über den Zeitraum von 1961 bis 1990 aufaddiert und durch die Anzahl aller Monats- oder Jahresmittel dieses Zeitraumes geteilt. Der so enthaltene Wert entspricht einer Geraden gleicher „Temperatur“ über den Referenz-Zeitraum von 1961 bis 1990. (Es kann im Prinzip aber auch jeder andere Zeitraum sein.) Der zugehörige Referenz-Wert wird oft das Stationsnormal genannt. Folgerichtig heißen die Abweichungen vom (Stations)-Normal Anomalien.
Nun bildet man die Differenz aus allen absoluten Jahresmitteln Tx der Zeitreihe und dem Stationsnormal Tref und ermittelt auf diese Weise eine neue Zeitreihe der Anomalien eben dieser Station.  Dabei geht man von der Annahme aus, dass diese, wenn sie einen Fehler C enthalten, dieser auch im Stationsnormal vorhanden ist. Ferner unterstellt man, dass C eine konstante Größe hat. Bspw. Brohan und Jones[6] formulieren diese Annahme (in Bezug auf die Fehler durch unterschiedliche Mittelwertbildung) so:
„..There will be a difference between the true mean monthly temperature (i.e. from 1 minuteaverages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly.
Berechnet man jetzt die Anomalie Ax = (Tx+C) –(Tref+ C), dann hebt sich C auf. Das ist schlichte Algebra. So weit so gut! Die große Frage ist nun, funktioniert das bei Zeitreihen auch so? Warum denn nicht, wird mancher vorschnell antworten. Die Algebra ist schließlich immer gleich! Oder?
Es zeigt sich sehr schnell, dass die Idee der Fehlerkompensation, die hinter dieser einfachen Methode steckt, ebenso plausibel wie falsch ist, bzw. sie stimmt nur innerhalb ganz enger Randbedingungen, die in der hier interessierenden Praxis nicht eintreten.
Ende Teil 2
[1] Zitate in deutscher Übersetzung von Pat Frank Quelle: https://www.eike-klima-energie.eu/2019/09/09/fehler-fortpflanzung-und-die-zuverlaessigkeit-von-projektionen-der-globalen-lufttemperatur/
[2] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.
[3] Brohan et. al geben auf Seite 6 den allgemeinen Glauben an die Fehlerfreiheit der Anomalien wider, in dem sie schreiben: „..There will be a dierence between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this dierence will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error.“ Im Folgenden beschreiben die Autoren wie die Anforderungen an die Bildung der „station normals“ also der Referenzewerte (lt. WMO der Mittelwert jeder Station über die Jahre 1961-1990) aufgeweicht (relaxed) wurden. Die durchgeführte Re­duk­ti­on der An­for­de­run­gen zur Bildung des Referenzwertes (Station Normal) auf nur noch 15 Jah­re und da­raus 3 x 4 Jah­re in je­der De­ka­de, er­höht den Feh­ler, der schon in der Ver­wen­dung des Sta­ti­on Nor­mals steckt, wei­ter.
[4] Verwirrspiel um die absolute globale Mitteltemperatur Verwirrspiel um die absolute globale Mitteltemperatur
[5] https://www.eike-klima-energie.eu/2018/01/09/von-korrelationen-trends-bei-anomalien/
[6] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.
Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion




Offener Brief an Prof. Rahmstorf

Als hätten Sie nicht schon damit genug zu tun, kommen einfach so ein paar Leute daher stellen 16 „unschuldig anmutende Fragen.“, ob man mit dem Klimawandel nicht auch anders umgehen könne. https://www.klimafragen.org/ Wie kommen die überhaupt dazu, fragen Sie. Schließlich haben die Initiatoren und Unterzeichner keinen persönlichen Vorteil davon, sie müssen nicht ein Institut am Leben halten oder sich wie Politiker als „action heros“ gebären, warum also „verschwenden“ sie ihre Zeit, Kraft und Geld daran, die „Große Transformation“ des Landes zu hinterfragen?

Ob Sie es glauben oder nicht, aber diese Frage stellen wir uns auch manchmal. Warum tun wir uns dies an? Nur, um auch einmal ordentlich diffamiert zu werden? Vielleicht treibt uns die leise Hoffnung an, dass Intelligenz und Vernunft in unserem Land noch nicht völlig ausgestorben sind. Dann aber kommen wieder Zweifel hoch, insbesondere wenn man Beiträge wie den Ihren liest und feststellt, dass die einflussreichen Experten, auf deren Aussage hin wir unser Land umbauen sollen, offenbar nicht einmal sinnentnehmend lesen können. So steht für jedermann erkennbar folgender Satz am Anfang der Fragen:

Ausgehend von der Annahme, eine menschengemachte Klimaerwärmung sei erwiesen und menschliches Reaktionshandeln darauf geboten, muss – vernunftgeleitet – erörtert werden: Welche Folgen ergeben sich aus dieser Erkenntnis und mit welchen möglichen Maßnahmen kann einer schädlichen Klimaerwärmung mit Aussicht auf Erfolg entgegengewirkt werden?“

Die Tatsache, dass der Klimawandel als solcher unterstellt wird, erschließt sich zudem daraus, dass wir explizit nach möglichen positiven Effekten des Wandels fragen. Das setzt – na, was? Richtig, das setzt einen Wandel voraus.

Tatsächlich hatten wir erwartet, dass Wissenschaftler und auch Journalisten sowohl sinnentnehmend lesen können wie auch grundlegende logische Zusammenhänge verstehen. Wenn dem nicht so ist, dann …Nein, diesen Gedanken wollen wir gar nicht zu Ende denken.

Das Problem ist: So geht es in ihrem Beitrag weiter.

Sie behaupten, wir hätten den IPCC mit den Worten „In Sachen Klimaforschung und -modellierung sollten wir anerkennen, dass es sich dabei um ein gekoppeltes, nicht-lineares, chaotisches System handelt. Deshalb sind längerfristige Vorhersagen über die Klimaentwicklung nicht möglich.“ falsch zitiert hätten.

Das habe er habe nicht gesagt, das wäre falsch übersetzt, außerdem habe er das, was er nicht sagte, so auch nicht gemeint, es handle sich um eine Fehlinterpretation. Im Übrigen habe sich der IPCC um die Probleme der „Restunschärfe“ der Modelle oder auch die „verbleibenden Unsicherheiten“ gekümmert.

Ja was denn nun? Hat er es so nicht gesagt, weil falsch übersetzt oder nicht gemeint? Wenn er es nicht sagte und nicht meinte, welche „Unsicherheiten“ und „Unschärfen“ gibt es dann überhaupt?

Geschrieben hat der IPCC folgendes:

In climate research and modelling we should recognize, that we are dealing with a coupled non linear chaotic system and therefore that the long-term prediction of future climate states is not possible.” (IPCC, Third Assessment Report, 2001, Section 14.2.2.2, S. 774).

Also wurde der IPCC wortwörtlich richtig zitiert.

Im Folgesatz schreibt „Klimafragen.org“:

Tatsächlich wohnt Prognosen der klimatischen Entwicklung, die über einen Zeitraum von mehr als zehn Jahren hinausgreifen, keinerlei Vorhersagekraft mehr inne. Die Klimaforschung behilft sich daher mit Szenarien, die zwar plausibel und in sich widerspruchsfrei sind, denen aber aufgrund ihrer Konstruktion keine Eintrittswahrscheinlichkeiten zugeordnet werden können.“

Im englischen Original heißt der Satz:

„The most we can expect to achieve is the prediction of the probability distribution of the system’s future possible states by the generation of ensembles of model solutions. This reduces climate change to the discernment of significant differences in the statistics of such ensembles.”

Wörtlich ins Deutsche übersetzt:

“Das Höchste, was wir erwarten können, ist die Vorhersage der Wahrscheinlichkeitsverteilung der zukünftigen möglichen Zustände des Systems durch die Generierung von Ensembles von Modelllösungen. Dies reduziert den Klimawandel auf die Feststellung signifikanter Unterschiede in der Statistik solcher Ensembles.“

Nochmal: „… die Vorhersage der Wahrscheinlichkeitsverteilung… reduziert den Klimawandel auf die Feststellung signifikanter Unterschiede in der Statistik solcher Ensembles“

Genau das hat „Klimafragen.org“ sinngemäß ausgedrückt und spricht von „keinerlei Vorhersagekraft“.

Also richtige Übersetzung und richtige Interpretation!

Ihr Einwand, dass der IPCC versucht hat, mit Simulationen, die auf unterschiedlichen Modellen auf der Grundlage unterschiedlicher Anfangsdaten beruhen, „die Unschärfe zu beschreiben“ stimmt. Und was ist das Ergebnis?

Auf S. 62 des „Technical Summary“ – Sie wissen schon, der Teil, den weder Politik noch Presse lesen – steht zum Thema:

Model Response Error

The discrepancy between simulated and observed GMST trends during 1998–2012 could be explained in part by a tendency for some CMIP5 models to simulate stronger warming in response to increases in greenhouse-gas concentration than is consistent with observations. ….

Another possible source of model error is the poor representation of water vapour in the upper atmosphere.

Das heißt, es gibt eine erhebliche Diskrepanz zwischen simulierter und gemessener globaler Durchschnittserwärmung (Global Mean Surface Warming -GMST), welche zum Teil durch die Tendenz einiger CMIP5 Modelle erklärt werden könnte, eine stärkere Erwärmung aufgrund von Treibhausgasen zu simulieren als sie den Beobachtungen entspricht. Also ist das mit der „Beschreibung der Unschärfe“ zwar sehr hübsch gelungen, nur beseitigt wurde sie nicht.

In Ihrem Beitrag findet sich der bemerkenswerter Satz: Und es ist offensichtlicher Unsinn, allein schon weil die Klimamodelle seit fünfzig Jahren die globale Erwärmung korrekt vorhergesagt haben – übrigens sogar die Firma Exxon im Jahr 1982.“ Damit wird die uneingeschränkte Tauglichkeit von Computermodellen für die Prognose zukünftiger Klimaentwicklungen behauptet – und dies nicht nur für den gegenwärtigen, vergleichsweise fortgeschrittenen Stand der Modellierung, sondern sogar für das vergangene halbe Jahrhundert. Tatsächlich konnte weder der Abfall der Globaltemperatur zwischen 1945 und 1975 (der übrigens damals führende Klimatologen zur Prophezeiung einer neuen Eiszeit veranlasste) noch die zehnjährige „Hiatuspause“ vorher rechnerisch dargestellt werden. Und im Bericht des IPCC von 2007 hieß es noch: „Die Gletscher im Himalaja sind mit hoher Wahrscheinlichkeit bis 2035 oder vielleicht schon früher verschwunden.“ Nach lebhafter Kritik an dieser Aussage brauchte der Weltklimarat drei Jahre, um sie zu revidieren.

Zur Kennzeichnung der gegenwärtigen Situation soll hier eine Grafik wiedergegeben werden, deren Urheber ein Klimatologe von unbestrittener Weltgeltung ist. Sie wurde dem Protokoll der Anhörung von John R. Christy, vor dem Ausschuss für Wissenschaft, Weltraum & Technologie der Vereinigten Staaten am 29. März 2017 entnommen. John R. Christy ist Klimatologe des Staates Alabama und Professor für Atmosphärenwissenschaft sowie Direktor des Instituts für Wissenschaft des Erdsystems an der Alabama Universität in Huntsville, Leitautor und Peer-Reviewer von Veröffentlichungen des IPCC. Die Grafik 1 zeigt die Ergebnisse von 32 Computermodellen des IPCC für Temperaturverläufe in den Tropen.

Die dicke rote Kurve ist deren Mittelwert. Im Vergleich dazu wurden in der dicken grünen Kurve die realen, durch Ballonmessungen gewonnen Daten eingetragen. Nicht nur die Unterschiede zwischen den Rechenergebnissen verschiedener Institute sondern vor allem die erhebliche Abweichung zwischen deren Mittelwert und dem realen Verlauf zeigen überdeutlich, dass von „korrekter Vorhersage“ keine Rede sein kann.

Das Anhörungsprotokoll enthält noch ein weiteres hochinteressantes Ergebnis: Temperaturprofile in den Tropen wurden vom IPCC zum einen unter Berücksichtigung des Treibhauseffektes modelliert und zum anderen ohne diesen Effekt. Während die ersteren keine Übereinstimmung mit den gemessenen Werten aufweisen, liegen die Messungen vollständig im Bereich der Modelle ohne Treibhauseffekt (Grafik 2).

Grafik 1 Quelle: J. R. Christy, Alabama Universität

Grafik 2 Quelle: J. R. Christy, Alabama Universität

Wie volatil die Prognosen des IPCC tatsächlich sind, zeigt auch ein Interview SPIEGEL vom 05. Oktober 2018 mit einem der Leitautoren des letzten Sachstandsberichtes des IPCC , dem Direktor des Max-Planck-Instituts für Meteorologie in Hamburg, Professor Jochem Marotzke. Er erklärt darin: Unser verbleibendes CO-Budget für das 1,5-Grad-Ziel ist wohl mindestens doppelt so groß wie gedacht, fast tausend Gigatonnen. … Offenbar verbleibt ein kleinerer Teil der ausgestoßenen Treibhausgase in der Atmosphäre, weil Wälder und Ozeane mehr davon schlucken als gedacht.“

Das ist eine plötzliche Änderung der bis dahin vom IPCC vertretenen Vorstellungen um mehr als 100 Prozent.

Ein anderer Auszug aus dem Interview ist ebenfalls bemerkenswert:

  • SPIEGEL: Warum wurde die Grenze für die Temperaturerhöhung von 2 Grad auf 1,5 Grad abgesenkt?
  • Prof. Marotzke: „Das kam auch für uns Klimaforscher überraschend.“
  • SPIEGEL: Haben wir es also eher mit politischen Grenzwerten zu tun, nicht mit wissenschaftlich begründeten?
  • Prof. Marotzke: „Ja, aber die Größenordnung ist physikalisch durchaus vernünftig.“

Und schließlich konterkariert auch eine weitere lesenswerte Darstellung der Probleme von Klimamodellierung durch einen ausgewiesenen Experten die Behauptung von der „exakten Vorhersage“. Sie findet sich in der SPIEGEL-Ausgabe vom 22. März 2019 und hat den Titel:

Prognosen zur Erderwärmung, Warum Wolken der Fluch aller Klimaforscher sind“. Darin schildert der seit 20 Jahren am Hamburger Max-Planck-Institut für Meteorologie auf dem Feld der Klimamodellierung forschende Prof. Bjorn Stevens die Schwierigkeiten einer Modellierung des Wolkenphänomens; einige seiner Aussagen lauten Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. …. Es ist nicht leicht, dieses Versagen der Öffentlichkeit zu vermitteln. … Die Temperaturen in der Arktis zum Beispiel klaffen in den verschiedenen Modellen um teilweise mehr als zehn Grad auseinander. Das lässt jede Prognose der Eisbedeckung wie bloße Kaffeesatzleserei erscheinen.“

Das könnte nun daran liegen, dass das Weltklima nicht nur ein chaotisches, sondern sogar ein komplexes System ist, das sich mit Differentialgleichungen und anderen mathematischen Modellierungsverfahren gar nicht modellieren lässt. Daher können Klimamodelle bestenfalls die Vergangenheit erklären, aber nichts prädizieren, wie der IPCC zutreffend festgestellt hat.

Nun gibt es zwei Möglichkeiten:

Entweder, man sagt, der IPCC hat Unsinn erzählt und natürlich kann man komplexe Systeme exakt modellieren, alles gar kein Problem. Hier also die Frage an Sie, Herr Rahmstorf: Wollen Sie das behaupten?

Oder man erkennt an, dass der IPCC die Schwierigkeiten bezüglich der Vorhersagbarkeit zutreffend dargestellt hat. Dann allerdings muss unsere Frage 1 mit der Feststellung beantwortet werden, dass man die Einhaltung von Klimazielen nicht sicherstellen kann. Das aber wäre peinlich, oder?

Dann wird es richtig interessant: Der Jahrhundertsommer 2003 habe 70.000 Todesopfer gekostet, alles unmittelbare Folge des Klimawandels. Beweis einer Kausalität? Fehlanzeige. Und der naheliegende Gedanke an den ebenso einfachen wie lebensrettenden Einsatz von Klimaanlagen, der ohne große Transformation möglich wäre, ebenso Fehlanzeige.

Der Krieg in Syrien – klarer Fall, auch Klimawandel. Bei allem Respekt, aber so geht es nicht

Fazit ist: Sie haben viel geschrieben, aber nicht eine einzige Frage beantwortet.




Der Herr der vielen Nullen

Wussten Sie was so alles in ein Litergefäß passt? Natürlich, werden Sie sagen, ein Liter Milch zum Beispiel, oder ein Liter Wasser, oder, oder oder. Und Sie haben recht, aber das meinte ich nicht. Wussten Sie bspw. dass in einem Liter Luft – aber nur wenn Sie ihn einatmen, aber nicht wenn Sie ihn ausatmen-  3.432.000.000.000.000.000 Moleküle CO2 stecken? Nein, wussten Sie nicht? Kein Problem – wusste ich bisher auch nicht. Und das ist der Grund warum – zumindest ich, vielleicht aber auch Sie – bisher nicht verstanden haben wie das mit dem Klimawandel so funktioniert. Und damit sich das so schnell wie möglich ändert, schließlich leben wir ja mitten in einer Klimakrise, hat Professor Rahmstorf, ja der vom PIK, den Friday for Future Kindern, und vieler weiterer wissenschaftlicher Aktivitäten, die hehre Aufgabe auf sich genommen hat uns im SPIEGEL (Online Ausgabe hier) – ja der, mit den Relotius Preisen- aufzuklären:

Zitat: „Denn In jedem Liter eingeatmeter Luft stecken 3.432.000.000.000.000.000 CO2-Moleküle fossiler Brennstoffe. Gesundheits-schädlich ist das zwar nicht – aber man muss es wissen, um den Klimawandel zu verstehen.“

Und verspricht weiter, dass das folgende keine richtige Physikvorlesung werden wird, aber,da wir uns mitten in einer – na Sie wissen schon – befinden, wäre es höchste Zeit mit dem Falschinformationen, wie sie besonders im Internet, und da wiederum von den „Klimaleugnern“ bei EIKE verbreitet werden, aufzuräumen. Wobei die EIKE Leute , die „Boten des Zweifels“, sich einer besonders fiesen Methode bedienen, weil nämlich der Leser dort „..zahlreiche Quellenangaben, wissenschaftliche Sprache und „Belege“ findet, die Sie von der Abwesenheit der Klimakrise zu überzeugen versuchen“. Ja das ist schon ganz schön fies. Da muss man als beamteter Professor gegenhalten und mal richtig so richtig aufklären. Und das tut man an besten mit schönen großen Zahlen, so richtig großen. Und da wären wir wieder beim Beginn. Wussten Sie schon? Na, nun wissen sie es ja schon, die Sache mit den 3.432.000.000.000.000.000 CO2 Molekülen.

Und dann folgt „ein Crashkurs zu den wichtigsten Belegen“, schreibt der Professor. Und erklärt, nicht ganz falsch „Die Strahlungsbilanz eines Planeten bestimmt dessen Temperatur“.

Das stimmt zwar auch nur unter bestimmten Bedingungen, denn die Temperatur ist nur ein Maß für die kinetische Energie, die in der gemessenen Materie steckt, egal wo sie herkommt, und es gibt auch keine Strahlungsbilanz, sondern nur eine Energiebilanz, was bedeutet, dass die empfangene Energie, nicht per se die Strahlung, im Gleichgewicht (und das steckt im Wort Bilanz), und nur dann, genau so groß sein muss, wie die abgegebene Energie. Aber er versprach ja, dass das keine richtige Physikvorlesung sein würde, also wollen wir mal nicht so kleinlich sein, hier keine Zweifel säen und ihm das durchgehen lassen.

Kommen wir zurück zu seinen großen Zahlen und was sie mit seiner Beweisführung zu tun haben. Und leider, da werden wir enttäuscht. Da kommt nichts. Sie stehen einfach so rum, und sollen wohl Eindruck schinden. Nur einmal behauptet er, dass „wir“ die CO2 Konzentration um 45 % erhöht hätten. Doch viel von nix ist aber immer noch nix, oder?

Im Kommentarbereich gibt es daher neben viel Tadel auch viel Lob für diesen Versuch eine schwierige Materie einfach zu erklären. Trotzdem, oder gerade, weil nirgendwo die 3.432.000.000.000.000.000 CO2 Moleküle, mit dem was er uns eigentlich erklären will, nämlich den Treibhauseffekt, in Beziehung gesetzt werden.

Der Schuss wäre auch nach hinten losgegangen, denn dann hätte er erklären müssen, dass, egal wie viele CO2 Moleküle sich im Liter befinden, es nichts an deren winzigen Menge in Bezug auf das Ganze ändert. Es bleiben mickerige 0,01346 %. Da nützen auch sämtliche Großzahlen nichts, die Atmosphäre ist um viele, viele Größenordnungen größer.

Kiehl Trenberth 1997 Strahlungsflüsse mit ergänzend eingezeichneter Bilanzierung der Boden Ab- und Luft Gegenstrahlung. Die Werte 390 und 324 können hierin beliebig groß sein, solange ihre Differenz 66 Wm-2 annimmt. Details dazu u.a. hier.

 

Daher schrieb ich dem Herrn der vielen Nullen einen Kommentar:

„Lieber Herr Rahmstorf,
Ihre Riesenzahlen, die man – wie Sie schreiben – unbedingt wissen muss „um den Klimawandel zu verstehen“ werden im Verhältnis trotzdem nicht mehr. Und nur das zählt. Auch 3.432.000.000.000.000.000 CO2-Moleküle fossiler Brennstoffe bleiben mickrige 0,01346 %.
Und auch Ihr Gift Vergleich, der bestimmt gleich kommt, führt in die Irre, denn Gift, dass oft auch in kleinsten Mengen wirkt, greift sofort die Vitalfunktionen des Organismus an, wie Atmung oder Herzschlag. Das kann das böse CO2 alles nicht. es ist chemisch fast ein Edelgas.
Und es kann nur ganz, ganz wenig Infrarotenergie absorbieren und gibt diese wieder – wegen der ungleich wahrscheinlicheren Stoßabregung – zu weniger als 5 % als Strahlungsenergie ab. Natürlich nur in den dichten unteren Schichten. Oben ist es mehr, es sind aber viel weniger CO2 Moleküle da.
Und noch etwas – bei Ihnen scheint offensichtlich die Sonne Tag und Nacht. Bei mir ist das anders, da scheint sie nur tagsüber.
Daher kommen bei mir – und auch nur ziemlich grob- über die gesamte Halbkugel 648 W/m^2 an (Anmerkung von mir: Siehe Grafik und Bilanzierung Abstrahlung mit Gegenstrahlung oben). Die Nachthalbkugel erhält keinerlei Einstrahlung.
Das Ihnen das bisher noch nie aufgefallen ist? Komisch. Die Betrachtung der Wirklichkeit ist doch Voraussetzung jeder Naturwissenschaft, also besonders der Physik.
Diese so empfangene Energie muss und wird von beiden Halbkugeln wieder abgegeben werden.
Und schwups ist die Strahlungsbilanz, besser die Energiebilanz, wieder ausgeglichen. Ganz ohne den bilanziellen Zaubertrick mit dem Treibhauseffekt.“

Der blieb bisher unbeantwortet.

Im Text werden dann drei Möglichkeiten untersucht, wodurch sich die „Strahlungsbilanz“ so verändern könnte, dass sich unser „Heimatplanet aufheizen“ müsste.

Nämlich

  • Die Sonneneinstrahlung nimmt aufgrund der Sonnenaktivität oder der Erdbahnparameter

  • Der reflektierte Anteil der Sonnenstrahlung nimmt ab, weil die Helligkeit der Erdoberfläche oder der Wolkendecke abnimmt.

  • Die Abstrahlung von Wärme ins All nimmt ab.

Alle drei werden so diskutiert und mit „Messtatsachen“ so unterlegt, dass allein Option 3 die Lösung sein kann.

Ein Leser merkte dann noch an, dass schon das Ausscheiden von Option 1 ziemlich schräg argumentiert sei, weil Zitat aus dem Rahmstorf Artikel: Option 1 scheidet aus, denn die ankommende Sonnenstrahlung hat seit Mitte des letzten Jahrhunderts sogar etwas abgenommen schon deswegen nicht stimmen kann, weil, wie selbst WIKIPEDIA unzensiert schreibt

Seit Mitte des 20. Jahrhunderts befindet sich die Sonne in einer ungewöhnlich aktiven Phase, wie Forscher der Max-Planck-Gesellschaft meinen. Die Sonnenaktivität ist demnach etwa doppelt so hoch wie der langfristige Mittelwert, und höher als jemals in den vergangenen 1000 Jahren.“ Und merkt kritisch an:„Nun ist die Aussage von Herrn Rahmstorf nicht ganz falsch, durch Weglassen des Gesamtzusammenhangs gewinnt sie aber einen ganz anderen Wert. Dies ist für mich keine sachliche Darlegung von Fakten.“

Aber auch der Rest ist – wie bei Herrn Rahmstorf üblich – sehr selektiv. Dafür aber mit sehr großen Zahlen und deftigen Behauptungen – z.B. vom  „fragilen Gleichgewicht“ unterlegt, wie bspw. diese Mitteilung in Bezug auf die „gemessene“ Erwärmung der Meere, um ein knappes 1/10 Grad (0,07 gegen über einem Mittelwert von 1960-2015):

„Auch das ist eine Messtatsache, gemessen durch Forschungsschiffe und eine Armada von Tausenden autonomen Messgeräten in den Weltmeeren, die in den vergangenen zwanzig Jahren mehr als zwei Millionen Temperaturprofile[1]aufgenommen haben.“

Dazu schreibt der Willis Eschenbach, der seit Jahren die Klimatologie kritisch, aber klug begleitet (Hervorhebungen von mir):

Viel beeindruckender fand ich immer die erstaunliche Stabilität des Klimasystems trotz gewaltiger jährlicher Energieflüsse. In unserem Fall absorbiert der Ozean etwa 6.360 Zettajoules (1021 Joules) Energie pro Jahr. Das ist eine unvorstellbar immense Energiemenge – zum Vergleich, der gesamte menschliche Energieverbrauch aus allen Quellen von fossil bis nuklear beträgt etwa 0,6 Zettajoule pro Jahr …

Und natürlich gibt der Ozean fast genau die gleiche Energiemenge wieder ab – wäre das nicht der Fall, würden wir bald entweder kochen oder erfrieren.

Wie groß ist also das Ungleichgewicht zwischen der in den Ozean eindringenden und von diesem wieder abgegebenen Energie? Nun, im Zeitraum der Aufzeichnung betrug die mittlere jährliche Änderung des ozeanischen Wärmegehaltes 5,5 Zettajoule pro Jahr … was etwa ein Zehntel eines Prozentes (0,1%) der Energiemenge ausmacht, welche in den Ozean eindringt und von diesem wieder abgegeben wird. Wie ich sagte: erstaunliche Stabilität.

Folge: die lächerlich anmaßende Behauptung, dass ein derartig triviales Ungleichgewicht irgendwie menschlichen Aktivitäten geschuldet ist anstatt einer Änderung von 0,1% infolge Variationen der Wolkenmenge oder der Häufigkeit von El Nino oder der Anzahl der Gewitter oder einer kleinen Änderung von irgendetwas im immens komplexen Klimasystem, ist schlicht und ergreifend unhaltbar.

Trotz ihrer Dürftigkeit, wie auch der selektiven und rein propagandistischen Überhöhung der Zahlen, darf die Drohung vom Weltuntergang, ebenso wie die moralische Überhöhung am Schluss des Beitrages nicht fehlen..

Zitat:

Wer die Fakten heute noch leugnet, um damit die dringend nötigen Maßnahmen zur Vermeidung einer planetaren Katastrophe hinauszuzögern, macht sich mitschuldig an den Folgen: an stärkeren Tropenstürmen, Flutkatastrophen, Dürren und Waldbränden – und möglicherweise künftigen Hungersnöten“

 

Amen

[1] Auch diese große Zahl verliert bei genauer Betrachtung ihre Bedeutsamkeit, wenn man bedenkt, dass die Ozeane dieser Erde eine Fläche von  361.100.000 km2 bedecken, mit einer mittleren Tiefe von 3,79 km. Das ergibt 1.332.000.000 Kubikkilometer. Man hat in diesen 15 Jahren (Die ARGO Flotte gibt es seit ca. 2005) also wenige Prozente der Oberfläche auf eine Tiefe von 2000 m „vermessen“ Jede Argobojoe tastet dabei das Volumen einer Fläche von 1 Mio km2 ab. Das ist dreimal die Fläche Deutschlands. Details dazu hier: https://www.eike-klima-energie.eu/2020/01/15/der-ozean-erwaermt-sich-ein-winziges-bisschen/




Peer Review zum Gastbeitrag von Rahmstorf im Spiegel

Herrn Prof. Dr. Stefan Rahmstorf
Potsdam-Institut für Klimafolgenforschung

Betreff: Ihr Gastbeitrag, eingereicht zur Veröffentlichung auf Spiegel Online/Spiegel+
„Ein Forscher sagte schon 1977 den Klimawandel voraus – leider arbeitete er bei Exxon“

https://www.spiegel.de/wissenschaft/natur/james-black-sagte-1977-die-klimakrise-voraus-leider-arbeitete-er-bei-exxon-a-1298292.html

 

Final Decision: decline / ablehnen

Sehr geehrter Herr Professor Rahmstorf,

Ihre oben genannte Arbeit haben wir zwei unabhängigen Gutachtern vorgelegt. Beide kommen übereinstimmend zu dem Schluss, dass das Manuskript den bekannten Qualitätsstandards unserer Zeitschrift nicht genügt, und raten von einer Veröffentlichung ab. Wir hoffen dennoch, dass Sie für zukünftige Arbeiten unsere Zeitschrift wieder in Erwägung ziehen.

Mit freundlichen Grüßen,

Redaktion Spiegel Online/Spiegel+

——–

Gutachter #1

Die Arbeit beinhaltet drei Aussagen:

(a) Bereits 1977 habe ein Wissenschaftler des amerikanischen Ölkonzerns Exxon, James Black, die Entwicklung der globalen Mitteltemperatur über 150.000 Jahre inklusive aktuellem anthropogenem Anstieg erstaunlich realitätsnah beschrieben (Abb. 1, schwarze Kurve).

(b) Von 2025 an in die Zukunft gerechnet sei die Vorhersage von Black allerdings falsch, da sie ein Absinken der Temperatur nach Ende von CO2-Emissionen annahm. Richtig sei vielmehr das aktuelle Modell des PIK, das einen weiteren Anstieg und ein dauerhaft hohes Niveau vorhersagt (Abb. 1, rote Kurve).

(c) Wenn Exxon die Erkenntnisse seines Mitarbeiters nicht systematisch unterdrückt hätte, hätte die Menschheit viel früher handeln können.

Abb. 1. Grafik aus der zu begutachtenden Arbeit von Rahmsdorf: schwarze Kurve = „Szenario“ (rekonstruierte Daten+Modell) von Black (1977),  rote Kurve = Modell des PIK (nach Ganopolski & Bovkin, 2017).

 

Zentrale Kritikpunkte (major issues)

  1. Der Autor R. vermischt durchweg zwei unterschiedliche Ebenen wissenschaftlichen Arbeitens: Modellebene (Simulation) und empirische Ebene (Daten). Er schreibt „Wie nah sich Black mit seinen 42 Jahre alten Erkenntnissen an der Realität bewegt, ist erstaunlich. Sichtbar wird das, wenn man die alte Grafik mit dem modernen Wissensstand der Paläoklimaforschung vergleicht.“ Was meint er mit „Realität“?

Die Grafik im Manuskript (Abb. 1) besteht aus drei Abschnitten.

  • Im Zeitraum bis „heute“ (1977?) stellt die rote Kurve ein Modell des PIK dar ([1] Ganopolski & Bovkin, 2017) und die schwarze Kurve rekonstruierte Temperaturdaten [3]. (Das zeigt erst ein Blick in die Originalarbeit von Black ([2] 1977, S. 7).
  • Im Zeitraum ab „heute“ (1977?) stellen beide Kurven Modelle dar. Diese stimmen überein bis zum Punkt „durch CO2-Emissionen hervorgerufenes Interglazial“ (d.h. 2025, siehe Black 1).
  • Ab diesem Punkt divergieren die beiden.

Ab „heute“ (1977?) vergleicht R. also nur noch zwei Modelle miteinander. Rein logisch könnte ebenso gut das PIK-Modell falsch und das von Black richtig, oder beide falsch sein. Die Formulierung von R. erweckt unzulässig den Eindruck, das Modell des PIK sei eine „Realität“, an der die Vorhersage von Black validiert werden könnte. Dabei enthält umgekehrt nur die Kurve von Black überhaupt Daten.

Somit ist R. für seine Aussagen (a) und (b) die Begründung schuldig geblieben.

Sollte ihm das versehentlich passiert sein, genügt seine Arbeit nicht den allerniedrigsten wissenschaftlichen Standards. War es Absicht, muss er sich den Vorwurf der bewussten Irreführung seiner nicht-wissenschaftlichen Leser gefallen lassen.

  1. Der Autor zitiert selektiv aus der Studie von Black (1977). Auf Seite 2 dieser 42 Jahre alten Studie findet sich nämlich der Satz: „Present thinking holds that man has a time window of five to ten years before the need for hard decisions regarding changes in energy strategies might become critical.“ Ist R. der Meinung, auch mit dieser Prognose bewege sich Black erstaunlich nahe an der Realität? Wenn ja, wäre die aktuell gleichlautende Botschaft des PIK ja falsch (und es heute längst zu spät für irgendwelche Maßnahmen). Wenn nein, wäre die alte Arbeit doch nicht so gut wie behauptet (und man fragt sich, ob die heutige Prognose denn valider sei). Das hätte er diskutieren müssen.
  2. Die Arbeit lässt die Frage offen, was überhaupt der Erkenntnisfortschritt des PIK sei, wenn Black schon 1977 die Temperaturentwicklung bis heute so exakt vorhergesagt hat. Für den Zeitraum ab heute, wo die Modelle divergieren, hätte der Autor eine Begründung für die Überlegenheit der (roten) PIK-Kurve geben müssen.

Weitere Kritikpunkte (minor issues)

  1. Obwohl Quellen verlinkt sind, enthalten diese nicht die versprochene Information. Die zentral besprochene Arbeit von James Black (1977) fehlt ganz, obwohl sie im Internet frei verfügbar ist [2]. Als Beleg für die rote Kurve in der Abbildung ist das Erdsystemmodell von Ganopolski und Brovkin (2017) [1] angegeben. In dieser Arbeit ist der entscheidende Teil der Kurve, die Prognose ab heute, aber nicht zu finden.
  2. Bildunterschrift zur Grafik (Abb. 1): „Black ging in seinem Szenario (schwarze Kurve) davon aus, dass die CO2-Emissionen etwa bis zum Jahr 2025 ansteigen und danach im selben Maße wieder abnehmen würden.“ Die Grafik zeigt jedoch die Temperatur und nicht die CO2-Emissionen.

————

Gutachter #2

  1. Die AfD argumentiert nicht „mit von Exxon lancierten Behauptungen“, woher hat R. das? (Im als Quelle verlinkten R.-Blog findet sich nur die Aussage in der WELT, der „menschengemachte CO2-Anteil in der Luft beträgt nur 0,0016 Prozent“, welche von der AfD aufgegriffen worden sei. Diese Aussage ist keine von Exxon lancierte Behauptung.)
  2. Die im Manuskript gezeigte Grafik (Abb. 1) erlaubt nicht zu entscheiden, wo „heute“ genau liegt. Rechts von „heute“ liegende Kurven sind naturgemäß alles Modellkurven. Nachdem bisher kein Klimamodell die nahe Vergangenheit nachbilden konnte (auch den nun 20 Jahre andauernden Hiatus hat kein Modell vorhergesagt) fragt man sich, warum man die in der Abbildung gezeigten Fortsetzungen nach „heute“ ernst nehmen soll.
  3. Die Schilderung von R., das aktuelle Erdsystemmodell des PIK sei in der Lage, „alleine aus den Milankovitch-Zyklen die Eiszeiten korrekt zu reproduzieren“, ist fehlerhaft. Das jeweils lange Abtauchen in Glaziale sind mit Milankowitch gut erklärbar, das jeweils ungewöhnlich schnelle Auftauchen aus einer Eiszeit ist dagegen bis heute ungeklärt und eines der größten Rätsel der aktuellen Klimaforschung. Zu diesem Problem gibt es weit über 100 Fachpublikationen (alle mit „wir wissen nicht, warum“). Siehe z.B. [4] https://scienceofdoom.com/roadmap/ghosts-of-climates-past/
  4. Die Aussage von R.: „Recht hatte Black mit seiner Folgerung, dass die CO2-Erwärmung die höchsten Temperaturen des Holozäns übertreffen würde – das hat sie inzwischen wahrscheinlich getan„, ist falsch: Die Vostok-Eisbohrkernkurve [5] (Abb. 2), die Erkenntnisse der Gletscherforschung (z.B. [6] Lecavalier et al., 2013, Fig. 6) usw. – alle widersprechen.

Abb. 2: Vostok-Eisbohrkernkurve, nach [5] Petit et al. 1999, Nature 399, Fig. 3. Relevant ist hier der kurze Verlauf der letzten 10.000 Jahre in der Gesamtkurve (blau oben rechts): Man erkennt im Holozän, insbesondere bei besserer Zeitauflösung als in dieser Abbildung, mehrere Temperaturmaxima höher als heute.

  1. Die Behauptung von R., dass die erhöhten CO2-Mengen erst nach 1000 Jahren wieder verschwunden seien, ist falsch (z.B. [7] Joos et al., 2013, Fig. 8). Auch [8] Lüdecke & Weiss (2016) finden eine Halbwertszeit um die 100 Jahre.
  2. Dass die nächste Eiszeit ausfallen wird, ist eine durch nichts gestützte freie Behauptung.

———-

Quellen/Literatur:

[1] Ganopolski. A. & Brovkin, V. (2017). Simulation of climate, ice sheets and CO2 evolution during the last four glacial cycles with an Earth system model of intermediate complexity. Climate oft he Past 13, 1695–1716.
https://www.clim-past.net/13/1695/2017/

[2] Black. J. (1977). https://insideclimatenews.org/documents/james-black-1977-presentation

[3] J. Murray Mitchell, Jr.: Environmental Data Service, NOAA, 1977. Zitiert nach Black. J. (1977). https://insideclimatenews.org/documents/james-black-1977-presentation

[4] https://scienceofdoom.com/roadmap/ghosts-of-climates-past/

[5] Petit et al. (1999). Climate and Atmospheric History of the Past 420,000 Years from the Vostok Ice Core, Antarctica. Nature 399 (3),  429-436.
https://www.nature.com/articles/20859?proof=true

[6] Lecavalier, B.S., et al. (2013). Revised estimates of Greenland ice sheet thinning histories based on ice-core records. Quaternary Science Reviews 63, 73-82.
https://www.sciencedirect.com/science/article/abs/pii/S027737911200532X

[7] Joos et al. (2013). Carbon dioxide and climate impulse response functions for the computation of greenhouse gas metrics: a multi-model analysis. Atmospheric Chemistry and Physics 13, 2793–2825.
https://www.atmos-chem-phys.net/13/2793/2013/acp-13-2793-2013.html

[8] Lüdecke, H.-J. & Weiss, C.O. (2016). Simple Model for the Antropogenically Forced CO2 Cycle Tested on Measured Quantities. Journal of Geography, Environment and Earth Science International 8(4), 1-12.
https://www.semanticscholar.org/paper/Simple-Model-for-the-Antropogenically-Forced-CO2-on-L%C3%BCdecke-Weiss/1e196cdb9596a6dfbe955ccbe9df20e6c51c4b70




Was wir gerne unter den Teppich kehren, Teil I

Ein paar Tage zuvor hatte Herr Mangini, Professor an der Uni Heidelberg, einen Artikel in der FAZ verfasst, mit dem Titel: Ihr kennt die wahren Gründe nicht

Weiter führte Herr Rahmstorf 2007 aus:

„Der IPCC-Bericht zeigt alle publizierten großräumigen Temperaturrekonstruktionen für die Zeit vor Beginn der Temperaturmessungen. Diese basieren auf Daten aus Baumringen, Eisbohrkernen, Sedimenten, Korallen oder der Ausdehnung von Gebirgsgletschern. Dass keine derartigen Rekonstruktionen aus Stalagmiten dabei sind, liegt nur daran, dass es sie bislang in der Fachliteratur nicht gibt. Dies liegt zum Teil an deren Problemen mit der Datierung und mit der Eichung des Zusammenhangs zwischen den gemessenen Isotopenwerten und der Temperatur; zudem gibt es noch zu wenige solcher Höhlendaten.“

Nun wollen wir ihn an seinen Aussagen messen:

  1. Datierung der Daten

„Mit der Thorium-Uran-Methode lässt sich das Alter der Stalagmiten bestimmen: Im Tropfwasser befinden sich Spuren von gelöstem radioaktiven Uran, es wird in das Kalkgitter des Stalagmiten eingebaut und zerfällt dort im Laufe der Zeit zu Thorium. Mit einem Massenspektrometer lassen sich die Isotope messen und das Alter einer Probe sehr genau bestimmen.“ Schreibt die Uni Heidelberg.

  1. Zusammenhang mit der Temperatur und Niederschlag

„… die stabilen Isotope 18O/16O und 13C/12C zu analysieren. Vor allem die Sauerstoffisotope können Auskunft darüber geben, welche Temperatur und welche Niederschlagsverhältnisse während der Bildungszeit des Stalagmiten vorherrschten …“

  1. Anzahl der Höhlen

„…Unsere Proben entnehmen wir den Stalagmiten vieler Höhlen …“

Sind Stalagmiten nach Rahmstorf völlig out? Mitnichten, nicht nur die Uni Heidelberg, sondern auch die Uni Mainz macht sich Stalagmiten aus Höhlen heute zu Nutze. Ebenso die Uni Bochum, die in der Bunkerhöhle herumkriecht.

„In einer Studie mit sieben Tropfstein-Proben aus Marokko, Indien, Frankreich, Spanien und der Hüttenbläserschachthöhle im Sauerland hat Wassenburg erstmals detailliert untersucht, in welcher Konzentration Spurenelemente in Aragonit eingebaut werden. »So konnten wir in dieser Untersuchung zeigen, dass die Konzentration von Uran in Aragonit-Stalagmiten als sehr effektiver Maßstab für Paläo-Niederschläge dienen kann«,

sagt Dr. Jasper Wassenburg Uni Mainz.

Das war zehn Jahre später. Der Wissenschaftler untersucht:

„Die Untersuchungsergebnisse der nordwestmarokkanischen Tropfsteinhöhle wurden mit Niederschlagsrekonstruktionen anhand von Höhlensintern aus der Bunkerhöhle, ebenfalls im Sauerland gelegen, verglichen. Dabei konnten die Klimaforscher erstmals die Nordatlantische Oszillation NAO über 11.000 Jahre zurückverfolgen, also bis zum Beginn der jetzigen Warmzeit.“

Er fand u.a. heraus, dass das Abschmelzen des großen Eisschildes, der Nordamerika während der Eiszeit bedeckte, die NAO veränderte und vermutet, dass ein massives Abschmelzen des Grönländischen Eisschildes ähnliche Auswirkungen haben könnte.

Hm, richtig gelesen, die lt. Rahmstorf „untauglichen“ Informationen aus den Stalagmiten geben Rückschlüsse auf die NAO! Die NAO hat nur regionale Auswirkungen? Echt? Jedenfalls reichten sie bis Marokko.

Schauen wir weiter.

Wie war das doch gleich mit den Baumringen und Michael E Mann? Dass das auf ihn zukommt, wusste Hr. Rahmstorf 2007 noch nicht. Und wie war das mit den Sedimenten? Da gab es einen Herrn Marcott et al. 2013, der jede Menge Sedimente aus den Ozeanen hob und auswertete und zu ähnlichen Ergebnissen wie Hr. M. Mann kam. Alles verlief schön gleichmäßig und die Temperaturanstiege heute sind für das Holozän außergewöhnlich, ganz im Duktus des Hr. Rahmstorf.

„ Eine Rekonstruktion der regionalen und globalen Temperatur in den letzten 11.300 Jahren “ von Marcott, Shakun, Clark und Mix … In einer Schlagzeile der NY Times heißt es: “ Die globale Erwärmung ist die höchste in 4.000 Jahren „.

Und noch einen oben drauf:

„Die gegenwärtigen globalen Temperaturen des letzten Jahrzehnts… sind wärmer als in ~ 75% der gesamten holozänen Temperaturgeschichte.“

Die Eisbohrkerne von Grönland, die von Hr. Alley schon 2000 anhand der Sauerstoffisotope ausgewertet wurden, sagen jedoch etwas Anderes:

„Aus der Kurve Alley (2000) ist leicht ersichtlich, dass die Temperaturen vor 10.000 bis 1.500 Jahren praktisch während des gesamten Zeitraums wärmer waren als heute, und 85% der letzten 10.000 Jahre waren wärmer als heute. Die Kurve reicht bis vor 95 Jahren, aber selbst wenn wir im letzten Jahrhundert 0,7 ° C für die Erwärmung hinzufügen, waren die Temperaturen immer noch überwiegend wärmer als heute.“ Don Easterbrook 2013

Was hatte Marcott et al. gemacht?

„Zu diesen Schlussfolgerungen gelangten sie, indem sie „ regionale und globale Temperaturanomalien der letzten 11.300 Jahre aus 73 weltweit verteilten Aufzeichnungen rekonstruierten “, „die größtenteils aus Meeresarchiven stammen (~ 80%)“ einschließlich Paläoklima-Temperatur-Proxys wie Alkenon, Plankton-Foraminiferen Mg / Ca 23, fossilen Pollen, eiskernstabilen Isotopen und Mann et al. (2008) Baumringrekonstruktionen.“

Auch hier wurden keine echten Daten zur Verfügung gestellt und fragwürdige Analysemethoden verwendet.

Weiterhin bemerkte Herr Rahmstorf:

„Dass lokal und regional wesentlich größere Klimaschwankungen auftreten als in der globalen Mitteltemperatur.“

Nun fragt sich der geneigte Leser, wie wohl Hr. Rahmstorf und seine Kollegen die globale Mitteltemperatur in der Vergangenheit bis heute bis zwei Stellen hinter dem Komma „bestimmt“ haben? Es bleibt sein Geheimnis oder man nimmt „Bestimmen“ wörtlich.

Die Bewegungen der „kleinen Gletscher“ der Alpen hielt er für bedeutungslos und gibt Herrn Patzelt & Co. so einen mit. Gleichzeitig warf er einem „Mitarbeiter der Bundesanstalt für Geowissenschaften und Rohstoffe zu der Behauptung, Klimatologen würden vergangene Klimavariabilität gezielt herunterspielen, um den Einfluss des Menschen zu übertreiben. Abgesehen davon, dass dies einem ganzen Berufsstand weltweit Unredlichkeit unterstellt …“ Was er ja gar nicht tut … Herrn Delisle, das war der Klimatologe, kostete es damals den Job. Die Veröffentlichungen seines Teams gingen auf den Index. Von der Bundesanstalt hört man seitdem zu diesem Thema nichts mehr.

Hatte es sich Mangini zu leicht gemacht, „nur“ auf „regionale“Tropfsteine zu setzen?

Nein, man verglich sehr wohl überregionale Daten. Auch hier war die NAO im Blickfeld. Eisberge tragen Sedimente ihrer Herkunftsgebiete mit sich. Wie weit sie diese trugen, gibt Auskunft über die vorherrschenden Temperaturen und Strömungen der jeweiligen Zeit.

Mangini vertrat damals die Ansicht:

„Auch früher also hat es abrupten Klimawandel gegeben. Die Paläoklima-Rekonstruktionen des IPCC verharmlosen diese natürliche Klimavariabilität während der letzten zehntausend Jahre. Natürlich kann der vom Kohlendioxid verstärkte Treibhauseffekt mittlerweile die natürliche Erwärmung verstärken. Eine Reduktion der Treibhausgasemissionen ist daher mehr als notwendig. Und ebenso ist es zwingend erforderlich, mit den verfügbaren fossilen Energiequellen sparsamer umzugehen. Jedoch die alleinige Schuld am Wandel dem Kohlendioxid zuzuschieben ist nicht korrekt.“

Sedimente aus dem Meerfelder Maar (GFZ Potsdam) und weiterer Eifelmaare (Moschen et al.) zeigen heftige und kurzzeitige Klimaänderungen im Holozän. Auch hier beeilte sich Hr. Feulner vom PIK, das Ganze als „regionale Besonderheit“ darzustellen und man betrachtete es als „interessante Arbeit“. Die Aufsehen erregende Besonderheit des Meerfelder Maares: Hier verlief eine Abkühlungsphase vor 2800 Jahren etwa 200 Jahre parallel zu einer solaren Schwächephase. Beides konnte in den Warven gleichzeitig nachgewiesen werden. Die Abkühlung verlief innerhalb weniger Jahrzehnte. Die Veröffentlichung fand in Nature Science fiel Beachtung.

Nimmt man jetzt noch an, dass die NOA durch solare Aktivitäten gesteuert wird, schließt sich der Kreis. Erforschungswürdige Themen!

Findet auch Dr. Lüning auf www.klimawandel-in-deutschland.de

„Die Ursache für den starken Erwärmungsschub in den späten 1980er Jahren ist noch nicht vollständig verstanden. Eine wichtig Rolle kommt wohl dem Ozeanzyklus der Nordatlantischen Oszillation (NAO) zu, die zu dieser Zeit maximal positive Werte einnahm, welche danach in ihrem Ausmaß nicht mehr erreicht wurden … Die NAO wird von der Sonnenaktivität mitbeeinflusst und ist ein wichtiger Steuerungsfaktor von Niederschlägen und Temperaturen in Teilen Europas.“

Noch mal die Uni Heidelberg:

„Die Ergebnisse der Stalagmitenforschung sowie deren Vergleich mit überregionalen Phänomenen belegen alles in allem eine hohe Variabilität des Klimas in den letzten 10 000 Jahren mit abrupten Wechseln und bedeutenden Konsequenzen für die Menschen. Welche Ursachen diese natürlichen Klimaschwankungen haben, ist noch weitgehend ungeklärt. Die Tatsache, dass viele Untersuchungen eine deutliche Korrelation des Klimas mit dem Kohlenstoffisotop 14C (es wird von der Sonnenaktivität beeinflusst) zeigen, deutet auf einen solaren Antrieb des Klimas hin.“

Bohrungen im Vansee der Türkei und im Toten Meer lassen die Richtigkeit dieser Daten vermuten.

Die Uni Bonn hat die 2010 gewonnen Bohrkerne aus dem Vansee analysiert und konnte anhand der Pollen, Temperaturverlauf und Niederschlag „sehr genau bestimmen“. „Das Klima ist viel sprunghafter als vorher geglaubt“. Prof. Litt: „Was uns besonders überrascht hat, dass die Phasenübergänge von Kaltzeiten zu Warmzeiten offenbar sehr schnell, sehr abrupt vonstatten gingen. … innerhalb von 10 bis 20 Jahren, das Klima sich dramatisch verändert haben kann.“ O-Ton des Berichts.

„Die ersten Untersuchungen führen in die Zeit bis vor 15.000 Jahren. Und zeigen deutlich wie schnell, trockene und feuchte, kalte und warme Perioden aufeinander gefolgt sind, ohne den Einfluss des Menschen!“ (3sat 2012)

Was sagte Herr Rahmstorf doch gleich:

„Die Rolle der Sonnenaktivität ist noch unzureichend verstanden. Doch eines wissen wir aus zahlreichen Messungen: Sie hat sich seit 1940 nicht signifikant verändert. Das gilt übrigens auch für die ebenfalls manchmal ins Spiel gebrachte kosmische Strahlung.“  (2007)

„Da werden dann Dinge behauptet, dass es im Holozän, also in den letzten 10.000 Jahren schon mal global mehrere Grad wärmer gewesen sein soll als heute. Was einfach wissenschaftlich falsch ist. Und wenn man nach den Belegen fragt, kommen Standardbehauptungen der Klimaskeptiker, die schlichtweg falsch sind.“ (2019)

Stalagmiten, Eisbohrkerne, Sedimente … alle falsch?

Die Gletscher der Alpen und Norwegens sind nicht nur 1-2mal zurückgegangen, sondern mehrmals! Bäume und Pflanzenreste bezeugen, dass da oft keine Gletscher waren und Menschen sogar Tierhaltung betrieben. Man weiß, dass auch die Gletscher der Rocky Mountains ähnliche Änderungen durchmachten.

Studien über die Eisbedeckung der Arktis (Caron et al., Berben et al., Harning et al. alle 2019) belegen:

„A new reconstruction of Arctic (NW Greenland) sea ice cover (Caron et al., 2019) reveals modern day sea ice is present multiple months longer than almost any time in the last 8000 years…and today’s summer sea surface temperatures  are among the coldest of the Holocene.“

„Regional (northwest Greenland) sea surface temperatures were about 2°C warmer than at present for most of the last 6000 to 8000 years.“

Spiegel ONLINE vermeldete: „Aus fast 9000 Holzstücken aus alten Häusern und Bäumen haben Forscher um Ulf Büntgen vom Schweizer Umweltforschungsinstitut WSL und Jan Esper von der Universität Mainz das Klima gelesen – ein weltweit einzigartiges Geschichtsarchiv ist entstanden. Die Wachstumsringe im Holz geben Auskunft über das Wetter früherer Zeiten: Jedes Jahr legt sich ein Baumstamm einen weiteren Ring zu, seine Breite bezeugt Temperatur oder Niederschlag – je nachdem, wo das Holz gewachsen ist.“

Sie rekonstruierten 2500 Jahre unserer Vergangenheit und kamen zu dem Schluss: Unsere Geschichte war durch abrupte Klimaänderungen stark beeinflusst! (veröffentlicht im „Science“).

Das fand auch lt. der Uni Heidelberg in Troja statt, welches mehrfach besiedelt und verlassen wurde. Diese Phasen stimmen gut mit den Daten der Tropfsteine überein.

Wenn wir diese Daten alle haben, warum lehnen sie Herr Rahmstorf & Co. ab? Kriechen die Wissenschaftler durch die Höhlen, frieren sich die Finger auf dem Eis ab und wühlen im Schlamm der Seen für EXXON MOBILE? Die Uni Bern erfindet doch keine Ablagerungen der Sommer- und Winterform der Goldalgen oder Zuckmückenköpfe in den Sedimenten der Alpenseen und die daraus folgenden Klimarekonstruktionen, weil EXXON sie sponsert!

Oeschger-Zentrum Bern, Klima-Millennium – Projekt:

„Die Modellläufe, die heute gebraucht werden, um zukünftige Klimaverläufe zu berechnen, die berücksichtigen die natürliche Klimavariabilität nicht. Das heißt, in Zukunft wird mit irgendeiner konstanten Sonne und konstanten Vulkanen gerechnet. Wie wir aus unseren Untersuchungen sehen, haben gerade die Sonne und die Vulkane einen sehr großen Einfluss auf unser Klima.“ (2013)

Es gab im Holozän überregional und global höhere Temperaturen als heute und schnelle Klimawechsel. Die kleine Eiszeit und die Mittelalterliche Wärmeperiode gab es weltweit.

Behauptungen, dass es nicht so war, sind „schlichtweg falsch“!

Das PIK u.a. können ja auf die Beeinflussung der Strahlungsbilanz durch menschenverursachtes CO2 als Klimatreiber bestehen. Wer ist jetzt „Skeptiker, Leugner und Verschwörungstheoretiker“?

Wer die Vergangenheit verbiegt, aber uns die Zukunft voraussagen will, ist was? Und warum?

Weil wir zweifeln könnten! Uns könnten Zweifel kommen, dass die Wissenschaftler es doch nicht 100%ig wissen. Was völlig normal wäre! Die Menschen könnten fragen, Moment mal, warum soll ich jetzt mein Leben umkrempeln? Warum werden jetzt Mrd. € ausgegeben und wofür? Mit dem Zweifel kommt dann eventuell die Skepsis. Mit skeptischen Menschen kann man keine Gesellschaft auf Links drehen. Die Skepsis als Motor neuer Erkenntnisse möchte man ausschließen und die Skeptiker gleich mit. Sie lassen sich auch nicht in einem Konsens zusammenschmieden. Deshalb werden sie mit dem allgemein Bösen verbunden, sind Rechts, Verschwörer, „Klimaschädlinge“ oder sogar Nazis.

Anstatt aus den Ereignissen der Vergangenheit zu lernen und sich z.B. mit Wasserreservoiren vor Trockenheit zu schützen. Mit Heizungen, die auch in Extremfällen funktionieren, mit einer Stromversorgung, die sicher ist, als Lebensversicherung bei Extremwetter und abrupten Klimaveränderungen. Nein, wir wollen das Klima schützen und steuern! Dann wird es uns so ergehen wie den Trojanern. Die hatten diese Daten nicht und/ oder konnten sie nicht an nachfolgende Generationen weiter geben.

Auf der EIKE-Konferenz 2014 sprach Herr Dr. Lüning von den versteckten Treibern des Klimawandels. Ein Herr Marotzke, IPCC- Leitautor, hatte damals „Kalte Sonne“ gelesen und dazu geäußert: „… viel gelesen, wenig verstanden …“. Herr Schellnhuber hatte uns wortreich erklärt, dass man das CO2 Budget bis 2040 sehr genau berechnet habe: 700 Mrd. Tonnen, wenig später waren es erst 770, dann lt. Herrn Edenhofer 800 Mrd. Tonnen bis Ende des Jahrhunderts.

2018 hat Herr Marotzke dann das CO2-Budget, welches uns bis zur Klimakatastrophe bleibt, nahezu verdoppelt. Dabei wird es wohl nicht bleiben …

Teppich hoch und …

Wenn unter dem Teppich mehr liegt als auf dem Tisch, der darauf steht …!