RTL-Reportage „Der Klimaschwindel“ von 2007 – warum verpuffte die Aufklärung?

Daß 3Sat und sogar das Erste vor 2010 in Report klimakritische Beiträge von Günther Ederer oder Talkrunden mit Michael Limburg brachten, ist durch das Youtube-Gedächtnis der Österreicher, Schweizer und Deutschen gewährleistet. Vor kurzem wurde auf Facebook in einer Skeptikergruppe (Fakten gegen Klimahysterie) an eine erstaunlich lange und detailreiche Reportage mit Moderatorin Birgit Schrowange erinnert, die heute nicht mehr möglich wäre.

Es ist das Jahr 2007: Al Gores Film Eine unbequeme Wahrheit bekam gerade den Oscar; der Weltklimarat IPCC erhielt den Nobelpreis; und die Bild titelte, „Wir haben nur noch 13 Jahre“.

Und da platzt eine britische Reportage (Channel 4) in den klima-politmedialen Komplex, die es in sich hat. RTL übernahm sie in überarbeiteter eingedeutschter Form, wofür deutsche Medien zitiert und hiesige Journalisten wie Dirk Maxeiner interviewt wurden, so auch Wissenschaftler wie Wolfgang Thüne, Nir Schaviv, Fred Singer und Richard Lindzen, alles Referenten des gerade gegründeten Europäischen Institutes für Klima und Energie, EIKE e.V.

Schauen Sie sich den Film (noch) einmal an; sie werden staunen, was damals in 40 min. in erstaunlich hoher Dichte gebracht wurde. Zusätzlich ist man geplättet, wie klipp und klar sogar ein IPCC-Mitglied, John Christy, die tatsächliche Intention der Klima-Alarmisten benennt:

Man muß eine gewisse Panik schüren, dann fließt das Geld!

Nach der Reportage sendete RTl eine Diskussionsrunde mit Peter Koeppel, Ex-Umweltminister Jürgen Trittin, Zukunftsforscher Matthias Horx, Claudia Kempfert vom Deutschen Institut für Wirtschaftsforschung, dem Meteorologen Dr. Wilfried Thommes und Moderator Tobias Schlegl.

Auch der PIK-Trick, jedes leicht vom gewohnten Wettergeschehen abweichende Phänomen wie der Schneesturm im Februar sogleich als unwiderlegbaren Beweis für den menschgemachten Klimawandel zu präsentieren, wurde damals schon klar benannt. Man hat fast den Eindruck, als hätten sich Rahmstorf & Co. im Film Anregungen geholt.

Aber nein, die „Klimaforschungsfolgen“-Forscher aus dem Hause Schelmhuber, die sich mit Naturwissenschaften nicht so auskennen („Winkel-CO2“), sind gewiefte PR-Leute und Netzwerker, die die ihnen nützlichen Narrative seit Anfang der 90er geschickt unter die Journalisten und Politiker bringen. Dabei sind sie noch nicht einmal die Erfinder der Panikmache: Wie unser Artikel zum Hamburger Klimakongreß 1988 zeigt, sind die heutigen Protagonisten wie Latif, Rahmstorf und Lesch reine Epigonen, die lediglich ein von anderen bereits erprobtes Konzept zur Erlangung von Ruhm & Rubel nutzen.

Was neben dem Inhalt der 07er Reportage auch noch wundert, ist, man muß es so nennen, der Mut des RTL-Extra-Teams und der Moderatorin Birgit Schrowange. Stellen Sie sich, geneigter Leser, einmal vor, eine solche Sendung würde im Jahre 2021 bei RTL oder einem anderen Privatsender wiewie laufen. Der Schittsturm des PIK und anderer Aktivisten, aber vor allem der Journalisten in ARD, ZDF, Spiegel, Süddeutscher Zeitung, Frankfurter Rundschau, Berliner Tagesspiegel, Zeit, FAZ, taz, und so weiter und so fort wäre heftig. Wahrscheinlich gäbe es sogar Talkrunden zur „Wissenschaftsleugnung“ bei Maischberger, sternTV, Anne Will, Maybrit Illner, hart aber fair, und so weiter und so fort. In der Redaktion vermuten wir, daß Schrowange nach einer Woche „freigestellt“ wäre, wie es gerade Julian Reichelt von der Bild passiert ist.

Soweit war damals die Postdemokratie, in der die Fassaden noch stehen, ansonsten aber fast nur noch die Interessen der Privilegierten bedient werden, noch nicht. Stefan Rahmstorf vom Potsdamer Klimainstitut PIK, der in der Abwehr von Kritik besonders aktive und geschickte Klimaprofessor in Deutschland, hat zur Reportage einiges geschrieben. Zitat:

Ein guter Teil der „Skeptiker“-Argumentation ist schlichte Verschwörungstheorie. Den Menschen wird eingeredet, die Klimaforscher hätten aus Eigeninteresse – um mehr Forschungsmittel zu bekommen – die Mär der globalen Erwärmung erfunden oder würden zumindest die Gefahren kräftig übertreiben. Dabei ist es gerade umgekehrt. Bestens belegt ist, daß prominente „Klimaskeptiker“ direkt von Interessengruppen finanziert werden.

Wie wir von EIKE mit unseren „Millionen von der Ölindustrie“, Sie kennen das ja. An anderer Stelle beklagt Rahmstorf sachliche Fehler im 2007er Film, die absichtliche Fälschungen seien.

An diesem Beispiel zeigt sich der Unterschied zwischen einer seriösen wissenschaftlichen Diskussion (wo z.B. eine einmal als falsch erkannte Kurve nicht mehr verwendet werden kann, und wo nicht willkürlich Daten erfunden oder weggelassen werden dürfen) und der Mediendiskussion, wo derartige falsche Kurven durch die „Klimaskeptiker“ seit Jahren immer aufs neue einem Laienpublikum präsentiert werden.

Das ist wirklich pikant – gerade die Forscher der Church of Global Warming gelten, wie Kabarettist Vince Ebert so schön formulierte, als die „Homöopathen der Wissenschaft – Beweisführung, Methodik, alles so’n bißchen huschi-pfuschi“.  Man denke zum Beispiel an die beiden Klima-Gates, die zeigten, daß Rahmstorf und Kollegen ihre theoretischen Computermodelle laufend zurechtpfriemeln müssen, damit sie rückwärts und vorwärts in der Zeit zu den Meßdaten passen.

Man denke auch an die Hockeyschlägerkurve von Michael E. Mann, die „seriös wissenschaftlich“ aus völlig unterschiedlichen Datenquellen zusammengeschustert wurde und in der ersten Version die allseits bekannte hochmittelalterliche Heißzeit verschwieg. Man denke auch an Rahmstorfs Beichte, daß seine „seriös wissenschaftlichen“ Rechenmodelle nur chaotische Simulationen aufgrund von Annahmen sind, die nicht als Prognose dienen können.

Standbild https://www.youtube.com/watch?v=4hrx08tInBg

Der kundige EIKE-Leser erinnert sich vielleicht noch, daß 2007 nicht nur das Jahr des „Klimaschwindels“ war, sondern auch das Jahr des Schlagabtausches von Augusto Mangini, Universität Heidelberg, und Stefan Rahmstorf in der Frankfurter Allgemeinen Zeitung FAZ. Dabei argumentiert Rahmstorf wie so häufig ad hominem:

Höchst selten kommen solche Zweifel noch von seriösen Wissenschaftlern, denn inzwischen haben sich fast alle von den erdrückenden Belegen überzeugen lassen.

Mangini selber meine er aber nicht, schrieb Rahmstorf, da er mit ihm sogar gemeinsam publiziert habe. Dennoch nutze Mangini ein „Bauernfängerargument“, wenn er sage, daß der natürliche Klimawandel der Vergangenheit ein Hinweis auf die Nichtexistenz des menschgemachten Kollapses sei. Außerdem macht Rahmstorf sich über Manginis Fachgebiet beziehungsweise dessen Proxydaten – Stalagmiten lustig:

Zudem vertritt Mangini bereits seit einigen Jahren die These, die Erwärmung im zwanzigsten Jahrhundert sei überwiegend auf natürliche Sonnenzyklen zurückzuführen. Dies alles schließt er aus Stalagmitendaten.

Nein – daß die Sonne mit ihren Zyklen, und andere astronomische Phänomene Hauptreiber des irdischen Klimas sind, war etabliertes Fachwissen in der Meteorologie, bis Treibhausgasforscher wie James Hansen sich politisch-medial in den Vordergrund spielten. Die Wirkung der solaren Zyklen ist durch unterschiedliche Daten bestens belegt – zum Beispiel von den Stalagmiten, die Augusto Mangini als Spezialist selber ausgewertet hat. Wenn die Tropfsteinhöhlen als Proxies unbedeutend seien oder sogar untaugliche Daten lieferten, wie Rahmstorf anklingen läßt – was ist dann mit den Ergebnissen der PIK-Computermodelle, die uns in den Medien als „wissenschaftlicher Beweis“ verkauft werden? Wie Fred Singer auf einer EIKE-Konferenz so schön formulierte: Wissenschaft, das sind die Daten.

Im Artikel teilt Rahmstorf auch noch gegen einen anderen Kollegen aus, dessen Namen er nicht einmal für erwähnenswert hält:

Im bereits erwähnten „heute-journal“ verstieg sich ein Mitarbeiter der Bundesanstalt für Geowissenschaften und Rohstoffe zu der Behauptung, Klimatologen würden vergangene Klimavariabilität gezielt herunterspielen, um den Einfluß des Menschen zu übertreiben. Abgesehen davon, dass dies einem ganzen Berufsstand weltweit Unredlichkeit unterstellt, ist es aus den genannten Gründen logisch unsinnig (…)

Man sieht – 2007 war für die deutschen Priester der Church of Global Warming ein äußerst gefährliches Jahr, in dem ihr guter Ruf (und damit ihre Fördermillionen) beinah gewaltig abgenommen hätte.  Leute wie Rahmstorf haben als gewiefte PR-Manager das Ruder noch herumreißen und den klima-politmedialen Komplex in Deutschland derart stabilisieren können, daß ihn auch die beiden hochnotpeinlichen Klimagates nicht mehr erschüttern konnten. Vereinzelte kritische Artikel wie Die selbstgemachte Klimakatastrophe der UN in der Welt fielen schon nicht mehr ins Gewicht. Dabei fällt auf, daß, wie oben gezeigt, der persönliche Angriff und die erstaunlich eifrige Beschäftigung mit den Kritikern im Vordergrund stehen.

Selbstbewußte Wissenschaftler, die politikfern korrekt arbeiten und auf effiziente Wissensakkumulation setzen statt auf eitle Medienpräsenz und politischen Einfluß, haben solche Angriffe gar nicht nötig. Auf sachliche fundierte Kritik wird ebenso sachlich fundiert geantwortet, und im Irrtumsfall der Irrtum zugegeben. Warum auch nicht? – Wissenschaft ist laut (?) Sokrates in erster Linie das Eingeständnis, „zu wissen, daß ich nichts weiß“ – beziehungsweise noch wenig. Die Klimaforscher hingegen betonen auffällig, im Gegensatz zu den „Unseriösen“ und „Verschwörungstheoretikern“ im alleinigen Besitz der Wahrheit zu sein.

Es sollte einmal jemand in den Naturwissenschaften, der Medizin oder im Ingenieurswesen versuchen, Kontrahenten in einer Fachdebatte derart persönlich herabzuwürdigen; der- oder diejenige würde sich unmöglich machen. In den politiknahen Fächern geht es aber nicht die Erforschung der Wirklichkeit oder die darauf basierende effiziente Nutzung der Natur, sondern, wie in der Politik, um Macht und Geld. Dementsprechend fallen die Methoden aus.




Rahmstorf sichert sich ab: Erderwärmung erzeuge via Golfstrom heiße Sommer UND kalte Winter

Mojib Latif war in den 90er und Nuller Jahren präsenter als Schellnhuber und Rahmstorf. Sein Running Gag war die Vorhersage, daß wir gar keine Winter mit Eis und Schnee mehr haben würden. Dieses gefühlte Wissen wurde in den vergangenen drei, vier Jahren bereits widerlegt; mit dem europäischen Eissturm in den Alpen im Dezember, der im Februar dann sogar durch Israel und die Wüste der arabischen Halbinsel fegte, wurde es sogar richtig peinlich.

Folgerichtig sah man den Predigersohn in der letzten Zeit in ARD und ZDF gar nicht mehr. (Oder hat ihn jemand gesehen?) Nicht, daß ihn Dunja Hayali oder Claus Kleber im Interview zum Schwitzen bringen würden; aber um des journalistischen Rufs willen müßten sie ihn schon auf die erfundene Vorhersage im eigenen Sender 20 Jahre früher ansprechen. Da zieht es der mit etlichen Preisen bedachte Meteorologe vor, im Hintergrund bei der Deutschen Gesellschaft Club of Rome zu wirken. Was paßt: Der Rom-Club war eine der ersten Alarm-NGOs, die vor 50 Jahren das Zeitalter der Panikmache via Gesundheit und Umwelt als politisches Instrument einläuteten.

Latif hat schlicht den Fehler gemacht, seine Vorhersagen viel zu kurzfristig zu formulieren, und das im beginnenden Internetzeitalter, wo jede alte ARD-Sendung bei Youtube oder Bitchute gespeichert wird. Andererseits mußte er natürlich einen Zeitrahmen setzen, der für die Zuseher überhaupt interessant ist. Von Katastrophen in 50 oder 100 Jahren zu sprechen, würde die meisten Bürger überhaupt nicht interessieren. Besser für Latif wäre es gewesen, er und seine Medien-Kollegen hätten das Kimakollapsthema nach dem Muster von „Waldsterben“ oder „Ozonloch“ nach ein paar Jahren wieder ausgeschlichen. Da „Klima“ aber so schön abstrakt und im Alltag durch überhaupt nichts zu widerlegen oder zu beweisen ist, wollen die nachrückenden Generationen um Habeck, Baerbock und Luisa Neubauer damit auch noch ordentlich profitieren.

Das Problem der Wirklichkeit für die „harten“ Forscher wie die vom PIK bleibt indes; und so muß Stefan Rahmstorf vorsorgen, denn so alt wie Latif oder Schellnhuber ist er ja nicht. Wenn die Wirtschaft der Schweiz, Österreichs und vor allem Deutschlands durch die selbstgemachten Krisen der Klassenkämpfer von oben auch mit „Klima“ völlig zerrüttet wurde, könnte ein verrenteter Klimaalarmist ordentlich Druck von den Bürgern oder gewendeten Medien bekommen.

Sein Rezept lautet „verlangsamter Golfstrom“, denn der Mann ist ja Ozeanograph. Im aktuellen Interview mit der ZEIT, auf das uns ein flinker Leser hinwies (EIKE-Leser sind hervorragende Reporter!), behauptet R, daß sich der Golfstrom bis 2100 bis zu 45% verlangsamt haben könnte. Das hat er natürlich wieder mit einem seiner üblichen Klimamodelle ausgerechnet, kann man also vergessen.

Unsere Datenauswertung zeigt, dass der Strom in den vergangenen 1.600 Jahren nie zuvor derart schwach geworden ist. Dass das nun gerade zeitgleich mit der globalen Erwärmung passiert, ist kein Zufall.

Gerade Latif widerspricht übrigens der Klimahypothese des verlangsamten Golfstromes. Deutet sich da ein Futterneid-Zwist in  der Alarmistenszene an? Eine Frage, die dem kritischen Geist sofort kommen muß, ist, wie man denn bitte die Geschwindigkeit der Meeresströmung aus dem Golf von Mexiko herüber nach Norwegen über 1.600 Jahre mißt. Das geschehe über die sogenannten „Proxies“, also Stellvertreter-Daten wie Sedimente. Das letztere sehr wohl funktionieren, hat unser Referent Stefan Kröpelin eindrucksvoll gezeigt. Für Niederschläge etc. allerdings – aber für die Geschwindigkeit einer Strömung? Gehen wir davon aus, daß R mit dem aktuell langsamen Golfstrom recht hat- was sagt uns das?

Aus Rahmstorfs Sicht muß das Phänomen natürlich katastrophale Folgen haben:

ZEIT : Und die Konsequenzen für Europa?

Rahmstorf: Das könnte etwa extreme Hitzewellen sein. Denn: In den letzten Jahrzehnten ist eine Kälteblase im nördlichen Atlantik entstanden. Das ist übrigens weltweit einzigartig: Der restliche Globus hat sich erwärmt, der nördliche Atlantik hat sich abgekühlt. Und auch die Luft über dem Ozean kühlt dort ab – was dazu führt, dass sich dort öfter ein Tiefdruckgebiet festsetzt. Um dieses Tiefdruckgebiet strömt die Luft so herum, dass bei uns dadurch aus südwestlicher Richtung warme Luft ankommt. Die Kälteblase über dem Atlantik führt also im Endeffekt dazu, dass in Europa Hitzewellen entstehen.

Und wenn die Kälteblase vom Wasser zum Land herüberschwabbt, wird`s eisig. Man sieht, die optimale in 20 Jahren zitierbare Erklärung für die tatsächlich solarzyklus-bedingt nun anbrechende Kaltphase. Wenn zwischendurch mal ein Sommer heiß und trocken sein sollte, ist das natürlich der Beweis für die globale Erwärmung. Milde Sommer sind dann nur Wetter.

Worum gehts ansonsten? Um Geldumverteilung, wie immer:

Wenn die Regierungen das Pariser Klimaabkommen einhalten und wir es schaffen, die Erderwärmung auf 1,5 Grad zu begrenzen, dann wird auch die Abschwächung des Golfstroms gestoppt.

Heißt: Fleißig weiter Windparks bauen und CO2-Ablässe kaufen, die die Familie R übrigens verkauft.

 




PIK-Special: Es wird kälter, weil es wärmer wird

Für alle, die sich für die wissenschaftlichen Hintergründe der aktuellen Kälte in Deutschland interessieren: Wenn die Nordatlantische Oszillation NAO negativ ist, wird es im deutschen Winter meist kalt. Das ist gängiges Wissen, z.B. beim Met Office oder Lüdecke et al. 2020. Und momentan ist die NAO – dreimal dürfen Sie raten – negativ. Und mit kurzen Unterbrechungen war sie es seit Anfang Januar 2021. Nachzuschlagen z.B. bei der NOAA:

Was das PIK hier verkündet, ist von vielen anderen Wissenschaftlern bereits mehrfach widerlegt worden. Weder hängen Kältewellen mit der sich erwärmenden Arktis zusammen, noch sind blockierte Wetterlagen im Zuge des Klimawandels häufiger geworden. Zu Kältewellen diesen Beitrag der Klimaschau sehen:

Zu den blockierten Wetterlagen hier schauen:

Wer es noch genauer wissen möchte, liest in unserem Buch „Unerwünschte Wahrheiten: Was Sie über den Klimawandel wissen sollten“ kurz mal die Kapitel 17 und 22 nach: „Ist das Klima heute wirklich extremer als früher?“ und „Führt die Klimaerwärmung wirklich zu mehr Kältewellen?“.

Zum Glück haben noch mehr Fachleute bemerkt, was das PIK hier veranstaltet. Auf t-online und im Kölner Stadtanzeiger wird Jörg Kachelmann mit einem Tweet in Richtung Potsdam zitiert:

„Man weiß nie, was schrecklicher und skrupelloser ist, alle die Rechtswürstchen, die eine winterliche Wetterlage als Argument gegen die Klimakrise sehen oder der verzweifelt unwissenschaftliche @rahmstorf, der eine gewöhnliche Winter-Wetterlage nun auch dem Klimawandel zuordnet“, schreibt Kachelmann dort. Der „Spiegel“ biete dem „lustigen Professor“ eine „Plattform für Dinge (…), die weltweit niemand so sieht wie er“.

https://kaltesonne.de/wp-content/uploads/2021/02/image001-6-693x1024.png

Am besten ist aber der FFF-Fanboy Marcel. Der feuert unter dem Kachelmannwetter Tweet ganz Salven von Abkürzungen und versucht so Kompetenz zu simulieren. Er fällt seinem Vorbeter Rahmstorf allerdings gewaltig in den Rücken, indem er ausgerechnet Oszillationen und die Sonne für das Geschehen verantwortlich macht. Vielleicht hat dem jungen Klimaaktivisten noch niemand erzählt, dass diese natürlichen Schwankungen im Klimasystem sowie die Sonnenflecken nicht menschengemacht sind?

+++

Vor Kurzem berichteten wir über eine Studie des Potsdam Institut für Klimafolgenforschung PIK, die versuchte, einen Zusammenhang zwischen Klimawandel, dem menschgemachten versteht sich, und der COVID 19-Pandemie herzustellen. Corona überstrahlt nach wie vor alles und da liegt es nahe, das eigene Thema einfach mit der Pandemie zu verbinden. Nicht überall kamen die Thesen gut an und es gibt einen Artikel bei Carbonbrief, in der Stimmen die Studie kritisieren:

Dr Dann Mitchell – joint Met Office chair in climate hazards at the University of Bristol, who was not involved in the study – tells Carbon Brief about issues with the climate data used:

“Using some of our best climate observations, the authors identify a strong climate-driven signal over Myanmar and Laos, but there will be large uncertainties associated with variables such as cloud cover in that region, especially 100 years ago in South Asia – there is a lot of missing data there.””

Dr Matthew Struebig, from the University of Kent, is a member of the group, and warns that this map distribution data is “grossly insufficient”. He adds:

“Many species are not fully assessed, and too many are so poorly known they are only documented as a few dots on a map. Very little is known about optimum or preferred vegetation types – especially in the region highlighted in this study.

The study estimates the bat fauna of southern China and neighbouring countries increased by a whopping 40+ species in around 120 years. To put that into perspective, that would mean the number of bat species in Myanmar doubled in little over a century. Simply looking back at old species accounts and ecological studies from the region shows this simply did not happen.”

He adds that he is “sceptical of the link” between climate change and bat distribution change, and that the study makes “too many assumptions for me to conclude that climate change could have increased the likelihood of the pandemic occurring in this way”.”

Übrigens, war es nicht das PIK, das noch im Herbst 2019 mit hoher Wahrscheinlichkeit prognostizierte, dass ein El Niño im November 2020 stattfinden wird? Gekommen ist dann eine La Niña.

+++

Mit freundlicher Genehmigung von der  Kalten Sonne übernommen.

Anmerkung der Redaktion (Zitat aus „der Nairobi Report von 2007). 

Mark Steyn, über­liefert im Lon­don Daily Tele­graph…..die ein­fache Sicht der Klima der Kli­maka­tas­tro­phen­be­trei­ber. Danach be­hauptet Ste­ven Guil­beault von Green­peace France klar und deut­lich:

„Globale Er­wär­mung kann be­deu­ten, daß es wär­mer wird, kann aber auch be­deu­ten das es käl­ter wird, es kann be­deu­ten es wird trock­ener, es kann be­deu­ten es wird nas­ser. Das ist es, womit wir es zu tun ha­ben.“

Nicht schwer zu be­greifen: Wird es wär­mer, ist es ein Zei­chen der globalen Er­wär­mung, wird es käl­ter ist es eben­falls ein Zei­chen der globalen Er­wär­mung. Eine prak­tische Ein­stel­lung, um alles und je­des der heili­gen Kirche der globalen Er­wär­mung zu un­terwer­fen.

Greenpeace hat schon früh erkannt, wozu die „Klimakatastrophe“, heute zur „Klimakrise“ weichgespült, alles taugt.

 




Von den Grundrechenarten, ihrer Nutzung in der Klimafolgenforschung und Herrn Prof. Dr. Rahmstorf

Insbesondere die viel bekannten, oft zitierten, oft interviewten Klimaforscher wie z.B. der bekannte  Professor Stefan Rahmstorf verweisen bei ihren öffentlichen Vorträgen gern auf die strenge Wissenschaftlichkeit ihres Tuns.

So auch hier in seinem Vortrag in Mainz anlässlich der Reihe „Physik im Theater“ der Uni Mainz am 2.11.19 und anderswo. Sind sachkundige Leute im Saal, dann kommt gelegentlich die Frage, wie es denn möglich sei, eine globale Mitteltemperatur auf 2 Stellen hinter dem Komma, mit nur ± 0,05 ° Unsicherheit zu berechnen, wenn die ursprünglichen Daten selber nicht nur eine sehr viel größere Messunsicherheit von bestenfalls ± 0,5 ° brächten, aber auch vielfältige systematische Fehler diese weit in den Bereich von mehreren Grad verschöben.

Die Antwort darauf ist eigentlich immer dieselbe. Sie lautet, weil man Differenzen (im Jargon: Anomalien) aus zwei Absolutwerten bilde, also den aktuellen Wert von einem Referenzwert abzöge, seien diese sehr viel genauer, weil, und das wird impliziert, wenn auch selten dazu gesagt, sich dann die Fehler von selbst aufhöben, weil ja beide Werte denselben Fehler trügen.

So auch Stefan Rahmstorf in besagtem Vortrag. Er sagte, dass nun mal die Anomalien sehr viel genauer seien, als die Absolutwerte, das sei wissenschaftlich klar belegt, und verwies in diesem Zusammenhang auf seine Website Spectrum.de Scilogs,wo er dieses ausführlich erklärt hätte.

Nun, schaut man dort nach, dann wird zwar ausführlich erläutert, dass es – seiner Meinung nach- nur auf die Veränderung, also die Anomalie, ankäme, aber, obwohl er vorher versprach „Licht ins Dunkle zu bringen“  lässt er seine Leser weiterhin im Dunkeln, behält also die versprochen Erleuchtung für sich und erklärt nichts.

Stattdessen wird dem Leser wortreich mitgeteilt, wie und auf welche  Weise die meteorologischen Rohdaten weltweit – wenn auch sehr spärlich in Raum und Zeit verteilt – gewonnen wurden, und weiter erklärt, dass verschiedene Institute sich weltweit mit deren Auswertung beschäftigten, was natürlich einen gebührenden Eindruck beim Leser hinterlässt, um dann noch stolz zu betonen, dass deren Ergebnisse „dabei in hohem Maße..“ übereinstimmten.

 

Dazu wird die Grafik (s.o) in Abbildung 2 gezeigt.

Die Übereinstimmung ist in der Tat gut, wie jeder sehen kann, erklärt aber immer noch nicht, warum die Anomalien genauer sein sollten als die Absolutwerte, zumal jede Unsicherheitsangabe in der Grafik fehlt. Und beschreibt damit eigentlich auch nur die Selbstverständlichkeit, dass wissenschaftliche Auswertungen von immer denselben Daten auch zu sehr ähnlichen, bis exakt gleichen Ergebnissen führen müssen. Bspw. muss jede Messung der Erdanziehung, egal wie sie durchgeführt wird, immer auf einen Wert von 9,81 m/s2kommen. Kleine Unterschiede, bedeuten dann entweder Fehler oder sind Hinweise auf geologische Anomalien.

Dann, etwas weiter im Text, verspricht Rahmstorf sich der eigentlichen Frage zu stellen:

„Warum sind Differenzen genauer als Absolutwerte?“

lautet zunächst vielversprechend die Überschrift des nächsten Absatzes.

Aber wiederum zeigt er dann nur, dass er wohl bis heute selber nicht verstanden hat, was er den Lesern da eigentlich erzählt. Denn als einzigen Beweis stellt er die Behauptung auf:

„Wohl jeder Wissenschaftler ist damit vertraut, dass man in vielen Fällen Differenzen bzw. Veränderungen einfacher bzw. genauer messen kann als Absolutwerte.“

Nun muss noch mal erwähnt werden, dass nur Absolutwerte gemessen und Differenzen aus eben diesen nur errechnet werden können. Doch das begreift Rahmstorf wohl nicht, denn als Beispiel führt er an:

„Um in Paris zu bleiben: gehe ich auf dem Eiffelturm eine Treppenstufe hinauf, kann ich leicht mit einem Lineal messen, wieviel höher ich dann stehe – aber wie viele Meter über dem Erdboden ich insgesamt bin, lässt sich schon schwerer feststellen.“

Das ist zwar eine schöne Metapher, aber erklärt nun wahrlich nicht, warum Differenzen einfacher bzw. genauer gemessen werden können als Absolutwerte. Denn was er so nett beschreibt ist exakt die Messung des Absolutwertes der Höhe dieser Treppenstufe.

Nichts anderes.

Und die hat natürlich die üblichen Fehler einer Messung mit einem Lineal im Zentimeterbereich.

Doch in einem hat er recht, von der Höhe der Treppenstufe lässt sich nun wirklich nicht ableiten, egal mit welcher Genauigkeit, wie hoch sich diese über Grund befindet. Dazu fehlt die zweite wichtige Angabe, nämlich deren absolute Höhe über Grund. Und die kann, ebenso wie die, die der Treppenstufe selber, nur absolut bestimmt werden.

Offensichtlich hat er bis heute nicht begriffen, dass er mit diesem Vergleich seine eigene Argumentation ad absurdum führt. Nämlich, indem er wieder einen Absolutwert bestimmt, und diesen jetzt fälschlich zur Differenz erklärt. Differenzen müssen nun mal aus den Absolutwerten gerechnet und können nicht gemessen werden, da beißt nun mal die Maus keinen Faden ab. Und dazu braucht man von den Grundrechenarten die Subtraktion A-B = C. C wird errechnet und enthält somit nach der Fehlerfortpflanzung die Summenfehler von A und B. Genauer, die Wurzel der Summe der Quadrate der Fehler von A+B.

Niemand misst die meteorologische Differenztemperatur in einer Wetterhütte.

In dem er also die Höhe der Treppenstufe misst, schafft er das Problem nicht aus der Welt, er vernebelt es nur.

Das allerdings tut er im Folgenden sehr wortreich. Zwischendurch konzediert er zwar, eher beiläufig, dass die Wetterstationen weltweit   .. den Absolutwert der Temperatur, also z.B. 13,1 °C oder –5,4 °C“messen, lenkt dann aber die Aufmerksamkeit des Lesers auf, in diesem Zusammenhang völlig unwichtige, Nebenkriegsschauplätze. Und merkt das vermutlich nicht einmal selber.

Um dann, statt Klärung und Beweis auf diesen allein wichtigen Punkt einzugehen, einfach  so zu behaupten,..

„Die klimatischen Veränderungen der Temperatur kann man dagegen viel genauer bestimmen: schon für die Monatsmittelwerte der globalen Temperatur auf plus oder minus einige Hundertstel Grad genau. Das liegt einfach daran, dass Abweichungen der Monatsmitteltemperatur großräumig korreliert sind: wie Datenanalysen ergeben haben über einen Radius von mehr als eintausend Kilometern (Hansen et al. 1999).“

Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung

Das war’s. Kein Beweis, keine Herleitung. Nur eine Behauptung.

Nun sind Korrelationen und Datenunsicherheiten zwei paar Schuhe, und der von ihm zitierte Herr Hansen hat sicher viel für die Klimapanik weltweit getan, aber in dessen hier zitierter Arbeit wird mit keinem Wort nachgewiesen, dass Anomalien genauer wären, als die ihnen zugrunde liegenden Absolutwerte. Es findet sich nichts darin,  gar nichts, sondern nur mehrfache Verweise auf eigene frühere Arbeiten, insbesondere auf Hansen und Lebedeff 1987[1].

Doch auch dort haben sie zwar die sehr kühne Behauptung aufgestellt, dass Wetterstationen, die bis zu 2400 km (1200 km Radius,) entfernt voneinander stünden, das ist immerhin die Entfernung Berlin – Malaga, immer hoch korrelierte Trends aufwiesen. Um im Umkehrschluss dann kühn zu folgern, dass deshalb nur einige wenige dieser Stationen ausreichten, um die globalen Trends der (Mittel-)Temperatur extrem genau zu berechnen. Und das, wie Rahmstorf seine Leser und Zuhörer glauben machen will „auf einige hundertstel Grad genau“. Aber auch dazu wiederum findet sich kein Wort, warum Anomalien genauer sein sollen, als ihre jeweiligen Bezugs- und Rechengrößen.

In einem meiner früheren Artikeln zum Thema (hier) in dem ich diese Aussage untersuchte, schrieb ich deshalb:

„Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels -des Politprofis Al Gore- die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte.

In einem Aufsatz von 1987 [3] im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die  Autoren  „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur deswegen, weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.“

…und über Fehler bzw. deren Größe und Korrektur findet man nur:

„In der Zusammenfassung des Aufsatzes steht:

“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab

Und etwas später ebenda:

“.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“ 

In diesem hochtrabenden, etwas verschwurbelten Satz steht also im Klartext:

“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“

Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet. „

Und in diesem Beitrag „von Korrelationen und Anomalien“wird dann nochmals im Detail nachgewiesen, dass auch die Behauptung über die Nutzbarkeit von Korrelationen zur Trendbestimmung weit entfernter Stationen mit fehlerhaften Messungen absoluter Humbug ist.

Zitat (Willis Eschenbach) daraus

„Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.

Soweit der pfiffige, misstrauische Willis Eschenbach.“

Doch da Rahmstorf immer wieder denselben Unsinn erzählt, kann man wohl davon ausgehen, dass er vielleicht gelegentlich bei den Grundrechenarten etwas Nachhilfe benötigt, und von Fehlerrechnung – und -fortpflanzung auch nicht viel Ahnung zu haben scheint.

Denn Böswilligkeit, um mittels bewusst falscher Behauptungen seine Ideen zu verbreiten, will man ihm ja nun wirklich nicht unterstellen.

In diesem Zusammenhang möchte ich noch auf das ausgezeichnete Video vom Team Klimamanifest von Heiligenroth aufmerksam machen das den bezeichnenden Titel trägt

Das #Verwirrspiel des Stefan @Rahmstorf (V3a)

 

 

und sich intensiv mit der Verneblungstaktik im Wesentlichen von S. Rahmstorf beschäftigt, um nicht zugeben zu müssen, dass das Pariser Zweigradziel auf tönernen Füßen steht, bzw. ohne jede Grundlage ist. Es lohnt die Zeit zu investieren und es sich in ganzer Länge anzuschauen.

 

[1]Hansen, J. and Lebedeff, S., Global Trends of Measured Surface Air Temperature, J. Geophys. Res., 1987, 92 (D11), 13345-13372.

 




Stefan Rahmstorf: „Klima- und Coronakrise. Fünf Desinformations-Tricks, die jeder kennen sollte“

„PLURV“ nennt Rahmstorf die Strategie der „Verschwörungstheoretiker“, die wie Wolfgang Wodarg oder wir EIKE-isten vorgehen. Was bedeutet das?

P – Pseudo-Experten

L – Logikfehler

U – unerfüllbare Erwartungen

R – Rosinenpickerei

V – Verschwörungsmythen.

Daß gerade ein Klima-Modellierer, dessen Computer-Realitäten mit der erlebbaren Realität erfahrungsgemäß nicht übereinstimmen (siehe Klima-Gates), mit den Argumenten kommt, die gegen ihn und ähnliche Akteure vorgebracht werden, hat ein Geschmäckle. „Haltet den Dieb!“ schrie der Dieb, lautet das Prinzip dahinter.

Wir verbessern Rahmstorfs Argumente daher einmal mit PLERV. Schräggestellt Rahmstorfs Originalsätze, teils etwas korrigiert.

P – Pseudo-Experten

Um eine Gegenthese zum etablierten Wissensstand zu lancieren, werden oft Pseudoexperten aufgeboten. Diese verbreiten immer wieder neu aufgelegte Weltuntergangsmythen („In zehn/elf/zwölf Jahren ist das Klima nicht mehr zu retten!“), die mit untauglichen und einseitigen Methoden wie chaotisch-nichtlinearen und nur auf Annahmen beruhenden Algorithmen „bewiesen“ werden. Die Pseudoexperten verbreiten ihre Mythen über ihre exzellenten Kontakte in Politik und Medien. Politiker und Journalisten wiederum wollen ihre Politik/ ihr Blättchen verkaufen und nutzen gerne „Krisen“, auf die die Wähler/Leser automatisch emotional reagieren.

L – Logikfehler

Ein Beispiel: „In Deutschland ist der Wald nicht gestorben, weil die grünen Politiker und Journalisten/Aktivisten ihn gerettet haben.“ So herum wird ein Schuh daraus: Die Maßnahmen, ein bißchen Kalkung und die Einführung von Abgasfiltern, hätten den übersäuerten und angeblich so gut wie toten Wald nicht in ein paar Jahren retten können. Außerdem gab es gar kein flächendeckendes Waldsterben.
Und in etwa zehn bis 20 Jahren, wenn es natürlicherweise kühler geworden sein wird, wird es nicht an der guten Arbeit von Stefan Rahmstorf et alii liegen, daß die Heißzeit abgewendet werden konnte. Trotzdem werden SR und Politiker Milliarden Euro an Steuergeldern verbrannt haben.

E – Erfüllbare Erwartungen

Zweifler fordern gern mögliche Beweise – etwa, daß der Treibhauseffekt nicht nur in reduzierten Labormodellen unter ausgewählten Bedingungen, sondern in der atmosphärischen Realität mit mehreren Methoden nachgewiesen werden kann- ohne Zirkelschlüsse. Die Grundlage – daß CO2 langwellige Strahlung einfängt- ist zwar seit 1869 experimentell im Labor bewiesen, aber solche unbrauchbaren Modell-„Beweise“ sind in den Naturwissenschaften nicht selten. Es gibt zum Beispiel etliche Wirkstoffe, die Bakterien oder Krebszellen in der Kulturschale töten, im Patienten aber überhaupt nicht wirken, zumindest nicht im medizinischen Sinne.

R – Rosinenpickerei

Gute Wissenschaftler wollen die Welt verstehen – und wägen dazu alle verfügbaren Informationen kritisch ab. Ideologen wollen ihre vorgefaßte Meinung bestätigen, picken sich dazu die passenden Daten heraus und übersehen geflissentlich einen Berg gegenläufiger Belege.
Genau das machen Klimaforschen*de laufend – ist der Sommer heiß und trocken, ist das „Klimawandel“. Ist das Frühjahr vorher kalt und naß, ist das nur „Wetter“, reiner Zufall.
Zieht sich das arktische Sommereis stark zurück, ist das „Klimawandel“. Dehnen sich das arktische Eis und die Grönland-Gletscher im Winter wieder ordentlich aus, ist das wieder nur „Wetter“, reiner Zufall.

V – Verschwörungsmythen

Um wahr zu sein, würden viele Fake-Geschichten eine atemberaubende Inkompetenz von Wissenschaftlern erfordern. Oder zumindest eine ordentliche Portion Selbstbetrug und narzißtische Motivation. Denn: Ohne ihre Weltuntergangsmythen würden etliche Forscher nicht in die Medien kommen und müßten hart arbeiten, ohne dafür etwas anderes als einen Titel und Geld zu erhalten; und viele nicht einmal das.
Damit der Schwindel nicht auffliegt, konstruiert man z.B. Verschwörungen der „Klimaleugner“ und behauptet, Kritiker seien „rechtsextrem“ oder ähnliches; und sie seien von Interessensgruppen wie der Ölindustrie finanziert. Die Lobbyisten, gern aus dem Umkreis des US-Präsidenten, gäben dabei befehlsartig die Themen und Kampagnen vor, die die „Klimaleugner“-Vereinigungen dann auszuführen hätten.

 

Ergänzung der Redaktion

Rahmstorfs Leugnung wissenschaftlicher unzweifelhaft belegter Tatsachen, diesmal vorgetragen von Fritz Vahrenholt, und Rahmstorfs Hinweis auf die Falschheit der gleichwohl richtigen Tatsachenbehauptungen von Fritz Vahrenholt an die „taz“ führen im Endeffekt zu dessen Entlassung als Alleinvorstand er Deutschen Wildtierstiftung. Lesen Sie selbst. Aus dem wöchentlichen Newsletter von Fritz Vahrenholt erschienen bei „Die kalte Sonne“. Hier.

Die Erde wird grüner

Im August 2019 hatte ich auf diesem Wege über eine bemerkenswerte Veröffentlichung des Max-Planck-Instituts für Meteorologie in Hamburg berichtet.„Unsere zentrale Erkenntnis ist”, so die Forscher um Aexander Winkler damals, „dass der Effekt der CO2– Konzentration auf die terrestrische Photosynthese größer als zuvor gedacht ist und daher bedeutende Implikationen für den zukünftigen Kohlenstoffkreislauf hat.“ Der CO2– Dämpfungseffekt durch Pflanzen ist demnach 60 % höher als das Mittel der Klima-Modelle angenommen hatte. „In den letzten beiden Jahrzehnten entstanden im Mittel 310 000 km² zusätzliche Blatt- und Nadelfläche – ungefähr die Größe Polens oder Deutschlands – jedes Jahr,“ so die Forscher. Ich hatte diese wichtige Erkenntnis seinerzeit den Mitgliedern des Deutschen Bundestages mitgeteilt, was dazu führte, dass Stefan Rahmstorf meinte zu urteilen, dass ich „den deutschen Bundestag für dumm verkaufen wollte“. Diese Bewertung wurde von einigen Medien wie der TAZ aufgenommen und führte schliesslich zur Entlassung als Alleinvorstand der Deutschen Wildtier Stiftung.




Stefan Rahmstorf schlägt mal wieder Klima-Alarm!

Doch das Potsdamer Institut für Klimafolgenforschung findet, dass wir uns jetzt genug in Corona-Selbstmitleid und Angst gewälzt haben. Es wird Zeit, uns wieder an die wirklichen Probleme zu erinnern! So leicht lässt man sich doch die Deutungshoheit über die bevorstehende Apokalypse nicht aus der Hand nehmen. Nimm das, RKI!

Dem DLF gab Stefan Rahmstorf vom PIK deshalb ein Interview, in dem er eine neue Studie vorstellte. In dieser verspricht er uns für quasi übermorgen – also das Jahr 2100 – noch nassere Füße, als wir uns bisher auch nur vorstellen konnten! Doch nun gibt es ja die neuen Erkenntnisse des PIK und wir können uns angemessen gruseln und handeln (lassen). Ich finde hochinteressant, wie diese neue Studie zustandegekommen ist und freue mich über die Ehrlichkeit bezüglich der Methodik, von der Rahmstorf uns berichtet:

„Was wir gemacht haben, ist eine Expertenbefragung. (1) Das heißt, wir haben alle Wissenschaftler, die sich mit dem Meeresspiegelanstieg beschäftigen (2) und mehr als sechs Fachpublikationen in den letzten Jahren (3) zu diesem Thema veröffentlicht haben, angeschrieben und um ihre Einschätzungen (4) für den Meeresspiegelanstieg unter verschiedenen Emissionsszenarien gebeten (5). Und es stellt sich einfach heraus, dass die Mehrzahl der Fach-Community (6), der Spezialisten für Meeresspiegelanstieg (7) die Lage etwas pessimistischer (8) einschätzt als der Weltklimarat IPCC.“

Ich übersetze das mal für Sie, liebe Leser: 1) Es handelt sich um Experten, also stell das nicht in Frage und folge der Wissenschaft! Und zwar nur jener 2), die den Alarmismus des PIK unwidersprochen teilen, weil sie 3) ihre Publikationen offenbar reihenweise und mit den gewünschten Schlussfolgerungen in genau der Fachpresse unterbringen konnten, die wir für relevant halten. Die lassen da ja schließlich nicht jeden irgendwas publizieren, unsere Leute schreiben schließlich die Reviews! 4) siehe 2), und welche Einschätzungen 5) können dass aufgrund 3) schon sein? Der Leser wird ebensowenig überrascht sein wie das PIK! Und selbst bei dieser fachlichen Engführung gab es offenbar immer noch abweichende Meinungen 6), die für das gewünschte Ergebnis 7) nach dem Mehrheitsprinzip für irrelevant erklärt und weggelassen wurden. Die simulierte Einigkeit unterstreicht, dass die Lage zum Glück für die Klimaretter sogar noch viel schlimmer ist 8), als Greta, Luisa und das IPCC es uns bisher in ihren milden Forderungen als Schreckgespenster an die Wand malen. Wo bliebe denn sonst auch der gewünschte „Spin“!

Rennen sollen die dummen Schafe

Und als ob wir nicht geahnt hätten, dass die Klimaretter die Gelegenheit nicht ungenutzt verstreichen lassen werden, die am Boden liegende Wirtschaft auch am Boden zu halten, endet das Interview mit diesen Worten Rahmstorfs:

Jetzt, wo sehr viele staatliche Gelder in die Hand genommen werden, um die Wirtschaft zu stützen, wäre es natürlich völlig abwegig, damit klimaschädliche fossile Industrien wieder hochzupäppeln, die wir uns einfach wegen der Klimakrise nicht mehr leisten können.“

Wir wissen ja nun, was uns in der schönen neuen deindustrialisierten Welt winkt (blauer Himmel, Sonnenschein) und was uns blüht (Massenarbeitslosigkeit, Elend). Wir dürfen gespannt sein, ob das Aufmerksamkeitsdefizit von Rahmstorf und Kollegen die Klima-Auguren nach dieser Studie wieder am RKI vorbei und an die Pole-Position der medialen Alarmismen bringen kann. Vielleicht legt das PIK ja in Kürze noch einen Meter Meeresspiegel oben drauf? Meeresspiegelanstieg kann man schließlich nie genug haben, und wenn man nach dem wiederholten „Wolf!” nun „Ach was, drei Wölfe!” ruft, was soll da schon schiefgehen? Und was haben sich die dummen Schafe überhaupt darum zu kümmern? Rennen sollen die!

Dieser Beitrag erschien zuerst auf Roger Letschs Blog Unbesorgt.




„Klartext Klima“: Vier Stühle – eine Meinung – wenig Zuseher

Vier Stühle – eine Meinung: Klartext Klima ist eine YouTube Reihe, in der sich Klimaaktivisten unterhalten. Das Format hat aktuell 99 Abonnenten, die Folge 3 vom 01.05.2020 haben bisher 400 Menschen gesehen (Stand 06.05.2020 abends, Anmerkung der Redaktion: Zum Zeitpunkt 9.5.20 12:35 Uhr da diese Meldung eingestellt wurde, zählt „Klartext“ 454 Klicks)).

Es geht in dieser Folge 3 um die Herrn Professoren Stefan Rahmstorf und Volker Quaschning, den Meteorologen Özden Terli und Frau Maja Göpel, ebenfalls Professorin in Sachen Politökonomie und Nachhaltigkeitswissenschaft. Die Folge 3 handelt vom Wegschwimmen der eigenen Felle, weil Corona momentan das alles überstrahlende Thema ist und eben nicht das Klima. Also werden diese beiden komplett unterschiedlichen Themen einfach in einen Topf geworfen, auch wenn sich das eigentlich verbietet, wie der Wissenschafts-Journalist Axel Bojanowski feststellte:

„Corona-Pandemie und Klimawandel zu vergleichen, ist ein guter Indikator, beide Probleme nicht verstanden zu haben.“

In dieser Folge vom Klartext Klima wird es daher hinten höher als vorne. Professor Rahmstorf sagt nämlich:

„Was nützt uns eine Wissenschaft, die in der Lage ist Vorhersagen zu machen, wenn wir dann lediglich dazu bereit sind abzuwarten, bis diese Vorhersagen eingetreten sind.“

Gemünzt ist das offenbar auch auf Corona. Aber gerade da könnten die genannten Personen einiges von den Corona-Wissenschaftlern lernen, die gerade prominent durch die Medien gereicht werden.

Klima ist gemitteltes Wetter auf 30 Jahre, folglich dauern Ergebnisse entsprechend lange oder anders gesagt, man kann sich die letzten 30 Jahre (oder länger) ansehen und versuchen Schlüsse daraus zu ziehen. Das ist schon ein erster sehr eklatanter Unterschied zu Corona, wo es eine ganz andere, nämlich nahezu tägliche Dynamik gibt.

Und wie gut oder schlecht eine Wissenschaft in der Lage ist Vorhersagen zu machen, zeigt das Thema Klima sehr schön. Bisher konnte noch kein Klima-Modell die reale Vergangenheit korrekt nachmodellieren. Bei jeder Überprüfung der Modelle kommen erstaunliche Abweichungen zur Realitätzu Tage. Insofern müsste man Herrn Professor Rahmstorf einfach mal fragen, welche Vorhersagen er denn meint? Auf was bitte soll gewartet werden, wenn es nicht stimmt? Die Liste der nicht eingetretenen wissenschaftlichen Prognosen in dieser Sache ist sehr lang und sollte doch eigentlich Mahnung sein, diese Prognosen einmal auf den Prüfstand zu stellen. Und zwar jeden Tag erneut. Corona zeigt nämlich sehr schön, dass Wissenschaft immer nur der aktuelle Stand des Irrtums ist. Das ist zwar zugespitzt, aber es trifft den Kern.

Beim Thema Klima läuft es aber anders, da gibt es nur eine Wahrheit, also etwas Absolutes, fast wie im Glauben und in der Kirche. Theorien werden per zweifelhafter Prozentzahl als Zustimmung bestätigt, aber nicht durch Thesen oder Gegenthesen. Die Headline einer Studie reichte schon aus, nicht der Inhalt. Wer daran Zweifel oder Fragen hat, der wird in irgendwelche Ecken gestellt und gilt als Leugner oder Verschwörungstheoretiker. Eine schöne Art, es sich in der eigenen Blase bequem zu machen. Die Corona-Wissenschaftler sind sich nicht zu schade, sogar Theorien, die ganz neu oder sehr alt sind, über den Haufen zu werfen, wenn sie Zweifel haben, sie sind Wissenschaftler im besten Sinne. Noch nie war das Wissen über das Unwissen so groß, um es mit dem Philosophen Habermas zu sagen. Und ganz besonders ragt Professor Christian Drosten und seine Auffassung von Wissenschaft heraus. Wir zitieren ihn hier deshalb noch mal:

„Es seien nicht Wissenschaftler, sondern die Politik, die Entscheidungen in der Krise treffe. Seine und die Aufgabe seiner Kollegen sei es, Daten zur Verfügung zu stellen und diese zu erklären. „Das ist ja das, was im Moment Wissenschaftler auch vielfach tun – und dafür dann leider auch überzeichnet werden“, setzt Drosten dann an. Seriöse Wissenschaftler würden weder bereits getroffene Entscheidungen bewerten noch konkrete Entscheidungen von der Politik einfordern.“

Es steht im krassen Widerspruch zu oben den genannten Aktivisten. Sie machen genau das Gegenteil von dem, was Drostens Auffassung von Wissenschaft ist. Der Grund könnte sein, dass Drosten einfach kein Aktivist ist.

+++

Wie geht man mit unbequemen Kritikern um? Früher hat der König sie einfach in den Kerker gesperrt und sie dort langsam verhungern lassen. Heute ist man da deutlich zivilisierter. Kritiker werden „nur noch“ als Nazi beschimpft, ihnen werden heimliche und üppig entlohnte Lobbyarbeit für das dreckige Großkapital unterstellt und allerlei andere Verschwörungstheorien aufgestellt. Da kommt man als naiv-wissenschaftlich denkender Kritiker ganz schön ins Grübeln, denn offenbar lassen sich die kritischen Argumente auf der Sachebene nicht so leicht entkräften, so dass andere Geschütze aufgefahren werden müssen.

Susan Crockford ist Zoologin und wehrt sich entschieden gegen die klimaalarmistische Instrumentalisierung von Eisbären. Das gefällt den Klimaalarm-Vertretern natürlich überhaupt nicht. Wie könnte man Susan zum Schweigen bringen, hat man sich schon lange gefragt. Nun hat man einen Weg gefunden. Zwar ist es nicht der Kerker, aber so ähnlich. Die University of Victoria hat Susan Crockford nun den Status als Adjunct Professor entzogen. Anstatt sich ihren Argumenten zu stellen, will man ihr den akademischen Boden unter den Füßen wegziehen. Nachzulesen bei WUWT hier, hierund hier.

Der Beitrag erschien zuerst bei die kalte Sonne hier




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 3)

Das Zitat oben von Stefan Rahmstorf am 12.2.18[1]  ist ein Beispiel zur Behauptung warum Anomalien genauer sind als die ihnen zugrunde liegenden Absolutwerte. Er hat bis heute nicht begriffen, dass er in diesem Beispiel Absolutwerte misst und diese als Anomalien ausgibt. Klimaanomalien werden jedoch nicht gemessen, sondern aus den Absolutwerten mit all ihren Fehlern berechnet. Und da gilt nun mal das Gesetz von der Fehlerfortpflanzung. Er betreibt also – bewusst oder unbewusst- Etikettenschwindel.

Teil 1 hier und Teil 2 hier

Anomalien und sprunghafter Fehler

Machen wir dazu die Probe aufs Exempel, indem wir einen Anomalienverlauf aus einem (künstlichen) sinusförmigen Temperaturverlauf von 1850 bis 2009 erzeugen. Blau sei der Anomalienverlauf ohne Fehler. Die Anomalie verläuft fast eben, wie die blaue Trendlinie anzeigt. Ab 1940 wird nun ein Fehler von + 1 K eingefügt. Gemäß Rechenanweisung w.o. wird dann aus beiden Werten für alle Jahre (x) die Differenz gebildet. Ab 1940 hebt sich der Fehler auf. Beide Verläufe gehen ineinander über. Vor 1940 jedoch wird allein durch den Rechenprozess die Temperaturanomalie um 1 k abgesenkt. Wir sehen, die Annahme von vorhin gilt nur für die Zeit nach 1940. Vorher nicht.  Lässt man Excel eine Trendgerade durch diese Werte legen, dann sehen wir, dass sich beide erheblich unterscheiden.

Abbildung 8 Ein systematischer Fehler von + 1 K tritt ab 1940 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ wie alle aktuellen Werte ab 1940 betroffen. Ab 1940 gleicht sich der Fehler aus, vorher aber nicht. Der Trend verschiebt sich.

Daran ändert sich auch nichts, wenn wir den Eintritt des Fehler auf später verlegen. Wie das nächste Bild zeigt. Dort werden die Kurven Anomalie 1 und 3 genannt.

Abbildung 9 Ein systematischer Fehler von + 1 K tritt jetzt 1980 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ zur Hälfte und  alle aktuellen Werte ab 1980 betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.

Auch hier hebt sich der Fehler nicht auf, sondern ist weiter voll vorhanden und wirksam, natürlich erst, nachdem er auftritt. Der Unterschied zum ersten Beispiel ist, dass nun überhaupt keine „wahre“ Temperaturanomalie mehr gezeigt wird, sondern nur noch die fehlerbehaftete Summe.

Schleichender Fehler

Genauso entwickelt sich das Ergebnis, wenn man anstatt (oder zusätzlich) einen schleichenden Fehler in den zuvor fehlerfreien Verlauf einbringt.  Ich habe das in der folgenden Abbildung getan. Dort wurde von Anfang an ein schleichender systematischer Fehler von +0,1 K/Dekade eingebracht, wie er z.B. vom städtischen Wärmeinseleffekt hervorgerufen werden kann.

Abbildung 10 Ein systematischer Fehler von + 1 K tritt schleichend ab Beginn auf, weil z.B. die Station altert. Von dieser Veränderung sind das „Station Normal“ entsprechend seinem linearen Anteil ebenso wie  alle aktuellen Werte von Anfang an betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.

Wir sehen einen schön ansteigenden Verlauf (zuvor war er fast gerade) – verursacht allein durch den schleichenden systematischen Fehler- z.B den UHI. Nur kann jetzt überhaupt nicht unterschieden werden, ob ein systematischer Fehler vorliegt, oder ob sich die Umgebungstemperatur z.B. durch den Treibhauseffekt erhöht hat.

Man könnte nun beanstanden, dass die Fehlergröße in diesen Beispielen etwas hoch gewählt wurde. Dem ist aber nicht so, wie die zahlreichen Untersuchungen z.B. von Watts (http://www.surfacestations.org/) zeigen. Denn Fehler dieser Art gab und gibt es zahlreich. Sie werden durch Stationsverlegungen, Thermometertausch, Änderung der Farbbeschichtung der Station, Änderung des Algorithmus für die Berechnung des Mittelwertes u.v.a. mehr eingebracht. Es wäre nun vielleicht möglich den Anstieg im obigen Beispiel als Ausreißer zu erkennen, weil er einmalig und sprunghaft  -wenn auch konstant- auftritt, und ihn durch entsprechende Rechnungen zu kompensieren. Das geschieht aber nur sehr, sehr selten, weil sich bei den abertausenden von Datensätzen der Vergangenheit kaum jemand diese Mühe macht, bzw. machen kann

Kein Fehlerausgleich möglich

Eine Korrektur unterbleibt hauptsächlich deswegen, weil man die Binsenweisheit (siehe Brohan et al 2006) von zuvor glaubt, dass sich der Fehler bei Anomalienbildung von selbst ausgleicht.  Das ist aber, wie wir gesehen haben, grottenfalsch!

Eine Korrektur unterbleibt aber auch in den allermeisten Fällen deshalb, weil die dazu erforderlichen sog. „Metadaten“ fehlen und auch nicht mehr herbeigeschafft werden können. Diese beschreiben die Umgebungsbedingungen, Maßnahmen, Algorithmen und vieles anderes, was in und um die Station über den Zeitraum passiert ist. (Siehe dazu bspw. Harrys Read Me Files des Meteorologen und Programmierers bei der CRU Harry: „HARRY_READ_Me.txt.“ z.B. hier . Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009[2])

Allgemein gilt daher, die Annahme, dass sich bei Anomalienbildung die Fehler aufheben, ist nur dann richtig, wenn der gemeinsame, gleich große und richtungsgleiche Fehler vor dem Beginn der untersuchten Zeitspanne eintritt und dann so bleibt. In unserem Falle also vor 1850. Das liegt jedoch weder in unserem Ermessen, noch haben wir davon Kenntnis, sondern es wird allein durch die Realität bestimmt. Deshalb kann festgehalten werden, dass diese simple Fehlerkorrekturmethode in aller Regel nicht anwendbar ist. Angewendet wird sie aber von so gut wie allen -auch IPCC- Klimatologen trotzdem.

Zusammenfassung

In der Statistik ist es eine gängige Methode Werte von div. Variablen mit Referenzwerten eben dieser Variablen zu vergleichen, um auf diese Weise bei eventuellen Abweichungen u.U. Ähnlichkeiten im Verlauf oder sogar Hinweise auf mögliche Ursache und Wirkungsbeziehungen zu bekommen. Allerdings muss man sich immer im Klaren darüber sein, wie sehr diese Methode von den Randbedingungen abhängt. Es wird gezeigt, dass eine schlichte Anomalienbildung keineswegs ausreichend ist, um schwer bestimmbare variable oder konstante systematische Fehler herauszurechnen. Im Gegenteil, man müsste in jedem Fall diese Fehler bestimmen, sie quantifizieren und einordnen, um sie dann evtl. mehr oder weniger gut rechnerisch ausgleichen zu können. In der Klimatologie ist diese Einschränkung in Bezug auf die Schwächen der Anomalienbildung offensichtlich nicht nur nicht bekannt, sondern wird auch – auf den ersten Anschein hin- negiert.

Der berühmte Physiker und Nobelpreisträger Dick Feynman würde sagen: „Sie halten sich selbst zum Narren“. Nur so lässt sich erklären, dass auch hochangesehene Forscher diese simplen Zusammenhänge oft nicht beachten. Ihre Ergebnisse sind dadurch entsprechend falsch und damit unbrauchbar, bzw. mit wesentlich größeren Fehlern (Unsicherheiten) behaftet als angegeben.

 

Anhang.

Zur behaupteten Genauigkeit

Die berechnete Globaltemperatur im letzten Jahrhundert hat sich, gemäß Aussage des Intergovernmental Panel of Climate Change (IPCC) um ca. 0,6 ° bis 0,7° C erhöht, wie uns im Bericht TAR 2001(Third Assesment Report) mitgeteilt wurde. Um diese Aussage treffen zu können, müssen Veränderungen über lange Zeiträume mit einer Genauigkeit von < 1/10 °C ermittelt, erfasst, dokumentiert und verdichtet werden. Das englische Klimazentrum CRU (Climate Research Unit) -siehe Abbildung 1- zeigt sogar einen Anstieg von 0,8 °C mit einem Vertrauensintervall bei 95% von -0,09 bis +0,11 °C (Jahr 1905) bis ± 0,08 ° (Jahr 2005.).[3]

Dem steht aber entgegen, dass selbst bei Verwendung der bestgewarteten Messstationen und von gut trainierten Meteorologen so genau wie möglich abgelesenen Temperaturwerte, diese nur die Bestimmung von Tagesmittelwerten mit einer von  Genauigkeit ± 2 bis ± 3 K erlauben. Zitat des Meteorologen und Statistikers Jürgen Pelz

Jürgen Pelz: „Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der ,Informationstheorie“ Beilage zur Berliner Wetterkarte vom 7.12.1995; S. 5

„Will man beispielsweise die Tagesmitteltemperatur auf ± 0.1 K genau ermitteln, darf der Abstand der Messungen nicht grösser als 15 Minuten sein. Genügt eine Genauigkeit von ± 2 bis 3 K, reichen die Klimatermine.“ [Pelz, 1995b][4]

Trotzdem behaupten die Wissenschaftler der Climate Research Unit (CRU) der University von East Anglia,  welche die CRU Hadley Reihe produzieren[5]: „How accurate are the hemispheric and global averages? Annual values are approximately accurate to +/- 0.05°C (two standard errors) for the period since 1951. They are about four times as uncertain during the 1850s, with the accuracy improving gradually between 1860 and 1950 except for temporary deteriorations during data-sparse, wartime intervals. Estimating accuracy is a far from a trivial task as the individual grid-boxes are not independent of each other and the accuracy of each grid-box time series varies through time (although the variance adjustment has reduced this influence to a large extent). The issue is discussed extensively by Folland et al. (2001a, b) and Jones et al. (1997). Both Folland et al. (2001a,b) references extend discussion to the estimate of accuracy of trends in the global and hemispheric series, including the additional uncertainties related to homogenity corrections.”

[1] Quelle: „Verwirrspiel um die absolute globale Mitteltemperatur“ https://scilogs.spektrum.de/klimalounge/verwirrspiel-um-die-absolute-globale-mitteltemperatur/ (hier)

[2] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN (hier)

[3] Diese Darstellung der Zeitreihe der mittleren Globaltemperatur kommt auf vielfältige Weise in öffentlichen Berichten des IPCC AR 4 vor. So z.B. Im Summary for Policymakers SPM auf Seite 19, In den FAQ´s des Berichtes der Workung Group 1 Fig. 3.1 auf S 104. In der Technical Summary des Berichtes der Working Group 1 (WG1-TS) als Fiure TS.6 auf Seite 37 usw.

[4] Pelz, J b (1995) Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der Informationstheorie. Beilage zur Berliner Wetterkarte 7.12.1995

[5] Quelle http://www.cru.uea.ac.uk/cru/data/temperature/#datter (hier)

Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 2)

…siehe hierhier und hier.“ (Pat Frank 9.12.2019[1])

Teil 1 hier und Teil 3 hier

Zu 3 Messregime

Da es praktisch undurchführbar war die gemessene Temperatur in kurzen Zeitabständen abzulesen, wünschenswert wären bspw. alle 5 Minuten gewesen, definierte man entweder wenige feste Tageszeiten, an denen abgelesen (und notiert) wurde, dies wurde insbesondere in Zentraleuropa – aber zu verschiedenen Zeiten und auch unterschiedlich oft- so gemacht, oder man las nur die Max. und die Min-Werte von speziellen Thermometern ab, und war dadurch zeitlich nicht so gebunden. Man handelte sich aber damit die Unkenntnis ein, nicht genau zu wissen, wann am Tag der Max. bzw. Min. Wert aufgetreten war. Das führte zu einem speziellen, aber kräftigen Fehler bei der Auswertung, der sogar einen eigenen Namen bekam, der Time of Observation Error (TOBs). Vor allem die praktischen Briten und mit ihnen dann alle ihre Kolonien und Einflussgebiete benutzten bis zum Ende des vergangenen Jahrhunderts diese Methode.

Abbildung 5 Kleine Auswahl aus historisch vielfach verwendeten Mittelwertbildungsalgorithmen

Aus diesen punktuellen Messwerten wurden dann arithmetische Mittelwerte gebildet, das sog. Tagesmittel. Diese (verschiedenen) Tagesmittel erlaubten nun Monatsgänge der Tagestemperaturen zu bilden. Sie wurden und werden dann weiter zu arithmetischen Monatsmitteln zusammengefasst, die es wiederum erlaubten Jahresgänge zu bilden, welche den Verlauf der Jahreszeiten anhand der Mittel-Temperatur zeigten.  Diese können dann zu Zeitreihen für langjährige klimatologisch interessante Zeiten zusammengefasst werden, was auch geschieht.

Es geschieht aber noch etwas anderes mit diesen Daten, sie werden in „Anomalien“ umgerechnet, d.h. es werden Differenzen aus dem aktuellen Wert abzüglich eines Referenzwertes gebildet. Dies geschieht wegen der berechtigten Annahme, dass Anomalien die eigentlich gesuchten Veränderungen präziser und weiträumig vergleichbarer abbilden, als die der absoluten Temperaturen, die zusätzlich noch weiteren Einflüssen wie Höhenlagen, windhöffiger oder stiller Messort etc. ausgesetzt sind. Doch damit handelt man sich neue Fehlerquellen ein, von denen die wenigsten Klimaforscher etwas wissen, ja schlimmer noch, die wegen falscher, wenn auch plausibler Analogien, zu völlig falschen Ergebnissen führen müssen. Welche das im Einzelnen sind und was das bedeutet wird im Teil „Weiterverarbeitung“ ausführlich beleuchtet.

Zu 4. Die geografische und zeitliche Abdeckung

Sobald die so gewonnenen Daten etwas mehr zur Beobachtung und Deutung von großräumigem Wettergeschehen herangezogen werden sollen, was in der Natur der Sache liegt, denn Wettergeschehen ist großräumig, kommt es unmittelbar auf eine genügende räumliche wie zeitliche Abdeckung der in Frage kommende Gebiete an. Doch da setzen ebenso technische wie finanzielle Machbarkeit enge Grenzen. Errichtung und Betrieb von Wetterstationen ist nicht nur teuer, sondern verlangt neben der genügenden Verfügbarkeit der richtigen Messmittel, auch genügend personelle Kapazität, großes Know How  und Disziplin für ihren Betrieb. Und das permanent über lange, im politischen Maßstab sehr lange Zeiträume. All das war von Anfang an nicht selbstverständlich und musste erst langsam nach dem Entstehen reifen. So wundert es nicht, dass die Stationsdichte sich ausnahmslos in früh entwickelten Ländern konzentriert, während weite Teile der Welt bis Anfang der 50er Jahre praktisch ohne Messstationen blieben. Das gilt für Südamerika, Afrika und weite Teile Asiens, ebenso wie die mehr als doppelt so große Ozeanfläche dieser Welt.

Abbildung 6 Entwicklung der Zahl und Position der historischen Messstationen

darunter Aktueller Stand der im Global Historical Climate Networks GHCN der NOAA mit Monatsmittelwerten der  Temperatur  insgesamt zuliefernden 7.280 Stationen mit mindesten 10 Jahren  kontinuierlicher Datenreihen. Für Stationen mit Max/Min Erfassung gibt es ähnliche Grafiken. Quelle (http://www.ncdc.noaa.gov/oa/climate/ghcn-monthly/index.php fig. 1). Man beachte jedoch, dass von GISS und CRU davon nur ungefähr 1/7 ausgewertet werden.

Quelle https://climateaudit.org/2008/02/10/historical-station-distribution/

Abbildung 7 Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611

 

Zu 5. Die Weiterverarbeitung! Was geschieht mit den meteorologischen Messdaten?

Wie zuvor schon kurz angesprochen werden die Einzeldatensätze erst einer umfassenden Prüfung auf Konsistenz, Dauer, und Plausibilität, mit anschließender Weiterverarbeitung unterzogen. Zunächst bleibt es bei den einzelnen Stationen und ihren Daten. Je nach Verwendungszweck wird aus diesen erst Tagesmittel und daraus das Monatsmittel gebildet und von diesem eines als „Station Normal“ bezeichneten langjährigem (bspw. über 360 Monate also 30 Jahre) Mittel abgezogen. Die so entstehende Differenz wird als so gut wie fehlerfrei betrachtet, weil – so die Annahme – die lokalen systematischen Fehler ja auch im „Station Normal“ vorhanden seien, und, wenn man beide Werte voneinander abzöge, sich der Fehler kompensierte (stellvertretend dafür [Brohan et al. 2006])[2],[3]. Manchmal werden aber auch zunächst die Jahresmittel gebildet und diese vom „Station Normal“ abgezogen. Die Grundannahme aber, von der Fehlerselbstkorrektur bei Bildung von Anomalien, bleibt aber dieselbe.

Und daher behaupten so gut wie alle Klimaforscher, auch Stefan Rahmstorf vom PIK unwidersprochen[4], dass Anomalien viel genauer seien als die ihnen zugrunde liegenden Absolutwerte. Liest man seinen Text genauer, dann muss man feststellen, dass er sich mit der Materie nicht beschäftigt hat, sondern nur auf die Korrelation zwischen den Trends von absoluten Temperaturdaten verweist, wie sie schon von James Hansen für seine Schwarze Kunst verweist. Es bleibt ein bitterer Treppenwitz der Wissenschaftsgeschichte, dass Annahmen über Korrelationskoeffezienten herunter bis 0,33 (Hansens Grenzwerte) die Politik in ein nie dagewesenes Desaster treiben konnte.  Wer Näheres dazu wissen möchte sei auf diesen Beitrag verwiesen: Von Korrelationen, Trends bei Anomalien![5]

Doch diese Annahme ist – bei Zeitreihen von Anomalien – und das werde ich im Folgenden belegen, bis auf eine Ausnahme, immer falsch!

Anmerkung:

Der folgende Text ist einem Artikel entnommen, den ich am 7. Februar 2011 bei EIKE einstellte, und der am 23.11.2018 aktualisiert wurde.

In der Klimatologie werden zur Bestimmung des Referenzwertes, die errechneten Monatsmittel oder Jahresmittel der gemessenen Temperatur einer Station, über den Zeitraum von 1961 bis 1990 aufaddiert und durch die Anzahl aller Monats- oder Jahresmittel dieses Zeitraumes geteilt. Der so enthaltene Wert entspricht einer Geraden gleicher „Temperatur“ über den Referenz-Zeitraum von 1961 bis 1990. (Es kann im Prinzip aber auch jeder andere Zeitraum sein.) Der zugehörige Referenz-Wert wird oft das Stationsnormal genannt. Folgerichtig heißen die Abweichungen vom (Stations)-Normal Anomalien.

Nun bildet man die Differenz aus allen absoluten Jahresmitteln Tx der Zeitreihe und dem Stationsnormal Tref und ermittelt auf diese Weise eine neue Zeitreihe der Anomalien eben dieser Station.  Dabei geht man von der Annahme aus, dass diese, wenn sie einen Fehler C enthalten, dieser auch im Stationsnormal vorhanden ist. Ferner unterstellt man, dass C eine konstante Größe hat. Bspw. Brohan und Jones[6] formulieren diese Annahme (in Bezug auf die Fehler durch unterschiedliche Mittelwertbildung) so:

„..There will be a difference between the true mean monthly temperature (i.e. from 1 minuteaverages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly.

Berechnet man jetzt die Anomalie Ax = (Tx+C) –(Tref+ C), dann hebt sich C auf. Das ist schlichte Algebra. So weit so gut! Die große Frage ist nun, funktioniert das bei Zeitreihen auch so? Warum denn nicht, wird mancher vorschnell antworten. Die Algebra ist schließlich immer gleich! Oder?

Es zeigt sich sehr schnell, dass die Idee der Fehlerkompensation, die hinter dieser einfachen Methode steckt, ebenso plausibel wie falsch ist, bzw. sie stimmt nur innerhalb ganz enger Randbedingungen, die in der hier interessierenden Praxis nicht eintreten.

Ende Teil 2

[1] Zitate in deutscher Übersetzung von Pat Frank Quelle: https://www.eike-klima-energie.eu/2019/09/09/fehler-fortpflanzung-und-die-zuverlaessigkeit-von-projektionen-der-globalen-lufttemperatur/

[2] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.

[3] Brohan et. al geben auf Seite 6 den allgemeinen Glauben an die Fehlerfreiheit der Anomalien wider, in dem sie schreiben: „..There will be a dierence between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this dierence will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error.“ Im Folgenden beschreiben die Autoren wie die Anforderungen an die Bildung der „station normals“ also der Referenzewerte (lt. WMO der Mittelwert jeder Station über die Jahre 1961-1990) aufgeweicht (relaxed) wurden. Die durchgeführte Re­duk­ti­on der An­for­de­run­gen zur Bildung des Referenzwertes (Station Normal) auf nur noch 15 Jah­re und da­raus 3 x 4 Jah­re in je­der De­ka­de, er­höht den Feh­ler, der schon in der Ver­wen­dung des Sta­ti­on Nor­mals steckt, wei­ter.

[4] Verwirrspiel um die absolute globale Mitteltemperatur Verwirrspiel um die absolute globale Mitteltemperatur

[5] https://www.eike-klima-energie.eu/2018/01/09/von-korrelationen-trends-bei-anomalien/

[6] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.

Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion




Offener Brief an Prof. Rahmstorf

Als hätten Sie nicht schon damit genug zu tun, kommen einfach so ein paar Leute daher stellen 16 „unschuldig anmutende Fragen.“, ob man mit dem Klimawandel nicht auch anders umgehen könne. https://www.klimafragen.org/ Wie kommen die überhaupt dazu, fragen Sie. Schließlich haben die Initiatoren und Unterzeichner keinen persönlichen Vorteil davon, sie müssen nicht ein Institut am Leben halten oder sich wie Politiker als „action heros“ gebären, warum also „verschwenden“ sie ihre Zeit, Kraft und Geld daran, die „Große Transformation“ des Landes zu hinterfragen?

Ob Sie es glauben oder nicht, aber diese Frage stellen wir uns auch manchmal. Warum tun wir uns dies an? Nur, um auch einmal ordentlich diffamiert zu werden? Vielleicht treibt uns die leise Hoffnung an, dass Intelligenz und Vernunft in unserem Land noch nicht völlig ausgestorben sind. Dann aber kommen wieder Zweifel hoch, insbesondere wenn man Beiträge wie den Ihren liest und feststellt, dass die einflussreichen Experten, auf deren Aussage hin wir unser Land umbauen sollen, offenbar nicht einmal sinnentnehmend lesen können. So steht für jedermann erkennbar folgender Satz am Anfang der Fragen:

Ausgehend von der Annahme, eine menschengemachte Klimaerwärmung sei erwiesen und menschliches Reaktionshandeln darauf geboten, muss – vernunftgeleitet – erörtert werden: Welche Folgen ergeben sich aus dieser Erkenntnis und mit welchen möglichen Maßnahmen kann einer schädlichen Klimaerwärmung mit Aussicht auf Erfolg entgegengewirkt werden?“

Die Tatsache, dass der Klimawandel als solcher unterstellt wird, erschließt sich zudem daraus, dass wir explizit nach möglichen positiven Effekten des Wandels fragen. Das setzt – na, was? Richtig, das setzt einen Wandel voraus.

Tatsächlich hatten wir erwartet, dass Wissenschaftler und auch Journalisten sowohl sinnentnehmend lesen können wie auch grundlegende logische Zusammenhänge verstehen. Wenn dem nicht so ist, dann …Nein, diesen Gedanken wollen wir gar nicht zu Ende denken.

Das Problem ist: So geht es in ihrem Beitrag weiter.

Sie behaupten, wir hätten den IPCC mit den Worten „In Sachen Klimaforschung und -modellierung sollten wir anerkennen, dass es sich dabei um ein gekoppeltes, nicht-lineares, chaotisches System handelt. Deshalb sind längerfristige Vorhersagen über die Klimaentwicklung nicht möglich.“ falsch zitiert hätten.

Das habe er habe nicht gesagt, das wäre falsch übersetzt, außerdem habe er das, was er nicht sagte, so auch nicht gemeint, es handle sich um eine Fehlinterpretation. Im Übrigen habe sich der IPCC um die Probleme der „Restunschärfe“ der Modelle oder auch die „verbleibenden Unsicherheiten“ gekümmert.

Ja was denn nun? Hat er es so nicht gesagt, weil falsch übersetzt oder nicht gemeint? Wenn er es nicht sagte und nicht meinte, welche „Unsicherheiten“ und „Unschärfen“ gibt es dann überhaupt?

Geschrieben hat der IPCC folgendes:

In climate research and modelling we should recognize, that we are dealing with a coupled non linear chaotic system and therefore that the long-term prediction of future climate states is not possible.” (IPCC, Third Assessment Report, 2001, Section 14.2.2.2, S. 774).

Also wurde der IPCC wortwörtlich richtig zitiert.

Im Folgesatz schreibt „Klimafragen.org“:

Tatsächlich wohnt Prognosen der klimatischen Entwicklung, die über einen Zeitraum von mehr als zehn Jahren hinausgreifen, keinerlei Vorhersagekraft mehr inne. Die Klimaforschung behilft sich daher mit Szenarien, die zwar plausibel und in sich widerspruchsfrei sind, denen aber aufgrund ihrer Konstruktion keine Eintrittswahrscheinlichkeiten zugeordnet werden können.“

Im englischen Original heißt der Satz:

„The most we can expect to achieve is the prediction of the probability distribution of the system’s future possible states by the generation of ensembles of model solutions. This reduces climate change to the discernment of significant differences in the statistics of such ensembles.”

Wörtlich ins Deutsche übersetzt:

“Das Höchste, was wir erwarten können, ist die Vorhersage der Wahrscheinlichkeitsverteilung der zukünftigen möglichen Zustände des Systems durch die Generierung von Ensembles von Modelllösungen. Dies reduziert den Klimawandel auf die Feststellung signifikanter Unterschiede in der Statistik solcher Ensembles.“

Nochmal: „… die Vorhersage der Wahrscheinlichkeitsverteilung… reduziert den Klimawandel auf die Feststellung signifikanter Unterschiede in der Statistik solcher Ensembles“

Genau das hat „Klimafragen.org“ sinngemäß ausgedrückt und spricht von „keinerlei Vorhersagekraft“.

Also richtige Übersetzung und richtige Interpretation!

Ihr Einwand, dass der IPCC versucht hat, mit Simulationen, die auf unterschiedlichen Modellen auf der Grundlage unterschiedlicher Anfangsdaten beruhen, „die Unschärfe zu beschreiben“ stimmt. Und was ist das Ergebnis?

Auf S. 62 des „Technical Summary“ – Sie wissen schon, der Teil, den weder Politik noch Presse lesen – steht zum Thema:

Model Response Error

The discrepancy between simulated and observed GMST trends during 1998–2012 could be explained in part by a tendency for some CMIP5 models to simulate stronger warming in response to increases in greenhouse-gas concentration than is consistent with observations. ….

Another possible source of model error is the poor representation of water vapour in the upper atmosphere.

Das heißt, es gibt eine erhebliche Diskrepanz zwischen simulierter und gemessener globaler Durchschnittserwärmung (Global Mean Surface Warming -GMST), welche zum Teil durch die Tendenz einiger CMIP5 Modelle erklärt werden könnte, eine stärkere Erwärmung aufgrund von Treibhausgasen zu simulieren als sie den Beobachtungen entspricht. Also ist das mit der „Beschreibung der Unschärfe“ zwar sehr hübsch gelungen, nur beseitigt wurde sie nicht.

In Ihrem Beitrag findet sich der bemerkenswerter Satz: Und es ist offensichtlicher Unsinn, allein schon weil die Klimamodelle seit fünfzig Jahren die globale Erwärmung korrekt vorhergesagt haben – übrigens sogar die Firma Exxon im Jahr 1982.“ Damit wird die uneingeschränkte Tauglichkeit von Computermodellen für die Prognose zukünftiger Klimaentwicklungen behauptet – und dies nicht nur für den gegenwärtigen, vergleichsweise fortgeschrittenen Stand der Modellierung, sondern sogar für das vergangene halbe Jahrhundert. Tatsächlich konnte weder der Abfall der Globaltemperatur zwischen 1945 und 1975 (der übrigens damals führende Klimatologen zur Prophezeiung einer neuen Eiszeit veranlasste) noch die zehnjährige „Hiatuspause“ vorher rechnerisch dargestellt werden. Und im Bericht des IPCC von 2007 hieß es noch: „Die Gletscher im Himalaja sind mit hoher Wahrscheinlichkeit bis 2035 oder vielleicht schon früher verschwunden.“ Nach lebhafter Kritik an dieser Aussage brauchte der Weltklimarat drei Jahre, um sie zu revidieren.

Zur Kennzeichnung der gegenwärtigen Situation soll hier eine Grafik wiedergegeben werden, deren Urheber ein Klimatologe von unbestrittener Weltgeltung ist. Sie wurde dem Protokoll der Anhörung von John R. Christy, vor dem Ausschuss für Wissenschaft, Weltraum & Technologie der Vereinigten Staaten am 29. März 2017 entnommen. John R. Christy ist Klimatologe des Staates Alabama und Professor für Atmosphärenwissenschaft sowie Direktor des Instituts für Wissenschaft des Erdsystems an der Alabama Universität in Huntsville, Leitautor und Peer-Reviewer von Veröffentlichungen des IPCC. Die Grafik 1 zeigt die Ergebnisse von 32 Computermodellen des IPCC für Temperaturverläufe in den Tropen.

Die dicke rote Kurve ist deren Mittelwert. Im Vergleich dazu wurden in der dicken grünen Kurve die realen, durch Ballonmessungen gewonnen Daten eingetragen. Nicht nur die Unterschiede zwischen den Rechenergebnissen verschiedener Institute sondern vor allem die erhebliche Abweichung zwischen deren Mittelwert und dem realen Verlauf zeigen überdeutlich, dass von „korrekter Vorhersage“ keine Rede sein kann.

Das Anhörungsprotokoll enthält noch ein weiteres hochinteressantes Ergebnis: Temperaturprofile in den Tropen wurden vom IPCC zum einen unter Berücksichtigung des Treibhauseffektes modelliert und zum anderen ohne diesen Effekt. Während die ersteren keine Übereinstimmung mit den gemessenen Werten aufweisen, liegen die Messungen vollständig im Bereich der Modelle ohne Treibhauseffekt (Grafik 2).

Grafik 1 Quelle: J. R. Christy, Alabama Universität

Grafik 2 Quelle: J. R. Christy, Alabama Universität

Wie volatil die Prognosen des IPCC tatsächlich sind, zeigt auch ein Interview SPIEGEL vom 05. Oktober 2018 mit einem der Leitautoren des letzten Sachstandsberichtes des IPCC , dem Direktor des Max-Planck-Instituts für Meteorologie in Hamburg, Professor Jochem Marotzke. Er erklärt darin: Unser verbleibendes CO-Budget für das 1,5-Grad-Ziel ist wohl mindestens doppelt so groß wie gedacht, fast tausend Gigatonnen. … Offenbar verbleibt ein kleinerer Teil der ausgestoßenen Treibhausgase in der Atmosphäre, weil Wälder und Ozeane mehr davon schlucken als gedacht.“

Das ist eine plötzliche Änderung der bis dahin vom IPCC vertretenen Vorstellungen um mehr als 100 Prozent.

Ein anderer Auszug aus dem Interview ist ebenfalls bemerkenswert:

  • SPIEGEL: Warum wurde die Grenze für die Temperaturerhöhung von 2 Grad auf 1,5 Grad abgesenkt?
  • Prof. Marotzke: „Das kam auch für uns Klimaforscher überraschend.“
  • SPIEGEL: Haben wir es also eher mit politischen Grenzwerten zu tun, nicht mit wissenschaftlich begründeten?
  • Prof. Marotzke: „Ja, aber die Größenordnung ist physikalisch durchaus vernünftig.“

Und schließlich konterkariert auch eine weitere lesenswerte Darstellung der Probleme von Klimamodellierung durch einen ausgewiesenen Experten die Behauptung von der „exakten Vorhersage“. Sie findet sich in der SPIEGEL-Ausgabe vom 22. März 2019 und hat den Titel:

Prognosen zur Erderwärmung, Warum Wolken der Fluch aller Klimaforscher sind“. Darin schildert der seit 20 Jahren am Hamburger Max-Planck-Institut für Meteorologie auf dem Feld der Klimamodellierung forschende Prof. Bjorn Stevens die Schwierigkeiten einer Modellierung des Wolkenphänomens; einige seiner Aussagen lauten Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. …. Es ist nicht leicht, dieses Versagen der Öffentlichkeit zu vermitteln. … Die Temperaturen in der Arktis zum Beispiel klaffen in den verschiedenen Modellen um teilweise mehr als zehn Grad auseinander. Das lässt jede Prognose der Eisbedeckung wie bloße Kaffeesatzleserei erscheinen.“

Das könnte nun daran liegen, dass das Weltklima nicht nur ein chaotisches, sondern sogar ein komplexes System ist, das sich mit Differentialgleichungen und anderen mathematischen Modellierungsverfahren gar nicht modellieren lässt. Daher können Klimamodelle bestenfalls die Vergangenheit erklären, aber nichts prädizieren, wie der IPCC zutreffend festgestellt hat.

Nun gibt es zwei Möglichkeiten:

Entweder, man sagt, der IPCC hat Unsinn erzählt und natürlich kann man komplexe Systeme exakt modellieren, alles gar kein Problem. Hier also die Frage an Sie, Herr Rahmstorf: Wollen Sie das behaupten?

Oder man erkennt an, dass der IPCC die Schwierigkeiten bezüglich der Vorhersagbarkeit zutreffend dargestellt hat. Dann allerdings muss unsere Frage 1 mit der Feststellung beantwortet werden, dass man die Einhaltung von Klimazielen nicht sicherstellen kann. Das aber wäre peinlich, oder?

Dann wird es richtig interessant: Der Jahrhundertsommer 2003 habe 70.000 Todesopfer gekostet, alles unmittelbare Folge des Klimawandels. Beweis einer Kausalität? Fehlanzeige. Und der naheliegende Gedanke an den ebenso einfachen wie lebensrettenden Einsatz von Klimaanlagen, der ohne große Transformation möglich wäre, ebenso Fehlanzeige.

Der Krieg in Syrien – klarer Fall, auch Klimawandel. Bei allem Respekt, aber so geht es nicht

Fazit ist: Sie haben viel geschrieben, aber nicht eine einzige Frage beantwortet.




Der Herr der vielen Nullen

Wussten Sie was so alles in ein Litergefäß passt? Natürlich, werden Sie sagen, ein Liter Milch zum Beispiel, oder ein Liter Wasser, oder, oder oder. Und Sie haben recht, aber das meinte ich nicht. Wussten Sie bspw. dass in einem Liter Luft – aber nur wenn Sie ihn einatmen, aber nicht wenn Sie ihn ausatmen-  3.432.000.000.000.000.000 Moleküle CO2 stecken? Nein, wussten Sie nicht? Kein Problem – wusste ich bisher auch nicht. Und das ist der Grund warum – zumindest ich, vielleicht aber auch Sie – bisher nicht verstanden haben wie das mit dem Klimawandel so funktioniert. Und damit sich das so schnell wie möglich ändert, schließlich leben wir ja mitten in einer Klimakrise, hat Professor Rahmstorf, ja der vom PIK, den Friday for Future Kindern, und vieler weiterer wissenschaftlicher Aktivitäten, die hehre Aufgabe auf sich genommen hat uns im SPIEGEL (Online Ausgabe hier) – ja der, mit den Relotius Preisen- aufzuklären:

Zitat: „Denn In jedem Liter eingeatmeter Luft stecken 3.432.000.000.000.000.000 CO2-Moleküle fossiler Brennstoffe. Gesundheits-schädlich ist das zwar nicht – aber man muss es wissen, um den Klimawandel zu verstehen.“

Und verspricht weiter, dass das folgende keine richtige Physikvorlesung werden wird, aber,da wir uns mitten in einer – na Sie wissen schon – befinden, wäre es höchste Zeit mit dem Falschinformationen, wie sie besonders im Internet, und da wiederum von den „Klimaleugnern“ bei EIKE verbreitet werden, aufzuräumen. Wobei die EIKE Leute , die „Boten des Zweifels“, sich einer besonders fiesen Methode bedienen, weil nämlich der Leser dort „..zahlreiche Quellenangaben, wissenschaftliche Sprache und „Belege“ findet, die Sie von der Abwesenheit der Klimakrise zu überzeugen versuchen“. Ja das ist schon ganz schön fies. Da muss man als beamteter Professor gegenhalten und mal richtig so richtig aufklären. Und das tut man an besten mit schönen großen Zahlen, so richtig großen. Und da wären wir wieder beim Beginn. Wussten Sie schon? Na, nun wissen sie es ja schon, die Sache mit den 3.432.000.000.000.000.000 CO2 Molekülen.

Und dann folgt „ein Crashkurs zu den wichtigsten Belegen“, schreibt der Professor. Und erklärt, nicht ganz falsch „Die Strahlungsbilanz eines Planeten bestimmt dessen Temperatur“.

Das stimmt zwar auch nur unter bestimmten Bedingungen, denn die Temperatur ist nur ein Maß für die kinetische Energie, die in der gemessenen Materie steckt, egal wo sie herkommt, und es gibt auch keine Strahlungsbilanz, sondern nur eine Energiebilanz, was bedeutet, dass die empfangene Energie, nicht per se die Strahlung, im Gleichgewicht (und das steckt im Wort Bilanz), und nur dann, genau so groß sein muss, wie die abgegebene Energie. Aber er versprach ja, dass das keine richtige Physikvorlesung sein würde, also wollen wir mal nicht so kleinlich sein, hier keine Zweifel säen und ihm das durchgehen lassen.

Kommen wir zurück zu seinen großen Zahlen und was sie mit seiner Beweisführung zu tun haben. Und leider, da werden wir enttäuscht. Da kommt nichts. Sie stehen einfach so rum, und sollen wohl Eindruck schinden. Nur einmal behauptet er, dass „wir“ die CO2 Konzentration um 45 % erhöht hätten. Doch viel von nix ist aber immer noch nix, oder?

Im Kommentarbereich gibt es daher neben viel Tadel auch viel Lob für diesen Versuch eine schwierige Materie einfach zu erklären. Trotzdem, oder gerade, weil nirgendwo die 3.432.000.000.000.000.000 CO2 Moleküle, mit dem was er uns eigentlich erklären will, nämlich den Treibhauseffekt, in Beziehung gesetzt werden.

Der Schuss wäre auch nach hinten losgegangen, denn dann hätte er erklären müssen, dass, egal wie viele CO2 Moleküle sich im Liter befinden, es nichts an deren winzigen Menge in Bezug auf das Ganze ändert. Es bleiben mickerige 0,01346 %. Da nützen auch sämtliche Großzahlen nichts, die Atmosphäre ist um viele, viele Größenordnungen größer.

Kiehl Trenberth 1997 Strahlungsflüsse mit ergänzend eingezeichneter Bilanzierung der Boden Ab- und Luft Gegenstrahlung. Die Werte 390 und 324 können hierin beliebig groß sein, solange ihre Differenz 66 Wm-2 annimmt. Details dazu u.a. hier.

 

Daher schrieb ich dem Herrn der vielen Nullen einen Kommentar:

„Lieber Herr Rahmstorf,
Ihre Riesenzahlen, die man – wie Sie schreiben – unbedingt wissen muss „um den Klimawandel zu verstehen“ werden im Verhältnis trotzdem nicht mehr. Und nur das zählt. Auch 3.432.000.000.000.000.000 CO2-Moleküle fossiler Brennstoffe bleiben mickrige 0,01346 %.
Und auch Ihr Gift Vergleich, der bestimmt gleich kommt, führt in die Irre, denn Gift, dass oft auch in kleinsten Mengen wirkt, greift sofort die Vitalfunktionen des Organismus an, wie Atmung oder Herzschlag. Das kann das böse CO2 alles nicht. es ist chemisch fast ein Edelgas.
Und es kann nur ganz, ganz wenig Infrarotenergie absorbieren und gibt diese wieder – wegen der ungleich wahrscheinlicheren Stoßabregung – zu weniger als 5 % als Strahlungsenergie ab. Natürlich nur in den dichten unteren Schichten. Oben ist es mehr, es sind aber viel weniger CO2 Moleküle da.
Und noch etwas – bei Ihnen scheint offensichtlich die Sonne Tag und Nacht. Bei mir ist das anders, da scheint sie nur tagsüber.
Daher kommen bei mir – und auch nur ziemlich grob- über die gesamte Halbkugel 648 W/m^2 an (Anmerkung von mir: Siehe Grafik und Bilanzierung Abstrahlung mit Gegenstrahlung oben). Die Nachthalbkugel erhält keinerlei Einstrahlung.
Das Ihnen das bisher noch nie aufgefallen ist? Komisch. Die Betrachtung der Wirklichkeit ist doch Voraussetzung jeder Naturwissenschaft, also besonders der Physik.
Diese so empfangene Energie muss und wird von beiden Halbkugeln wieder abgegeben werden.
Und schwups ist die Strahlungsbilanz, besser die Energiebilanz, wieder ausgeglichen. Ganz ohne den bilanziellen Zaubertrick mit dem Treibhauseffekt.“

Der blieb bisher unbeantwortet.

Im Text werden dann drei Möglichkeiten untersucht, wodurch sich die „Strahlungsbilanz“ so verändern könnte, dass sich unser „Heimatplanet aufheizen“ müsste.

Nämlich

  • Die Sonneneinstrahlung nimmt aufgrund der Sonnenaktivität oder der Erdbahnparameter

  • Der reflektierte Anteil der Sonnenstrahlung nimmt ab, weil die Helligkeit der Erdoberfläche oder der Wolkendecke abnimmt.

  • Die Abstrahlung von Wärme ins All nimmt ab.

Alle drei werden so diskutiert und mit „Messtatsachen“ so unterlegt, dass allein Option 3 die Lösung sein kann.

Ein Leser merkte dann noch an, dass schon das Ausscheiden von Option 1 ziemlich schräg argumentiert sei, weil Zitat aus dem Rahmstorf Artikel: Option 1 scheidet aus, denn die ankommende Sonnenstrahlung hat seit Mitte des letzten Jahrhunderts sogar etwas abgenommen schon deswegen nicht stimmen kann, weil, wie selbst WIKIPEDIA unzensiert schreibt

Seit Mitte des 20. Jahrhunderts befindet sich die Sonne in einer ungewöhnlich aktiven Phase, wie Forscher der Max-Planck-Gesellschaft meinen. Die Sonnenaktivität ist demnach etwa doppelt so hoch wie der langfristige Mittelwert, und höher als jemals in den vergangenen 1000 Jahren.“ Und merkt kritisch an:„Nun ist die Aussage von Herrn Rahmstorf nicht ganz falsch, durch Weglassen des Gesamtzusammenhangs gewinnt sie aber einen ganz anderen Wert. Dies ist für mich keine sachliche Darlegung von Fakten.“

Aber auch der Rest ist – wie bei Herrn Rahmstorf üblich – sehr selektiv. Dafür aber mit sehr großen Zahlen und deftigen Behauptungen – z.B. vom  „fragilen Gleichgewicht“ unterlegt, wie bspw. diese Mitteilung in Bezug auf die „gemessene“ Erwärmung der Meere, um ein knappes 1/10 Grad (0,07 gegen über einem Mittelwert von 1960-2015):

„Auch das ist eine Messtatsache, gemessen durch Forschungsschiffe und eine Armada von Tausenden autonomen Messgeräten in den Weltmeeren, die in den vergangenen zwanzig Jahren mehr als zwei Millionen Temperaturprofile[1]aufgenommen haben.“

Dazu schreibt der Willis Eschenbach, der seit Jahren die Klimatologie kritisch, aber klug begleitet (Hervorhebungen von mir):

Viel beeindruckender fand ich immer die erstaunliche Stabilität des Klimasystems trotz gewaltiger jährlicher Energieflüsse. In unserem Fall absorbiert der Ozean etwa 6.360 Zettajoules (1021 Joules) Energie pro Jahr. Das ist eine unvorstellbar immense Energiemenge – zum Vergleich, der gesamte menschliche Energieverbrauch aus allen Quellen von fossil bis nuklear beträgt etwa 0,6 Zettajoule pro Jahr …

Und natürlich gibt der Ozean fast genau die gleiche Energiemenge wieder ab – wäre das nicht der Fall, würden wir bald entweder kochen oder erfrieren.

Wie groß ist also das Ungleichgewicht zwischen der in den Ozean eindringenden und von diesem wieder abgegebenen Energie? Nun, im Zeitraum der Aufzeichnung betrug die mittlere jährliche Änderung des ozeanischen Wärmegehaltes 5,5 Zettajoule pro Jahr … was etwa ein Zehntel eines Prozentes (0,1%) der Energiemenge ausmacht, welche in den Ozean eindringt und von diesem wieder abgegeben wird. Wie ich sagte: erstaunliche Stabilität.

Folge: die lächerlich anmaßende Behauptung, dass ein derartig triviales Ungleichgewicht irgendwie menschlichen Aktivitäten geschuldet ist anstatt einer Änderung von 0,1% infolge Variationen der Wolkenmenge oder der Häufigkeit von El Nino oder der Anzahl der Gewitter oder einer kleinen Änderung von irgendetwas im immens komplexen Klimasystem, ist schlicht und ergreifend unhaltbar.

Trotz ihrer Dürftigkeit, wie auch der selektiven und rein propagandistischen Überhöhung der Zahlen, darf die Drohung vom Weltuntergang, ebenso wie die moralische Überhöhung am Schluss des Beitrages nicht fehlen..

Zitat:

Wer die Fakten heute noch leugnet, um damit die dringend nötigen Maßnahmen zur Vermeidung einer planetaren Katastrophe hinauszuzögern, macht sich mitschuldig an den Folgen: an stärkeren Tropenstürmen, Flutkatastrophen, Dürren und Waldbränden – und möglicherweise künftigen Hungersnöten“

 

Amen

[1] Auch diese große Zahl verliert bei genauer Betrachtung ihre Bedeutsamkeit, wenn man bedenkt, dass die Ozeane dieser Erde eine Fläche von  361.100.000 km2 bedecken, mit einer mittleren Tiefe von 3,79 km. Das ergibt 1.332.000.000 Kubikkilometer. Man hat in diesen 15 Jahren (Die ARGO Flotte gibt es seit ca. 2005) also wenige Prozente der Oberfläche auf eine Tiefe von 2000 m „vermessen“ Jede Argobojoe tastet dabei das Volumen einer Fläche von 1 Mio km2 ab. Das ist dreimal die Fläche Deutschlands. Details dazu hier: https://www.eike-klima-energie.eu/2020/01/15/der-ozean-erwaermt-sich-ein-winziges-bisschen/




Peer Review zum Gastbeitrag von Rahmstorf im Spiegel

Herrn Prof. Dr. Stefan Rahmstorf
Potsdam-Institut für Klimafolgenforschung

Betreff: Ihr Gastbeitrag, eingereicht zur Veröffentlichung auf Spiegel Online/Spiegel+
„Ein Forscher sagte schon 1977 den Klimawandel voraus – leider arbeitete er bei Exxon“

https://www.spiegel.de/wissenschaft/natur/james-black-sagte-1977-die-klimakrise-voraus-leider-arbeitete-er-bei-exxon-a-1298292.html

 

Final Decision: decline / ablehnen

Sehr geehrter Herr Professor Rahmstorf,

Ihre oben genannte Arbeit haben wir zwei unabhängigen Gutachtern vorgelegt. Beide kommen übereinstimmend zu dem Schluss, dass das Manuskript den bekannten Qualitätsstandards unserer Zeitschrift nicht genügt, und raten von einer Veröffentlichung ab. Wir hoffen dennoch, dass Sie für zukünftige Arbeiten unsere Zeitschrift wieder in Erwägung ziehen.

Mit freundlichen Grüßen,

Redaktion Spiegel Online/Spiegel+

——–

Gutachter #1

Die Arbeit beinhaltet drei Aussagen:

(a) Bereits 1977 habe ein Wissenschaftler des amerikanischen Ölkonzerns Exxon, James Black, die Entwicklung der globalen Mitteltemperatur über 150.000 Jahre inklusive aktuellem anthropogenem Anstieg erstaunlich realitätsnah beschrieben (Abb. 1, schwarze Kurve).

(b) Von 2025 an in die Zukunft gerechnet sei die Vorhersage von Black allerdings falsch, da sie ein Absinken der Temperatur nach Ende von CO2-Emissionen annahm. Richtig sei vielmehr das aktuelle Modell des PIK, das einen weiteren Anstieg und ein dauerhaft hohes Niveau vorhersagt (Abb. 1, rote Kurve).

(c) Wenn Exxon die Erkenntnisse seines Mitarbeiters nicht systematisch unterdrückt hätte, hätte die Menschheit viel früher handeln können.

Abb. 1. Grafik aus der zu begutachtenden Arbeit von Rahmsdorf: schwarze Kurve = „Szenario“ (rekonstruierte Daten+Modell) von Black (1977),  rote Kurve = Modell des PIK (nach Ganopolski & Bovkin, 2017).

 

Zentrale Kritikpunkte (major issues)

  1. Der Autor R. vermischt durchweg zwei unterschiedliche Ebenen wissenschaftlichen Arbeitens: Modellebene (Simulation) und empirische Ebene (Daten). Er schreibt „Wie nah sich Black mit seinen 42 Jahre alten Erkenntnissen an der Realität bewegt, ist erstaunlich. Sichtbar wird das, wenn man die alte Grafik mit dem modernen Wissensstand der Paläoklimaforschung vergleicht.“ Was meint er mit „Realität“?

Die Grafik im Manuskript (Abb. 1) besteht aus drei Abschnitten.

  • Im Zeitraum bis „heute“ (1977?) stellt die rote Kurve ein Modell des PIK dar ([1] Ganopolski & Bovkin, 2017) und die schwarze Kurve rekonstruierte Temperaturdaten [3]. (Das zeigt erst ein Blick in die Originalarbeit von Black ([2] 1977, S. 7).
  • Im Zeitraum ab „heute“ (1977?) stellen beide Kurven Modelle dar. Diese stimmen überein bis zum Punkt „durch CO2-Emissionen hervorgerufenes Interglazial“ (d.h. 2025, siehe Black 1).
  • Ab diesem Punkt divergieren die beiden.

Ab „heute“ (1977?) vergleicht R. also nur noch zwei Modelle miteinander. Rein logisch könnte ebenso gut das PIK-Modell falsch und das von Black richtig, oder beide falsch sein. Die Formulierung von R. erweckt unzulässig den Eindruck, das Modell des PIK sei eine „Realität“, an der die Vorhersage von Black validiert werden könnte. Dabei enthält umgekehrt nur die Kurve von Black überhaupt Daten.

Somit ist R. für seine Aussagen (a) und (b) die Begründung schuldig geblieben.

Sollte ihm das versehentlich passiert sein, genügt seine Arbeit nicht den allerniedrigsten wissenschaftlichen Standards. War es Absicht, muss er sich den Vorwurf der bewussten Irreführung seiner nicht-wissenschaftlichen Leser gefallen lassen.

  1. Der Autor zitiert selektiv aus der Studie von Black (1977). Auf Seite 2 dieser 42 Jahre alten Studie findet sich nämlich der Satz: „Present thinking holds that man has a time window of five to ten years before the need for hard decisions regarding changes in energy strategies might become critical.“ Ist R. der Meinung, auch mit dieser Prognose bewege sich Black erstaunlich nahe an der Realität? Wenn ja, wäre die aktuell gleichlautende Botschaft des PIK ja falsch (und es heute längst zu spät für irgendwelche Maßnahmen). Wenn nein, wäre die alte Arbeit doch nicht so gut wie behauptet (und man fragt sich, ob die heutige Prognose denn valider sei). Das hätte er diskutieren müssen.
  2. Die Arbeit lässt die Frage offen, was überhaupt der Erkenntnisfortschritt des PIK sei, wenn Black schon 1977 die Temperaturentwicklung bis heute so exakt vorhergesagt hat. Für den Zeitraum ab heute, wo die Modelle divergieren, hätte der Autor eine Begründung für die Überlegenheit der (roten) PIK-Kurve geben müssen.

Weitere Kritikpunkte (minor issues)

  1. Obwohl Quellen verlinkt sind, enthalten diese nicht die versprochene Information. Die zentral besprochene Arbeit von James Black (1977) fehlt ganz, obwohl sie im Internet frei verfügbar ist [2]. Als Beleg für die rote Kurve in der Abbildung ist das Erdsystemmodell von Ganopolski und Brovkin (2017) [1] angegeben. In dieser Arbeit ist der entscheidende Teil der Kurve, die Prognose ab heute, aber nicht zu finden.
  2. Bildunterschrift zur Grafik (Abb. 1): „Black ging in seinem Szenario (schwarze Kurve) davon aus, dass die CO2-Emissionen etwa bis zum Jahr 2025 ansteigen und danach im selben Maße wieder abnehmen würden.“ Die Grafik zeigt jedoch die Temperatur und nicht die CO2-Emissionen.

————

Gutachter #2

  1. Die AfD argumentiert nicht „mit von Exxon lancierten Behauptungen“, woher hat R. das? (Im als Quelle verlinkten R.-Blog findet sich nur die Aussage in der WELT, der „menschengemachte CO2-Anteil in der Luft beträgt nur 0,0016 Prozent“, welche von der AfD aufgegriffen worden sei. Diese Aussage ist keine von Exxon lancierte Behauptung.)
  2. Die im Manuskript gezeigte Grafik (Abb. 1) erlaubt nicht zu entscheiden, wo „heute“ genau liegt. Rechts von „heute“ liegende Kurven sind naturgemäß alles Modellkurven. Nachdem bisher kein Klimamodell die nahe Vergangenheit nachbilden konnte (auch den nun 20 Jahre andauernden Hiatus hat kein Modell vorhergesagt) fragt man sich, warum man die in der Abbildung gezeigten Fortsetzungen nach „heute“ ernst nehmen soll.
  3. Die Schilderung von R., das aktuelle Erdsystemmodell des PIK sei in der Lage, „alleine aus den Milankovitch-Zyklen die Eiszeiten korrekt zu reproduzieren“, ist fehlerhaft. Das jeweils lange Abtauchen in Glaziale sind mit Milankowitch gut erklärbar, das jeweils ungewöhnlich schnelle Auftauchen aus einer Eiszeit ist dagegen bis heute ungeklärt und eines der größten Rätsel der aktuellen Klimaforschung. Zu diesem Problem gibt es weit über 100 Fachpublikationen (alle mit „wir wissen nicht, warum“). Siehe z.B. [4] https://scienceofdoom.com/roadmap/ghosts-of-climates-past/
  4. Die Aussage von R.: „Recht hatte Black mit seiner Folgerung, dass die CO2-Erwärmung die höchsten Temperaturen des Holozäns übertreffen würde – das hat sie inzwischen wahrscheinlich getan„, ist falsch: Die Vostok-Eisbohrkernkurve [5] (Abb. 2), die Erkenntnisse der Gletscherforschung (z.B. [6] Lecavalier et al., 2013, Fig. 6) usw. – alle widersprechen.

Abb. 2: Vostok-Eisbohrkernkurve, nach [5] Petit et al. 1999, Nature 399, Fig. 3. Relevant ist hier der kurze Verlauf der letzten 10.000 Jahre in der Gesamtkurve (blau oben rechts): Man erkennt im Holozän, insbesondere bei besserer Zeitauflösung als in dieser Abbildung, mehrere Temperaturmaxima höher als heute.

  1. Die Behauptung von R., dass die erhöhten CO2-Mengen erst nach 1000 Jahren wieder verschwunden seien, ist falsch (z.B. [7] Joos et al., 2013, Fig. 8). Auch [8] Lüdecke & Weiss (2016) finden eine Halbwertszeit um die 100 Jahre.
  2. Dass die nächste Eiszeit ausfallen wird, ist eine durch nichts gestützte freie Behauptung.

———-

Quellen/Literatur:

[1] Ganopolski. A. & Brovkin, V. (2017). Simulation of climate, ice sheets and CO2 evolution during the last four glacial cycles with an Earth system model of intermediate complexity. Climate oft he Past 13, 1695–1716.
https://www.clim-past.net/13/1695/2017/

[2] Black. J. (1977). https://insideclimatenews.org/documents/james-black-1977-presentation

[3] J. Murray Mitchell, Jr.: Environmental Data Service, NOAA, 1977. Zitiert nach Black. J. (1977). https://insideclimatenews.org/documents/james-black-1977-presentation

[4] https://scienceofdoom.com/roadmap/ghosts-of-climates-past/

[5] Petit et al. (1999). Climate and Atmospheric History of the Past 420,000 Years from the Vostok Ice Core, Antarctica. Nature 399 (3),  429-436.
https://www.nature.com/articles/20859?proof=true

[6] Lecavalier, B.S., et al. (2013). Revised estimates of Greenland ice sheet thinning histories based on ice-core records. Quaternary Science Reviews 63, 73-82.
https://www.sciencedirect.com/science/article/abs/pii/S027737911200532X

[7] Joos et al. (2013). Carbon dioxide and climate impulse response functions for the computation of greenhouse gas metrics: a multi-model analysis. Atmospheric Chemistry and Physics 13, 2793–2825.
https://www.atmos-chem-phys.net/13/2793/2013/acp-13-2793-2013.html

[8] Lüdecke, H.-J. & Weiss, C.O. (2016). Simple Model for the Antropogenically Forced CO2 Cycle Tested on Measured Quantities. Journal of Geography, Environment and Earth Science International 8(4), 1-12.
https://www.semanticscholar.org/paper/Simple-Model-for-the-Antropogenically-Forced-CO2-on-L%C3%BCdecke-Weiss/1e196cdb9596a6dfbe955ccbe9df20e6c51c4b70




Was wir gerne unter den Teppich kehren, Teil I

Ein paar Tage zuvor hatte Herr Mangini, Professor an der Uni Heidelberg, einen Artikel in der FAZ verfasst, mit dem Titel: Ihr kennt die wahren Gründe nicht

Weiter führte Herr Rahmstorf 2007 aus:

„Der IPCC-Bericht zeigt alle publizierten großräumigen Temperaturrekonstruktionen für die Zeit vor Beginn der Temperaturmessungen. Diese basieren auf Daten aus Baumringen, Eisbohrkernen, Sedimenten, Korallen oder der Ausdehnung von Gebirgsgletschern. Dass keine derartigen Rekonstruktionen aus Stalagmiten dabei sind, liegt nur daran, dass es sie bislang in der Fachliteratur nicht gibt. Dies liegt zum Teil an deren Problemen mit der Datierung und mit der Eichung des Zusammenhangs zwischen den gemessenen Isotopenwerten und der Temperatur; zudem gibt es noch zu wenige solcher Höhlendaten.“

Nun wollen wir ihn an seinen Aussagen messen:

  1. Datierung der Daten

„Mit der Thorium-Uran-Methode lässt sich das Alter der Stalagmiten bestimmen: Im Tropfwasser befinden sich Spuren von gelöstem radioaktiven Uran, es wird in das Kalkgitter des Stalagmiten eingebaut und zerfällt dort im Laufe der Zeit zu Thorium. Mit einem Massenspektrometer lassen sich die Isotope messen und das Alter einer Probe sehr genau bestimmen.“ Schreibt die Uni Heidelberg.

  1. Zusammenhang mit der Temperatur und Niederschlag

„… die stabilen Isotope 18O/16O und 13C/12C zu analysieren. Vor allem die Sauerstoffisotope können Auskunft darüber geben, welche Temperatur und welche Niederschlagsverhältnisse während der Bildungszeit des Stalagmiten vorherrschten …“

  1. Anzahl der Höhlen

„…Unsere Proben entnehmen wir den Stalagmiten vieler Höhlen …“

Sind Stalagmiten nach Rahmstorf völlig out? Mitnichten, nicht nur die Uni Heidelberg, sondern auch die Uni Mainz macht sich Stalagmiten aus Höhlen heute zu Nutze. Ebenso die Uni Bochum, die in der Bunkerhöhle herumkriecht.

„In einer Studie mit sieben Tropfstein-Proben aus Marokko, Indien, Frankreich, Spanien und der Hüttenbläserschachthöhle im Sauerland hat Wassenburg erstmals detailliert untersucht, in welcher Konzentration Spurenelemente in Aragonit eingebaut werden. »So konnten wir in dieser Untersuchung zeigen, dass die Konzentration von Uran in Aragonit-Stalagmiten als sehr effektiver Maßstab für Paläo-Niederschläge dienen kann«,

sagt Dr. Jasper Wassenburg Uni Mainz.

Das war zehn Jahre später. Der Wissenschaftler untersucht:

„Die Untersuchungsergebnisse der nordwestmarokkanischen Tropfsteinhöhle wurden mit Niederschlagsrekonstruktionen anhand von Höhlensintern aus der Bunkerhöhle, ebenfalls im Sauerland gelegen, verglichen. Dabei konnten die Klimaforscher erstmals die Nordatlantische Oszillation NAO über 11.000 Jahre zurückverfolgen, also bis zum Beginn der jetzigen Warmzeit.“

Er fand u.a. heraus, dass das Abschmelzen des großen Eisschildes, der Nordamerika während der Eiszeit bedeckte, die NAO veränderte und vermutet, dass ein massives Abschmelzen des Grönländischen Eisschildes ähnliche Auswirkungen haben könnte.

Hm, richtig gelesen, die lt. Rahmstorf „untauglichen“ Informationen aus den Stalagmiten geben Rückschlüsse auf die NAO! Die NAO hat nur regionale Auswirkungen? Echt? Jedenfalls reichten sie bis Marokko.

Schauen wir weiter.

Wie war das doch gleich mit den Baumringen und Michael E Mann? Dass das auf ihn zukommt, wusste Hr. Rahmstorf 2007 noch nicht. Und wie war das mit den Sedimenten? Da gab es einen Herrn Marcott et al. 2013, der jede Menge Sedimente aus den Ozeanen hob und auswertete und zu ähnlichen Ergebnissen wie Hr. M. Mann kam. Alles verlief schön gleichmäßig und die Temperaturanstiege heute sind für das Holozän außergewöhnlich, ganz im Duktus des Hr. Rahmstorf.

„ Eine Rekonstruktion der regionalen und globalen Temperatur in den letzten 11.300 Jahren “ von Marcott, Shakun, Clark und Mix … In einer Schlagzeile der NY Times heißt es: “ Die globale Erwärmung ist die höchste in 4.000 Jahren „.

Und noch einen oben drauf:

„Die gegenwärtigen globalen Temperaturen des letzten Jahrzehnts… sind wärmer als in ~ 75% der gesamten holozänen Temperaturgeschichte.“

Die Eisbohrkerne von Grönland, die von Hr. Alley schon 2000 anhand der Sauerstoffisotope ausgewertet wurden, sagen jedoch etwas Anderes:

„Aus der Kurve Alley (2000) ist leicht ersichtlich, dass die Temperaturen vor 10.000 bis 1.500 Jahren praktisch während des gesamten Zeitraums wärmer waren als heute, und 85% der letzten 10.000 Jahre waren wärmer als heute. Die Kurve reicht bis vor 95 Jahren, aber selbst wenn wir im letzten Jahrhundert 0,7 ° C für die Erwärmung hinzufügen, waren die Temperaturen immer noch überwiegend wärmer als heute.“ Don Easterbrook 2013

Was hatte Marcott et al. gemacht?

„Zu diesen Schlussfolgerungen gelangten sie, indem sie „ regionale und globale Temperaturanomalien der letzten 11.300 Jahre aus 73 weltweit verteilten Aufzeichnungen rekonstruierten “, „die größtenteils aus Meeresarchiven stammen (~ 80%)“ einschließlich Paläoklima-Temperatur-Proxys wie Alkenon, Plankton-Foraminiferen Mg / Ca 23, fossilen Pollen, eiskernstabilen Isotopen und Mann et al. (2008) Baumringrekonstruktionen.“

Auch hier wurden keine echten Daten zur Verfügung gestellt und fragwürdige Analysemethoden verwendet.

Weiterhin bemerkte Herr Rahmstorf:

„Dass lokal und regional wesentlich größere Klimaschwankungen auftreten als in der globalen Mitteltemperatur.“

Nun fragt sich der geneigte Leser, wie wohl Hr. Rahmstorf und seine Kollegen die globale Mitteltemperatur in der Vergangenheit bis heute bis zwei Stellen hinter dem Komma „bestimmt“ haben? Es bleibt sein Geheimnis oder man nimmt „Bestimmen“ wörtlich.

Die Bewegungen der „kleinen Gletscher“ der Alpen hielt er für bedeutungslos und gibt Herrn Patzelt & Co. so einen mit. Gleichzeitig warf er einem „Mitarbeiter der Bundesanstalt für Geowissenschaften und Rohstoffe zu der Behauptung, Klimatologen würden vergangene Klimavariabilität gezielt herunterspielen, um den Einfluss des Menschen zu übertreiben. Abgesehen davon, dass dies einem ganzen Berufsstand weltweit Unredlichkeit unterstellt …“ Was er ja gar nicht tut … Herrn Delisle, das war der Klimatologe, kostete es damals den Job. Die Veröffentlichungen seines Teams gingen auf den Index. Von der Bundesanstalt hört man seitdem zu diesem Thema nichts mehr.

Hatte es sich Mangini zu leicht gemacht, „nur“ auf „regionale“Tropfsteine zu setzen?

Nein, man verglich sehr wohl überregionale Daten. Auch hier war die NAO im Blickfeld. Eisberge tragen Sedimente ihrer Herkunftsgebiete mit sich. Wie weit sie diese trugen, gibt Auskunft über die vorherrschenden Temperaturen und Strömungen der jeweiligen Zeit.

Mangini vertrat damals die Ansicht:

„Auch früher also hat es abrupten Klimawandel gegeben. Die Paläoklima-Rekonstruktionen des IPCC verharmlosen diese natürliche Klimavariabilität während der letzten zehntausend Jahre. Natürlich kann der vom Kohlendioxid verstärkte Treibhauseffekt mittlerweile die natürliche Erwärmung verstärken. Eine Reduktion der Treibhausgasemissionen ist daher mehr als notwendig. Und ebenso ist es zwingend erforderlich, mit den verfügbaren fossilen Energiequellen sparsamer umzugehen. Jedoch die alleinige Schuld am Wandel dem Kohlendioxid zuzuschieben ist nicht korrekt.“

Sedimente aus dem Meerfelder Maar (GFZ Potsdam) und weiterer Eifelmaare (Moschen et al.) zeigen heftige und kurzzeitige Klimaänderungen im Holozän. Auch hier beeilte sich Hr. Feulner vom PIK, das Ganze als „regionale Besonderheit“ darzustellen und man betrachtete es als „interessante Arbeit“. Die Aufsehen erregende Besonderheit des Meerfelder Maares: Hier verlief eine Abkühlungsphase vor 2800 Jahren etwa 200 Jahre parallel zu einer solaren Schwächephase. Beides konnte in den Warven gleichzeitig nachgewiesen werden. Die Abkühlung verlief innerhalb weniger Jahrzehnte. Die Veröffentlichung fand in Nature Science fiel Beachtung.

Nimmt man jetzt noch an, dass die NOA durch solare Aktivitäten gesteuert wird, schließt sich der Kreis. Erforschungswürdige Themen!

Findet auch Dr. Lüning auf www.klimawandel-in-deutschland.de

„Die Ursache für den starken Erwärmungsschub in den späten 1980er Jahren ist noch nicht vollständig verstanden. Eine wichtig Rolle kommt wohl dem Ozeanzyklus der Nordatlantischen Oszillation (NAO) zu, die zu dieser Zeit maximal positive Werte einnahm, welche danach in ihrem Ausmaß nicht mehr erreicht wurden … Die NAO wird von der Sonnenaktivität mitbeeinflusst und ist ein wichtiger Steuerungsfaktor von Niederschlägen und Temperaturen in Teilen Europas.“

Noch mal die Uni Heidelberg:

„Die Ergebnisse der Stalagmitenforschung sowie deren Vergleich mit überregionalen Phänomenen belegen alles in allem eine hohe Variabilität des Klimas in den letzten 10 000 Jahren mit abrupten Wechseln und bedeutenden Konsequenzen für die Menschen. Welche Ursachen diese natürlichen Klimaschwankungen haben, ist noch weitgehend ungeklärt. Die Tatsache, dass viele Untersuchungen eine deutliche Korrelation des Klimas mit dem Kohlenstoffisotop 14C (es wird von der Sonnenaktivität beeinflusst) zeigen, deutet auf einen solaren Antrieb des Klimas hin.“

Bohrungen im Vansee der Türkei und im Toten Meer lassen die Richtigkeit dieser Daten vermuten.

Die Uni Bonn hat die 2010 gewonnen Bohrkerne aus dem Vansee analysiert und konnte anhand der Pollen, Temperaturverlauf und Niederschlag „sehr genau bestimmen“. „Das Klima ist viel sprunghafter als vorher geglaubt“. Prof. Litt: „Was uns besonders überrascht hat, dass die Phasenübergänge von Kaltzeiten zu Warmzeiten offenbar sehr schnell, sehr abrupt vonstatten gingen. … innerhalb von 10 bis 20 Jahren, das Klima sich dramatisch verändert haben kann.“ O-Ton des Berichts.

„Die ersten Untersuchungen führen in die Zeit bis vor 15.000 Jahren. Und zeigen deutlich wie schnell, trockene und feuchte, kalte und warme Perioden aufeinander gefolgt sind, ohne den Einfluss des Menschen!“ (3sat 2012)

Was sagte Herr Rahmstorf doch gleich:

„Die Rolle der Sonnenaktivität ist noch unzureichend verstanden. Doch eines wissen wir aus zahlreichen Messungen: Sie hat sich seit 1940 nicht signifikant verändert. Das gilt übrigens auch für die ebenfalls manchmal ins Spiel gebrachte kosmische Strahlung.“  (2007)

„Da werden dann Dinge behauptet, dass es im Holozän, also in den letzten 10.000 Jahren schon mal global mehrere Grad wärmer gewesen sein soll als heute. Was einfach wissenschaftlich falsch ist. Und wenn man nach den Belegen fragt, kommen Standardbehauptungen der Klimaskeptiker, die schlichtweg falsch sind.“ (2019)

Stalagmiten, Eisbohrkerne, Sedimente … alle falsch?

Die Gletscher der Alpen und Norwegens sind nicht nur 1-2mal zurückgegangen, sondern mehrmals! Bäume und Pflanzenreste bezeugen, dass da oft keine Gletscher waren und Menschen sogar Tierhaltung betrieben. Man weiß, dass auch die Gletscher der Rocky Mountains ähnliche Änderungen durchmachten.

Studien über die Eisbedeckung der Arktis (Caron et al., Berben et al., Harning et al. alle 2019) belegen:

„A new reconstruction of Arctic (NW Greenland) sea ice cover (Caron et al., 2019) reveals modern day sea ice is present multiple months longer than almost any time in the last 8000 years…and today’s summer sea surface temperatures  are among the coldest of the Holocene.“

„Regional (northwest Greenland) sea surface temperatures were about 2°C warmer than at present for most of the last 6000 to 8000 years.“

Spiegel ONLINE vermeldete: „Aus fast 9000 Holzstücken aus alten Häusern und Bäumen haben Forscher um Ulf Büntgen vom Schweizer Umweltforschungsinstitut WSL und Jan Esper von der Universität Mainz das Klima gelesen – ein weltweit einzigartiges Geschichtsarchiv ist entstanden. Die Wachstumsringe im Holz geben Auskunft über das Wetter früherer Zeiten: Jedes Jahr legt sich ein Baumstamm einen weiteren Ring zu, seine Breite bezeugt Temperatur oder Niederschlag – je nachdem, wo das Holz gewachsen ist.“

Sie rekonstruierten 2500 Jahre unserer Vergangenheit und kamen zu dem Schluss: Unsere Geschichte war durch abrupte Klimaänderungen stark beeinflusst! (veröffentlicht im „Science“).

Das fand auch lt. der Uni Heidelberg in Troja statt, welches mehrfach besiedelt und verlassen wurde. Diese Phasen stimmen gut mit den Daten der Tropfsteine überein.

Wenn wir diese Daten alle haben, warum lehnen sie Herr Rahmstorf & Co. ab? Kriechen die Wissenschaftler durch die Höhlen, frieren sich die Finger auf dem Eis ab und wühlen im Schlamm der Seen für EXXON MOBILE? Die Uni Bern erfindet doch keine Ablagerungen der Sommer- und Winterform der Goldalgen oder Zuckmückenköpfe in den Sedimenten der Alpenseen und die daraus folgenden Klimarekonstruktionen, weil EXXON sie sponsert!

Oeschger-Zentrum Bern, Klima-Millennium – Projekt:

„Die Modellläufe, die heute gebraucht werden, um zukünftige Klimaverläufe zu berechnen, die berücksichtigen die natürliche Klimavariabilität nicht. Das heißt, in Zukunft wird mit irgendeiner konstanten Sonne und konstanten Vulkanen gerechnet. Wie wir aus unseren Untersuchungen sehen, haben gerade die Sonne und die Vulkane einen sehr großen Einfluss auf unser Klima.“ (2013)

Es gab im Holozän überregional und global höhere Temperaturen als heute und schnelle Klimawechsel. Die kleine Eiszeit und die Mittelalterliche Wärmeperiode gab es weltweit.

Behauptungen, dass es nicht so war, sind „schlichtweg falsch“!

Das PIK u.a. können ja auf die Beeinflussung der Strahlungsbilanz durch menschenverursachtes CO2 als Klimatreiber bestehen. Wer ist jetzt „Skeptiker, Leugner und Verschwörungstheoretiker“?

Wer die Vergangenheit verbiegt, aber uns die Zukunft voraussagen will, ist was? Und warum?

Weil wir zweifeln könnten! Uns könnten Zweifel kommen, dass die Wissenschaftler es doch nicht 100%ig wissen. Was völlig normal wäre! Die Menschen könnten fragen, Moment mal, warum soll ich jetzt mein Leben umkrempeln? Warum werden jetzt Mrd. € ausgegeben und wofür? Mit dem Zweifel kommt dann eventuell die Skepsis. Mit skeptischen Menschen kann man keine Gesellschaft auf Links drehen. Die Skepsis als Motor neuer Erkenntnisse möchte man ausschließen und die Skeptiker gleich mit. Sie lassen sich auch nicht in einem Konsens zusammenschmieden. Deshalb werden sie mit dem allgemein Bösen verbunden, sind Rechts, Verschwörer, „Klimaschädlinge“ oder sogar Nazis.

Anstatt aus den Ereignissen der Vergangenheit zu lernen und sich z.B. mit Wasserreservoiren vor Trockenheit zu schützen. Mit Heizungen, die auch in Extremfällen funktionieren, mit einer Stromversorgung, die sicher ist, als Lebensversicherung bei Extremwetter und abrupten Klimaveränderungen. Nein, wir wollen das Klima schützen und steuern! Dann wird es uns so ergehen wie den Trojanern. Die hatten diese Daten nicht und/ oder konnten sie nicht an nachfolgende Generationen weiter geben.

Auf der EIKE-Konferenz 2014 sprach Herr Dr. Lüning von den versteckten Treibern des Klimawandels. Ein Herr Marotzke, IPCC- Leitautor, hatte damals „Kalte Sonne“ gelesen und dazu geäußert: „… viel gelesen, wenig verstanden …“. Herr Schellnhuber hatte uns wortreich erklärt, dass man das CO2 Budget bis 2040 sehr genau berechnet habe: 700 Mrd. Tonnen, wenig später waren es erst 770, dann lt. Herrn Edenhofer 800 Mrd. Tonnen bis Ende des Jahrhunderts.

2018 hat Herr Marotzke dann das CO2-Budget, welches uns bis zur Klimakatastrophe bleibt, nahezu verdoppelt. Dabei wird es wohl nicht bleiben …

Teppich hoch und …

Wenn unter dem Teppich mehr liegt als auf dem Tisch, der darauf steht …!

 

 

 

 




Die hilfreiche Notfall-Mathematik von Professor Rahmstorf und seinen Freunden

Zugrunde liegt dieser Meldung ein Comment “Climate tipping points — too risky to bet against” von Timothy M. Lenton, Johan Rockström, Owen Gaffney, Stefan Rahmstorf, Katherine Richardson, Will Steffen und Hans Joachim Schellnhuber, der am 27. November 2019 auf Nature erschien war.

Dort gibt man sich zunächst Endzeitprophezeiungen aufgrund von geweissagten “Kipp-Punkten” hin. Denn die sogenannte „Klimawissenschaft“ teilt sich ihren Schlachtruf „vorwärts immer – rückwärts nimmer“ mit dem Kommunismus. Die Klimawissenschaft blickt nämlich krampfhaft in die Zukunft, und je schlechter ein Klimamodell diese Zukunft beschreiben kann, umso mehr Kipp-Punkte tauchen darin auf. Aber nicht etwa das Klima kippt in solchen Fällen durch einen solchen Kipp-Punk, sondern das Rechenergebnis – und dann ist es eben fasch.

Unsere Erde ist 4,6 Milliarden Jahre ohne selbstinduzierte klimatische Kipp-Punkte ausgekommen, und wenn‘s mal geknallt hatte, dann gab es für diese Katastrophen ganz andere Ursachen. Lord Monckton hatte in einer heftig kritisierten Arbeit einen Bezug des Klimageschehens zur Selbsterregung von elektronischen Schaltkreisen hergestellt und ist aus dieser Betrachtung heraus zu einer Begrenzung der Klimasensitivität auf 1,2 Grad Kelvin für die Verdoppelung der Konzentration von CO2 in der Atmosphäre gekommen. Diese Arbeit von Monckton bietet sich als hervorragender Analogieschluss für die Systemantwort unseres Klimas auf eine Veränderung seiner Einflussfaktoren an; schließlich hat es tatsächlich in erdgeschichtlichen Zeiten niemals eine klimatische Resonanzkatastrophe gegeben. Von irgendwelchen klimatischen Kipp-Punkten in der Erdgeschichte kann daher gar keine Rede sein. Unsere Erde existierte vielmehr 4.600.000.000 Jahre lang ohne jegliche klimatische Kipp-Punkte, bis dann plötzlich Supercomputer und theoretische Physiker auftauchten …

Trotzdem kann dieses Papier in Zukunft ganz hilfreich sein, denn schließlich wollen wir Millionen von E-Autos auf die Straße bringen. Und da kann die Notfallformel von Professor Rahmstorf und seinen Freunden wirklich gute Dienste leisten, also schaunmermal in den letzten Absatz, Zitat mit Hervorhebungen:

Emergency: do the maths

We define emergency (E) as the product of risk and urgency. Risk (R) is defined by insurers as probability (p) multiplied by damage (D). Urgency (U) is defined in emergency situations as reaction time to an alert (τ)divided by the intervention time left to avoid a bad outcome (T). Thus:

E = R × U = p × D × τ / T

The situation is an emergency if both risk and urgency are high. If reaction time is longer than the intervention time left (τ / T > 1), we have lost control.

We argue that the intervention time left to prevent tipping could already have shrunk towards zero, whereas the reaction time to achieve net zero emissions is 30 years at best. Hence we might already have lost control of whether tipping happens. A saving grace is that the rate at which damage accumulates from tipping — and hence the risk posed — could still be under our control to some extent.

The stability and resilience of our planet is in peril. International action — not just words — must reflect this.”

Der neutrale GOOGLE-Übersetzer sagt:

„Notfall: Rechnen Sie

Wir definieren Notfall (E) als das Produkt von Risiko und Dringlichkeit. Das Risiko (R) wird von den Versicherern als Wahrscheinlichkeit (p) multipliziert mit dem Schaden (D) definiert. Die Dringlichkeit (U) wird in Notfallsituationen als Reaktionszeit auf einen Alarm (τ) dividiert durch die verbleibende Interventionszeit zur Vermeidung eines schlechten Ergebnisses (T) definiert. Somit:

E = R × U = p × D × τ / T

Die Situation ist ein Notfall, wenn sowohl Risiko als auch Dringlichkeit hoch sind. Ist die Reaktionszeit länger als die verbleibende Interventionszeit (τ / T> 1), haben wir die Kontrolle verloren.

Wir argumentieren, dass die verbleibende Eingriffszeit zur Verhinderung des Kippens bereits auf Null gesunken sein könnte, wohingegen die Reaktionszeit zum Erreichen der Netto-Null-Emissionen bestenfalls 30 Jahre beträgt. Daher haben wir möglicherweise bereits die Kontrolle darüber verloren, ob ein Trinkgeld gegeben wird. Eine rettende Maßnahme ist, dass die Geschwindigkeit, mit der sich durch das Umkippen Schäden ansammeln – und damit das damit verbundene Risiko -, in gewissem Umfang noch von uns kontrolliert werden kann.

Die Stabilität und Belastbarkeit unseres Planeten ist in Gefahr. Internationales Handeln – nicht nur Worte – muss dies widerspiegeln.“

Anmerkung: So ganz neutral scheint der GOOGLE-Übersetzer diesmal nicht zu sein, wenn er den Begriff „tipping“ mit „Trinkgeld geben“ übersetzt und damit wohlmöglich ganz vorsichtig auf die politische Alimentation der Klimawissenschaften hinweist… 😉

Und auch die Logik kommt bei dieser Argumentation etwas zu kurz. Denn wenn die „verbleibende Eingriffszeit zur Verhinderung des Kippens bereits auf Null gesunken sein könnte, wohingegen die Reaktionszeit zum Erreichen der Netto-Null-Emissionen bestenfalls 30 Jahre beträgt“, dann ist das Beibehalten eines Netto-Null-Emissionsziels völlig kontraproduktiv. Die Autoren müssten vielmehr sofortige Anpassungsstrategien an den Klimawandel fordern. Denn Geld kann man nur einmal ausgeben, selbst wenn es sich um Steuergelder handelt…

Auf die Elektromobilität ließe sich diese Notfall-Mathematik aber sinnvoll übertragen: Wir haben eine Batterieladung für (T) Kilometer und wollen eine Fahrstrecke (τ) zurücklegen. Wenn die Division (τ / T) der geplanten Fahrstrecke (τ) durch die „Batteriekilometer“ (T) größer als „1“ ist, dann sollten wir also entweder eine Ladepause einkalkulieren oder ein Fahrrad mitnehmen. Aber auch  bei (τ / T) „kleiner 1“ sollten wir höllisch aufpassen, denn der bekannteste Kipp-Punkt beim E-Auto ist ein Stau auf der Autobahn bei hochsommerlicher „Heißzeit“ oder winterlicher „Eiszeit“.

Denn dann kippt auf jeden Fall die Stimmung im E-Auto, weil im Stau nämlich E-Klimaanlage respektive E-Heizung ausgeschaltet werden muss, um in der E-losen Wartezeit den Strom für das weitere E-Fortkommen zu sparen…

Der Beitrag erschien zuerst bei Kalte Sonne hier




Das Apokalypse-Magazin „Spektrum“ zu den Mythen von Klimaskeptikern

Der Artikel vom 18. September fängt schon lustig an: „Klimaforschung profitiert wie jede Wissenschaft [sic!] von ihrer Suche nach den besten Antworten, von Skepsis und Widerspruch.“

Nun ja, eine Wissenschaft tut das schon. Hat Stefan Rahmstorf hier persönlich geschrieben? Nur, wenn er das Pseudonym „Christopher Schrader“ nutzt.

Die von Skeptikern wie uns geäußerten physikalisch-technisch basierten Einsprüche zum herrschenden Weltuntergangsnarrativ werden von Spektrum allerdings als „Missbrauch“ des wissenschaftlichen Prozesses eingestuft. Wir hätten eigentlich gar kein Interesse, etwas zu verstehen. Messtechnik-Ingenieure wie Michael Limburg und Physiker wie Horst Lüdecke haben also kein Interesse, etwas zu verstehen?!

Im Folgenden analysieren die häufigsten der Tricks von uns Klimaleugnern, mit deren Hilfe wir die Welt in Brand setzen wollen, oder so.

  1. Die Wissenschaft sei sich in Grundfragen vollkommen einig. …

…und wir Heartland-EIKE-Schelme etc. verwickelten die seriösen Klimaapokalyptiker in „sinnlose Debatten über längst geklärte Fragen“. Hier steckt das berühmte „97%“-Argument drin, neuerdings ja sogar „99%“. Zur Erinnerung: 97%-John Cook ist kein Meteorologe oder Physiker, sondern Psychologe und hat seine Meriten als Politaktivist gesammelt (skepticalscience.com). Er hat in seiner berühmten „Studie“ herausgefunden, daß angeblich 97% aller Studien zum Thema Klima die Apokalypsentheorie befürworten. Tatsächlich flogen aus der Grundgesamtheit der Studien rund 2/3 heraus, weil sie keine Aussage dazu trafen. Und die restlichen „Befürworter“-Studien waren teils keine, weil sich einzelne Autoren darüber beschwerten, zu den 97% gezählt zu werden. Barack O’Bama machte aus den schon nicht existierenden 97% der Studien „97% aller Wissenschaftler“.

Hinzu kommen immer wieder Petitionen und Wortmeldungen echter Wissenschaftler, die dem Klimazirkus widersprechen. Stichwort „Oregon-Petition“ und ganz aktuell die 90 italienischen Dissidenten.

  1. Das Klima habe sich immer wieder geändert, aber heute passiere etwas anderes…

…immerhin die halbe Wahrheit. Was „Hockeyschläger-Michael“ & Co. noch leugneten, wird hier klar benannt: Im Hochmittelalter war es wenigstens in Europa schön warm, auch auf Grünland (Grönland). Im 17. Jahrhundert dann froren regelmäßig die Grachten Hollands zu. „Das bestreitet kein seriöser Klimaforscher.“

Aber heute gehe die Erwärmung viel schneller vor sich, weil wir alten weißen Männer kräftig Kohlendioxid in die Luft pusten. 2,5° Erhitzung in 100 Jahren statt wie früher nur 0,15°. Von enorm hohen CO2-Werten in der Vergangenheit, die nicht mit Hitze korrelierten, und von wachsenden Gletschern liest man im Spektrum-Artikel nichts. Die Aufheizung ist global existent, basta!

  1. Es gäbe viele Beweise, daß CO2 die Erwärmung verursacht, es sei ein wichtiges Spurengas…

… nun, vor allem ist es in der Luft nur ein in Spuren vorhandenes Gas. Die „Beweise“ stammen samt und sonders aus dem Labor aus unterkomplexen Modellen wie Professor Andreas-Volker Quaschnings peinlicher Essig-Backsoda-Versuch. Der Nachweis der Treibhaus-Theorie von Svante Arrhenius in der realen Atmosphäre steht nach wie vor aus. Aber laut Rahmstorf ist die gemessene „Erwärmung“ ja Beweis genug. (Ich fror abends fast den ganzen August durch – Rahmstorf in Potsdam nicht? Ach nein, der fliegt ja in der Weltgeschichte herum, bevorzugt Langstrecke.)

Spektrum sieht es natürlich politisch korrekter und bescheinigt Schauversuchen wie dem von Quaschning, „qualitativer Beweis“ zu sein. Der Artikel macht aber noch einen interessanten Punkt: Am Ende von Eiszeiten steige das CO2 in der Luft deutlich an und verstärke die von astronomischen Effekten (Milankowitsch-Zyklen etc.) ausgelöste leichte Erwärmung via Treibhaus-Effekt, so daß es schön warm wird. Klingt logisch und elegant, insofern „sexy“, das muß ich zugeben. Tatsache aber ist, und davon lesen wir nichts in dem Spektrum-Artikel, daß es zwei „Klima-Gates“ gab, in deren Rahmen herauskam, daß Klimaprofs intern zugaben, ihre in silico-Simulationen und -Szenarien solange zu manipulieren, bis sie zu den Messdaten passen.

Was der Spektrum-Autor auch einräumt, ist, daß selbst laut Weltklimarat die Erde immer grüner werde. In der Zukunft aber werde dank Klimawandel alles anders: Die Bananenexporteure in Südamerika hätten jetzt schon Schwierigkeiten, was natürlich keine anderen Gründe haben kann.

  1. Klimamodelle seien die bestmögliche Annäherung an die Zukunft, aber keinesfalls perfekt….

….was keinesfalls stimmt. Siehe Klima-Gates. Und es sei an das schöne Zitat von Dieter Nuhr erinnert, der meinte, die Meteorologen könnten das Wetter nicht länger als zwei Wochen vorhersagen; aber wie sich der Meeresspiegel in 100 Jahren erhöhe, das könne man auf den Zentimeter genau sagen (234).

Informationslose Aussagen des IPCC wie „zwischen 2081 und 2100 könnten die Temperaturen um 0,3 bis 4,8 ° höher liegen…“ usw. werden von Spektrum damit verteidigt, daß Klimamodell-Erstellung erstens ein „kniffliges Geschäft“ sein, super-komplex. Und zweitens müßten die „Wissenschaftler“ Annahmen über das Verhalten der Menschheit in der Zukunft treffen, um die Rechenprogramme mit Daten zu füttern. Der Weltklimarat habe dazu vier Standardszenarien entworfen, die von Klimaforschern zur Berechnung herangezogen würden. So könne man Wetter in der Zukunft nicht projizieren, wohl aber Wettermuster. Um Sicherheit bei den Rechnungen zu gewährleisten, müssen die Programme weit in der Vergangenheit starten und sollen so die Vergangenheit und die Gegenwart abbilden, was aber auch schon nicht klappt, siehe Klima-Gates. Außerdem geben selbst die ranghöchsten Klimaprofs manchmal zu, daß ihre Programme nicht viel taugen.

  1. Der Weltklimarat wisse viel über die Klimasensitivität…

…. also über die Temperaturerhöhung in Folge der Verdoppelung des CO2-Gehaltes der Atmosphäre, zum Beispiel 280 ppm (vor 1850) auf 560 ppm (in Zukunft?). Auch hier stellt sich wieder die Frage, warum es in der Vergangenheit viel CO2 trotz Kälte gab. Der Wirkmechanismus CO2→Hitze ist monokausal, und damit höchstwahrscheinlich falsch. Das Klima- und Wettergeschehen ist superkomplex, und damit müssen zahlreiche Wechselwirkungen angenommen werden, in beide Richtungen. Ob unsere aktuellen Computer das überhaupt berechnen können, ist zweifelhaft. In jedem Fall steht fest: Das Meerwasser des Planeten kann nur dann viel Gas aufnehmen, wenn es kalt ist. Erwärmt sich der Planet durch die solaren Zyklen etc., werden die Ozeane wärmer und gasen kräftig aus. Heißt im Klartext, unser heutiger CO2-Gehalt in der Luft stammt zum Großteil gar nicht von uns, sondern wäre auch ohne die Industrie-Emissionen vorhanden.

Da die IPCC-Forscher diese Zusammenhänge aber ignorieren, kommen sie im Report 2013/14 auf eine Klimasensitivität zwischen 1,5 und 4,5 Grad. Damit das Geld ordentlich fließt, müsse man natürlich aber in jedem Fall etwas gegen Luft-CO2 tun.

  1. Deutschland allein könne und müsse ziemlich viel tun…

…was bekanntlich sinnlos ist; auch, wenn jemand an das CO2-Märchen glaubt. Der geringe Anteil Deutschlands am weltweiten CO2-Ausstoß ist sehr gering (rund 2%). Das historische Argument (bzgl. unserer langfristigen Sünden der Vergangenheit) ist rein moralistisch und somit im Ergebnis irrelevant.

Der Spektrum-Autor verweist auf die gesetzlichen Regelungen, die vorsehen, daß Deutschland sich als EU-Staat zu einer koordinierten Klimapolitik verpflichtet habe. Die Pointe: Was heißt „koordiniert“ in der Praxis? Daß die Franzosen und Tschechen ihre Kernkraftwerke hochfahren, um unsere Dunkelflauten auszugleichen?

Außerdem meint Spektrum, daß Länder, die ihre Klimaziele in einzelnen Wirtschaftssektoren nicht erreichten, von Nachbarn Zertifikate kaufen müßten. Schon daher solle man aus „Eigeninteresse“ Klimaschutz betreiben. Zu so etwas fällt mir eigentlich nur noch ein, daß die zahlreichen Windräder und Sonnenpaneele den CO2-Ausstoß Deutschlands bis heute nicht signifikant senken konnten. Blöd, wenn die Physik sich den EU-Beschlüssen nicht anpassen will.

Natürlich entblödet sich der Autor auch nicht, von der Vorbildfunktion Merkeldeutschlands zu erzählen. „…wenn das reiche Deutschland Lösungen für die Umstellung der Wirtschafts- und Lebensweise findet, dürften [sic!] andere folgen.“ Unfug, die anderen sehen die katastrophalen Folgen wie Stromverteuerung und Blackout-Gefahr und tun einen Teufel, uns etwas nachzumachen. Am deutschen Wesen will die Welt nicht genesen; damals nicht, heute nicht, und auch in Zukunft nicht.

Mit dem Moral-Appell endet der Artikel in Spektrum. Ich empfehle dem kundigen Leser, ihn sich anzuschauen. Er ist ein perfektes Beispiel dafür, wie sinistre Pseudo-Wissenschaftsjournalist*innen eines ehemals renommierten Magazins die Wahrheit zugunsten einer politischen Agenda verdrehen. Sie können das sehr gut.