Von den Grundrechenarten, ihrer Nutzung in der Klimafolgenforschung und Herrn Prof. Dr. Rahmstorf

Insbesondere die viel bekannten, oft zitierten, oft interviewten Klimaforscher wie z.B. der bekannte  Professor Stefan Rahmstorf verweisen bei ihren öffentlichen Vorträgen gern auf die strenge Wissenschaftlichkeit ihres Tuns.
So auch hier in seinem Vortrag in Mainz anlässlich der Reihe „Physik im Theater“ der Uni Mainz am 2.11.19 und anderswo. Sind sachkundige Leute im Saal, dann kommt gelegentlich die Frage, wie es denn möglich sei, eine globale Mitteltemperatur auf 2 Stellen hinter dem Komma, mit nur ± 0,05 ° Unsicherheit zu berechnen, wenn die ursprünglichen Daten selber nicht nur eine sehr viel größere Messunsicherheit von bestenfalls ± 0,5 ° brächten, aber auch vielfältige systematische Fehler diese weit in den Bereich von mehreren Grad verschöben.

Die Antwort darauf ist eigentlich immer dieselbe. Sie lautet, weil man Differenzen (im Jargon: Anomalien) aus zwei Absolutwerten bilde, also den aktuellen Wert von einem Referenzwert abzöge, seien diese sehr viel genauer, weil, und das wird impliziert, wenn auch selten dazu gesagt, sich dann die Fehler von selbst aufhöben, weil ja beide Werte denselben Fehler trügen.
So auch Stefan Rahmstorf in besagtem Vortrag. Er sagte, dass nun mal die Anomalien sehr viel genauer seien, als die Absolutwerte, das sei wissenschaftlich klar belegt, und verwies in diesem Zusammenhang auf seine Website Spectrum.de Scilogs,wo er dieses ausführlich erklärt hätte.
Nun, schaut man dort nach, dann wird zwar ausführlich erläutert, dass es – seiner Meinung nach- nur auf die Veränderung, also die Anomalie, ankäme, aber, obwohl er vorher versprach „Licht ins Dunkle zu bringen“  lässt er seine Leser weiterhin im Dunkeln, behält also die versprochen Erleuchtung für sich und erklärt nichts.
Stattdessen wird dem Leser wortreich mitgeteilt, wie und auf welche  Weise die meteorologischen Rohdaten weltweit – wenn auch sehr spärlich in Raum und Zeit verteilt – gewonnen wurden, und weiter erklärt, dass verschiedene Institute sich weltweit mit deren Auswertung beschäftigten, was natürlich einen gebührenden Eindruck beim Leser hinterlässt, um dann noch stolz zu betonen, dass deren Ergebnisse „dabei in hohem Maße..“ übereinstimmten.
 

Dazu wird die Grafik (s.o) in Abbildung 2 gezeigt.
Die Übereinstimmung ist in der Tat gut, wie jeder sehen kann, erklärt aber immer noch nicht, warum die Anomalien genauer sein sollten als die Absolutwerte, zumal jede Unsicherheitsangabe in der Grafik fehlt. Und beschreibt damit eigentlich auch nur die Selbstverständlichkeit, dass wissenschaftliche Auswertungen von immer denselben Daten auch zu sehr ähnlichen, bis exakt gleichen Ergebnissen führen müssen. Bspw. muss jede Messung der Erdanziehung, egal wie sie durchgeführt wird, immer auf einen Wert von 9,81 m/s2kommen. Kleine Unterschiede, bedeuten dann entweder Fehler oder sind Hinweise auf geologische Anomalien.
Dann, etwas weiter im Text, verspricht Rahmstorf sich der eigentlichen Frage zu stellen:

„Warum sind Differenzen genauer als Absolutwerte?“

lautet zunächst vielversprechend die Überschrift des nächsten Absatzes.
Aber wiederum zeigt er dann nur, dass er wohl bis heute selber nicht verstanden hat, was er den Lesern da eigentlich erzählt. Denn als einzigen Beweis stellt er die Behauptung auf:

„Wohl jeder Wissenschaftler ist damit vertraut, dass man in vielen Fällen Differenzen bzw. Veränderungen einfacher bzw. genauer messen kann als Absolutwerte.“

Nun muss noch mal erwähnt werden, dass nur Absolutwerte gemessen und Differenzen aus eben diesen nur errechnet werden können. Doch das begreift Rahmstorf wohl nicht, denn als Beispiel führt er an:

„Um in Paris zu bleiben: gehe ich auf dem Eiffelturm eine Treppenstufe hinauf, kann ich leicht mit einem Lineal messen, wieviel höher ich dann stehe – aber wie viele Meter über dem Erdboden ich insgesamt bin, lässt sich schon schwerer feststellen.“

Das ist zwar eine schöne Metapher, aber erklärt nun wahrlich nicht, warum Differenzen einfacher bzw. genauer gemessen werden können als Absolutwerte. Denn was er so nett beschreibt ist exakt die Messung des Absolutwertes der Höhe dieser Treppenstufe.
Nichts anderes.
Und die hat natürlich die üblichen Fehler einer Messung mit einem Lineal im Zentimeterbereich.
Doch in einem hat er recht, von der Höhe der Treppenstufe lässt sich nun wirklich nicht ableiten, egal mit welcher Genauigkeit, wie hoch sich diese über Grund befindet. Dazu fehlt die zweite wichtige Angabe, nämlich deren absolute Höhe über Grund. Und die kann, ebenso wie die, die der Treppenstufe selber, nur absolut bestimmt werden.
Offensichtlich hat er bis heute nicht begriffen, dass er mit diesem Vergleich seine eigene Argumentation ad absurdum führt. Nämlich, indem er wieder einen Absolutwert bestimmt, und diesen jetzt fälschlich zur Differenz erklärt. Differenzen müssen nun mal aus den Absolutwerten gerechnet und können nicht gemessen werden, da beißt nun mal die Maus keinen Faden ab. Und dazu braucht man von den Grundrechenarten die Subtraktion A-B = C. C wird errechnet und enthält somit nach der Fehlerfortpflanzung die Summenfehler von A und B. Genauer, die Wurzel der Summe der Quadrate der Fehler von A+B.
Niemand misst die meteorologische Differenztemperatur in einer Wetterhütte.
In dem er also die Höhe der Treppenstufe misst, schafft er das Problem nicht aus der Welt, er vernebelt es nur.
Das allerdings tut er im Folgenden sehr wortreich. Zwischendurch konzediert er zwar, eher beiläufig, dass die Wetterstationen weltweit   .. den Absolutwert der Temperatur, also z.B. 13,1 °C oder –5,4 °C“messen, lenkt dann aber die Aufmerksamkeit des Lesers auf, in diesem Zusammenhang völlig unwichtige, Nebenkriegsschauplätze. Und merkt das vermutlich nicht einmal selber.
Um dann, statt Klärung und Beweis auf diesen allein wichtigen Punkt einzugehen, einfach  so zu behaupten,..

„Die klimatischen Veränderungen der Temperatur kann man dagegen viel genauer bestimmen: schon für die Monatsmittelwerte der globalen Temperatur auf plus oder minus einige Hundertstel Grad genau. Das liegt einfach daran, dass Abweichungen der Monatsmitteltemperatur großräumig korreliert sind: wie Datenanalysen ergeben haben über einen Radius von mehr als eintausend Kilometern (Hansen et al. 1999).“


Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung
Das war’s. Kein Beweis, keine Herleitung. Nur eine Behauptung.
Nun sind Korrelationen und Datenunsicherheiten zwei paar Schuhe, und der von ihm zitierte Herr Hansen hat sicher viel für die Klimapanik weltweit getan, aber in dessen hier zitierter Arbeit wird mit keinem Wort nachgewiesen, dass Anomalien genauer wären, als die ihnen zugrunde liegenden Absolutwerte. Es findet sich nichts darin,  gar nichts, sondern nur mehrfache Verweise auf eigene frühere Arbeiten, insbesondere auf Hansen und Lebedeff 1987[1].
Doch auch dort haben sie zwar die sehr kühne Behauptung aufgestellt, dass Wetterstationen, die bis zu 2400 km (1200 km Radius,) entfernt voneinander stünden, das ist immerhin die Entfernung Berlin – Malaga, immer hoch korrelierte Trends aufwiesen. Um im Umkehrschluss dann kühn zu folgern, dass deshalb nur einige wenige dieser Stationen ausreichten, um die globalen Trends der (Mittel-)Temperatur extrem genau zu berechnen. Und das, wie Rahmstorf seine Leser und Zuhörer glauben machen will „auf einige hundertstel Grad genau“. Aber auch dazu wiederum findet sich kein Wort, warum Anomalien genauer sein sollen, als ihre jeweiligen Bezugs- und Rechengrößen.
In einem meiner früheren Artikeln zum Thema (hier) in dem ich diese Aussage untersuchte, schrieb ich deshalb:

„Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels -des Politprofis Al Gore- die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte.
In einem Aufsatz von 1987 [3] im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die  Autoren  „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur deswegen, weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.“

…und über Fehler bzw. deren Größe und Korrektur findet man nur:

„In der Zusammenfassung des Aufsatzes steht:
“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab
Und etwas später ebenda:
“.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“ 
In diesem hochtrabenden, etwas verschwurbelten Satz steht also im Klartext:
“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“
Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet. „

Und in diesem Beitrag „von Korrelationen und Anomalien“wird dann nochmals im Detail nachgewiesen, dass auch die Behauptung über die Nutzbarkeit von Korrelationen zur Trendbestimmung weit entfernter Stationen mit fehlerhaften Messungen absoluter Humbug ist.
Zitat (Willis Eschenbach) daraus

„Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.
Soweit der pfiffige, misstrauische Willis Eschenbach.“

Doch da Rahmstorf immer wieder denselben Unsinn erzählt, kann man wohl davon ausgehen, dass er vielleicht gelegentlich bei den Grundrechenarten etwas Nachhilfe benötigt, und von Fehlerrechnung – und -fortpflanzung auch nicht viel Ahnung zu haben scheint.
Denn Böswilligkeit, um mittels bewusst falscher Behauptungen seine Ideen zu verbreiten, will man ihm ja nun wirklich nicht unterstellen.
In diesem Zusammenhang möchte ich noch auf das ausgezeichnete Video vom Team Klimamanifest von Heiligenroth aufmerksam machen das den bezeichnenden Titel trägt

Das #Verwirrspiel des Stefan @Rahmstorf (V3a)

 

 
und sich intensiv mit der Verneblungstaktik im Wesentlichen von S. Rahmstorf beschäftigt, um nicht zugeben zu müssen, dass das Pariser Zweigradziel auf tönernen Füßen steht, bzw. ohne jede Grundlage ist. Es lohnt die Zeit zu investieren und es sich in ganzer Länge anzuschauen.
 
[1]Hansen, J. and Lebedeff, S., Global Trends of Measured Surface Air Temperature, J. Geophys. Res., 1987, 92 (D11), 13345-13372.
 




Stefan Rahmstorf: „Klima- und Coronakrise. Fünf Desinformations-Tricks, die jeder kennen sollte“

„PLURV“ nennt Rahmstorf die Strategie der „Verschwörungstheoretiker“, die wie Wolfgang Wodarg oder wir EIKE-isten vorgehen. Was bedeutet das?
P – Pseudo-Experten
L – Logikfehler
U – unerfüllbare Erwartungen
R – Rosinenpickerei
V – Verschwörungsmythen.
Daß gerade ein Klima-Modellierer, dessen Computer-Realitäten mit der erlebbaren Realität erfahrungsgemäß nicht übereinstimmen (siehe Klima-Gates), mit den Argumenten kommt, die gegen ihn und ähnliche Akteure vorgebracht werden, hat ein Geschmäckle. „Haltet den Dieb!“ schrie der Dieb, lautet das Prinzip dahinter.
Wir verbessern Rahmstorfs Argumente daher einmal mit PLERV. Schräggestellt Rahmstorfs Originalsätze, teils etwas korrigiert.
P – Pseudo-Experten
Um eine Gegenthese zum etablierten Wissensstand zu lancieren, werden oft Pseudoexperten aufgeboten. Diese verbreiten immer wieder neu aufgelegte Weltuntergangsmythen („In zehn/elf/zwölf Jahren ist das Klima nicht mehr zu retten!“), die mit untauglichen und einseitigen Methoden wie chaotisch-nichtlinearen und nur auf Annahmen beruhenden Algorithmen „bewiesen“ werden. Die Pseudoexperten verbreiten ihre Mythen über ihre exzellenten Kontakte in Politik und Medien. Politiker und Journalisten wiederum wollen ihre Politik/ ihr Blättchen verkaufen und nutzen gerne „Krisen“, auf die die Wähler/Leser automatisch emotional reagieren.
L – Logikfehler
Ein Beispiel: „In Deutschland ist der Wald nicht gestorben, weil die grünen Politiker und Journalisten/Aktivisten ihn gerettet haben.“ So herum wird ein Schuh daraus: Die Maßnahmen, ein bißchen Kalkung und die Einführung von Abgasfiltern, hätten den übersäuerten und angeblich so gut wie toten Wald nicht in ein paar Jahren retten können. Außerdem gab es gar kein flächendeckendes Waldsterben.
Und in etwa zehn bis 20 Jahren, wenn es natürlicherweise kühler geworden sein wird, wird es nicht an der guten Arbeit von Stefan Rahmstorf et alii liegen, daß die Heißzeit abgewendet werden konnte. Trotzdem werden SR und Politiker Milliarden Euro an Steuergeldern verbrannt haben.
E – Erfüllbare Erwartungen
Zweifler fordern gern mögliche Beweise – etwa, daß der Treibhauseffekt nicht nur in reduzierten Labormodellen unter ausgewählten Bedingungen, sondern in der atmosphärischen Realität mit mehreren Methoden nachgewiesen werden kann- ohne Zirkelschlüsse. Die Grundlage – daß CO2 langwellige Strahlung einfängt- ist zwar seit 1869 experimentell im Labor bewiesen, aber solche unbrauchbaren Modell-„Beweise“ sind in den Naturwissenschaften nicht selten. Es gibt zum Beispiel etliche Wirkstoffe, die Bakterien oder Krebszellen in der Kulturschale töten, im Patienten aber überhaupt nicht wirken, zumindest nicht im medizinischen Sinne.
R – Rosinenpickerei
Gute Wissenschaftler wollen die Welt verstehen – und wägen dazu alle verfügbaren Informationen kritisch ab. Ideologen wollen ihre vorgefaßte Meinung bestätigen, picken sich dazu die passenden Daten heraus und übersehen geflissentlich einen Berg gegenläufiger Belege.
Genau das machen Klimaforschen*de laufend – ist der Sommer heiß und trocken, ist das „Klimawandel“. Ist das Frühjahr vorher kalt und naß, ist das nur „Wetter“, reiner Zufall.
Zieht sich das arktische Sommereis stark zurück, ist das „Klimawandel“. Dehnen sich das arktische Eis und die Grönland-Gletscher im Winter wieder ordentlich aus, ist das wieder nur „Wetter“, reiner Zufall.
V – Verschwörungsmythen
Um wahr zu sein, würden viele Fake-Geschichten eine atemberaubende Inkompetenz von Wissenschaftlern erfordern. Oder zumindest eine ordentliche Portion Selbstbetrug und narzißtische Motivation. Denn: Ohne ihre Weltuntergangsmythen würden etliche Forscher nicht in die Medien kommen und müßten hart arbeiten, ohne dafür etwas anderes als einen Titel und Geld zu erhalten; und viele nicht einmal das.
Damit der Schwindel nicht auffliegt, konstruiert man z.B. Verschwörungen der „Klimaleugner“ und behauptet, Kritiker seien „rechtsextrem“ oder ähnliches; und sie seien von Interessensgruppen wie der Ölindustrie finanziert. Die Lobbyisten, gern aus dem Umkreis des US-Präsidenten, gäben dabei befehlsartig die Themen und Kampagnen vor, die die „Klimaleugner“-Vereinigungen dann auszuführen hätten.
 

Ergänzung der Redaktion

Rahmstorfs Leugnung wissenschaftlicher unzweifelhaft belegter Tatsachen, diesmal vorgetragen von Fritz Vahrenholt, und Rahmstorfs Hinweis auf die Falschheit der gleichwohl richtigen Tatsachenbehauptungen von Fritz Vahrenholt an die „taz“ führen im Endeffekt zu dessen Entlassung als Alleinvorstand er Deutschen Wildtierstiftung. Lesen Sie selbst. Aus dem wöchentlichen Newsletter von Fritz Vahrenholt erschienen bei „Die kalte Sonne“. Hier.

Die Erde wird grüner
Im August 2019 hatte ich auf diesem Wege über eine bemerkenswerte Veröffentlichung des Max-Planck-Instituts für Meteorologie in Hamburg berichtet.„Unsere zentrale Erkenntnis ist”, so die Forscher um Aexander Winkler damals, „dass der Effekt der CO2– Konzentration auf die terrestrische Photosynthese größer als zuvor gedacht ist und daher bedeutende Implikationen für den zukünftigen Kohlenstoffkreislauf hat.“ Der CO2– Dämpfungseffekt durch Pflanzen ist demnach 60 % höher als das Mittel der Klima-Modelle angenommen hatte. „In den letzten beiden Jahrzehnten entstanden im Mittel 310 000 km² zusätzliche Blatt- und Nadelfläche – ungefähr die Größe Polens oder Deutschlands – jedes Jahr,“ so die Forscher. Ich hatte diese wichtige Erkenntnis seinerzeit den Mitgliedern des Deutschen Bundestages mitgeteilt, was dazu führte, dass Stefan Rahmstorf meinte zu urteilen, dass ich „den deutschen Bundestag für dumm verkaufen wollte“. Diese Bewertung wurde von einigen Medien wie der TAZ aufgenommen und führte schliesslich zur Entlassung als Alleinvorstand der Deutschen Wildtier Stiftung.




Stefan Rahmstorf schlägt mal wieder Klima-Alarm!

Doch das Potsdamer Institut für Klimafolgenforschung findet, dass wir uns jetzt genug in Corona-Selbstmitleid und Angst gewälzt haben. Es wird Zeit, uns wieder an die wirklichen Probleme zu erinnern! So leicht lässt man sich doch die Deutungshoheit über die bevorstehende Apokalypse nicht aus der Hand nehmen. Nimm das, RKI!
Dem DLF gab Stefan Rahmstorf vom PIK deshalb ein Interview, in dem er eine neue Studie vorstellte. In dieser verspricht er uns für quasi übermorgen – also das Jahr 2100 – noch nassere Füße, als wir uns bisher auch nur vorstellen konnten! Doch nun gibt es ja die neuen Erkenntnisse des PIK und wir können uns angemessen gruseln und handeln (lassen). Ich finde hochinteressant, wie diese neue Studie zustandegekommen ist und freue mich über die Ehrlichkeit bezüglich der Methodik, von der Rahmstorf uns berichtet:
„Was wir gemacht haben, ist eine Expertenbefragung. (1) Das heißt, wir haben alle Wissenschaftler, die sich mit dem Meeresspiegelanstieg beschäftigen (2) und mehr als sechs Fachpublikationen in den letzten Jahren (3) zu diesem Thema veröffentlicht haben, angeschrieben und um ihre Einschätzungen (4) für den Meeresspiegelanstieg unter verschiedenen Emissionsszenarien gebeten (5). Und es stellt sich einfach heraus, dass die Mehrzahl der Fach-Community (6), der Spezialisten für Meeresspiegelanstieg (7) die Lage etwas pessimistischer (8) einschätzt als der Weltklimarat IPCC.“
Ich übersetze das mal für Sie, liebe Leser: 1) Es handelt sich um Experten, also stell das nicht in Frage und folge der Wissenschaft! Und zwar nur jener 2), die den Alarmismus des PIK unwidersprochen teilen, weil sie 3) ihre Publikationen offenbar reihenweise und mit den gewünschten Schlussfolgerungen in genau der Fachpresse unterbringen konnten, die wir für relevant halten. Die lassen da ja schließlich nicht jeden irgendwas publizieren, unsere Leute schreiben schließlich die Reviews! 4) siehe 2), und welche Einschätzungen 5) können dass aufgrund 3) schon sein? Der Leser wird ebensowenig überrascht sein wie das PIK! Und selbst bei dieser fachlichen Engführung gab es offenbar immer noch abweichende Meinungen 6), die für das gewünschte Ergebnis 7) nach dem Mehrheitsprinzip für irrelevant erklärt und weggelassen wurden. Die simulierte Einigkeit unterstreicht, dass die Lage zum Glück für die Klimaretter sogar noch viel schlimmer ist 8), als Greta, Luisa und das IPCC es uns bisher in ihren milden Forderungen als Schreckgespenster an die Wand malen. Wo bliebe denn sonst auch der gewünschte „Spin“!

Rennen sollen die dummen Schafe

Und als ob wir nicht geahnt hätten, dass die Klimaretter die Gelegenheit nicht ungenutzt verstreichen lassen werden, die am Boden liegende Wirtschaft auch am Boden zu halten, endet das Interview mit diesen Worten Rahmstorfs:
Jetzt, wo sehr viele staatliche Gelder in die Hand genommen werden, um die Wirtschaft zu stützen, wäre es natürlich völlig abwegig, damit klimaschädliche fossile Industrien wieder hochzupäppeln, die wir uns einfach wegen der Klimakrise nicht mehr leisten können.“
Wir wissen ja nun, was uns in der schönen neuen deindustrialisierten Welt winkt (blauer Himmel, Sonnenschein) und was uns blüht (Massenarbeitslosigkeit, Elend). Wir dürfen gespannt sein, ob das Aufmerksamkeitsdefizit von Rahmstorf und Kollegen die Klima-Auguren nach dieser Studie wieder am RKI vorbei und an die Pole-Position der medialen Alarmismen bringen kann. Vielleicht legt das PIK ja in Kürze noch einen Meter Meeresspiegel oben drauf? Meeresspiegelanstieg kann man schließlich nie genug haben, und wenn man nach dem wiederholten „Wolf!” nun „Ach was, drei Wölfe!” ruft, was soll da schon schiefgehen? Und was haben sich die dummen Schafe überhaupt darum zu kümmern? Rennen sollen die!
Dieser Beitrag erschien zuerst auf Roger Letschs Blog Unbesorgt.




„Klartext Klima“: Vier Stühle – eine Meinung – wenig Zuseher

Vier Stühle – eine Meinung: Klartext Klima ist eine YouTube Reihe, in der sich Klimaaktivisten unterhalten. Das Format hat aktuell 99 Abonnenten, die Folge 3 vom 01.05.2020 haben bisher 400 Menschen gesehen (Stand 06.05.2020 abends, Anmerkung der Redaktion: Zum Zeitpunkt 9.5.20 12:35 Uhr da diese Meldung eingestellt wurde, zählt „Klartext“ 454 Klicks)).

Es geht in dieser Folge 3 um die Herrn Professoren Stefan Rahmstorf und Volker Quaschning, den Meteorologen Özden Terli und Frau Maja Göpel, ebenfalls Professorin in Sachen Politökonomie und Nachhaltigkeitswissenschaft. Die Folge 3 handelt vom Wegschwimmen der eigenen Felle, weil Corona momentan das alles überstrahlende Thema ist und eben nicht das Klima. Also werden diese beiden komplett unterschiedlichen Themen einfach in einen Topf geworfen, auch wenn sich das eigentlich verbietet, wie der Wissenschafts-Journalist Axel Bojanowski feststellte:

„Corona-Pandemie und Klimawandel zu vergleichen, ist ein guter Indikator, beide Probleme nicht verstanden zu haben.“

In dieser Folge vom Klartext Klima wird es daher hinten höher als vorne. Professor Rahmstorf sagt nämlich:

„Was nützt uns eine Wissenschaft, die in der Lage ist Vorhersagen zu machen, wenn wir dann lediglich dazu bereit sind abzuwarten, bis diese Vorhersagen eingetreten sind.“

Gemünzt ist das offenbar auch auf Corona. Aber gerade da könnten die genannten Personen einiges von den Corona-Wissenschaftlern lernen, die gerade prominent durch die Medien gereicht werden.
Klima ist gemitteltes Wetter auf 30 Jahre, folglich dauern Ergebnisse entsprechend lange oder anders gesagt, man kann sich die letzten 30 Jahre (oder länger) ansehen und versuchen Schlüsse daraus zu ziehen. Das ist schon ein erster sehr eklatanter Unterschied zu Corona, wo es eine ganz andere, nämlich nahezu tägliche Dynamik gibt.
Und wie gut oder schlecht eine Wissenschaft in der Lage ist Vorhersagen zu machen, zeigt das Thema Klima sehr schön. Bisher konnte noch kein Klima-Modell die reale Vergangenheit korrekt nachmodellieren. Bei jeder Überprüfung der Modelle kommen erstaunliche Abweichungen zur Realitätzu Tage. Insofern müsste man Herrn Professor Rahmstorf einfach mal fragen, welche Vorhersagen er denn meint? Auf was bitte soll gewartet werden, wenn es nicht stimmt? Die Liste der nicht eingetretenen wissenschaftlichen Prognosen in dieser Sache ist sehr lang und sollte doch eigentlich Mahnung sein, diese Prognosen einmal auf den Prüfstand zu stellen. Und zwar jeden Tag erneut. Corona zeigt nämlich sehr schön, dass Wissenschaft immer nur der aktuelle Stand des Irrtums ist. Das ist zwar zugespitzt, aber es trifft den Kern.
Beim Thema Klima läuft es aber anders, da gibt es nur eine Wahrheit, also etwas Absolutes, fast wie im Glauben und in der Kirche. Theorien werden per zweifelhafter Prozentzahl als Zustimmung bestätigt, aber nicht durch Thesen oder Gegenthesen. Die Headline einer Studie reichte schon aus, nicht der Inhalt. Wer daran Zweifel oder Fragen hat, der wird in irgendwelche Ecken gestellt und gilt als Leugner oder Verschwörungstheoretiker. Eine schöne Art, es sich in der eigenen Blase bequem zu machen. Die Corona-Wissenschaftler sind sich nicht zu schade, sogar Theorien, die ganz neu oder sehr alt sind, über den Haufen zu werfen, wenn sie Zweifel haben, sie sind Wissenschaftler im besten Sinne. Noch nie war das Wissen über das Unwissen so groß, um es mit dem Philosophen Habermas zu sagen. Und ganz besonders ragt Professor Christian Drosten und seine Auffassung von Wissenschaft heraus. Wir zitieren ihn hier deshalb noch mal:

„Es seien nicht Wissenschaftler, sondern die Politik, die Entscheidungen in der Krise treffe. Seine und die Aufgabe seiner Kollegen sei es, Daten zur Verfügung zu stellen und diese zu erklären. „Das ist ja das, was im Moment Wissenschaftler auch vielfach tun – und dafür dann leider auch überzeichnet werden“, setzt Drosten dann an. Seriöse Wissenschaftler würden weder bereits getroffene Entscheidungen bewerten noch konkrete Entscheidungen von der Politik einfordern.“

Es steht im krassen Widerspruch zu oben den genannten Aktivisten. Sie machen genau das Gegenteil von dem, was Drostens Auffassung von Wissenschaft ist. Der Grund könnte sein, dass Drosten einfach kein Aktivist ist.
+++
Wie geht man mit unbequemen Kritikern um? Früher hat der König sie einfach in den Kerker gesperrt und sie dort langsam verhungern lassen. Heute ist man da deutlich zivilisierter. Kritiker werden „nur noch“ als Nazi beschimpft, ihnen werden heimliche und üppig entlohnte Lobbyarbeit für das dreckige Großkapital unterstellt und allerlei andere Verschwörungstheorien aufgestellt. Da kommt man als naiv-wissenschaftlich denkender Kritiker ganz schön ins Grübeln, denn offenbar lassen sich die kritischen Argumente auf der Sachebene nicht so leicht entkräften, so dass andere Geschütze aufgefahren werden müssen.
Susan Crockford ist Zoologin und wehrt sich entschieden gegen die klimaalarmistische Instrumentalisierung von Eisbären. Das gefällt den Klimaalarm-Vertretern natürlich überhaupt nicht. Wie könnte man Susan zum Schweigen bringen, hat man sich schon lange gefragt. Nun hat man einen Weg gefunden. Zwar ist es nicht der Kerker, aber so ähnlich. Die University of Victoria hat Susan Crockford nun den Status als Adjunct Professor entzogen. Anstatt sich ihren Argumenten zu stellen, will man ihr den akademischen Boden unter den Füßen wegziehen. Nachzulesen bei WUWT hier, hierund hier.
Der Beitrag erschien zuerst bei die kalte Sonne hier




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 3)

Das Zitat oben von Stefan Rahmstorf am 12.2.18[1]  ist ein Beispiel zur Behauptung warum Anomalien genauer sind als die ihnen zugrunde liegenden Absolutwerte. Er hat bis heute nicht begriffen, dass er in diesem Beispiel Absolutwerte misst und diese als Anomalien ausgibt. Klimaanomalien werden jedoch nicht gemessen, sondern aus den Absolutwerten mit all ihren Fehlern berechnet. Und da gilt nun mal das Gesetz von der Fehlerfortpflanzung. Er betreibt also – bewusst oder unbewusst- Etikettenschwindel.

Teil 1 hier und Teil 2 hier

Anomalien und sprunghafter Fehler

Machen wir dazu die Probe aufs Exempel, indem wir einen Anomalienverlauf aus einem (künstlichen) sinusförmigen Temperaturverlauf von 1850 bis 2009 erzeugen. Blau sei der Anomalienverlauf ohne Fehler. Die Anomalie verläuft fast eben, wie die blaue Trendlinie anzeigt. Ab 1940 wird nun ein Fehler von + 1 K eingefügt. Gemäß Rechenanweisung w.o. wird dann aus beiden Werten für alle Jahre (x) die Differenz gebildet. Ab 1940 hebt sich der Fehler auf. Beide Verläufe gehen ineinander über. Vor 1940 jedoch wird allein durch den Rechenprozess die Temperaturanomalie um 1 k abgesenkt. Wir sehen, die Annahme von vorhin gilt nur für die Zeit nach 1940. Vorher nicht.  Lässt man Excel eine Trendgerade durch diese Werte legen, dann sehen wir, dass sich beide erheblich unterscheiden.

Abbildung 8 Ein systematischer Fehler von + 1 K tritt ab 1940 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ wie alle aktuellen Werte ab 1940 betroffen. Ab 1940 gleicht sich der Fehler aus, vorher aber nicht. Der Trend verschiebt sich.
Daran ändert sich auch nichts, wenn wir den Eintritt des Fehler auf später verlegen. Wie das nächste Bild zeigt. Dort werden die Kurven Anomalie 1 und 3 genannt.

Abbildung 9 Ein systematischer Fehler von + 1 K tritt jetzt 1980 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ zur Hälfte und  alle aktuellen Werte ab 1980 betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.
Auch hier hebt sich der Fehler nicht auf, sondern ist weiter voll vorhanden und wirksam, natürlich erst, nachdem er auftritt. Der Unterschied zum ersten Beispiel ist, dass nun überhaupt keine „wahre“ Temperaturanomalie mehr gezeigt wird, sondern nur noch die fehlerbehaftete Summe.

Schleichender Fehler

Genauso entwickelt sich das Ergebnis, wenn man anstatt (oder zusätzlich) einen schleichenden Fehler in den zuvor fehlerfreien Verlauf einbringt.  Ich habe das in der folgenden Abbildung getan. Dort wurde von Anfang an ein schleichender systematischer Fehler von +0,1 K/Dekade eingebracht, wie er z.B. vom städtischen Wärmeinseleffekt hervorgerufen werden kann.

Abbildung 10 Ein systematischer Fehler von + 1 K tritt schleichend ab Beginn auf, weil z.B. die Station altert. Von dieser Veränderung sind das „Station Normal“ entsprechend seinem linearen Anteil ebenso wie  alle aktuellen Werte von Anfang an betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.
Wir sehen einen schön ansteigenden Verlauf (zuvor war er fast gerade) – verursacht allein durch den schleichenden systematischen Fehler- z.B den UHI. Nur kann jetzt überhaupt nicht unterschieden werden, ob ein systematischer Fehler vorliegt, oder ob sich die Umgebungstemperatur z.B. durch den Treibhauseffekt erhöht hat.
Man könnte nun beanstanden, dass die Fehlergröße in diesen Beispielen etwas hoch gewählt wurde. Dem ist aber nicht so, wie die zahlreichen Untersuchungen z.B. von Watts (http://www.surfacestations.org/) zeigen. Denn Fehler dieser Art gab und gibt es zahlreich. Sie werden durch Stationsverlegungen, Thermometertausch, Änderung der Farbbeschichtung der Station, Änderung des Algorithmus für die Berechnung des Mittelwertes u.v.a. mehr eingebracht. Es wäre nun vielleicht möglich den Anstieg im obigen Beispiel als Ausreißer zu erkennen, weil er einmalig und sprunghaft  -wenn auch konstant- auftritt, und ihn durch entsprechende Rechnungen zu kompensieren. Das geschieht aber nur sehr, sehr selten, weil sich bei den abertausenden von Datensätzen der Vergangenheit kaum jemand diese Mühe macht, bzw. machen kann

Kein Fehlerausgleich möglich

Eine Korrektur unterbleibt hauptsächlich deswegen, weil man die Binsenweisheit (siehe Brohan et al 2006) von zuvor glaubt, dass sich der Fehler bei Anomalienbildung von selbst ausgleicht.  Das ist aber, wie wir gesehen haben, grottenfalsch!
Eine Korrektur unterbleibt aber auch in den allermeisten Fällen deshalb, weil die dazu erforderlichen sog. „Metadaten“ fehlen und auch nicht mehr herbeigeschafft werden können. Diese beschreiben die Umgebungsbedingungen, Maßnahmen, Algorithmen und vieles anderes, was in und um die Station über den Zeitraum passiert ist. (Siehe dazu bspw. Harrys Read Me Files des Meteorologen und Programmierers bei der CRU Harry: „HARRY_READ_Me.txt.“ z.B. hier . Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009[2])
Allgemein gilt daher, die Annahme, dass sich bei Anomalienbildung die Fehler aufheben, ist nur dann richtig, wenn der gemeinsame, gleich große und richtungsgleiche Fehler vor dem Beginn der untersuchten Zeitspanne eintritt und dann so bleibt. In unserem Falle also vor 1850. Das liegt jedoch weder in unserem Ermessen, noch haben wir davon Kenntnis, sondern es wird allein durch die Realität bestimmt. Deshalb kann festgehalten werden, dass diese simple Fehlerkorrekturmethode in aller Regel nicht anwendbar ist. Angewendet wird sie aber von so gut wie allen -auch IPCC- Klimatologen trotzdem.

Zusammenfassung

In der Statistik ist es eine gängige Methode Werte von div. Variablen mit Referenzwerten eben dieser Variablen zu vergleichen, um auf diese Weise bei eventuellen Abweichungen u.U. Ähnlichkeiten im Verlauf oder sogar Hinweise auf mögliche Ursache und Wirkungsbeziehungen zu bekommen. Allerdings muss man sich immer im Klaren darüber sein, wie sehr diese Methode von den Randbedingungen abhängt. Es wird gezeigt, dass eine schlichte Anomalienbildung keineswegs ausreichend ist, um schwer bestimmbare variable oder konstante systematische Fehler herauszurechnen. Im Gegenteil, man müsste in jedem Fall diese Fehler bestimmen, sie quantifizieren und einordnen, um sie dann evtl. mehr oder weniger gut rechnerisch ausgleichen zu können. In der Klimatologie ist diese Einschränkung in Bezug auf die Schwächen der Anomalienbildung offensichtlich nicht nur nicht bekannt, sondern wird auch – auf den ersten Anschein hin- negiert.
Der berühmte Physiker und Nobelpreisträger Dick Feynman würde sagen: „Sie halten sich selbst zum Narren“. Nur so lässt sich erklären, dass auch hochangesehene Forscher diese simplen Zusammenhänge oft nicht beachten. Ihre Ergebnisse sind dadurch entsprechend falsch und damit unbrauchbar, bzw. mit wesentlich größeren Fehlern (Unsicherheiten) behaftet als angegeben.
 

Anhang.

Zur behaupteten Genauigkeit
Die berechnete Globaltemperatur im letzten Jahrhundert hat sich, gemäß Aussage des Intergovernmental Panel of Climate Change (IPCC) um ca. 0,6 ° bis 0,7° C erhöht, wie uns im Bericht TAR 2001(Third Assesment Report) mitgeteilt wurde. Um diese Aussage treffen zu können, müssen Veränderungen über lange Zeiträume mit einer Genauigkeit von < 1/10 °C ermittelt, erfasst, dokumentiert und verdichtet werden. Das englische Klimazentrum CRU (Climate Research Unit) -siehe Abbildung 1- zeigt sogar einen Anstieg von 0,8 °C mit einem Vertrauensintervall bei 95% von -0,09 bis +0,11 °C (Jahr 1905) bis ± 0,08 ° (Jahr 2005.).[3]
Dem steht aber entgegen, dass selbst bei Verwendung der bestgewarteten Messstationen und von gut trainierten Meteorologen so genau wie möglich abgelesenen Temperaturwerte, diese nur die Bestimmung von Tagesmittelwerten mit einer von  Genauigkeit ± 2 bis ± 3 K erlauben. Zitat des Meteorologen und Statistikers Jürgen Pelz
Jürgen Pelz: „Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der ,Informationstheorie“ Beilage zur Berliner Wetterkarte vom 7.12.1995; S. 5

„Will man beispielsweise die Tagesmitteltemperatur auf ± 0.1 K genau ermitteln, darf der Abstand der Messungen nicht grösser als 15 Minuten sein. Genügt eine Genauigkeit von ± 2 bis 3 K, reichen die Klimatermine.“ [Pelz, 1995b][4]

Trotzdem behaupten die Wissenschaftler der Climate Research Unit (CRU) der University von East Anglia,  welche die CRU Hadley Reihe produzieren[5]: „How accurate are the hemispheric and global averages? Annual values are approximately accurate to +/- 0.05°C (two standard errors) for the period since 1951. They are about four times as uncertain during the 1850s, with the accuracy improving gradually between 1860 and 1950 except for temporary deteriorations during data-sparse, wartime intervals. Estimating accuracy is a far from a trivial task as the individual grid-boxes are not independent of each other and the accuracy of each grid-box time series varies through time (although the variance adjustment has reduced this influence to a large extent). The issue is discussed extensively by Folland et al. (2001a, b) and Jones et al. (1997). Both Folland et al. (2001a,b) references extend discussion to the estimate of accuracy of trends in the global and hemispheric series, including the additional uncertainties related to homogenity corrections.”
[1] Quelle: „Verwirrspiel um die absolute globale Mitteltemperatur“ https://scilogs.spektrum.de/klimalounge/verwirrspiel-um-die-absolute-globale-mitteltemperatur/ (hier)
[2] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN (hier)
[3] Diese Darstellung der Zeitreihe der mittleren Globaltemperatur kommt auf vielfältige Weise in öffentlichen Berichten des IPCC AR 4 vor. So z.B. Im Summary for Policymakers SPM auf Seite 19, In den FAQ´s des Berichtes der Workung Group 1 Fig. 3.1 auf S 104. In der Technical Summary des Berichtes der Working Group 1 (WG1-TS) als Fiure TS.6 auf Seite 37 usw.
[4] Pelz, J b (1995) Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der Informationstheorie. Beilage zur Berliner Wetterkarte 7.12.1995
[5] Quelle http://www.cru.uea.ac.uk/cru/data/temperature/#datter (hier)
Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion