Von den Grundrechenarten, ihrer Nutzung in der Klimafolgenforschung und Herrn Prof. Dr. Rahmstorf

Insbesondere die viel bekannten, oft zitierten, oft interviewten Klimaforscher wie z.B. der bekannte  Professor Stefan Rahmstorf verweisen bei ihren öffentlichen Vorträgen gern auf die strenge Wissenschaftlichkeit ihres Tuns.
So auch hier in seinem Vortrag in Mainz anlässlich der Reihe „Physik im Theater“ der Uni Mainz am 2.11.19 und anderswo. Sind sachkundige Leute im Saal, dann kommt gelegentlich die Frage, wie es denn möglich sei, eine globale Mitteltemperatur auf 2 Stellen hinter dem Komma, mit nur ± 0,05 ° Unsicherheit zu berechnen, wenn die ursprünglichen Daten selber nicht nur eine sehr viel größere Messunsicherheit von bestenfalls ± 0,5 ° brächten, aber auch vielfältige systematische Fehler diese weit in den Bereich von mehreren Grad verschöben.

Die Antwort darauf ist eigentlich immer dieselbe. Sie lautet, weil man Differenzen (im Jargon: Anomalien) aus zwei Absolutwerten bilde, also den aktuellen Wert von einem Referenzwert abzöge, seien diese sehr viel genauer, weil, und das wird impliziert, wenn auch selten dazu gesagt, sich dann die Fehler von selbst aufhöben, weil ja beide Werte denselben Fehler trügen.
So auch Stefan Rahmstorf in besagtem Vortrag. Er sagte, dass nun mal die Anomalien sehr viel genauer seien, als die Absolutwerte, das sei wissenschaftlich klar belegt, und verwies in diesem Zusammenhang auf seine Website Spectrum.de Scilogs,wo er dieses ausführlich erklärt hätte.
Nun, schaut man dort nach, dann wird zwar ausführlich erläutert, dass es – seiner Meinung nach- nur auf die Veränderung, also die Anomalie, ankäme, aber, obwohl er vorher versprach „Licht ins Dunkle zu bringen“  lässt er seine Leser weiterhin im Dunkeln, behält also die versprochen Erleuchtung für sich und erklärt nichts.
Stattdessen wird dem Leser wortreich mitgeteilt, wie und auf welche  Weise die meteorologischen Rohdaten weltweit – wenn auch sehr spärlich in Raum und Zeit verteilt – gewonnen wurden, und weiter erklärt, dass verschiedene Institute sich weltweit mit deren Auswertung beschäftigten, was natürlich einen gebührenden Eindruck beim Leser hinterlässt, um dann noch stolz zu betonen, dass deren Ergebnisse „dabei in hohem Maße..“ übereinstimmten.
 

Dazu wird die Grafik (s.o) in Abbildung 2 gezeigt.
Die Übereinstimmung ist in der Tat gut, wie jeder sehen kann, erklärt aber immer noch nicht, warum die Anomalien genauer sein sollten als die Absolutwerte, zumal jede Unsicherheitsangabe in der Grafik fehlt. Und beschreibt damit eigentlich auch nur die Selbstverständlichkeit, dass wissenschaftliche Auswertungen von immer denselben Daten auch zu sehr ähnlichen, bis exakt gleichen Ergebnissen führen müssen. Bspw. muss jede Messung der Erdanziehung, egal wie sie durchgeführt wird, immer auf einen Wert von 9,81 m/s2kommen. Kleine Unterschiede, bedeuten dann entweder Fehler oder sind Hinweise auf geologische Anomalien.
Dann, etwas weiter im Text, verspricht Rahmstorf sich der eigentlichen Frage zu stellen:

„Warum sind Differenzen genauer als Absolutwerte?“

lautet zunächst vielversprechend die Überschrift des nächsten Absatzes.
Aber wiederum zeigt er dann nur, dass er wohl bis heute selber nicht verstanden hat, was er den Lesern da eigentlich erzählt. Denn als einzigen Beweis stellt er die Behauptung auf:

„Wohl jeder Wissenschaftler ist damit vertraut, dass man in vielen Fällen Differenzen bzw. Veränderungen einfacher bzw. genauer messen kann als Absolutwerte.“

Nun muss noch mal erwähnt werden, dass nur Absolutwerte gemessen und Differenzen aus eben diesen nur errechnet werden können. Doch das begreift Rahmstorf wohl nicht, denn als Beispiel führt er an:

„Um in Paris zu bleiben: gehe ich auf dem Eiffelturm eine Treppenstufe hinauf, kann ich leicht mit einem Lineal messen, wieviel höher ich dann stehe – aber wie viele Meter über dem Erdboden ich insgesamt bin, lässt sich schon schwerer feststellen.“

Das ist zwar eine schöne Metapher, aber erklärt nun wahrlich nicht, warum Differenzen einfacher bzw. genauer gemessen werden können als Absolutwerte. Denn was er so nett beschreibt ist exakt die Messung des Absolutwertes der Höhe dieser Treppenstufe.
Nichts anderes.
Und die hat natürlich die üblichen Fehler einer Messung mit einem Lineal im Zentimeterbereich.
Doch in einem hat er recht, von der Höhe der Treppenstufe lässt sich nun wirklich nicht ableiten, egal mit welcher Genauigkeit, wie hoch sich diese über Grund befindet. Dazu fehlt die zweite wichtige Angabe, nämlich deren absolute Höhe über Grund. Und die kann, ebenso wie die, die der Treppenstufe selber, nur absolut bestimmt werden.
Offensichtlich hat er bis heute nicht begriffen, dass er mit diesem Vergleich seine eigene Argumentation ad absurdum führt. Nämlich, indem er wieder einen Absolutwert bestimmt, und diesen jetzt fälschlich zur Differenz erklärt. Differenzen müssen nun mal aus den Absolutwerten gerechnet und können nicht gemessen werden, da beißt nun mal die Maus keinen Faden ab. Und dazu braucht man von den Grundrechenarten die Subtraktion A-B = C. C wird errechnet und enthält somit nach der Fehlerfortpflanzung die Summenfehler von A und B. Genauer, die Wurzel der Summe der Quadrate der Fehler von A+B.
Niemand misst die meteorologische Differenztemperatur in einer Wetterhütte.
In dem er also die Höhe der Treppenstufe misst, schafft er das Problem nicht aus der Welt, er vernebelt es nur.
Das allerdings tut er im Folgenden sehr wortreich. Zwischendurch konzediert er zwar, eher beiläufig, dass die Wetterstationen weltweit   .. den Absolutwert der Temperatur, also z.B. 13,1 °C oder –5,4 °C“messen, lenkt dann aber die Aufmerksamkeit des Lesers auf, in diesem Zusammenhang völlig unwichtige, Nebenkriegsschauplätze. Und merkt das vermutlich nicht einmal selber.
Um dann, statt Klärung und Beweis auf diesen allein wichtigen Punkt einzugehen, einfach  so zu behaupten,..

„Die klimatischen Veränderungen der Temperatur kann man dagegen viel genauer bestimmen: schon für die Monatsmittelwerte der globalen Temperatur auf plus oder minus einige Hundertstel Grad genau. Das liegt einfach daran, dass Abweichungen der Monatsmitteltemperatur großräumig korreliert sind: wie Datenanalysen ergeben haben über einen Radius von mehr als eintausend Kilometern (Hansen et al. 1999).“


Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung
Das war’s. Kein Beweis, keine Herleitung. Nur eine Behauptung.
Nun sind Korrelationen und Datenunsicherheiten zwei paar Schuhe, und der von ihm zitierte Herr Hansen hat sicher viel für die Klimapanik weltweit getan, aber in dessen hier zitierter Arbeit wird mit keinem Wort nachgewiesen, dass Anomalien genauer wären, als die ihnen zugrunde liegenden Absolutwerte. Es findet sich nichts darin,  gar nichts, sondern nur mehrfache Verweise auf eigene frühere Arbeiten, insbesondere auf Hansen und Lebedeff 1987[1].
Doch auch dort haben sie zwar die sehr kühne Behauptung aufgestellt, dass Wetterstationen, die bis zu 2400 km (1200 km Radius,) entfernt voneinander stünden, das ist immerhin die Entfernung Berlin – Malaga, immer hoch korrelierte Trends aufwiesen. Um im Umkehrschluss dann kühn zu folgern, dass deshalb nur einige wenige dieser Stationen ausreichten, um die globalen Trends der (Mittel-)Temperatur extrem genau zu berechnen. Und das, wie Rahmstorf seine Leser und Zuhörer glauben machen will „auf einige hundertstel Grad genau“. Aber auch dazu wiederum findet sich kein Wort, warum Anomalien genauer sein sollen, als ihre jeweiligen Bezugs- und Rechengrößen.
In einem meiner früheren Artikeln zum Thema (hier) in dem ich diese Aussage untersuchte, schrieb ich deshalb:

„Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels -des Politprofis Al Gore- die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte.
In einem Aufsatz von 1987 [3] im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die  Autoren  „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur deswegen, weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.“

…und über Fehler bzw. deren Größe und Korrektur findet man nur:

„In der Zusammenfassung des Aufsatzes steht:
“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab
Und etwas später ebenda:
“.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“ 
In diesem hochtrabenden, etwas verschwurbelten Satz steht also im Klartext:
“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“
Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet. „

Und in diesem Beitrag „von Korrelationen und Anomalien“wird dann nochmals im Detail nachgewiesen, dass auch die Behauptung über die Nutzbarkeit von Korrelationen zur Trendbestimmung weit entfernter Stationen mit fehlerhaften Messungen absoluter Humbug ist.
Zitat (Willis Eschenbach) daraus

„Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.
Soweit der pfiffige, misstrauische Willis Eschenbach.“

Doch da Rahmstorf immer wieder denselben Unsinn erzählt, kann man wohl davon ausgehen, dass er vielleicht gelegentlich bei den Grundrechenarten etwas Nachhilfe benötigt, und von Fehlerrechnung – und -fortpflanzung auch nicht viel Ahnung zu haben scheint.
Denn Böswilligkeit, um mittels bewusst falscher Behauptungen seine Ideen zu verbreiten, will man ihm ja nun wirklich nicht unterstellen.
In diesem Zusammenhang möchte ich noch auf das ausgezeichnete Video vom Team Klimamanifest von Heiligenroth aufmerksam machen das den bezeichnenden Titel trägt

Das #Verwirrspiel des Stefan @Rahmstorf (V3a)

 

 
und sich intensiv mit der Verneblungstaktik im Wesentlichen von S. Rahmstorf beschäftigt, um nicht zugeben zu müssen, dass das Pariser Zweigradziel auf tönernen Füßen steht, bzw. ohne jede Grundlage ist. Es lohnt die Zeit zu investieren und es sich in ganzer Länge anzuschauen.
 
[1]Hansen, J. and Lebedeff, S., Global Trends of Measured Surface Air Temperature, J. Geophys. Res., 1987, 92 (D11), 13345-13372.
 




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 3)

Das Zitat oben von Stefan Rahmstorf am 12.2.18[1]  ist ein Beispiel zur Behauptung warum Anomalien genauer sind als die ihnen zugrunde liegenden Absolutwerte. Er hat bis heute nicht begriffen, dass er in diesem Beispiel Absolutwerte misst und diese als Anomalien ausgibt. Klimaanomalien werden jedoch nicht gemessen, sondern aus den Absolutwerten mit all ihren Fehlern berechnet. Und da gilt nun mal das Gesetz von der Fehlerfortpflanzung. Er betreibt also – bewusst oder unbewusst- Etikettenschwindel.

Teil 1 hier und Teil 2 hier

Anomalien und sprunghafter Fehler

Machen wir dazu die Probe aufs Exempel, indem wir einen Anomalienverlauf aus einem (künstlichen) sinusförmigen Temperaturverlauf von 1850 bis 2009 erzeugen. Blau sei der Anomalienverlauf ohne Fehler. Die Anomalie verläuft fast eben, wie die blaue Trendlinie anzeigt. Ab 1940 wird nun ein Fehler von + 1 K eingefügt. Gemäß Rechenanweisung w.o. wird dann aus beiden Werten für alle Jahre (x) die Differenz gebildet. Ab 1940 hebt sich der Fehler auf. Beide Verläufe gehen ineinander über. Vor 1940 jedoch wird allein durch den Rechenprozess die Temperaturanomalie um 1 k abgesenkt. Wir sehen, die Annahme von vorhin gilt nur für die Zeit nach 1940. Vorher nicht.  Lässt man Excel eine Trendgerade durch diese Werte legen, dann sehen wir, dass sich beide erheblich unterscheiden.

Abbildung 8 Ein systematischer Fehler von + 1 K tritt ab 1940 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ wie alle aktuellen Werte ab 1940 betroffen. Ab 1940 gleicht sich der Fehler aus, vorher aber nicht. Der Trend verschiebt sich.
Daran ändert sich auch nichts, wenn wir den Eintritt des Fehler auf später verlegen. Wie das nächste Bild zeigt. Dort werden die Kurven Anomalie 1 und 3 genannt.

Abbildung 9 Ein systematischer Fehler von + 1 K tritt jetzt 1980 sprunghaft auf, weil z.B. die Station neu gestrichen wurde. Von dieser Veränderung sind das „Station Normal“ zur Hälfte und  alle aktuellen Werte ab 1980 betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.
Auch hier hebt sich der Fehler nicht auf, sondern ist weiter voll vorhanden und wirksam, natürlich erst, nachdem er auftritt. Der Unterschied zum ersten Beispiel ist, dass nun überhaupt keine „wahre“ Temperaturanomalie mehr gezeigt wird, sondern nur noch die fehlerbehaftete Summe.

Schleichender Fehler

Genauso entwickelt sich das Ergebnis, wenn man anstatt (oder zusätzlich) einen schleichenden Fehler in den zuvor fehlerfreien Verlauf einbringt.  Ich habe das in der folgenden Abbildung getan. Dort wurde von Anfang an ein schleichender systematischer Fehler von +0,1 K/Dekade eingebracht, wie er z.B. vom städtischen Wärmeinseleffekt hervorgerufen werden kann.

Abbildung 10 Ein systematischer Fehler von + 1 K tritt schleichend ab Beginn auf, weil z.B. die Station altert. Von dieser Veränderung sind das „Station Normal“ entsprechend seinem linearen Anteil ebenso wie  alle aktuellen Werte von Anfang an betroffen. Der Fehler gleicht sich nicht mehr aus, weder vorher noch nachher. Der Trend verschiebt sich.
Wir sehen einen schön ansteigenden Verlauf (zuvor war er fast gerade) – verursacht allein durch den schleichenden systematischen Fehler- z.B den UHI. Nur kann jetzt überhaupt nicht unterschieden werden, ob ein systematischer Fehler vorliegt, oder ob sich die Umgebungstemperatur z.B. durch den Treibhauseffekt erhöht hat.
Man könnte nun beanstanden, dass die Fehlergröße in diesen Beispielen etwas hoch gewählt wurde. Dem ist aber nicht so, wie die zahlreichen Untersuchungen z.B. von Watts (http://www.surfacestations.org/) zeigen. Denn Fehler dieser Art gab und gibt es zahlreich. Sie werden durch Stationsverlegungen, Thermometertausch, Änderung der Farbbeschichtung der Station, Änderung des Algorithmus für die Berechnung des Mittelwertes u.v.a. mehr eingebracht. Es wäre nun vielleicht möglich den Anstieg im obigen Beispiel als Ausreißer zu erkennen, weil er einmalig und sprunghaft  -wenn auch konstant- auftritt, und ihn durch entsprechende Rechnungen zu kompensieren. Das geschieht aber nur sehr, sehr selten, weil sich bei den abertausenden von Datensätzen der Vergangenheit kaum jemand diese Mühe macht, bzw. machen kann

Kein Fehlerausgleich möglich

Eine Korrektur unterbleibt hauptsächlich deswegen, weil man die Binsenweisheit (siehe Brohan et al 2006) von zuvor glaubt, dass sich der Fehler bei Anomalienbildung von selbst ausgleicht.  Das ist aber, wie wir gesehen haben, grottenfalsch!
Eine Korrektur unterbleibt aber auch in den allermeisten Fällen deshalb, weil die dazu erforderlichen sog. „Metadaten“ fehlen und auch nicht mehr herbeigeschafft werden können. Diese beschreiben die Umgebungsbedingungen, Maßnahmen, Algorithmen und vieles anderes, was in und um die Station über den Zeitraum passiert ist. (Siehe dazu bspw. Harrys Read Me Files des Meteorologen und Programmierers bei der CRU Harry: „HARRY_READ_Me.txt.“ z.B. hier . Diese ist 274 Seiten lang. Die dazugehörige Datenbasis enthält über 11.000 Dateien aus den Jahren 2006 bis 2009[2])
Allgemein gilt daher, die Annahme, dass sich bei Anomalienbildung die Fehler aufheben, ist nur dann richtig, wenn der gemeinsame, gleich große und richtungsgleiche Fehler vor dem Beginn der untersuchten Zeitspanne eintritt und dann so bleibt. In unserem Falle also vor 1850. Das liegt jedoch weder in unserem Ermessen, noch haben wir davon Kenntnis, sondern es wird allein durch die Realität bestimmt. Deshalb kann festgehalten werden, dass diese simple Fehlerkorrekturmethode in aller Regel nicht anwendbar ist. Angewendet wird sie aber von so gut wie allen -auch IPCC- Klimatologen trotzdem.

Zusammenfassung

In der Statistik ist es eine gängige Methode Werte von div. Variablen mit Referenzwerten eben dieser Variablen zu vergleichen, um auf diese Weise bei eventuellen Abweichungen u.U. Ähnlichkeiten im Verlauf oder sogar Hinweise auf mögliche Ursache und Wirkungsbeziehungen zu bekommen. Allerdings muss man sich immer im Klaren darüber sein, wie sehr diese Methode von den Randbedingungen abhängt. Es wird gezeigt, dass eine schlichte Anomalienbildung keineswegs ausreichend ist, um schwer bestimmbare variable oder konstante systematische Fehler herauszurechnen. Im Gegenteil, man müsste in jedem Fall diese Fehler bestimmen, sie quantifizieren und einordnen, um sie dann evtl. mehr oder weniger gut rechnerisch ausgleichen zu können. In der Klimatologie ist diese Einschränkung in Bezug auf die Schwächen der Anomalienbildung offensichtlich nicht nur nicht bekannt, sondern wird auch – auf den ersten Anschein hin- negiert.
Der berühmte Physiker und Nobelpreisträger Dick Feynman würde sagen: „Sie halten sich selbst zum Narren“. Nur so lässt sich erklären, dass auch hochangesehene Forscher diese simplen Zusammenhänge oft nicht beachten. Ihre Ergebnisse sind dadurch entsprechend falsch und damit unbrauchbar, bzw. mit wesentlich größeren Fehlern (Unsicherheiten) behaftet als angegeben.
 

Anhang.

Zur behaupteten Genauigkeit
Die berechnete Globaltemperatur im letzten Jahrhundert hat sich, gemäß Aussage des Intergovernmental Panel of Climate Change (IPCC) um ca. 0,6 ° bis 0,7° C erhöht, wie uns im Bericht TAR 2001(Third Assesment Report) mitgeteilt wurde. Um diese Aussage treffen zu können, müssen Veränderungen über lange Zeiträume mit einer Genauigkeit von < 1/10 °C ermittelt, erfasst, dokumentiert und verdichtet werden. Das englische Klimazentrum CRU (Climate Research Unit) -siehe Abbildung 1- zeigt sogar einen Anstieg von 0,8 °C mit einem Vertrauensintervall bei 95% von -0,09 bis +0,11 °C (Jahr 1905) bis ± 0,08 ° (Jahr 2005.).[3]
Dem steht aber entgegen, dass selbst bei Verwendung der bestgewarteten Messstationen und von gut trainierten Meteorologen so genau wie möglich abgelesenen Temperaturwerte, diese nur die Bestimmung von Tagesmittelwerten mit einer von  Genauigkeit ± 2 bis ± 3 K erlauben. Zitat des Meteorologen und Statistikers Jürgen Pelz
Jürgen Pelz: „Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der ,Informationstheorie“ Beilage zur Berliner Wetterkarte vom 7.12.1995; S. 5

„Will man beispielsweise die Tagesmitteltemperatur auf ± 0.1 K genau ermitteln, darf der Abstand der Messungen nicht grösser als 15 Minuten sein. Genügt eine Genauigkeit von ± 2 bis 3 K, reichen die Klimatermine.“ [Pelz, 1995b][4]

Trotzdem behaupten die Wissenschaftler der Climate Research Unit (CRU) der University von East Anglia,  welche die CRU Hadley Reihe produzieren[5]: „How accurate are the hemispheric and global averages? Annual values are approximately accurate to +/- 0.05°C (two standard errors) for the period since 1951. They are about four times as uncertain during the 1850s, with the accuracy improving gradually between 1860 and 1950 except for temporary deteriorations during data-sparse, wartime intervals. Estimating accuracy is a far from a trivial task as the individual grid-boxes are not independent of each other and the accuracy of each grid-box time series varies through time (although the variance adjustment has reduced this influence to a large extent). The issue is discussed extensively by Folland et al. (2001a, b) and Jones et al. (1997). Both Folland et al. (2001a,b) references extend discussion to the estimate of accuracy of trends in the global and hemispheric series, including the additional uncertainties related to homogenity corrections.”
[1] Quelle: „Verwirrspiel um die absolute globale Mitteltemperatur“ https://scilogs.spektrum.de/klimalounge/verwirrspiel-um-die-absolute-globale-mitteltemperatur/ (hier)
[2] Details entnommen aus ‚Botch after botch after botch‘ Leaked ‚climategate‘ documents show huge flaws in the backbone of climate change science By LORRIE GOLDSTEIN (hier)
[3] Diese Darstellung der Zeitreihe der mittleren Globaltemperatur kommt auf vielfältige Weise in öffentlichen Berichten des IPCC AR 4 vor. So z.B. Im Summary for Policymakers SPM auf Seite 19, In den FAQ´s des Berichtes der Workung Group 1 Fig. 3.1 auf S 104. In der Technical Summary des Berichtes der Working Group 1 (WG1-TS) als Fiure TS.6 auf Seite 37 usw.
[4] Pelz, J b (1995) Anmerkungen zur Prüfung von Daten und Ergebnissen von Modellrechnungen unter Verwendung der Statistik und der Informationstheorie. Beilage zur Berliner Wetterkarte 7.12.1995
[5] Quelle http://www.cru.uea.ac.uk/cru/data/temperature/#datter (hier)
Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion




Klimaschutz ohne Ziel! Der Bundesregierung ist auch die optimale globale Mitteltemperatur unbekannt.

Auf diesem Blog wurde schon viel über die enorme Bedeutung einer allgemein anerkannten, stimmigen, globalen Mitteltemperatur geschrieben. (z.B. hier und hier und hier). Der Grund liegt nicht darin, dass es sich bei ihr um eine künstliche, rein statistische Größe handelt, die in der Realität niemals anzutreffen ist (wenn eine solche Mittel-Temperatur, aus lokalen Messdaten bestimmt, irgendwo bekanntgegeben wird, z.B. in Rom, dann handelt es sich dabei im physikalischen Sinne nicht um eine Temperatur, auch nicht um eine globale Mitteltemperatur, sondern allein um eine statistische lokale Größe, die der Kennzeichnung bestimmter lokaler Klimazustände dient), der Grund liegt darin, dass die Klimaforschung, im Bemühen das chaotische System Klima auf wenige einfache physikalische Prozessgrößen zurückzuführen , von denen die wichtigste, in diesem Zusammenhang, die Energiebilanz der Erde bei ihrem Energieaustausch mit Sonne und Weltall ist, diese Temperatur als Ausweis des energetischen Gleichgewichtes der Erde benötigt. Denn es gilt in aller Einfachheit, die Annahme von der Notwendigkeit des energetischen Gleichgewichtes. d.h. es wird zunächst nur der Fall untersucht, für den beide Seiten der Bilanzgleichung gleich groß sind, ihre Differenz also zu Null wird. Dann ist diese Energie-Bilanz Gleichung eindeutig bestimmt, und man kann aus ihr die Komponente Temperatur der Erde, welche die abgestrahlte Energiemenge, unter bestimmten sehr vereinfachten Annahmen physikalisch sauber bestimmt, berechnen. (Dabei wird, mit einiger Berechtigung, die innere Energie der Erde, durch ihren heißen Kern erzeugt, außen vorgelassen.) Änderungen der Einstrahlungsenergie oder Änderungen der Abstrahlungsenergie bewirkten dann entsprechende Klimaänderungen, deren Hauptmerkmal die mittlere Temperatur ist, die sich daraus einstellen würde. Soweit so einfach.
 

Eine ausgeglichene Energiebilanz verlangt eine globale Mitteltemperatur von – 18 °C

Doch nun ergibt sich ein dickes Problem, denn die mit hoher Genauigkeit bestimmbare Sonnenleistung pro Quadratmeter, die unsere Erde auf die Erdscheibe projiziert empfängt,  vereinfacht gekennzeichnet durch die sog. Solarkonstante (rd. 1367 W/m2) und die ebenfalls, wenn auch etwas weniger genau bestimmbare abgestrahlte Leistung, passen einfach nicht zueinander. Es gibt ein deftiges Defizit zuungunsten der globalen Mitteltemperatur. Nach gängiger Treibhaushypothese kann die „gemessene“ abgestrahlte Leistung nur von einer Temperatur (immer als Mitteltemperatur betrachtet) von -18 °C, korrekter von 255 Kelvin erzeugt worden sein.
Nun ist zwar die Bestimmung der „wirklichen“ globalen Mitteltemperatur ausgesprochen schwierig, ja, wie wir im Folgenden sehen werden, schlicht unmöglich, aber dass die Erde im Mittel nur eine Temperatur von – 18 ° C aufweist, wird durch alle Beobachtungen widerlegt. Das wäre zutiefst lebensfeindlich, die Welt wäre fast durchgehend ein Eisblock. Da sie das durchgehend – auch nicht zu Eiszeiten – und für alle sichtbar, nicht ist und nie war, muss etwas passieren, was die reale vielfach angenehme, lebensfreundliche Temperatur erklärt.
Die gängige Hypothese dafür bemüht den Treibhauseffekt, den wollen wir mal hier so stehen lassen, obwohl es wesentlich einfachere, ohne viel Aufwand auch überprüfbare Erklärungsmodelle gibt (z.B hier und. hier). Und eine goldene Regel aller Wissenschaften, aufgestellt vom mittelalterlichen Philosophen William von Ockham, heißt, dass wenn es für ein Phänomen verschiedene Erklärungen gibt, man der einfachsten den Vorzug geben sollte, denn die ist fast immer richtig. Ockhams Rasierer wie diese praktische Entscheidungshilfe heißt, wird jedoch in der offiziellen Klimawissenschaft außen vor gelassen.

Warum die schwer bestimmbare absolute Temperatur so wichtig ist.

Aber auch das soll jetzt nicht unser Thema sein, wer will kann sich unter den angegebenen links einlesen, sondern unser Thema soll die Bedeutung der „richtigen“ oder „optimalen“ globalen Mitteltemperatur sein, auch unter Hinnahme, der, aus meiner Sicht, merkwürdigen Treibhaushypothese (wer will kann sich die Begründung meiner Zweifel hieranschauen). Denn die absolute Temperatur – ceteris paribus- bestimmt sämtliche energetischen Prozesse in dieser Welt, der unbelebten wie der belebten. Wird Eis von – 1°C um 2 ° erwärmt, verwandelt es sich in Wasser von +1 °C, bei einer Ursprungstemperatur von – 3 °C bleibt es Eis, auch wenn dieses dann – 1° „warm“ ist. Hat ein Mensch eine Körpertemperatur von 35 °C dann ist er unterkühlt und muss schleunigst um 2 ° erwärmt werden, damit seine Körpertemperatur wieder auf 37 °C steigt, er also wieder gesund wird, erwärmt man ihn um weitere 2 °C dann wird er wieder krank. Mit 39 °C hat er hohes Fieber. Anhand dieser wenigen Beispielen kann man schon erkennen, dass die absolute Temperatur alle energetischen Prozesse – immer – bestimmt und damit auch das Klima.
 

H.J. Schellnhuber Video „Die Welt hat Fieber“

Aber es gibt noch einen anderen wichtigen Grund und der liegt in den Grundrechenarten, also der einfachsten Mathematik. Will man eine Differenz errechnen, benötigt man dazu mindesten 2 Summanden, will man eine Temperaturdifferenz benötigt man dazu als Grundlage wieder 2 Summanden, nämlich die aktuelle Temperatur und eine Referenztemperatur. Die Logik und die Regeln der Mathematik erlauben zwar, unter Beachtung gestrenger Regeln z.B. bei der Betrachtung von Zeitreihen, die logische Weiterverarbeitung auch von Differenzen – dann sind es einfach nur Zahlen- aber die Physik erlaubt das nicht. Dort muss letztendlich immer wieder auf die absoluten Werte Bezug genommen werden. Und genau das tut die offizielle Klimaforschung nicht (mehr). Seit einigen 20 – 30 Jahren wurde der Politik eingeredet, es genüge sich nur um Temperaturdifferenzen zu kümmern, denn die absoluten Temperaturwerte wären unzuverlässig, schwer zu erheben und würden überdies sehr stark schwanken. Damit machte man zwar aus der Not eine Tugend, allerdings um den Preis der Unbestimmtheit. Das ist in den Naturwissenschaften ein dicker Fehler und eigentlich unentschuldbar, aber in der Politik besonders gern willkommen.
 

Die Bundesregierung kennt keine absoluten Temperaturen mehr, sie glaubt Anomalien (Differenzen) seien genauer und täten es auch

Und dass das offenbar immer noch so ist zeigen einmal mehr die ebenso irreführenden wie in der Sache bestenfalls nichtssagenden, des Öfteren auch einfach falschen Antworten der Bundesregierung auf zwei einfache kleine Anfragen der AfD Fraktion.
Schaut man sie sich an , wird offensichtlich, Mark Twain hat mal wieder recht. Nachdem die Bundesregierung auch in Beantwortung der zweiten kleinen (AfD)-Anfrage zu absoluten globalen Mitteltemperauren zugeben musste, weder die der Pariser Klimaübereinkunft zugrunde liegende Referenztemperatur zu kennen, noch die von ihr als optimal anzusehende globale Mitteltemperatur, muss jedem klar werden, dass die Bundesregierung mit ihrer Klimaschutzpolitik nicht nur einen Blindflug durchführt, sondern sie auch noch nicht mal ein Ziel hat. Sie fliegt das Land sozusagen in einem Blindflug mit unbekanntem Ziel.
Dafür aber verdoppelt sie ihre Anstrengungen. Und wie!
Dabei hilft ihr, welch Zufall, die EU. Denn aufbauend auf Ihrem eigenem „Klimaschutzplan 2050“, und dem Klimaschutzprogramm 2030  soll das nun bestens ergänzt werden durch den „Green Deal“„unser Mann im Mond“,wie Spötter sagen-  der EU, der ihr – über den Umweg Brüssel- schwierige Entscheidungen abnehmend, diese per EU-Verordnung einfach vorgeben will.
Um zu verstehen wie widersinnig und auch vielfach falsch, die gesamte, mit viel wissenschaftlichem Brimborium versehene Klima-Diskussion ist, müsste man sich die entsprechenden kleinen Anfragen in Gänze ansehen. Dazu dürften aber vielen Lesern nicht nur Lust, sondern auch die Zeit fehlen.  Daher wage ich hier mal eine Zusammenfassung.
 

Kurzanalyse der Antwort der Bundesregierung auf zwei kleine Anfragen zur absoluten globalen Mitteltemperatur.

Zunächst gibt Frau Staatsekretärin Schwarzelühr-Sutter in ihren Vorbemerkungen eine Fülle von Hinweisen und Belehrungen, die in keinem einzigen Fall den eigentlichen Fragen entsprechen. Allein diese erstrecken sich über vier DIN A4 Seiten. Und sie sind fast durchgängig per „copy und paste“ identischen Texten aus der Antwort der Bundesregierung BDr.Nr. 19/6899 vom 03.01.2019  auf die kleine Anfrage der AfD Fraktion BDr.Nr. 19/6019 vom 26.11.18 entnommen. Schon daraus muss geschlossen werden, dass die Bundesregierung durch wissenschaftliche anmutende „Vorbemerkungen“ ausweichen will, weil sie die gestellten Fragen nicht beantworten will bzw. kann.
Überdies sind ihre „Vorbemerkungen“ vielfach sachlich falsch, jedenfalls dann, wenn man die üblichen Regeln wissenschaftlichen Arbeitens – z.B. den millionenfach bestätigten Regeln der Fehlertheorie und -Statistik- anwendet. Ihre Behauptungen lassen sich zusammenfassen in der Auffassung, dass es wissenschaftlich möglich sei, trotz vielfach bestätigter mangelhafter Abdeckung der Erdoberfläche -Kontinente ebenso wie Ozeane-  mit meteorologischen Messstationen und der daraus resultierende extrem spärlichen wie ungenügenden Datenzahl wie -Qualität, belastbare Kenntnisse über die absolute Temperaturhöhe zumindest ab dem Zeitraum von 1850 bis 1900 zu gewinnen.

Die Bundesregierung glaubt der offiziellen Klimaforschung man könne aus schlechten und wenigen Daten gute und hoch präzise Ergebnisse errechnen.

Das aber ist Wunschdenken, weil niemand, und mit keiner noch so ausgefeilten statistischen Methode, aus schlechten und wenigen Daten, gute und für, in diesem Falle Klimazwecke, nach Zahl und Qualität, ausreichende Daten machen kann. Die wenigen heute verfügbaren historischen Rohdaten sind nun mal so selten und schlecht wie sie sind.  Es hilft auch nicht, auf die vielen Institutionen wie Zitat (S 7)„ WMO, NASA, NOAA, ECMWF und Hadley-Centre und vielen weiteren“ zu verweisen, und damit eine große Zahl unabhängiger Datenerhebungs- und Auswertungsstellen vorzugaukeln, wenn allgemein gesichert bekannt ist, dass alle diese Institutionen auf dieselben seltenen und qualitativ schlechten Rohdaten zugreifen (müssen). Die Ergebnisse dieser Institutionen unterscheiden sich daher nur durch die unterschiedliche Behandlung der Rohdaten.
Daher muss eindeutig festgestellt werden, dass weder der Bundesregierung noch den beteiligten Wissenschaftlern die absolute Mitteltemperatur vorindustrieller Zeit bekannt ist. Erschwert wird deren Bestimmung noch durch die simple Tatsache, dass es keinen Weg gibt ihre jeweils aus Modellen und wenigen, dazu noch höchst unsicheren, Daten ermittelten Größe an der Wirklichkeit zu überprüfen. Die Vergangenheit ist vergangen, bessere Daten sind nicht verfügbar.
Ebenso ist es Wunschdenken, wenn auch weit in der Klimatologie verbreitet, dass die Bildung von Temperaturdifferenzen (Anomalien), auch bei langen Zeitreihen, die Fehlergröße massiv absenken würde. (hier und hier) Diese Gesetzmäßigkeit gilt zwar begrenzt für echte zufällige, also wirklich gleichverteilte Fehler, aber nicht und in keinem Fall für die vielfältigen systematischen Fehler. Die addieren sich mit der Quadrat-Wurzel aus der Summe ihrer Quadrate. Erschwerend kommt hinzu, dass, weil die Anomalien so klein sind, das Gewicht der Fehler, welche sie unweigerlich begleiten, um zwei bis drei Größenordnungen größer ist, als wenn sie auf die Absolutwerte bezogen würden. Ein Fehler von ± 0,5 °C auf 15 ° C bezogen hat nun mal eine bedeutend geringere Auswirkung auf die Referenzzahl als wenn der gleiche Fehler auf  0,5 °C bezogen wird. Im ersten Fall spielt er nicht wirklich eine Rolle und verändert die Bedeutung der Referenzzahl kaum, im zweiten Fall verschwindet die Referenzzahl völlig im Rauschen der Unsicherheit.
 

Was nicht ermittelt werden kann, wird einfach als unnötig erklärt

Daher entschließt sich die Bundesregierung zur Flucht nach vorn und behauptet eine absolute Mitteltemperatur interessiere gar nicht, man würde diese auch gar nicht benötigen, weil sie viel bessere und genauere Anomalien gewinnen könne, die eine Überprüfung der Maßnahmen nach der Pariser Klimaübereinkunft erlauben würde. Das ist jedoch ein Ding der Unmöglichkeit und damit falsch.
Und weil das so ist drehte sich die Fragestellung darum, welche globale Mitteltemperatur die Bundesregierung als optimal ansieht. Und der Beantwortung auch dieser einfachen Frage ist sie – wie anders – ausgewichen. Alles in ihrer Antwort ist nur ablenkendes Beiwerk.
Sie verfällt deshalb in den üblichen Modus aus der Unmöglichkeit eine globale Mitteltemperatur genau genug bestimmen zu können, diese für nicht erforderlich und auch nicht für wichtig zu erklären, weil man ja Anomalien und die viel besser, auch so bestimmen könne. Dass das falsch ist, weil unwissenschaftlich und jeder Logik und Fehlerrechnung widersprechend, müssten die Bundesregierung bzw. die ihr zuarbeitenden Wissenschaftler eigentlich wissen, denn es ist – außerhalb der Klimawissenschaft- millionen- und milliardenfach täglich geprobtes Standardwissen.
 

Die Antwort hätte daher so aussehen müssen.

Daher hätte die Bundesregierung wahrheitsgemäß erklären müssen: „Ja, wir halten die aus der Treibhaushypothese (der „natürliche Treibhauseffekt“ (THE) brächte eine Erwärmung von 33 Kelvin) sich errechnenden 15 ° C für optimal“. Aber dann hätten sie keinen Grund mehr gehabt „Klimaschutz“ zu betreiben, weil die aktuelle „globale Mitteltemperatur“ mit 14,83 ° C immer noch darunter liegt.
Oder sie hätte erklären müssen: „Die Klimaforscher haben sich leider, leider vor 25 Jahren um ein sattes Grad C, oder Kelvin, verrechnet, der natürliche THE schafft nur 32 K – was aber leider vom Strahlungsenergiefluss nicht bestätigt wird- und damit läge diese ideale „globale Mitteltemperatur“ bei nur 14 ° C. Und weil sie „real“ nun in der Spitze bei 14,83 ° C liegt, ist das höchst gefährlich und dazu noch Schuld des Menschen“. All das hat sie aber nicht, stattdessen wich sie auf Nebenkriegsschauplätze mit viel wiss. anmutenden Brimborium aus. Und verfolgt im Blindflug ein schwebendes unbestimmtes 2° Ziel.
 
 




Beispiele dafür, wie die Verwen­dung von Temperatur-ANOMALIE-Daten anstatt abso­luter Temperatur­daten FALSCHE Antworten gibt

Einführung

Bei der Vorbereitung eines Beitrags unter Verwendung von Berkeley Earth-Temperaturdaten [Berkeley Earth Near-Surface Land Air Temperature data], worin auch die höchsten jährlichen Tmax-Temperaturen (nicht Anomalien) für China enthalten waren … also dem Land mit der höchsten Bevölkerungsdichte auf unserem mit Wundern angefüllten Planeten, stieß ich auf Folgendes: Die Graphik erstreckte sich über den Zeitraum von 1900 bis 2012 (FYI, 2012 ist das letzte volle Jahr mit lokalen Tmax– und Tmin-Daten von Berkeley Earth). Die China-Daten von Berkeley Earth finden sich hier mit den Tmax-Daten aus China hier. Um Abbildung 1 detaillierter zu erklären, extrahierte ich die höchsten Spitzenwerte von Tmax aus China für jedes Jahr, hatte sie aber noch nicht in Abbildung 1 eingehen lassen. Darum hatte ich keine Ahnung, was dabei herauskommen würde.

Abbildung 1

Die Ergebnisse werden in Abbildung 2 gezeigt und waren – gelinde gesagt – ziemlich überrashend.

Anmerkung: Monatliche Tmax-Daten von Berkeley Earth werden beschrieben als das „Mittel der täglichen Höchsttemperatur“. Entsprechend werden die Tmin-Daten beschrieben als das „Mittel der täglichen Tiefsttemperatur“.

Wegen der erhöhten höchsten jährlichen Tmax-Temperaturen (nicht Anomalien) zu Beginn des 20. Jahrhunderts verlief der lineare Trend für jene Untermenge im Wesentlichen flach mit einer Rate von 0,006°C pro Dekade, berechnet von MS EXCEL.

Abbildung 2

Jawohl, so ist es. Zusätzlich zu den Verhältnissen auf dem US-Festland (Abbildung 3) traten auch in China in der ersten Hälfte des 20. Jahrhunderts hohe Temperaturen auf (Erklärt das mal, oh ihr wahren Gläubigen einer vom Menschen verursachten globalen Erwärmung!)

Abbildung 3

Das Problem bei der Verwendung von Anomalien

Also ist das hier doch eine gute Gelegenheit, Illustrationen zu zeigen, die bestätigen, was viele von uns verstehen: Die Verwendung von Temperatur-Anomalien in wissenschaftlichen Studien kann falsche Antworten liefern … sehr falsche Antworten. Das heißt, falsche Antworten auf Fragen bzgl. der Temperatur können sich ergeben, wenn man Temperatur-Anomaliedaten anstatt Temperaturdaten (nicht Anomalien) heranzieht. …

Wie falsch sind die Antworten, falls man Anomalien verwendet? Abbildung 4 zeigt die höchsten jährlichen Tmax-Temperatur-Anomalien (keine tatsächlichen Temperaturen) für China, zusammen mit den jährliche Temperatur-Anomalien (keine tatsächlichen Temperaturen), beides für den Zeitraum 1900 bis 2012. Die höchsten jährlichen Tmax-Temperaturanomalien (keine tatsächlichen Temperaturen) für China zeigen eine merkliche Erwärmungsrate von 0,12°C pro Dekade, obwohl in Wirklichkeit während dieses Zeitraumes keine langfristige Erwärmung der tatsächlichen höchsten Tmax-Temperaturen existierte.

Abbildung 4

Der Berkeley Earth TMAX webpage für China zufolge zeigt der Juli die höchsten Werte der Konversions-Faktoren der monatlichen Temperatur [?]. Ebenfalls in Abbildung 4 dargestellt geben die Tmax-Temperaturanomalien für China eine bessere Antwort, aber immer noch nicht die richtige Antwort. Offensichtlich treten die höchsten jährlichen Tmax-Temperaturen in China nicht immer im Juli auf.

Die Probleme übertragen sich auf die globalen Daten der Tmax-Temperaturdaten

Für eine deutlichere Illustration unterzog ich die GLOBALEN Tmax-Temperaturdaten von Berkeley Earth dem gleichen Verfahren. Es zeigten sich bei diesen Daten die gleichen Probleme, aber die Trendwerte von Tmax im Juli sind korrekt. Siehe die Abbildungen 5 und 6:

Abbildung 5

Abbildung 6

Und dann gibt es da noch die Berkeley Earth Tavg-Temperaturdaten

Weil wir gerade dabei sind – man schaue nicht auf das „Mittel der täglichen Höchsttemperatur“ für Antworten mittels der mittleren monatlichen Temperaturdaten im Standardsatz der Festlands-Temperaturanomalien von Berkeley Earth. Die Tavg-Daten sind die falschen Daten, wenn man nach Antworten bzgl. Tmax sucht.

Diese Warnung gilt auch für die Standard-Datensätze von Temperaturanomalien nach NCDC/NCEI oder CRUTEM4. Es sind keine Tmax-Datensätze. Falls man einen anderen Tmax-Datensatz untersuchen möchte als den von Berkeley Earth, schaue man hier beim KNMI.

Link: https://wattsupwiththat.com/2018/12/13/examples-of-how-the-use-of-temperature-anomaly-data-instead-of-temperature-data-can-result-in-wrong-answers/

Übersetzt von Chris Frey EIKE