Update:

Hier ein hoch interessantes (langes ) Telefonat mit dem ehemaligen DWD Meteorologen Dr. Hoffmann zur Qualität der Klimadaten. ".. Die Weltmitteltemperatur… jetzt haben wir aber gemittelt —ojeh, ojeh!" Mit Dank an R. Hoffmann

Weiter im Originaltext: In der Zusammenfassung steht:

Das statistische Fehler Modell, welches allgemein bei der Bestimmung der monatlichen terrestrischen Stations-Temperaturen angewendet wird, unterstellt eine physikalisch unvollständige Klimatologie, die dazu zwingt, dass deterministische Temperatur-Trends, als Messfehler interpretiert werden. Große verdeckte Unsicherheiten sind dabei den mittleren globalen bodennahe Lufttemperatur Messungen überlagert. Zur Veranschaulichung dieses Problems wurden repräsentative monatliche und jährliche Unsicherheiten anhand der Lufttemperatur Datensätze aus weltweit verteilten terrestrischen Klimastationen berechnet, was zu ± 2,7° C und ± 6,3 °C führt. Zudem wurde die vorhandene Unsicherheit in der von 1961-1990 erhobenen jährlichen Referenz Anomalie bis jetzt völlig vernachlässigt. Sie wird (hier) mit ±0,17 ° C bestimmt. Nach der Zusammenführung beider Unsicherheiten mit den zuvor berichteten ± 0,46 °C als unterer Grenze der Messfehler, bestimmt sich die von 1856 – 2004 errechnete globale bodennahe Lufttemperatur Anomalie bei einem 95%-Konfidenzintervall mit 0,8 ± 0,98 °C . Somit ist also der Trend der globalen durchschnittliche Oberflächentemperatur Lufttemperatur Anomalie statistisch ununterscheidbar von 0 °C. Ordnungspolitische Maßnahmen die auf die  Beeinflussung der globalen Lufttemperatur gerichtet werden,  sind daher empirisch nicht vertretbar.

Zitatende

Wieder bezieht sich Frank auf den schon öfter erwähnten Aufsatz von Brohan et al 2006[1] (er nennt in kurz B06) und ergänzt seinen ersten Ansatz um die Berechnung von Fehlern, die aus der örtlichen und zeitlichen Verteilung der Einzel-Messwerte selbst herrühren. Zusätzlich stellt er richtigerweise fest, dass auch die zur Anomalienbildung verwendete „Referenztemperatur“[2] (das „Station Normal“ im Sprachgebrauch) keinesfalls frei von Fehlern ist und diese sich deshalb – entsprechend der Fehlerfortpflanzung- im Ergebnis widerspiegeln müssen. Das ist bisher nirgends thematisiert worden, beeinflusst aber die erzielbare Genauigkeit erheblich.

Wie schon zuvor betrachtet er das bisherige, von Brohan et al 2006 verwendete, Fehlerbestimmungsmodell als unvollständig und starr und zu Scheingenauigkeiten führend. Diesmal,  und zusätzlich zur bisherigen Betrachtung, auch deshalb, weil darin Station Normals[3] als konstant angenommen werden, sowie die angenommenen Fehler rein zufällig sein sollen und sich deshalb durch Mittelung über die Zahl der Messungen minimieren lassen. Außerdem fällt ein zwangsläufig auftretender systematischer Fehler s,  der sich aus der Verschiedenheit der Messungen herleitet, völlig unter den Tisch. Der Ansatz von Brohan et al 2006 lässt sich damit nicht mehr halten. Auch deswegen, weil inhärente Trends, die regelmäßig in monatlichen Temperaturgängen auftreten und für den gleichen Monat aber in verschiedenen Jahren sehr verschieden sein können, zu einem weiteren systematischen Fehler bei den Monatswerten führen müssen.

Er nimmt deshalb das Standard-Fehler-Modell von B06 Stück für Stück auseinander. Es ist nicht immer leicht den dort vorgestellten Gedankengängen auch mathematisch zu folgen, aber da jeder neue Gedankengang sehr sorgfältig erklärt wird, kann der aufmerksame Leser dies trotzdem schaffen. Pat Frank schließt seinen Aufsatz mit der Schlussfolgerung:

Zitat:

Die Analyse des statistischen Protokolls welches üblicherweise verwendet wird, um die Unsicherheit in der globalen Durchschnittstemperatur des bodennahen Lufttemperatur Anomalie-Index abzuschätzen, ergibt, dass dieses verhängnisvoll fehlerhaft ist. Es sollte zu Gunsten eines Modells, dass explizit den Mangel an Wissen über die Fehler Varianzen in terrestrischen Klimastations- Temperaturmessungen zeigt, ausrangiert werden.

 

Abbildung 1 Die rote mittlere Trendlinie zeigt globale Mitteltemperatur wie sie vom amerikanischen Goddard Institute of Space Sciences (http://data.giss.nasa.gov/gistemp/graphs/) GISS von 1880 bis Ende 2008 im Internet zu Verfügung gestell wird. Ihr überlagert ist die minmale Unsicherheit nach Frank in Höhe von ± 0,46 K. Die Referenzzeit ist hier 1951-1980

Die Unsicherheit in der Referenz-Periode der globalen Mitteltemperatur der Luft der Temperaturanomalie wurde bisher selten betrachtet. Diese Temperatur-Unsicherheit stellt die minimale Variabilität dar, die man bei einer mittleren Jahrestemperatur eines bestimmten Klimaregimes erwartet werden kann, vorausgesetzt, dass dieser Referenz- Zeitraum repräsentativ ist. Unter der Annahme,  dass die Jahre 1961-1990 einen normalen Zeitraum repräsentieren, dann decken ± 0.51 °C 99,7% der Variabilität der globalen durchschnittliche Lufttemperatur im 20. Jahrhundert ab. Wenn das globale Klima in einer einzigen Phase über dem Intervall von 1856-2004 gewesen ist, dann decken ± 0,84 °C zu 99,7% die wirkliche klimatologischen Lufttemperatur-Variabilität des 20. Jahrhunderts ab. Aus diesen Überlegungen folgt, dass die meisten, oder alle, der beobachteten Variationen der mittleren globalen Temperatur im 20. Jahrhundert nur sparsam den meist spontanen Schwankungen des Klimas zugeordnet werden können, die auch die Pseudo-Trends reflektierende Persistenz zeigen[22-25]. Es scheint, dass es keine besonderen Anzeichen für eine alarmierende Ursache der Erwärmung des mittleren globale bodennahe Lufttemperatur Trends im 20. Jahrhundert gibt . Deshalb sind politische Maßnahmen diesen Trend zu beeinflussen, empirisch unerträglich.

Ergänzung

Dieser klare Befund muss noch um einige weitere Überlegungen ergänzt werden. Frank zeigt, dass die mittlere Globaltemperatur bzw. deren Trend (s. Abbildung) von einem Unsicherheitsband in der Größe von ± 0,98°C umhüllt wird. Nun könnte jemand auf die Idee kommen, um trotzdem daraus eine Erwärmung abzuleiten, die Hüllkurve des Bandes statt die Trendlinie selbst, für die Ermittlung des Trends der Erwärmung zu verwenden. Dies setzt voraus, dass die mittlere Trendlinie sich genau in der Mitte dieses Bandes befindet. Davon kann jedoch nicht ausgegangen werden. Wie eine weitere – noch nicht veröffentlichte- Forschungsarbeit von EIKE zeigt, kommen zu den genannten Grenzfehlern noch viele weitere hinzu, die sich aus den verwendeten Messmethoden, -Instrumenten und deren Unterbringung, -Algorithmen, etc. zweifelsfrei herleiten lassen. Diese sind systematische Fehler, die nicht über die ganze Zeit gleich sind, auch in sich nicht  gleich sein müssen, weder gleich groß, noch in ihrem Vorzeichen. Sie verschieben damit daher die wahre Trendlinie unsymmetrisch aber unbekannt innerhalb des Bandes. Zudem verbreitern sie das jetzt schon breite Unsicherheitsband nochmals um mindestens ± 0,5 eher um bis zu ± 1 °C. In den frühen Jahren ab 1850 sogar noch breiter, um dann im 20. Jahrhundert enger zu werden, mit einer weiteren Verengung ab Mitte der 70er Jahre .

Zu gegebener Zeit werden wir bei EIKE hierüber berichten. 

Update Kritik von Teil I:

Ein Kritiker bemängelte, (Hier der Link dort  Kommentare 32 und 37) dass bei Berechnung des Tagesmittels, Autor Frank und ich nicht berücksichtigt hätten, dass dieses Mittel

"…kein Erwartungswert  eines Ensembles von Messungen zu einem bestimmten Zeitpunkt des Tages zu interpretieren ist!" 

und fährt fort:…."Das Tagesmittel stellt ein Maß für das Integral über die Temperaturkurve des Tages geteilt durch die Tageslänge dar! "

Soweit der Einwand. 

Obwohl von diesem Kritiker in der ihm eigenen -der eigenen Wichtigkeit bewussten- Überheblichkeit vorgebracht, ist es interessant sich mit diesem Argument und seiner Begründung zu befassen. Der Kritiker meint also, die Behandlung der Messwerte unter Einbeziehung ihrer Fehler nach der Fehlertheorie, hinge von der späteren Interpretation ihrer beabsichtigten Verwendung ab. 

Dies ist aber hier nicht der Fall. Denn In jedem Falle bleiben es (hier 2 x 30) verschiedene Messwerte, die zuerst miteinander -nach bestimmten, zudem willkürlichen- Algorithmen, zu einem Einzelwert (Tagesmittel genannt) kombiniert werden, um dann zu einem Monatsmittel verdichtet zu werden. Dabei werden die nicht zu unterschreitenden Messfehler benannt, aber als zufällig im Sinne der Fehlertheorie angenommen.

Dies darf man aber nur dann machen, wenn anzunehmen ist, dass jede gemessene Tagestemperatur, bis auf einen zufälligen Anteil identisch mit allen anderen Temperaturen ist. Nur dann tendiert der zufällige Anteil, bei genügend großer Zahl von Messwerten gegen Null. Diese Annahme ist aber offensichtlich, wie sowohl Frank und ich wissen, und wie auch im Teil I ausgeführt, aber auch Brohan 06 wissen – kompletter physikalischer Unsinn!

Die einzelnen Messungen der Tagestemperaturen sind sehr verschieden. Vermeidet man also diesen Unsinn, dann muss man -wissenschaftlich korrekt- die Fehleraddition, wie sie Frank richtig beschrieben hat, einsetzen.  D.h. unabhängig davon, wie später das Ergebnis interpretiert werden soll, muss dies- wenn man es in weiteren späteren Rechnungen verwenden will- nach den anzuwendenden Regeln der Fehlertheorie erfolgen. 

In einem aber hat der Kritiker recht: das Ergebnis dieser Mitteilung der Tagestemperaturen wird als Ersatz für das Integral der Tagestemperatur (dem "wahren Mittel") über der Zeit interpretiert. Doch wenn man dies tur, kommt allein durch den (mühsamen) Vergleich  – anders als Hinweis des Kritikers vermuten lässt- ein weiterer systematischer Fehler hinzu. 

Jeder Algorithmus -und es wurden weltweit ca. 100 verschiedene eingesetzt, wie Griffith 1997 (Griffiths, JF (1997) Some problems of regionality in application of climate change.) herausfand- erzeugt ein anderes Tagesmittel, Monats- und Jahresmittel, als das gewünschte "wahre" Mittel über 24 Stunden.

Abbildung 2 zeigt eine Auswertung der Temperaturdaten der österreichischen Station Puchberg über 9 Jahre. (Quelle: Aguilar, EA,I. Brunet, M. Peterson, Thomas C. Wieringa,V. (2003) GUIDANCE ON METADATA AND HOMOGENIZATION. Aguilar, 2003) 

Dargestellt sind darin die Differenzen von Tagesmitteln verschiedener Algorithmen zum  "wahren" (24 h) Tages-und Monatsmittel (als Nulllinie dargestellt), aufgeschrieben über das ganze Jahr. Diese wurden wiederum über 9 Jahre gemittelt. Wohlgemerkt, es handelt sich immer um dieselbe Temperaturänderung über den Tag, den Monat und das Jahr.

Abbildung 3 zeigt die Abweichungen der verschiedenen Jahresmittel aus Abbildung 1, zum "wahren" Jahresmittel – das ist die Nulllinie), die nach diesen verschiedenen Algorithmen berechnet wurden. Die Differenz zwischen Max/Min und Mannheimer-Methode  über satte 9 Jahre liegt immerhin bei beträchtlichen 0,5 °C.

Unser Kritiker behauptet nun, dass dieser systematische Fehler nicht nur bekannt sei, sondern auch korrigiert würde. Das trifft jedoch nur ganz selten für wenige Zeiten und Klimazonen zu.

Jedoch gerade bei der Ermittlung der Globaltemperatur gilt stattdessen das komplette Gegenteil, denn in Brohan 06 stellen die Autoren unmissverständlich fest: Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. 

„..There will be a difference between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error.“

Die dort gemachte Annahme aber stimmt aber nur dann, wenn 

1…..der eingesetzte Algorithmus über den ganzen Zeitraum der einzelnen Zeitreihe unverändert geblieben ist – wovon aber nur selten, wie wir wissen, wenn überhaupt, ausgegangen werden kann.

2…..wenn man die daraus gebildeten Anomalien nicht miteinander vermischt. 

3…..wenn man sie auch nicht mit dem "wahren Mittelwert" – wie es Brohan oben erklärt, in irgendeine Beziehung setzt.

Dies alles jedoch ist erklärte und gängige Praxis bei der Berechnung der Anomalie der mittleren Globaltemperatur. Tut man dies, dann handelt man sich allein durch die verwendeten Algorithmen systematische Fehler des Endergebnisses von einigen Zehntel Grad ein.

Bekannt sind diese Fehler wohl, korrigiert werden sie aber nicht. In der der Literatur, die sich mit der Berechnung der globalen Mitteltemperatur, bzw. ihrer Anomalien über die Zeit beschäftigt, findet sich keinerlei Hinweis darauf. Weil man vermutet – siehe oben- dass er sich von selbst ausgleicht.

Auch der Kritiker nennt nur das Histalp-Projekt, das zwar vorbildlich ist, aber wegen seines hohen Aufwandes offensichtlich nicht für die ganze Erde oder große Teile von ihr, wiederholt wurde.

Michael Limburg EIKE


[1] Brohan, P., Kennedy, J.J., Harris, I., Tett, S.F.B. and Jones, P.D., Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850, J. Geophys. Res., 2006, 111 D12106 1-21; doi:10.1029/2005JD006548; see http://www.cru.uea.ac.uk/ cru/info/warming/.

[2] Das ist im physikalischen Sinne keine Temperatur mehr sondern eine Art Index

[3] Das ist der Mittelwert der Jahrestemperaturen diese Station über den WMO Zeitraum von 1961-1990

Related Files

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken