Ja, das ist tatsächlich so. Man mag es sich kaum vorstellen, aber auf diese Weise entstand und entsteht ein Großteil der Daten, auf denen die Idee von der Klimakatastrophe beruht.

Die „mittlere globale Temperaturanomalie“ ist seit längerem eines meiner Lieblingsthemen (“Drei Anmerkungen zu zwei Grad“, “Diagnose Klimafieber”, Novo Argumente Nr. 103, 11/12-2009). Ich bezweifle, kurz gesagt, die Validität ihrer Bestimmung. Anders ausgedrückt sehe ich klare Indizien, daß sie genau das nicht repräsentiert, was sie eigentlich repräsentieren soll: Die mittlere Temperatur der bodennahen Luftschichten, die sich einstellen würde, wäre die Erdatmosphäre im thermodynamischen Gleichgewicht.

Es gibt dafür physikalische Argumente, aber auch die Fragestellungen des Verfahrens (Messung und Modellierung) sind von großer Bedeutung.

Eine sehr gelungene Darstellung der Ungereimtheiten in den Verfahrensfragen liefert nun Ross McKitrick in einem aktuellen Report. Er hat darin so ziemlich alles zusammengestellt, was der Öffentlichkeit über die Bestimmung der mittleren globalen Temperaturanomalie bekannt ist. Sowohl hinsichtlich der Durchführung der Messungen, als auch hinsichtlich deren Homogenisierung und Anpassung.

Letztere sind erforderlich, da man aus den Messungen ein Klimasignal, einen langjährigen Trend ableiten möchte. Die Daten der Wetterstationen (und der Eimer) sind  daher von Kontaminierungen durch Änderungen der Meßinstrumente, des Standortes, der Bebauung und Besiedelung, der Landnutzung und lokaler Emissionen (bspw. Staub) zu befreien (u.a.). Erstens sind diese für eigentlich alle Standorte nicht ausreichend dokumentiert (Eimer aus Holz? – oder aus Metall?) und zweitens wüßte man wahrscheinlich auch im gegenteiligen Falle nicht wirklich, damit umzugehen. Also behilft man sich mit statistischen Verfahren. Schlußendlich, und das ist immer wieder zu betonen, stellen die bekannten Datenreihen der Temperaturanomalie keine Messungen dar, sondern Berechnungen anhand entsprechender Modellannahmen.

McKitrick faßt die Essenz seiner Untersuchung wie folgt zusammen (in meiner freien deutschen Übersetzung):

Es existieren ernstzunehmende Qualitätsprobleme in den Datensätzen der Oberflächentemperaturen, die deren Kontinuität und Genauigkeit in Frage stellen. Nutzer sollten sich dieser Beschränkungen, vor allem hinsichtlich politischer Schlußfolgerungen, bewußt sein.

Ich kann den Report nur zur Lektüre empfehlen. Und es ist immer wieder interessant zu sehen, wie die Climategate-Mails helfen können, offene Fragestellungen genauer zu charakterisieren. Diese Hilfestellung war von den beteiligten Wissenschaftlern wohl eher nicht intendiert.   Außerdem legt McKitrick dar, daß die Dekontaminierung der Messungen von den oben genannten lokalen Effekten wohl doch nicht ganz so perfekt ist, wie immer behauptet.

Da sind noch ein paar Löcher im Eimer.

Dr. Peter Heller; mit freundlicher Genehmigung; zuerst erschienen bei Science Sceptical

ÄHNLICHE BEITRÄGE (BETA):

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken