Update: In eigener Sache: Fragen & Antworten zur Problematik globaler Lufttemperaturmessungen.

Update 22.10.11

Aus der soeben veröffentlichten  BEST Studie   (Berkeley Earth Surface Temperature) erläutert ihr Inititator der Physiker Richard Muller soeben im Wall Street Journal: 

Auszüge: 

Die Qualität der Temperatur-Mess-Stationen ist weitgehend schrecklich. Die wichtigsten Stationen in den USA sind in der Energie-Ministeriums GHCN (Global Historical Climate Network) aufgenommen. Eine sorgfältige Untersuchung dieser Stationen durch ein Team von Meteorologen Anthony Watts geführt hat gezeigt, dass 70% dieser Stationen eine derart schlechten Standort habe, nach Standards wie sie die US-Regierung selbst aufstellte um zu messen, dass sie zu Unsicherheiten bei der Temperatur Messung zwischen zwei und fünf Grad Celsius oder mehr führen müssen. Wir wissen nicht, um wie viel schlimmer die Stationen in der Dritten Welt sind…..Anhand der Daten aus all diesen schlechten Stationen, schätzt das UN Intergovernmental Panel on Climate Change IPCC einen durchschnittlichen globalen Temperaturanstieg in den letzten 50 Jahren von 0,64°C , "der größte Teil davon", wie das IPCC sagt, ist durch den Menschen verursacht. Doch die Fehlerquote für diese Stationen ist mindestens dreimal größer als die geschätzte Erwärmung.

Ergänzung: Weitere Details und einige Kritik aus Sicht eines Statistikers finden Sie hier. (Wird fortgesetzt). Bevor einige Leser jubeln, dass Muller feststellt: "Global Warming is real" sei hier angemerkt, dass das niemand bestritten hat. Seit der kleinen Eiszeit ist die Erde an vielen Stellen zum Glück etwas wärmer geworden.

Ich will daher ihre Fragen versuchen zu beantworten. Aufgrund der Bedeutung dieser Fragen für das Verständnis der Ermittlung der globalen Mitteltemperatur und deren Bewertung und den beschränkten Auszeichnungsmitteln die im Kommentarbereich verfügbar sind, widme ich diesen Fragen & Antworten einen eigenen Beitrag. Auf die Gegeneinreden des Multibloggers Nico Baecker lohnt es sich nicht einzugehen. Sie tragen nicht zur Aufklärung bei  

Vorab sei festgestellt, dass es in diesem Beitrag nicht um die Sinn- oder Unsinnhaftigkeit einer globalen Mitteltemperatur bzw. deren Trendverlauf geht. An anderer Stelle habe ich diese Größe – der Vergleich stammt allerdings nicht von mir-  mit der Durchschnittstelefonnummer von Berlin verglichen. Auch die kann – wahrscheinlich viel genauer als die globale Durchschnittstemperatur- ermittelt werden, aber ob aus ihr vernünftige Erkenntnisse gewonnen werden können, ist nicht mal zweifelhaft. Ähnlich sieht es m.E.n. mit der globalen Durchschnittstemperatur aus, die aus völlig heterogenen Gebieten und Jahreszeiten der unterschiedlichsten Klimate -dazu noch höchst unvollständig und mit hoher Unsicherheit behaftet – gewonnen wird, und auch als Trendverlauf mehr verdeckt, als an Erkenntnisgewinn verspricht. Wenn die Mitteltemperaturen der definierten Klimazonen zwischen +30 °C und -35 °C liegen, also eine Spanne von ca. 65 °C abdecken, mit Extremen von + 70 ° und – 90 ° C, dann muss die Frage erlaubt sein, was dann eine Änderung von winzigen 0,7 °C im letzten Jahrhundert, die überdies – nicht nur meiner Meinung nach- völlig im Rauschen verschwindet, für einen Bedeutung habe sollte. Sehen Sie im Anhang dazu als pdf eine hübsche Erläuterung zu diesem Phantom globale Mitteltemperatur: "Does a Global Temperature Exist?"

Nun zu den Fragen/Kommentaren:

Leser Zuber schreibt:

Als die einfachste Methode, den ganzen AGW Hokuspokus zu beenden erscheint mit Ihr Approach, die Methode der Errechnung einer "globalen Mitteltemperatur" ins grelle Licht zu zerren und dabei wirklich allen (IPPClern, Klimarealisten, Medien, Politikern, Bevölkerung) klar zu machen, welch unvorstellbare methodische Luderei bei der Errechnung der globalen Mitteltemperaturen der Jahre 1850, 1851, 1852, 1853, 1854, 1855, 1856, 1857, 1858, 1859, 1860, 1861, …….1986, 1987, 1988, 1989, 1990, 1991, 1992, 1993, 1994, 1995, 1996, 1997, 1998, 1999, 2000, 2001, 2002, 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010, und 2011 angewendet wurde.

Antwort: Das war – wenn auch vornehmer formuliert- meine Erwartung. Es war mir dabei von Anfang an völlig klar, dass die wenigen vorhanden Messdaten dieser Zeitspanne in Nachhinein nicht mehr verbessert werden konnten. Also mussten irgendwelche Methoden oder andere Verfahren eingesetzt worden sein, die es erlauben zu behaupten (meine Basis war 2009, inzwischen sind die nach Brohan 06 angegebenen Unsicherheitsbereiche etwas vergrößert worden), dass der Vertrauensbereich für den berechneten Mittelwert (nach [Brohan et al. 2006])  von 95 % für die Unsicherheit der gezeigten Hauptkurve von -0,09 bis +0,11 °C 1905 bis ± 0,08 °C bis 2005 liegen.  Meine Aufgabe war nun diese Verfahren zu überprüfen, mit den Rohdaten und ihren Unsicherheiten – vorzugsweise systematischer Art- zu vergleichen und zu bewerten, inwieweit die dokumentierte Unsicherheit sich unter Anwendung objektiver Methoden und nach den anerkannten Regeln der Messtechnik und Fehlerstatistik erreichen lässt.

Update: Leser Hader bemerkt dazu:

An anderer Stelle heisst es, das Problem, die globale Mitteltemperatur zu ermitteln, ist nicht lösbar. Aber auch hier vermisst man eine genauere Betrachtung, was man überhaupt lösen will. Also was will man eigentlich erreichen? Vermutlich sind erstmal die Randbedingungen wichtig, in welcher Höhe vom Erdboden man messen möchte, welche geographischen und landschaftlichen Aspekte berücksicht werden sollen, Stadtgebiete, Waldgebiete, offenes Feld, Seen, Meere usw….

Antwort:
Dies ist korrekt, es ist nicht lösbar! Siehe dazu auch im Detail hier „The Elusive Absolute Surface Air Temperature (SAT)“[1]
 
Nach guter wissenschaftlicher Praxis sollte man erst mal definieren, wonach man eigentlich sucht. Die Meteorologen suchen zuerst eine Lufttemperatur, die als Maß für die physikalischen Eigenschaften der Atmosphäre dienen kann. Assmann auf  Seite 120 (6) [Assmann, 1892]  der Erfinder des Standardthermometers schreibt dazu in seinem Aufsatz Das Aspirations-Psychrometer; Ein Apparat zur Ermittlung der wahren Temperatur und Feuchtigkeit der Luft“Koeppen [Köppen, 1913] dagegen sagt in seiner Abhandlung »Studien über die Bestimmung der Lufttemperatur und des Luftdrucks« auf S. I: »Was ist Lufttemperatur ? Die Antwort lautet einfach: Die Temperatur der Luft, zunächst derjenigen, welche wir unmittelbar der Prüfung unterwerfen und weiterhin die Temperatur anderer, größerer Luftmassen, als deren Repräsentantin die erstere dienen kann«. Wie man sieht, ist Koeppens Definition die weitere, von einer Höhenangabe über dem Erdboden gänzlich absehende, während Sprung’s Definition dem für die beobachtende Meteorologie allerdings wesentlich maßgebenden Begriffe der »klimatischen Temperatur« nahe kommt.  Koeppen unterscheidet aber ferner gewissermaßen zwei verschiedene Arten der Lufttemperatur, deren erste man die physikalische nennen könnte, während die letztere auf das praktische Bedürfnis klimatologischer Untersuchungen Rücksicht nimmt…Man könnte deshalb vielleicht auch sagen, dass wir als Lufttemperatur diejenige Temperatur anzusehen haben, welche eine beliebige, der Untersuchung unterworfene Luftmenge unter dem Zusammenwirken der jeweiligen sie treffenden Einflüsse der Ein- und Ausstrahlung direkter wie reflektirter Wärme jeder Wellenlänge, ferner der Leitung und Konvektion von Wärme wirklich besitzt. …….Der Einzelapparat selbst aber kann nur Angaben liefern, welchen die Definitition der physikalischen Lufttemperatur« zu Grunde gelegt wird.

Und Weischet [Weischet, 1995] S115 – S 109 ff  schreibt zur Temperaturerfassung für diesen Zweck:

„Das international verwendete Standardinstrument ist das Assmannsche Aspirationpsychrometer. Psychrometer deshalb, weil neben einem normalen noch ein sog. feuchtes Thermometer eingebaut ist… Die  Aspiration wird durch einen kleinen Uhrwerksmotor besorgt, der einen Luftstrom mit 2,5 m/s an dem Thermometergefäss vorbeisaugt. Die aus dem Wärmeleitungsgleichgewicht mit strahlungsgeschützten Thermometern gewonnenen Temperaturangaben für die Luft werden als" wahre Lufttemperatur" bezeichnet. Mit den reinen Messvorkehrungen allein ist es aber noch nicht getan. Um die Vergleichbarkeit von Angaben der wahren Lufttemperatur untereinander zu gewährleisten, müssen noch andere international vereinbarte Normen beachtet werden, die je nach dem Verwendungsziel der Angaben verschieden sein können.“  

Hinter diesen klaren Worten verbirgt sich ein weiteres Problem. Die Meteorologen messen niemals die „wahre“ Lufttemperatur im Freien. Sie definieren deshalb lt. WMO die Hütteninnentemperatur als „wahre“ Temperatur. Damit umgehen sie – qua Definition- das Problem für die Meteorologen, aber nicht für die Klimatologen. Denn die Hüttentemepratur ist – von sehr wenigen Ausnahmen abgesehen-  fast immer zu hoch. Die Schätzungen liegen im Mittel bei ca. 0,5 bis mehrere Grad- Meine Schätzung liegt bei 1,0 bis 1,5 K. Das hat zur Folge- da man das nicht korrigiert hat-  dass die auf irgendeine Weise geschätzte globale Mitteltemperatur, um diesen Wert zu hoch ist.  Und beeinflusst damit die Energiebilanz erheblich.

Sehen Sie hierzu ein interessantes Video, dass die Irnisse & Wirnisse der aktuellen globalen Mitteltemperatur benennt. Mit Dank an R. Hoffmann.

Die Klimatologen hingegen, zuvorderst die Modellierer, suchen die Temperatur u.a. am oberen Rand der Atmosphäre (TOA Top of Atmosphäre), die Sie zur Berechnung des „Strahlungsgleichgewichtes“ benötigen, oder direkt an der Oberfläche des Wassers um Energieaustausch zwischen Ozeanen und Luft zu bestimmen.

Das sind also mehrere paar Schuhe!

Eine Definition der Randbedingungen -verbindlich für alle- existiert auch bisher nicht. Es besteht wohl das Bestreben dies zu vereinheitlichen aber bezüglich der historischen Daten geht das nicht mehr. Dort findet man einen unglaublichen Wildwuchs. Auch die WMO hat es bis heute nicht geschafft einheitliche Bedingungen allein für die Konstruktion der Messhütten, der Art der Sensoren, ihre Anbringung (z.B. die Höhe über Grund) und Pflege, sowie Eichung und Ableseregime, weltweit in allen bereichen zu definieren. Man behilft sich mit Spannen, die zulässig sind. Z.B. die Sensorhöhe in einer irgendwie gestalteten Messhütte soll heutzutage zwischen 1,5 bis 2 m über Grund liegen. Aber das nur für die meteorologisch interessante Lufttemperatur an Land.

Leser Hader schreibt weiter

… Aber was ich aus Sicht der Statistik und Datenanalyse viel interessanter finde ist, kann man nicht empirisch ermitteln, wie hoch diese Temperaturunterschiede bei unterschiedlichen Höhen sind, unter Berücksichtigung natürlich der Boden- und Windverhältnisse? Und eine weitere Frage quasi vom interessierten Laien an den Experten gerechnet, stellen die unterschiedlichen Höhen tatsächlich ein Problem dar, wenn man eigentlich nur die Anomalien ermitteln will, d.h. Differenzen zu einem Referenzwert? Kann man nicht mit diesen unterschiedlichen Bedingungen leben? Denn wenn global eine Klimaerwärmung stattfindet, dann sicher nicht nur auf einer Bodenhöhe von 2 Meter, sondern sicher auch bei 1m oder 5m.

Antwort: Dazu gibt es nur wenige Untersuchungen, z.B. Assman 1892, Hellmann/Potsdam 1922;  Ramanathan/Agra 1929, Nawa/Obanazawa 1965 Über Schneedecke 30 bis 150 cm dick

sie alle zeigen eine starken Einfluss der Höhe über Grund, sehr unterschiedlich je nach Wetterlage und Klimazone.  Hier die Ergebnisse eine Feldversuches von Assmann 1989.

Abbildung 1 

Hüttenvergleich nach Assman mit 10 minütiger Messfolge am 31.8.1889, Ort Berlin Lichterfelde. Man erkennt deutlich für diesen Strahlungstag in recht nördlicher Breite (52°) die starke Abweichung trotz sonst gleicher Bedingungen von rd. 1,5 °C zwischen wahrer Lufttemperatur (blau, No. 210) und Hüttentemperatur (No 554a grün). Außerdem kann auch gut die Höhendifferenz der Lufttemperatur zwischen 1,5 m (no. 239, rot) und 1,9 m (No 210, blau) von bis zu 0,6 °C beobachtet werden.

Update: Leser Hader bemerkte weiter:

Aber angenommen man hätte das alles mal festgelegt, ist auch die Frage, wie genau soll der Wert sein. Sieht man die Bestimmung der Durchschnittstemperatur als gescheitert an, wenn man sie in einer Genauigkeit von sagen wir mal 0,1°C angibt. Oder ist das schon ausreichend, um vernünftige Aussagen bzgl. klimatologischen Entwicklungen geben zu können?..

..Herr Limburg schreibt, dass es sich bei den Meßfehlern um "oft völlig unbekannten systematischen Fehler" handeln würde. Zuvor wurde allerdings aufgelistet, wie diese Fehler entstehen können. Also soooo unbekannt scheinen die Fehlerarten nicht zu sein.

Antwort: Dies ist nicht korrekt. Nichts war festgelegt. Das macht es ja im Nachhinein auch so schwierig. Ich selbst habe eine Liste von 40 systematischen Fehlern aufgestellt, kleinen wie großen, die ständig, oder sporadisch, schleichend oder sprunghaft auftreten. Nur ein Bruchteil davon ist untersucht (tlw. zusammengefasst z.B. u.a. bei Brohan 06) und ein weiteren Bruchteil hat man versucht zu korrigieren. Darunter den UHI mit läppischen 0,05 K.

Zudem muss  eine globale Mitteltemperatur zuvor mit ihren Randbedingungen definiert werden, bevor man den Versuch unternehmen kann, sie aus Messdaten zu bestimmen. Diese Definition der Randbedingungen existieren auch bisher nicht. Selbst die WMO hat es bis heute nicht geschafft, einheitliche Bedingungen allein für die Konstruktion der Messhütten, der Art der Sensoren, ihre Anbringung (z.B. die Höhe über Grund) und Pflege, sowie Eichung und Ableseregime, weltweit in allen Bereichen zu definieren. Man behilft sich mit Spannen, die zulässig sind. Z.B. die Sensorhöhe in einer irgendwie gestalteten Messhütte soll heutzutage zwischen 1,5 bis 2 m über Grund liegen. Dies hat aber direkt und auch kräftige Auswirkungen auf die Messwerte. Es gibt einige wenige Untersuchungen darüber.  Bei deren Verdichtung der Messwerte zu Mitteln und Bestimmung der Anomalien hat das auch auf diese [2],[3]  unmittelbaren Einfluss.  

Zudem ist die erzielbare Genauigkeit, wie schon des öfteren ausgeführt, durch unvermeidbare und vor allem unkorrigierbare systematische Fehler wesentlich geringer als bisher angegeben.  Frank hat zwei dieser Unsicherheiten bei 2 σ mit minimal ± 0,98 K bestimmt. Meiner Erhebung nach – ebenso geschätzt, wie bei allen anderen- kommt mindestens nochmals derselbe Wert, auf Grund der anderen Fehler hinzu.

Wie soll bei ± 1 bis 2 k Unsicherheit eine Änderung von 0,7 K sicher erkennbar sein? Sie verschwindet zwangsläufig in diesem Band zumal auch der gesuchte Trend nicht immer mittig liegen kann.

Seetemperaturen:

Regelrecht düster sieht es auf See aus. Da werden 3 Arten von Temperaturen sehr  ungenau und dürftig über die Seefläche verteilt, gemessen. Die MAT Marine Air Temperature, die NMAT die Night Marine Air Temperature und die SST SeaSurface temperature. Die ersten beiden wurden auf Schiffen (nur wenige fest verankert) bestimmt, wo die Wetterhütte, oft ein Stevenson Screen auf der Brücke steht.  Also sind Ort und Messhöhe ständig veränderlich. Das bekommt der Verwertbarkeit nicht, abgesehen davon, dass der Prozess aus ortsveränderlichen Temperaturbestimmungen genaue Vergleichswerte zu gewinnen, seine eigenen Tücken hat. Sie sind daher sehr erratisch und werden deshalb vom MetOffice nur zu bestimmten Vergleichszwecken herangezogen. Statt ihrer verwendet man das Surrogat oder Proxy der SST SeaSurface temperature. Diese soll, so ist die Vermutung, zumindest in den eisfreien Gegenden der Meere, ein guter Ersatz und wg. der thermischen  Trägheit des Wassers,  auch wesentlich stabiler reagieren, als die Lufttemperatur. Sie soll so jedenfalls glaubt es Jones, in etwa der Lufttemperatur in 10 m Höhe entsprechen. Beweise dafür gibt es wenige und nur von ausgesuchten Orten, genauso wie es Gegenbeweise gibt.  Über SST und deren Unsicherheiten, darüber wie man damit umgeht, gibt es eine umfangreiche Literatur [4]. Aber mit mehreren Schönheitsfehlern – u. a. dem – dass nirgendwo erläutert wird, wie denn das Tagesmittel von dem alles ausgeht, bestimmt wird.

Die Unsicherheit  der grundlegenden Einzelmessungen (vermutlich für 1 σ) wird angegeben:

A single SST measurement from a ship has a typical uncertainty of around 1-1.5K. (Kent and Challenor (2006), 1.2±0.4K or 1.3±0.3K; Kent et al. (1999), 1.5±0.1K; Kent and Berry (2005), 1.3±0.1K and 1.2±0.1K; Reynolds et al. (2002), 1.3K; Kennedy et al. (2011a), 1.0K; Kent and Berry (2008) 1.1K. These analyses are based on the more modern portion of the record. No studies have been done to see if there are systematic changes in the size of these errors through time. It should also be noted that not all measurements are of identical quality. Some ships and buoys take much higher quality measurements than others.

Hinzu kommt in ungelöstes und für die Vergangenheit auch unlösbar bleibendes Problem dürftigen Abddeckung der Seeoberfläche durch Messung. Obwohl hunderte  von Millionen Messdaten vorliegen sind sie fast alle auf die Hauptschifffahrtsrouten konzentriert und decken damit nur wenige % der Seefläche ab.

Abbildung 2: Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611

Update: Leser Hader bemerkte weiter:

Soweit ich das überschaue, beruft sich Herr Limburg auf die hohe Unsicherheit, aus den bisherigen Meßergebnissen absolut gesehen, den korrekten globalen Durchschnittswert zu ermitteln. Also quasi ob nun 15,1°C oder 15,7°C oder sonstwas vorliegt. Aber mal ganz "ketzterisch" gefragt, ist das wirklich entscheidend? Wenn die Klimatologen letztendlich mit Temperaturdifferenzen weiterarbeiten, dann wäre ein Sensor ausreichend, der diese Differenzen sehr genau mißt. Ich selbst habe mich bisher mit Temperaturmessung nie beschäftigt, aber aus Sicht der Datenanalyse ist das ein interessantes Feld. Und da denke ich, dass der absolute Meßwert gar nicht entscheidend ist, sondern der relative (bezogen auf einen Referenzwert). Wichtig ist, dass die Messung 14,7°C im Jahr 1961 auch dasselbe bedeutet, wie die 14,7°C im Jahr 2011. Okay, das wirklich nur mal ein paar angerissene Gedanken, zu dem Thema.

Antwort: Dazu hatte ich bereits  Stellung genommen. Einmal geht es um die Bestimmung (irgend-) einer  globalen Mitteltemperatur der Luft. Diese ist in ihren Randbedingungen bisher nicht sauber definiert und für die Vergangenheit schon gar nicht.  GISS schätzt sie zudem auf irgendwo zwischen 12.8 und 14.4 °C. Allein diese Differenz hat eine stärkere Wirkung auf die Energiebilanz als alles CO2. Aber selbst die ist nirgendwo einigermaßen sicher greifbar.

Frage Leser Zuber:

Haben sie in Ihrer Dissertation für jedes dieser Jahre die exakte Anzahl der zugrunde liegenden Messstationen, deren Messhäufigkeiten pro Tag, Angaben über systematische Messfehler, Standortewechsel über die Jahre, Thermometerwechsel über die Jahre, Heat Island Entwicklungen an den Standorten (Flugplätze, zubetonierte Städte, etc.)  erhoben?

Ganz einfach gefragt, kann man denn die Methoden zur Errechnung eines "globalen Mittelwerts" zum Beispiel der Jahre 1892, 1942, 1991, 2005 sinnvoll vergleichen?

Antwort: Ich hatte anfangs die Erwartung, dies in größerem Umfang tun zu müssen, durfte dann aber im Laufe der Arbeit schnell feststellen, dass die Fülle der verfügbaren Daten samt Literatur, in Bezug auf Messverfahren, -Algorithmen, zufällige und systematische Fehler, incl, Standort-  und Messinstrumentenwechsel, aber auch Wechsel des Anstrichs der Wetterhütten, Einfluss des UHI (Urban Heat Island Effekt) völlig ausreichend ist, diese herauszuziehen und einer neuen methodischen aber kritischen Bewertung zu unterziehen. Dabei bin ich einem „Bottom Up“ Prinzip gefolgt, habe also bei den Grundlagen begonnen. Was ist Temperatur, was wird gemessen, wie wird gemessen, wo wird gemessen, wie oft wird gemessen, etc. etc. Besonders auffällig war dabei die Erkenntnis, dass alle Autoren sich der vielfältigen Qualitätsmängel ihrer Rohdaten sehr bewusst waren.  Und obwohl diese Daten in jeder Hinsicht überaus lückenhaft und mit großen Fehlern behaftet waren, wurde und wird – wenn auch „highly sophisticated- fast immer bei der Bestimmung der Unsicherheiten mit unüberprüfbaren Annahmen gearbeitet. Die so gewonnenen Erkenntnisse sind dann eben auch „Annahmen“!

Besonders hilfreich in Bezug auf die Bestimmung der Qualität terrestrischer Daten war die Arbeit von Anthony Watts und seiner Freiwilligen Truppe zur Untersuchung des  US-amerikanischen  Klimanetzwerkes „Surface Station Project“ . Dies wurde bis zu Watts als Inbegriff eines qualitativ hochwertigen Netzwerkes gesehen. Zum Beispiel schreiben  Peterson  et. al [Peterson, 1997] in ihrer Bewertung der US- amerikanischen Messstationen auf S. 2845 „…One thousand two hundred twenty-one homogeneity adjusted stations in the United States were computed using a different technique. These are high quality rural stations taken directly from the U.S. Historical Climatology Network (U.S. HCN; Easterling et al.1996a), a sister project to GHCN. These data were adjusted using a metadata approach as part of the creation of the U.S. HCN and their adjusted time series were directly incorporated into GHCN. For climate analysis confined to the United States, the U.S. HCN is the preferred dataset because its stations are well distributed, mostly rural stations that were selected based upon their location and their station history metadata.“ (Hervorhebungen vom Autor)

Diese Aussagen haben sich nach den Untersuchungen von Watts leider als völlig falsch erwiesen. Es handelt sich in der großen Mehrzahl weder um „high quality rural stations“, noch können sie „homogeneity adjusted“ sein. Wie stark sich die oben  geschilderten Fehlermöglichkeiten auf die Messergebnisse auswirken, zeigt Watts [Watts, 2009] sehr ausführlich. Da diese Stationen sozusagen als „Goldstandard“ der Klimatologen angesehen wurden, konnte der Rest der Welt – von einigen wenigen Ausnahmen in Europa, Australien und Japans nur schlechter sein.

Frage Leser Zuber:

Gibt es bei der Berechnung einer "globalen Mitteltemperatur" nicht das Problem, dass es beinahe unendlich viele Punkte auf der Erdoberfläche gibt, bei deren Lufttemperaturmessung 2m über der Oberfläche im gleichen Augenblick unterschiedliche Werte zustande kommen? (Nur schon in meinem Garten könnte ich Hunderttausende unterschiedliche Thermometerstandorte definieren)

Ändert sich denn nicht auch an einem konkreten Thermometerstandort in jeder Sekunde die Temperatur, und was bedeutet dies hinsichtlich einer Mittelwertserrechnung? 

Antwort: Dieses Problem gibt es und es ist auch nicht gelöst. Das Goddard Institute of Space Science (GISS)[5]  z.B. umgeht die Bestimmung der Mitteltemperatur aus Messwerten und verweist nur auf Modelle. Es  schreibt dazu. „The Elusive Absolute Surface Air Temperature (SAT)“ in deutsch:“ Die schwer fassbare absloute Oberflächentemperatur“… „For the global mean, the most trusted models produce a value of roughly 14 Celsius, i.e. 57.2 F, but it may easily be anywhere between 56 and 58 F (12.8ºC to 14.4ºC ) and regionally, let alone locally, the situation is even worse.“

Dem ist nicht viel hinzufügen. Jones [6] hat zwar auch versucht eine absolute globale Mitteltemperatur zu berechnen, aber wie er die o.a. Schwierigkeiten vermieden hat, vermochte ich nicht zu erkennen.

Aber darum geht es erst in zweiter Linie, nämlich dann, wenn man die so errechnete Globaltemperatur zur Bestimmung von Energiebilanzen einsetzen will, was allerdings eine unabdingbare Voraussetzung bei allen Modellen ist.

In erster Linie suchen die Klimatologen nicht die absolute Temperatur zu ermitteln, sondern so früh wie möglich eine Temperaturdifferenz, zu einer von der WMO definierten Normaltemperatur der jeweiligen Station zu ermitteln. Diese Differenz wird nach statistischem Sprachgebrauch als "Anomalie" bezeichnet und durch Differenzbildung der zuvor errechneten absoluten Jahres- auch Monatstemperatur mit dem fest definierten Stationsnormal  – das ist derzeit die mittlere Temperatur dieser Station über die Jahre von 1961 -1990-  gebildet. Und nur mit diesen Anomalien wird weitergearbeitet.  

Der Grund dafür ist einleuchtend. Die Anomalien auch entfernter Stationen ändern sich sehr häufig -aber eben nicht immer und überall- im Gleichklang. Wird es im Frühjahr in London wärmer, kann man das vielfach auch in Paris oder Berlin beobachten. Die Anomalien sind also viel weniger den erratischen Schwankungen des jeweiligen Wetters am Messort unterworfen, als die absoluten Temperaturen. Dies muss auch bei der Bestimmung der Unsicherheiten berücksichtigt werden.  Die Anomalien sind dann aber keine Temperaturen im physikalischen Sinne mehr. Sondern irgendwelche Indizes.

Auch gleicht die Mittelwertberechnung einen großen Teil der täglichen, wie saisonalen Schwankungen aus, allerdings nicht die systematischen Unsicherheiten der Messungen, oder anderen Einflussgrößen, wie die verwendeten Messregime etc. wie oft von diesen Leuten fälschlich angenommen wird.

Frage Leser Zuber:

Wie gross sind die Temperaturunterschiede, wenn man genau am Boden einer Messstation misst, verglichen mit der Temperatur in 2m Höhe am genau gleichen Standort?

Antwort: Dies ist nur eine aus einer Riesenfülle von Fehler- oder Unsicherheitsquellen, die zwar punktuell in der Literatur untersucht wurden, aber nicht systematisch behoben werden können.

Zur Frage selber: So schreibt die WMO einen Thermometerstandort in einer Wetterhütte zwischen 1,5 m bis 2,0 m vor. Historische Tatsache aber ist, die DWD Messnetze haben Messfühler in 2 m Höhe über dem Boden;  der international verbreitete Stevenson Screen mit Ableitungen [SPARKS, 1972] zeigt(e) Höhen von 1,1 m (Ghana, 1,25 m India, 1,41 m Madagaskar), 1,5 bis 2 m hat Wild´sche Hütte sogar bis 4,5 m (frühe ehemalige Sowjetunion) später dann 2,0 m. Auf Schiffen reicht die Hüttenaufstellung von wenigen Metern über Meeresspiegel bis > 30 m.

Die höhenbedingte Abweichung der Temperaturmessungen zu Lande, auf Grund verschieden hoher Messhütten, bei unbeeinflusster windstiller Lage, folgt, nach Geiger [GEIGER, 1950] (und K. Brocks) einem doppelt logarithmischen Gradienten. In Mitteleuropa kann er, für sich allein genommen, je nach Mittelwert- und Anomalienbildung, ein Differenz von ca. -0,05 bis -0,5 °C erzeugen. Je tiefer eine Messstation, bezogen auf den Boden, liegt, desto höher i.A. die Temperatur. Jedoch ist er zusätzlich stark von der sich u.U. schleichend verändernden, meist gegenläufig wirkenden Bodenbeschaffenheit abhängig und kann deshalb leicht einen Wert von + 1K und darüber haben.  

Auf See ist er von der lokalen Höhe der Messstation abhängig. Anders als bei Landstationen ist diese nicht fest, sondern von der Schiffsgröße und -Beladung abhängig. Bei nicht ungewöhnlichen 20 m Brückenhöhe betrüge er dann ca. -0,1 °C. Über die Brückenhöhe sagen die verfügbaren Metadaten wenig bis nichts aus.  Messhöhen von 20 m und her sind heute keine Seltenheit mehr. Die fast ausschließliche  Verwendung der SST (Sea Surface Temperature) als Proxy für die gesuchte Lufttemperatur, verschiebt diesen Fehler im Durchschnitt weiter ins Positive, weil die SST im Mittel etwa 0,2 °C wärmer sein sollte als die Luft. Bei Lufttemperaturen unter -2°C, normal bei (den wenigen) Wintertemperaturmessungen in höherer nördlicher und südlicher Breite, liefert die SST deutlich zu hohe Werte (evtl. ein Grund für den Anstieg der SST). Das heißt bei Verwendung der SST werden die Temperaturwerte ins Positive verschoben.

Frage Leser Zuber:

Wenn die AGWler schon Hundertstel Grad Erwärmung als "Signal" eines anthropogenen CO2 Einflusses postulieren: geben die Temperaturmessmethoden der Vergangenheit, die Anzahl und Verteilung der Thermometer über allen Teilen der Erdoberfläche diese geforderte Genauigkeit zur Feststellung eines CO2 Effekts überhaupt her (unter der sowieso irrigen Annahme, dass alle übrigen Faktoren, die die Temperaturen der Luft bestimmen, besonders der Bewölkung an einem konkreten Ort, und der Entwicklung der Bewölkung an all den Thermometerstandorten über die letzten 160 Jahre, gleich geblieben sind).

Kurze Antwort: Nein! Meine Ergebnisse zeigen deutlich, dass die nicht korrigierbaren, weil in ihrer Verbreitung und Größe, oft völlig unbekannten systematischen Fehler, das Unsicherheitsband der globalen Mittel-Temperatur, welches jede gerechnete Anomalie und deren Trend umgeben muss, ein Vielfaches der am Anfang erwähnten Grenzen bedeuten. Damit verliert sich die gesamte Änderung des letzten Jahrhunderts im Rauschen und lässt keinerlei Ursachenzuordnung zu. Alle Angaben dazu sind demnach spekulativ!

Es ist deshalb nicht möglich, die Aussage (Abbildung 3) aufrecht zu halten, dass die Zeitreihe  der Globaltemperatur nach Hadley (und IPCC) mit einer Genauigkeit, ausgedrückt als Rest-Unsicherheit im 95 % Bereich, bei nur ± 0, 1 °C (von -0,09 bis +0,11 °C, bis Jahr 1905  bis ± 0,08 °C  bis Jahr 2005) liegt. Viel wahrscheinlicher ist ein Fehler von mindestens der Größenordnung des gesamten Temperaturanstiegs, also ca. 0,5 – 0,7 °C. Es spricht sehr viel dafür, dass er sogar noch deutlich größer ist.

Am Beginn der Zeitreihe dürfte der Fehler wiederum noch deutlich höher liegen, um dann in Richtung heutiger Zeit leicht abzunehmen. Diese Fehlerspanne wird noch dadurch vergrößert, dass die Korrekturen, die z.B. die NASA auf Grund ihrer Beobachtungen der beschriebenen systematischen Fehler durchgeführt hat, überwiegend nach oben, also in Richtung größerer Erwärmung [7], wirkten. Sie waren aber bereits vorher zu hoch. Richtig wäre deshalb eine Korrektur  nach unten gewesen[8].

Auch ist nicht zu erwarten, wegen der erfolgten Richtungsänderungen einiger grober und systematischer Fehler über die Zeitreihe,  dass die wahrscheinlichste Globaltemperatur T* immer mittig im Fehlerband liegt. Sie kann sehr wohl sowohl nach oben, als auch nach unten verschoben verlaufen. 

Frage Zuber:

Hat denn das IPCC auch nur eine einzige der oben gestellten Fragen in den IPCC Berichten mit der nötigen Detailliebe und Kritik der Methodologie der "Gobalen Mitteltemperaturerrechnung" zur Diskussion gestellt?

Antwort: In der von mir untersuchten Literatur, sie ist überwiegend vom IPCC angegeben, sind diese Fragen oft sehr gründlich behandelt worden. Als Referenz beim Metoffice wird dazu jedoch immer Brohan 06[4] genannt. Auch dort sind viele dieser Fragen ausführlich behandelt worden. Manche Schlussfolgerungen darin sind jedoch falsch, insbesondere die Hauptaussage der engen Fehlergrenzen, weil dazu Annahmen gemacht wurden, die nicht haltbar sind. Siehe u.a. dazu auch meine Beiträge zu den  Arbeiten von Pat Frank [9], [10].

Die Messungen der Temperatur über See – immerhin 71 % der Erdoberfläche bedeckend – und damit dominant für jede Berechnung einer Globaltemperatur, ist dazu noch ein Extra-Kapitel für sich.  Dort sind die Daten noch sehr viel schlechter und von der Abdeckung noch wesentlich dünner. Vergleichbares gilt für den globalen Meeresspiegel. Vielleicht gehe ich bei passender Gelegenheit mal darauf ein.

Michael Limburg EIKE 21.10.11


[1] http://data.giss.nasa.gov/gistemp/abs_temp.html

[2] http://www.eike-klima-energie.eu/news-anzeige/von-korrelationen-trends-und-anomalien/

[3] http://www.eike-klima-energie.eu/news-anzeige/wie-falsch-sind-die-ipcc-temperaturberechnungen-gleicht-die-bildung-von-differenzen-anomalien-systematische-fehler-aus/

[4] http://www.metoffice.gov.uk/hadobs/hadsst3/uncertainty.html

[5] http://data.giss.nasa.gov/gistemp/abs_temp.html

[6] [Jones et al. (1999) report the 1961-1990 reference period means for the globe, northern hemisphere, and southern hemisphere as 14.0°C, 14.6°C, and 13.4°C, respectively.]

[7] Siehe auch: Positive and Negative Urban Adjustments by Steve McIntyre on March 1st, 2008, http://www.climateaudit.org/?p=2815

[8] Die verantworliche CRU verweigerte den Zugriff externer Wissenschaftler auf seine Daten und Methoden mit der offiziellen Begründung: Some of the information was provided to Professor Jones on the strict understanding by the data providers that this station data must not be publicly released and it cannot be determined which countries or stations data were given in confidence as records were not kept. Und einer privat nachgeschobenen Begründung von P. Jones an W. Hughes: .. Even if WMO agrees, I will still not pass on the data. We have 25 or so years invested in the work. Why should I make the data available to you, when your aim is to try and find something wrong with it.“ Quelle: http://wattsupwiththat.com/2009/07/24/uk-met-office-and-dr-phil-jones-pay-no-attention-to-that-man-behind-the-curtain/#more-9546. Inzwischen hat man sich aber bereit erklärt, ausgewählte „Subsets“ dieser Daten zur Verfügung zu stellen.

[9] http://www.eike-klima-energie.eu/news-anzeige/teil-ii-globaltemperatur-grob-fehlerhaft-neue-begutachtete-studien-enthuellen-fehler-deutlich-groesser-als-gesamte-aenderung-im-letzten-jahrhundert/

[10] http://www.eike-klima-energie.eu/news-cache/teil-i-globaltemperatur-grob-fehlerhaft-neue-begutachtete-studien-enthuellen-fehler-deutlich-groesser-als-gesamte-aenderung-im-letzten-jahrhundert/

Related Files