Messung der globalen Temperatur – Satelliten oder Thermometer?

Zuverlässig sind nur die Satellitendaten ab 1979 und da war das wärmste Jahr das Jahr 1998. Allerdings geben auch diese Rätsel auf, da 1998 aufgrund eine EL-Nino-Sprunges zustande gekommen war, aber danach blieben die Temperaturen auf einem etwas höheren Niveau als im Zeitraum davor von 1979 bis 1997. 
2015 das weltweit wärmste Jahr, ich frage immer, ja wie warm war das Jahr denn, gebt mir mal eine Gradzahl an, und wie warm war das zweitwärmste davor. Bei jedem Weltrekord in jeder Sportdisziplin muss die Größe doch gemeldet werden. – Josef Kowatsch

von Dr. Roy Spencer

Die offiziellen Zahlen der globalen Temperatur liegen jetzt vor, und NOAA und NASA haben beschlossen, dass 2015 das wärmste Jahr jemals war. Hauptsächlich auf der Grundlage bodenständiger Thermometer ignoriert die offizielle Verlautbarung die anderen beiden primären Methoden, die globale Lufttemperatur zu messen, nämlich Satelliten und Radiosonden.
Die Tatsache, dass jene ignorierten Datensätze seit etwa 18 Jahren nur eine geringe oder gar keine Erwärmung zeigen, erfordert eine genauere Beschreibung der primären Differenzen zwischen diesen drei Messverfahren.

Drei Methoden, um die globalen Temperaturen zu messen

Die primären Methoden zum Monitoring der mittleren globalen Lufttemperatur sind bodenständige Thermometer (seit Ende des 19. Jahrhunderts), Wetterballone (seit den fünfziger Jahren) und Satellitenmessungen der Mikrowellen-Emissionen (seit 1979). Andere Technologien wie etwa auf GPS basierende Verfahren sind hinsichtlich ihrer Aufzeichnungsperiode begrenzt und bzgl. ihrer Genauigkeit noch nicht allgemein akzeptiert.
Während die Thermometer die Temperatur nahe der Erdoberfläche messen, messen Satelliten und Radiosonden die mittlere Temperatur einer dickeren Schicht der unteren Atmosphäre. Auf der Grundlage unseres Verständnisses der atmosphärischen Abläufe wird vermutet, dass die Temperaturen der unteren Schicht sich irgendwie schneller erwärmen (und abkühlen) als die bodennahen Temperaturen. Mit anderen Worten, Variationen der globalen mittleren Temperatur werden vermutlich mit zunehmender Höhe verstärkt, sagen wir mal in den untersten 10 km der Atmosphäre. Tatsächlich wird dies auch beobachtet während warmer El-Nino-Jahre (2015) und kühler La-Nina-Jahre.
Die Satelliten-Aufzeichnungen umfassen den kürzesten Zeitraum, und da der größte Teil der Erwärmung sowieso erst seit den siebziger Jahren erfolgt war, reden wir häufig über Temperaturtrends seit 1979. Damit können wir alle drei Datensätze über einen allgemeinen Zeitraum vergleichen.
Temperaturen der Tiefsee, auf die ich nicht detailliert eingehen möchte, sind um einen so geringen Betrag gestiegen – hundertstel Grad – dass man darüber streiten kann, ob sie für eine allgemeine Heranziehung genau genug sind. Wassertemperaturen an der Oberfläche, die ebenfalls während der letzten Jahrzehnte eine moderate Erwärmung zeigen, involvieren ein ganz neues Bündel von Problemen. Das reicht von räumlich weit auseinanderliegenden und sporadischen Temperaturmessungen mit Eimern von vor vielen Jahren über neuere Daten aus dem in Schiffe einströmenden Kühlwasser, Bojen bis zu Infrarot-Satellitenmessungen seit Anfang der achtziger Jahre.

Wie viel Erwärmung?

Seit 1979 ist allgemein anerkannt, dass die Satelliten und Radiosonden einen um 50% geringeren Erwärmungstrend messen als die Daten der bodenständigen Thermometer. Die Theorie hatte für höhere Luftschichten einen um 30 bis 50% stärkeren Erwärmungstrend prophezeit als am Boden.

Das ist eine substantielle Unstimmigkeit.

Warum die Unstimmigkeit?
Dafür gibt es mehrere Möglichkeiten:
1) Die Analysen der Daten bodenständiger Thermometer überschätzen den wahren Temperaturtrend ein wenig.
2) Satelliten und Radiosonden unterschätzen den wahren Temperaturtrend etwas.
3) Alle Daten sind im Wesentlichen korrekt und sagen uns irgendetwas Neues darüber, wie das Klimasystem auf eine langfristige Erwärmung reagiert.
Zuerst wollen wir auf die fundamentale Grundlage für jede Messung schauen.

Alle Temperaturmessungen sind „indirekt“

Grob gesagt ist „Temperatur“ eine Maßzahl der kinetischen Energie der Bewegung von Molekülen in Luft.
Unglücklicherweise gibt es keine einfache Möglichkeit, diese kinetische Bewegungsenergie direkt zu messen.
Stattdessen waren vor vielen Jahren Quecksilber- oder Alkohol-Thermometer im allgemeinen Gebrauch, in denen die thermische Ausdehnung einer Flüssigkeitssäule in Abhängigkeit von der Temperatur mittels Augenschein geschätzt worden ist. Diese Messungen wurden inzwischen ersetzt durch Thermistoren, welche den Widerstand elektrischen Stromes messen, der ebenfalls temperaturabhängig ist.
Diese Messungen sind nur gültig für die unmittelbar das Thermometer umgebende Luft, und wie wir alle wissen, können lokale Wärmequellen (eine Mauer, Bodenversiegelung, Air Condition, Heizungsausrüstung usw.) diese Thermometermessungen beeinflussen und tun dies auch. Schon sehr oft wurde gezeigt, dass städtische Standorte höhere Temperaturen aufweisen als ländliche Standorte, und solche Spuren-Wärmeeinflüsse sind schwierig vollständig zu eliminieren, haben wir doch die Neigung, Thermometer dort aufzustellen, wo die Menschen wohnen.
Radiosonden messen ebenfalls mit einem Thermistor, welches normalerweise mit einem separaten Thermometer unmittelbar vor dem Auflassen des Ballons verglichen wird. Wenn der Ballon den Thermistor aufwärts durch die Atmosphäre trägt, ist es unabhängig von bodenbasierten Quellen der Beeinflussung, aber es gibt immer verschiedene Fehler infolge Sonnenbestrahlung und Infrarot-Abkühlung, welche durch das Design der Radiosonde jedoch minimiert sind. Die Anzahl der Radiosonden ist wesentlich geringer, und allgemein werden Hunderte Punktmessungen auf der ganzen Welt jeden Tag durchgeführt – an Stelle der vielen Tausend Messungen, die Thermometer vornehmen können.
Satelliten-Mikrowellen-Radiometer bilden die geringste Anzahl, nur ein Dutzend oder so, aber jedes Einzelne wird von seinem eigenen Satelliten transportiert, um kontinuierlich nahezu die gesamte Erde zu vermessen – jeden Tag. Jede individuelle Messung repräsentiert die mittlere Temperatur in einem Luftvolumen, das etwa 50 km Durchmesser aufweist und 10 km hoch reicht, was sich zu etwa 25.000 km³ Luft ergibt. Etwa 20 dieser Messungen werden jede Sekunde durchgeführt, da der Satellit wandert und das Instrument die Erde scannt.
Die Satellitenmessung selbst ist „radiativ“: Das Niveau der Mikrowellen-Emission von Sauerstoff in der Atmosphäre wird gemessen und verglichen mit der Emission eines Warm-Kalibrierungs-Zieles auf dem Satelliten (dessen Temperatur überwacht wird mittels vieler hoch genauer Platin-Widerstands-Thermometer), und eine Kalt-Kalibrierung mit der kosmischen Hintergrundstrahlung, die mit etwa 3 K angesetzt wird (nahe des Absoluten Nullpunktes). Eine weniger aufwändige (infrarote) Strahlungstemperatur wird mit einem Fieberthermometer im Ohr durchgeführt.

Welches System ist also das Bessere?

Die Satelliten haben den Vorteil, dass sie nahezu jeden Tag die gesamte Erde vermessen mit den gleichen Instrumenten, die dann untereinander abgeglichen werden. Aber da es zwischen diesen Instrumenten nur sehr geringe Differenzen gibt, die sich mit der Zeit geringfügig ändern können, müssen Adjustierungen vorgenommen werden.
Thermometer haben den Vorteil, in viel größerer Zahl vertreten zu sein, aber mit potentiell großen langfristigen Spuren-Erwärmungseffekten, die abhängig sind von der lokalen Umgebung eines jeden Thermometers, welche sich wiederum verändert durch das Hinzufügen menschlicher Objekte und Strukturen.
Nahezu alle Thermometermessungen erfordern Adjustierungen irgendwelcher Art, einfach weil es mit Ausnahme einiger weniger Messstellen keine einzige Messstelle gab, die über 30 Jahre lang an der gleichen Stelle ohne Veränderung der Umgebung gemessen hat. Als derartig seltene Thermometer-Standorte jüngst in einer Studie aus den USA ermittelt wurden, fand man im Vergleich mit den offiziellen US-Erwärmungstrends, dass letztere diese Trends um fast 60% übertrieben haben. Folglich scheinen die derzeitigen offiziellen NOAA-Adjustierungs-Verfahren die guten Daten an die schlechten Daten anzupassen anstatt umgekehrt. Ob es derartige Probleme auch in anderen Ländern gibt, bleibt abzuwarten.
Änderungen des Designs von Radiosonden und deren Software gab es auch über die Jahre, was einige Adjustierungen der Rohdaten erfordert.
Für Satelliten gilt: die orbitale Abnahme [decay] der Satelliten erfordert eine Adjustierung der Temperaturen der „unteren Troposphäre“ (LT), welche gut verstanden und ziemlich genau ist. Sie hängt lediglich ab von der Geometrie und der mittleren Temperaturabnahme mit der Höhe. Aber die orbitale Abnahme bringt die Satelliten dazu, dass sie langsam treiben zu der Tageszeit, in der sie messen. Diese dem „täglichen Abtreiben“ geschuldete Adjustierung ist weniger sicher. Bedeutsam: Sehr unterschiedliche Verfahren für diese Adjustierung haben zu fast identischen Ergebnissen geführt zwischen den von UAH (University of Alabama in Huntsville) und RSS (Remote Sensing Systems, Santa Rosa, California) erzeugten Satellitendaten.
Die Tatsache, dass die Satelliten und Radiosonden – zwei sehr unterschiedliche Messsysteme – dazu tendieren übereinzustimmen, gibt uns große Zuversicht hinsichtlich ihrer Ergebnisse, dass die Erwärmung deutlich geringer ausgefallen ist als von den Klimamodellen prophezeit. Aber selbst die Thermometer zeigen weniger Erwärmung als die Modelle, allerdings ist die Diskrepanz mit den Klimamodellen geringer.
Und das ist möglicherweise das Wichtigste: Egal welches Verfahren zum Monitoring der Temperatur wir anwenden – die Klimamodelle, auf deren Ergebnissen die Politik bzgl. der globalen Erwärmung basiert, zeigen im Mittel eine viel stärkere Erwärmung als sämtliche unsere Temperatur-Messsysteme.
Ich glaube, dass es zu einer „globalen Erwärmung“ gekommen ist, aber 1. ist diese schwächer als erwartet, wie aus unabhängigen Messungen von Satelliten und Radiosonden hervorgeht; 2. ist sie überschätzt worden durch schlecht adjustierte Messungen bodenständiger Thermometer; 3. hat die Erwärmung eine wesentliche natürliche Komponente und 4. ist sie für das Leben auf der Erde viel eher vorteilhaft als schädlich.
Link: http://www.cfact.org/2016/01/26/measuring-global-temperatures-satellites-or-thermometers/
Übersetzt von Chris Frey EIKE




Blick aus dem Weltall: Irdisches Finale um den Klimawandel

Roy Spencers Vergleichsergebnis

Sehen Sie hier einen Vergleich der Änderungen der niederen troposphärischen globalen Temperaturen für den Zeitraum von 1979-2012. Die Satellitenmessungen von UAH und RSS werden mit 44 Klimamodell-Rechenergebnissen verglichen für den Zeitraum von 1975 – 2025: Siehe nebenstehendes Bild. Zum Vergrößern anklicken
(Datenbasis: KNMI Climate Explorer und Dank an John Christy):
(Quelle: http://www.drroyspencer.com/wp-content/uploads/CMIP5-global-LT-vs-UAH-and-RSS.png)
Klar zeigt sich eine zunehmende Divergenz mit den Jahren zwischen den Satellitenmessungen (UAH, RSS) und den Modellen. Die Gründe für die mangelnde Übereinstimmung liegen nicht auf der Hand. Es gibt mehrere Möglichkeiten:
1) Das reale Klimasystem reagiert nicht so sensitiv auf das zunehmende CO2, wie es nach der Programmierung der Modelle sein müsste (meine bevorzugte Erklärung).
2) Die vom vermehrten CO2 herrührende zusätzliche Erwärmung an der Erdoberfläche hat sich stärker verteilt als erwartet infolge einer stärkeren Durchmischung mit kühleren, tieferen Meerwasserschichten (Trenberths Erklärung).
3) Die zunehmende menschengemachte Verschmutzung mit Aerosolen übt einen kühlenden Einfluß aus und vermindert zum Teil die menschengemachte CO2-Erwärmung.
Wenn ich recht habe (Erklärung #1), dann werden wir auch in Zukunft nur wenig Erwärmung messen. Ein weiterer Beleg für die geringere Klimasensitivität findet sich in der obigen Abbildung in der gemessenen Folge auf die 1991er Pinatubo-Eruption: der zeitweilige Temperaturabfall 1992-93 und der nachfolgende Anstieg wurde schwächer gemessen als die Modelle sagen. Bei geringerer Klimasensitivät wäre genau das vorherzusagen gewesen.
Andererseits, wenn Trenberth recht hätte (Erklärung #2), dann hätte sich irgendwo eine Periode rascher Oberflächenerwärmung zeigen müssen, weil das Klimasystem zu einem energetischen Strahlungsgleichgewicht hätte streben müssen. Wann dies hätte eintreten müssen, ist natürlich unbekannt.
Erklärung #3 (Abkühlung durch anthropogene Aerosole) sah in meinen Augen immer nach Betrug aus, obschon theoretisch möglich, weil die Größenordnung der Aerosol-Abkühlung so völlig unbestimmt ist. Sie kann in jedem erdenklichen Ausmaß zur Begründung der Messungen herangezogen werden. Darüberhinaus wäre es ein bizarre Erklärung, die Menschheit für das Ausbleiben der Erwärmung verantwortlich zu machen.
Die dunkle Linie in der Grafik oben ist der Durchschnitt aus 44 Modellen. Sie stellt in etwa dar, was das IPCC für seine offizielle beste Abschätzung der vorhergesehenen Erwärmung benutzt. Klar zeigt sich in dieser Statistik eine substanzielle Abkoppelung der Modelle von den Messungen.
Ich halte es für unredlich, zu behaupten, dass die Modelle gewissermaßen bestätigt würden, weil nicht jedes Modell von den Messungen abwiche. Was die Tatsachenverdreher einfach nicht sehen wollen: die wenigen Modelle, die eine geringere Erwärmung bis 2012 vorhersagen, sind diejenigen, die mit einer kleineren Klimasensitivität rechnen.
Wenn man also behaupten will, dass die Messungen einige der Modelle bestätigten, dann sollte man wenigsten ehrlich zugeben, dass auch diese NICHT mit den besten IPCC-Abschätzungen der Erwärmung übereinstimmen.
Original hier
Übersetzung: Helmut Jäger, EIKE




Temperaturverlauf* von 1973 bis 2012: Dramatische Korrekturen Richtung Erwärmung, Trends mit Rauschen

*Im Original steht immer “surface temperatures”. Die Übersetzung „Temperaturen“ impliziert immer, dass es sich tatsächlich um die Temperatur am Boden handelt. Der Begriff „Bodentemperatur“ ist irreführend, denn es sind ja nicht die Temperaturdaten 5 cm über dem Erdboden gemeint (um z. . Bodenfrost zu ermitteln). A. d. Übers.

Die wesentlichen Schlussfolgerungen lauten:

1) Der lineare Erwärmungstrend während der Periode 1973 bis 2012 ist im USHCN-Datensatz am größten (+0,245°C pro Dekade), gefolgt von CRUTem3 (+0,198°C pro Dekade und an dritter Stelle weit abgeschlagen meine entsprechend der Bevölkerung adjustierten ISH-Temperaturen (PDAT) mit +0,013°C pro Dekade.
2) Nahezu die gesamte Erwärmung im USHCN seit 1973 scheint das Ergebnis von Korrekturen der NOAA an den Daten zu sein, vor allem im Zeitrahmen von 1995 bis 1997.
3) Während es im Mittleren Westen der USA einige UHI-Effekte zu geben scheint und sogar eine Spur Abkühlung mit der Bevölkerungsdichte im Südwesten, gibt es für alle 1200 USHCN-Stationen zusammen nur eine geringe Korrelation zwischen den Temperaturtrends an den Stationen und der Bevölkerungsdichte.
4) Trotz homogenisierenden Anpassungen der USHCN-Werte, um die Übereinstimmung benachbarter Stationen zu verbessern, zeigen die USHCN-Trends mehr Rauschen als das, was ich bekomme, wenn ich 4 mal pro Tag die ISH-Temperaturen und eine einfache UHI-Korrektur verwende.

Die folgende Abbildung zeigt 12-monatige übergreifende mittlere Anomalien [trailing average anomalies] der drei unterschiedlichen Datensätze USHCN, CRUTem3, and ISH PDAT… man beachte die großen Unterschiede der berechneten linearen Erwärmungstrends:

Die nächste Abbildung zeigt die Unterschiede zwischen meinem ISH-PDAT-Datensatz und den anderen beiden Datensätzen. Ich wäre an Meinungen Anderer interessiert, die diese Daten analysiert haben, welche der von NOAA vorgenommenen Korrekturen die relativ starke Erwärmung in den USHCN-Daten von 1995 bis 1997 verursacht haben könnten:

Liest man die Beschreibung der USHCN-Daten, Version 2, scheint es, als ob es nur zwei Korrekturen der Daten waren, die Temperaturtrends substantiell beeinflussen können: 1) Anpassungen der Beobachtungszeit (TOB) und 2) Anpassungen durch Veränderung der Stationen, die auf ziemlich aufwändigen statistischen Vergleichsprüfungen zwischen benachbarten Stationen beruhen. Letzteres soll Änderungen der Instrumententypen in den Daten identifizieren und anpassen sowie Umverteilungen der Thermometer und UHI-Effekte.
Wir sehen im obigen Plot auch, dass die Korrekturen in den Datensätzen von CRUTem3 und USHCN nach etwa 1996 ziemlich unterschiedlich zu den zuvor gemachten waren, obwohl sie zum Ende der Aufzeichnung zur gleichen Antwort kommen.

UHI-Effekte in den Trends der USHCN-Stationen

Genauso, wie ich es mit den ISH-PDAT-Daten gemacht habe, habe ich die Temperaturtrends der USHCN-Stationen mit der Bevölkerungsdichte an der jeweiligen Station korreliert. Für alle rund 1200 Stationen zusammen erkennt man kaum einen Beweis für verbleibende UHI-Effekte:

Die Ergebnisse ändern sich jedoch deutlich, wenn man die USA in 6 Unterregionen einteilt:





Von den 6 Unterregionen sind die beiden mit den stärksten zutage tretenden Effekten 1) die nördlich-zentralen USA mit einer Tendenz, dass Stationen in Gebieten mit höherer Bevölkerungsdichte die stärkste Erwärmung zeigen, und 2) der Südwesten der USA mit einem ziemlich starken Abkühlungseffekt mit zunehmender Bevölkerungsdichte. Wie ich früher schon angemerkt habe, könnte dies das Ergebnis künstlicher Anpflanzungen in einem Gebiet sein, das von Natur aus arid ist. Man würde denken, dass dieser Effekt in die Homogenisierung der USHCN-Daten einbezogen worden wäre, aber offensichtlich war das nicht der Fall.

Trendübereinstimmung zwischen benachbarten Stationspaaren

Hier erlebte ich eine ziemliche Überraschung. Da die USHCN-Daten Homogenisierungskorrekturen mit Vergleichen zu benachbarten Stationen unterzogen worden waren, war ich sicher, dass die USHCN-Trends benachbarter Stationen besser übereinstimmen als die Stationstrends meiner nach Bevölkerung angepassten ISH-Daten.
Ich habe alle Stationspaare bis 200 km Distanz zwischen ihnen verglichen, um eine Schätzung ihrer Übereinstimmung in den Temperaturtrends zu erhalten. Die folgenden zwei Abbildungen zeigen die geographische Verteilung der rund 280 Stationen in meinem ISH-Datensatz sowie die rund 1200 Stationen des USHCN-Datensatzes:


Ich habe alle Stationspaare, die 200 km oder weniger voneinander entfernt liegen, in jedem dieser beiden Datensätze herangezogen und berechnete die mittlere absolute Differenz der Temperaturtrends während der Periode 1973 bis 2012 über alle Paarungen. Die mittlere Stationseinteilung des USHCN- bzw. des ISH-PDAT-Datensatzes war nahezu identisch: 133,2 km für den ISH-Datensatz (643 Paarungen) und 132,4 km für den USHCN-Datensatz (12453 Paarungen).
Aber die Trends der ISH-Paarungen zeigten eine um 15% bessere Übereinstimmung (mittlere absolute Trenddifferenz 0,143°C pro Dekade) als die USHCN-Paarungen (mittlere absolute Trenddifferenz 0,167°C pro Dekade).
Betrachtet man den ungeheuren Aufwand, den die NOAA dem USHCN-Datensatz hat zuteil werden lassen, um die Übereinstimmung zwischen benachbarten Stationen zu verbessern, habe ich für dieses Ergebnis keine Erklärung. Ich muss mich fragen, ob deren Korrekturmethoden mehr Störeffekte erzeugt als eliminiert haben, zumindest was deren Auswirkung auf die Temperaturtrends betrifft.
Und ich muss zugeben, dass jene Korrekturen, die nahezu das gesamte Erwärmungssignal der letzten 40 Jahre ausmachen, verwirrend sind. Wenn sich die „globale Erwärmung“ nur nach der Korrektur der Daten zeigt, kann man verstehen, warum so vielen Menschen diese Korrekturen verdächtig vorkommen.
Roy Spencer
______________________________________
Kommentar von Anthony Watts dazu, der den Beitrag mit dem Titel „Die Erwärmung in den USHCN-Daten ist im Wesentlichen das Ergebnis von Korrekturen“ eingestellt hat:
Dr. Roy Spencer beweist, was wir schon seit Jahren gesagt haben: das USHCN (U.S. Historical Climatology Network) ist ein Chaos, das mit einem noch größeren Chaos von Korrekturen vermischt ist.
Link zu Dr. Spencer: USHCN Surface Temperatures, 1973-2012: Dramatic Warming Adjustments, Noisy Trends
Link zu diesem Artikel bei Wattsup: http://wattsupwiththat.com/2012/04/13/warming-in-the-ushcn-is-mainly-an-artifact-of-adjustments/
Übersetzt von Chris Frey EIKE




Satelliten- Klima-Experte Dr. Roy Spencer zu den Diskrepanzen zwischen Messungen und Modellen!

Ihre Widerlegungen grenzen ans Bizarre, und so muss ich mich fragen, ob auch nur einer von ihnen unser Papier überhaupt gelesen hat. Ich warte ungeduldig auf ihre veröffentlichten Studien, die irgendwelche Fehler in unserer Analyse zeigen.

Offensichtlich ist alles, was sie wissen müssen, dass unsere Studie die UN-Klimamodelle schlecht aussehen lässt. Und das können sie mit Sicherheit nicht leiden!

Wirklich eigenartig dabei ist, dass diese Wissenschaftler wissentlich oder unwissentlich den Ersten Hauptsatz der Thermodynamik leugnen: den Energieerhaltungssatz. Wir zeigen, dass er tatsächlich für mittlere globale Änderungen der Temperatur gültig ist: eine strahlungsbedingte Akkumulation von Energie führt zu einem Temperaturmaximum… später! Genau so wie bei einen Wasserkessel: stellt man ihn auf den Herd, dauert es eine Weile, bis das Wasser warm ist.

Aber während es höchstens 10 Minuten dauert, ein paar Zentimeter Wasser zu erwärmen, dauert es viele Monate im realen Klimasystem, bis sich die oberen 20 bis 50 Meter Ozeanwasser erwärmt haben.

Wir zeigten eindeutige Beweise für diese Zeiträume der Akkumulation von Strahlungsenergie aufgrund von Satellitenbeobachtungen, bevor die Temperatur steigt… und den Energieverlust danach. Energieerhaltung kann von keinem vernünftigen, gesunden Wissenschaftler geleugnet werden.

Wir haben weiter gezeigt (seufz… wieder einmal… wie schon 2010), dass man keine Diagnose des Feedback angeben kann, wenn dieser Strahlungsantrieb der Temperaturänderung stattfindet, zumindest nicht in einem Zeitraum bei Null, wie es Dessler und ein paar andere getan zu haben behaupteten.

Falls man es versucht, wird man ein “falsches Positiv” bekommen, selbst wenn das Feedback stark negativ sein sollte.

Die Demonstration hiervon ist einfach und überzeugend. Sie wird verstanden von Dick Lindzen am MIT, Isaac Held in Princeton (welcher bei weitem kein „Skeptiker“ ist), und vielen anderen, die sich tatsächlich Zeit genommen haben, es zu verstehen. Man muss nicht einmal glauben, dass „Wolken eine Klimaänderung auslösen können“ (wie ich zum Beispiel), weil es die Zeitverzögerung ist – und das ist eindeutig – die zu dem Problem der Feedback-Abschätzung führt.

Haben wir „bewiesen”, dass die IPCC-Klimamodelle mit ihren Vorhersagen einer substantiellen Erwärmung in der Zukunft falsch liegen?

Nein, aber das schmutzige kleine Geheimnis ist, dass es nach wie vor keine Möglichkeit gibt, sie auf ihre Erwärmungsprognosen zu testen. Und solange die Modellierer darauf bestehen, die kurzfristige Klimavariabilität heranzuziehen, um die langzeitliche Erwärmung in ihren Modellen „abzusichern“, solange werde ich die gleiche kurzfristige Variabilität nutzen, um zu zeigen, wie sehr die Modellierer sich mit ihrem Glauben an ein positives Feedback selbst zum Narren machen. Und ohne ein allgemeines positives Feedback wird die menschengemachte globale Erwärmung für alle Ziele in der Praxis kein Thema mehr sein (z. B. kann ein negatives Wolkenfeedback jedes positive Feedback im Klimasystem überkompensieren).

Wenn ich ein „Leugner” der Theorie von einer gefährlichen anthropogenen Klimaänderung bin, dann sei es. Aber als Wissenschaftler leugne ich lieber eine Theorie als dass ich den Ersten Hauptsatz der Thermodynamik leugne. 

Link: http://wattsupwiththat.com/2011/08/01/rise-of-the-1st-law-deniers/

Übersetzt von Chris Frey für EIKE

Anmerkung: EIKE bereitet eine allgemeinverständliche Beschreibung der Spencer-Hypothese zum Einfluss des Wolkenfeedback vor (Autoren: Prof. Lüdecke, Dr. Link und weitere).




Indirekter solarer Antrieb des Klimas durch kosmische Strahlung: Eine Abschätzung aufgrund von Beobachtungen

Hintergrund
Die einzige Frage, die mir nach meinen Vorträgen am häufigsten gestellt wird, lautet: „Warum haben Sie nicht die Sonne erwähnt?“ Normalerweise antworte ich darauf, dass ich hinsichtlich der Theorie der „kosmischen Strahlungskanone“, die die Änderungen der Bewölkungsmenge und damit die Kontrolle des Klimas beeinflussen soll, skeptisch bin. Aber ich weise darauf hin, dass die Theorie von Svensmark, derzufolge natürliche Änderungen der Bewölkung Klimaänderungen hervorrufen können, ziemlich nahe dem steht, was ich predige – lediglich die Mechanismen, die zur Änderung der Bewölkung führen, sind andere.
Dann fand ich die Studie von Laken et al. vom vergangenen Jahr, die besonders interessant war, weil sie zeigte, dass Änderungen der Bewölkung aus Satellitenbeobachtungen Änderungen der Aktivität kosmischer Strahlung folgten. Obwohl die ISCCP-Satellitendaten nicht das Gelbe vom Ei sind, sich die Studie auf mittlere Breiten beschränkte, und sich der Zeitscale mehr nach Tagen als nach Jahren bewegte, ergaben sich doch überzeugende quantitative Beweise einer Auswirkung kosmischer Strahlung auf die Menge der Bewölkung.
Angesichts des raschen und stark anschwellenden Stromes von Veröffentlichungen und Studien zu diesem Thema beschloss ich, einen Schritt zurückzugehen und einige Zeit darauf zu verwenden, die am Boden registrierten kosmischen Strahlen (GCR) zu analysieren, um festzustellen, ob es einen Zusammenhang zwischen Änderungen der GCR und solchen des globalen Strahlungsenergiehaushaltes zwischen absorbierten Sonnenlicht und emittierter Infrarotstrahlung gibt. Diese Daten kamen von den NASA CERES-Messgeräten an Bord des TERRA-Satelliten zum Strahlungshaushalt, die seit März 2000 zur Verfügung stehen.
Alles in allem sind wir an der Beantwortung folgender Frage ultimativ interessiert: Wie beeinflussen verschiedene Antriebe den Strahlungsenergiehaushalt der Erde? Ich muss zugeben, die Ergebnisse reichen mir aus, um einen Fuß in das Lager der Theorie der kosmischen Strahlung zu setzen.
Die Daten
Das Gute an den Daten des Strahlungshaushaltes von dem CERES Earth-Satelliten ist, dass wir eine quantitative Abschätzung in Watt pro Quadratmeter für den Strahlungsantrieb infolge Änderungen der kosmischen Strahlung erhalten. Dies ist die Sprache der Klimamodellierer, da diese Strahlungsantriebe (von außen kommende Störungen des globalen Energiehaushaltes) benutzt werden können, um mit ihrer Hilfe globale Temperaturänderungen in Ozean und Atmosphäre aufgrund der einfachen Energieerhaltung berechnen zu können. Die Daten können außerdem verglichen werden mit den Abschätzungen zum Antrieb durch den zunehmenden CO2-Gehalt, gegenwärtig der am meisten in Mode gekommene Grund für die Klimaänderung.
Aus den Messungen des globalen Strahlungshaushaltes können wir auch ersehen, ob es eine Änderung sowohl der Menge hoher Wolken (gewonnen aus Messungen der emittierten Infrarotstrahlung) als auch der Menge tiefer Wolken (gewonnen aus Messungen der reflektierten kurzwelligen Strahlung {sichtbares Sonnenlicht}) im Zusammenhang mit der Aktivität kosmischer Strahlung gibt.
Ich werde nur die am Boden gemessenen Daten der kosmischen Strahlen aus Moskau verwenden, ist doch diese die erste von mir gefundene Station, die ein komplettes monatliches Archiv für die gleiche Zeitspanne enthält, in der wir auch Daten des Strahlungsenergiehaushaltes von CERES haben (März 2000 bis Juni 2010). Ich bin sicher, dass es auch andere Stationen gibt… all dies ist aber sowieso vorläufig. Mich durch die Myriaden von Datensätzen solarer bzw. irdischer Strahlung hindurch zu wühlen war für mich genauso verwirrend, wie es für die Meisten von Ihnen sein dürfte, sich durch die zahlreichen Klimadatensätze zu arbeiten, mit denen ich ziemlich vertraut bin.
Die Ergebnisse
Der folgende Plot (schwarze Kurve) zeigt die monatlichen GCR-Daten aus Moskau für diese Periode sowie die trendbereinigte Version mit einer (1+2+1):4 – Mittelung (rote Kurve), die ich auch auf die CERES-Messungen anwenden möchte, um das Rauschen zu reduzieren.

Die Trendfilterung der Daten isoliert die Variabilität von Monat zu Monat und Jahr zu Jahr als das passende Signal, da die Trends (oder deren Fehlen) im globalen Strahlungshaushalt durch eine Kombination vieler Dinge hervorgerufen worden sein kann. (Lineare Trends sind für statistische Grund- und Auswirkungs-Effekte wertlos; aber sehr nützlich, um Gemeinsamkeiten von Schwankungen in zwei Datensätzen herauszufiltern.)
Die monatlichen Messungen der kosmischen Strahlung aus Moskau werden verglichen mit den globalen monatlichen Anomalien der Strahlungsflussdaten von CERES des NASA Terra-Satelliten (SSF 2,5-Datensatz),
welche die Variationen des im globalen Mittel reflektierten Sonnenlichts (SW), die emittierte infrarote Strahlung (LW) und Net [?] zeigt (welches die geschätzten Ungleichgewichte der gesamten absorbierten Energie durch das Klimasystem ist, nach der Anpassung der Variationen der gesamten Solarstrahlung TSI). Man beachte, dass ich die Variationen im Negativen von Net geplottet habe, was angenähert gleich ist mit Variationen von (LW + SW).
Da die primäre Quelle der Variabilität der CERES-Daten mit der Aktivität von El Niño und La Niña (ENSO) zusammenhängt, habe ich danach den mittleren ENSO-Einfluss herausgefiltert, und zwar mit einer Regression des laufenden 5-Monats-Mittels des Multivariate ENSO-Index (MEI) und den Flüssen in CERES. [Original: I subtracted out an estimate of the average ENSO influence using running regressions between running 5-month averages of the Multivariate ENSO Index (MEI) and the CERES fluxes]. Ich habe den MEI-Index zusammen mit jenen Regressionskoeffizienten in jedem Monat verwendet, um die CERES-Flüsse 4 Monate später zu korrigieren, da diese Zeitverschiebung die stärkste Korrelation aufwies.
Schließlich führte ich Regressionen an verschiedenen zeitlichen Verschiebungen zwischen den GCR-Reihen, den LW, SW und Net-Strahlungsflüssen durch. Die Ergebnisse folgen hier:

Die jährlichen mittleren Zusammenhänge aus dem vorigen Plot kommen aus dieser Beziehung in den reflektierten solaren (SW) Daten,

während die Ergebnisse des Net-Flusses (Net = absorbierte Solarstrahlung minus emittierter Infrarotstrahlung, korrigiert mit der Änderung der Solarstrahlung während dieser Periode) folgendermaßen aussehen:

Es ist dieser letzte Plot, der uns die abschließende Abschätzung ermöglicht, wie eine Änderung des kosmischen Strahlungsflusses in Moskau mit Änderungen der globalen Strahlungsenergiebilanz zusammenhängt.
Zusammenfassung
Was die obigen drei Plots zeigen ist, dass eine Zunahme der GCR-Aktivität um 1000, wie in Moskau gemessen (was um Einiges unter der Zunahme zwischen solarem Maximum und solarem Minimum liegt), Folgendes bewirkt:
(1) Eine Zunahme des reflektierten Sonnenlichts (SW) von 0,64 Watt pro Quadratmeter, vermutlich hauptsächlich wegen der Zunahme tiefer Wolken;
(2) nahezu keine Änderung der emittierten infraroten Strahlung (LW) um + 0,02 Watt pro Quadratmeter;
(3) ein Net-Effekt (reflektiertes Sonnenlicht plus [minus?] emittiertes Infrarot) mit einem Verlust von Strahlungsenergie durch das globale Klimasystem um 0,55 Watt pro Quadratmeter.
Was bedeutet dies für die Klimaänderung?
Unter der Voraussetzung, dass diese Signaturen dicht an der Realität liegen, was bedeuten sie quantitativ hinsichtlich der potentiellen Auswirkung kosmischer Strahlung auf das Klima?
Nun, wie jeder andere Antrieb hängt eine sich daraus ergebende Temperaturänderung nicht nur von der Größenordnung des Antriebs ab, sondern auch von der Sensitivität des Klimasystems für diesen Antrieb. Aber wir KÖNNEN den Antrieb durch kosmische Strahlung mit ANDEREN „bekannten“ Antrieben vergleichen, die einen gewaltigen Einfluss auf unser Verständnis der Rolle der Menschen hinsichtlich der Klimaänderung haben.
Zum Beispiel: Falls die Erwärmung im vorigen Jahrhundert zu, sagen wir, 50% natürlichen und zu 50% anthropogenen Ursprungs ist, dann folgt daraus, dass das Klimasystem  nur halb so empfindlich auf unsere Treibhausgasemissionen reagiert (oder die Verschmutzung mit Aerosolen), als wenn die Erwärmung zu 100% anthropogen im Ursprung ist (was dem uns verkündeten „wissenschaftlichen Konsens“ schon sehr nahe kommt).
Erstens, vergleichen wir den Antrieb durch die Änderung der Solarstrahlung TSI im Zeitraum von 2000 bis 2010. Die orange Kurve im folgenden Plot stellt die Änderung des direkten Antriebs durch die TSI von 2000 bis 2010 dar, die ich mit Hilfe der analytischen Fähigkeiten von Danny Braswell aus den CERES Net, LW und SW-Daten herausfiltern konnte. Es ist die einzige Art solaren Antriebs, von der das IPCC (offenbar) glaubt, dass er existiert, und er ist ziemlich schwach:
Ebenso ist der geschätzte Antrieb durch kosmische Strahlung dargestellt, wie er aus Änderungen von Monat zu Monat des originalen Datensatzes der Moskauer Serie resultiert, berechnet durch Multiplikation dieser monatlichen Änderungen in Höhe von 0,55 Watt pro Quadratmeter pro 1000 Zählern der Änderung der kosmischen Strahlung.
Schließlich brachte ich die Trendlinien in Übereinstimmung, um eine Abschätzung der relativen Magnitude dieser beiden Antriebsquellen zu erhalten: Der (indirekte) Antrieb durch die kosmische Strahlung ist etwa 2,8 mal so groß wie der (direkte) Antrieb durch die Solarstrahlung. Dies bedeutet, dass der totale (direkte + indirekte) Antrieb des Klimas, assoziiert mit dem Solarzyklus 3,8 mal größer ist, als die meisten Mainstream-Klimawissenschaftler annehmen.
Eine offensichtliche Frage, die sich jetzt erhebt, ist die Frage, ob das Fehlen der Erwärmung seit etwa 2004 in den oberen 700 Metern der Ozeane auf den Einfluss der kosmischen Strahlung auf die Bewölkung zurückzuführen ist, die den Erwärmungseffekt zunehmenden Kohlendioxids überkompensiert.
Sollte die Lage wirklich so einfach sein (woran ich zweifle), würde das bedeuten, dass mit dem sich rasch nähernden solaren Maximum die Erwärmung während der nächsten Monate wieder einsetzen würde. Natürlich spielen noch andere natürliche Zyklen mit (mein Favorit ist die Pazifische Dekadische Oszillation), so dass die Vorhersage, was als Nächstes passieren wird, mehr eine Frage des Glaubens als der Wissenschaft ist.
Im größeren Zusammenhang ist dies wieder ein Beweisstück mehr dafür, dass die IPCC-Wissenschaftler untersuchen sollten, ob nicht Mutter Natur eine viel größere Rolle bei der Klimaänderung spielt als das IPCC zuzugeben bereit ist. Und ich empfehle noch einmal Folgendes zu untersuchen: je größer die Rolle der Natur als Ursache von Klimaänderungen in der Vergangenheit ist, umso kleiner muss der menschliche Einfluss gewesen sein, was in der Folge eine profunde Auswirkung auf künftige Projektionen von Klimaänderungen durch den anthropogenen Einfluss haben dürfte.
Link: http://www.drroyspencer.com/2011/05/indirect-solar-forcing-of-climate-by-galactic-cosmic-rays-an-observational-estimate/
Autor: May 19th, 2011 by Roy W. Spencer, Ph. D.

Übersetzt von Chris Frey für EIKE