Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records

Abstract:

The longest six instrumental temperature records of monthly means reach back maximally to 1757 AD and were recorded in Europe. All six show a V-shape, with temperature drop in the 19th and rise in the 20th century. Proxy temperature time series of Antarctic ice cores

show this same characteristic shape, indicating this pattern as a global phenomenon. We used the mean of the 6 instrumental records for analysis by discrete Fourier transformation (DFT), wavelets, and the detrended fluctuation method (DFA). For comparison, a  stalagmite record was also analyzed by DFT. The harmonic decomposition of the above mentioned mean shows only 6 significant frequencies above periods over 30 yr. The Pearson correlation between the mean, smoothed by a 15 yr running average (boxcar) and the reconstruction using the 6 significant frequencies yields r = 0.961. This good agreement has a 99.9% confidence level

confirmed by Monte Carlo simulations. It shows that the climate dynamics is governed at present by periodic oscillations. We find indications that observed periodicities result from intrinsic dynamics.

Related Files




Stellvertreter(Proxy-) Methodik führt zu Pseudowissenschaft

Doch es gibt auch andere Wissenschaftler, die sowohl Baumringe, Sedimentschichtarten und -dicken oder das Mischungsverhältnis von verschiedenen atmosphärischen Isotopen zur Proxy-Temperaturbestimmung verwendet haben. Sie wollten weder betrügen, noch haben sie das getan. Ihre Veröffentlichungen sind zahlreich und werden tlw. im folgenden Beitrag von Pat Frank aufgelistet und bewertet. Und zwar nach der entscheidenden Frage bewertet:

Wie gut, bzw.wie genau lässt sich ein Temperaturverlauf aus Poxydaten rekonstruieren?

Wie kann man die Rohdaten kalibrieren? Was hängt wovon ab? Wie hoch ist die nicht zu unterschreitende Fehlermarge?
Um es kurz zu machen: Sein Urteil ist bis auf eine Ausnahme sehr negativ. Lesen Sie warum:

Proxy-Wissenschaft und Proxy-Pseudo-Wissenschaft    

Es ist bekannt, dass die weithin veröffentlichte Proxythermometrie seit 1998 [1] unwissenschaftlichist, und dies ganz besonders, seit Steve McIntyre und Ross McKitrick aufdeckten, dass sie auf absichtsvoller reiner statistischer Numerologie beruht. Vor einiger Zeit diskutierte ich hier auf WUWT mit Michael Tobis über die Unwissenschaftlichkeit der Proxy-Paläothermometrie. Es begann mit Michaels Kommentar hier und meiner Antwort dort. Michael berief sich bald auf seine Autoritäten auf Planet3.org. Wir hatten einen netten Gedankenaustausch, der damit endete, dass der Moderator und Mitstreiter Arthur Smith fälschlicherweise Zensur ausübte, weil er glaubte, eine Beleidigung zu erkennen. (Für starke Nerven: hier ist der Kommentar in voller Länge zu finden)
Immerhin, zwei hiesige Experten in Proxythermometrie kamen Michael zu Hilfe: Kaustubh Thimuralai, graduiert im Fach Proxy-Klimatologie an der Universität von Austin, Texas, und Kevin Anchukaitis, Dendroklimatologe an der Columbia Universität. Kaustubh hat seine Verteidigung auf seinem eigenen Blog veröffentlicht.
Ihre Argumentation hatte eines gemeinsam: eine ausschließliche Berufung auf stabile Isotopen-Temperatur-Proxys – sie sagten kein Wort zur Verteidigung der Baumring-Thermometrie, welche die große Menge der Paläo-Temperatur-Rekonstruktionen darstellt.
Die Unwissenschaftlichkeit der veröffentlichten Paläothermometrie wurde durch die Tatsache belegt, dass sie auf deren Kernbereich mit den Baumringen überhaupt nicht verteidigten; anders gesagt: "Verurteilung durch Verschweigen".
Auch fanden sie kein Wort der Verteidigung dafür, dass die Physik durch Statistik ersetzt wird, was nahezu durchgängig in der Paläothermometrie geschieht.
Aber ihre Berufung auf die Thermometrie mit stabilen Isotopen-Proxys gibt Anlass zu einer Überprüfung. Das möchte ich hier nun tun: eine Analyse der Temperatur-Rekonstruktion aus stabilen Isotopen-Proxys durchführen, anschließend einen kurzen Abriss der Dendrothermometrie geben. 

Soweit die einleitenden Worte von Dr. Pat Frank. Unseren Lesern schon bekannt durch seine Fehlerbetrachtungen der Zeitreihe der globalen Mitteltemperatur (hier) und (hier)
Im (sehr ausführlichen) Aufsatz (hier im Original) erläutert Frank nun im 1. Teil sehr ausführlich die Möglichkeiten und Grenzen der Temperaturbestimmung aus Isotopenverhältnissen mittels bekannter Analysemethoden. Nach gründlicher Prüfung aller anderen Methoden, erkennt Frank dieses Verfahren als einziges an, welches -einigermaßen- eine verlässliche Temperaturbestimmung erlaubt. Allerdings hat auch diese Verfahren seine Grenzen, die sich in breiten Fehlermargen äußern. Es sind eben trotzdem keine Präzisionsthermometer sondern Stellvertreter.
Wer will kann das im anhängenden pdf Beitrag nachlesen. Wir bringen in dieser News nur sein Resumée. Darin wendet Frank die zuvor erarbeiteten Erkenntnisse auf veröffentlichte Berichte und Proxymethoden an. 

Teil II: Pseudo-Wissenschaft: Statistische Thermometrie

Nun zu den veröffentlichten typischen Proxy-Paläotemperatur-Rekonstruktionen. Ich habe mich mit einem repräsentativen Satz von acht hochrenommierten Studien beschäftigt und wissenschaftliche Belege gesucht. Mit Belegen meine ich, ob die Studien sich auf die Theoretische Physik berufen.

Kurzfassung: keine davon kann im Sinne der Theoretischen Physik Gültigkeit beanspruchen. Keine davon zeigt eine Temperatur.

Bevor ich weitermache, ist ein Wort zu „Korrelation und Verursachung“ fällig. Michael Tobis hat darüber geschrieben, “Wenn zwei Signale korreliert sind, dann enthält jedes Signal Information über das andere. Mehr zu behaupten ist einfach nur dumm.”
Davon gibt es eine Menge in der Proxythermometrie. Eine Klarstellung ist Pflicht. John Aldrich beschrieb in einem schönen Papier [16] die Schlacht zwischen Karl Pearson und G. Udny Yule wegen: „Korrelation deutet auf Verursachung hin“. Pearson glaubte das, Yule nicht.
Auf Seite 373 macht Aldrich eine sehr bedeutende Unterscheidung: “Statistische Folgerungen sind Folgerungen aus Stichproben auf die Gesamtbevölkerung. Wissenschaftliche Folgerungen zielen auf Erkenntnisse über die Bevölkerung im Sinne einer theoretischen Struktur.”

Im Klartext: Statistik beschäftigt sich mit Beziehungen zwischen Zahlen. Wissenschaft beschäftigt sich mit Schlussfolgerungen aus falsifizierbaren Theorien.

Wir werden sehen, dass die unten erwähnten Proxy-Studien unzulässigerweise beide Kategorien vermischen. Sie konvertieren richtige Statistik in falsche Wissenschaft.
Um diesen Punkt noch zuzuspitzen, verweise ich auf einige schöne Beispiele von falschen Korrelationen. Und hier sind die Gewinner des Wettbewerbs von 1998 an der Purdue University wegen falscher Korrelationen: Dabei waren [so abwegige] Korrelationen wie die zwischen dem Absatz von Speiseeis und Ertrunkenen, zwischen Ministergehältern und dem Wodkapreis. Pace Michael Tobis sagte dazu, dass jede der Korrelationen “Signale” korrelierte, die offensichtlich Informationen über den dazu in Beziehung gesetzten Sachverhalt enthielten. Mit meiner Ironie hoffe ich, das Thema abschließend behandelt zu haben.
Diaz und Osuna [17] weisen auf den Unterschied “zwischen Alchemie und Wissenschaft hin … , der darin besteht, dass (1) streng getestete Modelle spezifiziert sind, die (2) hinreichend die verfügbaren Daten beschreiben, (3) überlieferte Erkenntnisse berücksichtigen und (4) von wohlbegründeten Theorien abgeleitet sind.“ (Hervorhebung durch den Autor)
Eine verursachende Bedeutung in einer Korrelation kann nur im deduktiven Kontext einer falsifizierbaren Theorie erkannt werden, die die Korrelation erwartet. Statistik (induktives Schlussfolgern) kann niemals alleine eine Verursachung offen legen.
Für die Klimawandel-Paläo-Proxythermometrie wird gezeigt werden, dass die Diaz und Osuna Elemente 1, 3, 4 für wahre Wissenschaft fehlen. Das macht sie zur Alchemie, auch als Pseudo-Wissenschaft bekannt.

Also zunächst zur Klimawandel Paläo-Proxythermometrie:

1. Thomas J. Crowley und Thomas S. Lowery (2000) “How Warm Was the Medieval Warm Period?.” [18]
Fünfzehn Zeitreihen werden benutzt: drei dO-18 (Keigwins Sargasso-See Proxy, GISP 2, und die Dunde Eiskappen-Zeitreihe), acht Baumring-Zeitreihen, die Zeitreihe der Temperatur von Mittelengland (CET), eine Temperatur-Zeitreihe von Island (IT) und zwei Proxies mit Pflanzenwachstum (China Phänologie und Michigan Pollen).
Alle fünfzehn Reihen sind zwischen 0 und 1 skaliert und dann gemittelt. Es besteht eine völlige Vernachlässigung der Bedeutung der fünf physikalisch gültigen Reihen. (3 x dO18, IT und CET). Alle sind auf die gleiche physikalisch bedeutungslose Begrenzung einer Einheit skaliert.
Man bedenke, was das heißt: Crowley und Lowry haben fünf physikalisch bedeutungsvolle Reihen ausgewählt und dann die Physik nicht betrachtet. Nur dadurch konnten die Reihen für die Verwendung in der Klimawandel- Proxythermometrie geeignet gemacht werden.
Es gibt keine physikalische Theorie, um Baumringmessungen in Temperaturen umzusetzen. Angesicht der Nicht-Existenz einer derartigen Theorie bleiben jegliche exakten Beziehungen völlig im Dunkeln.
Wie aber haben Crowley und Lowery ihre auf Einheiten skalierten Proxy-Mittelwerte in Temperaturen konvertiert? Nun denn: “Die beiden Gesamtheiten wurden so skaliert, damit sie mit den Temperaturmessdaten der Nordhalbkugel von Jones et al. übereinstimmten …“. So einfach ist das.
Kurz gesagt, die fünfzehn Reihen wurden numerisch auf eine gemeinsame Skala adjustiert, gemittelt und größenmäßig an die gemessenen Temperaturen angepasst. Schließlich geben Crowley und Lowry noch eine Auflösung von (+/-)0.05 C für ihre Temperaturen an. Messunsicherheiten bei den physikalisch wahren Zeitreihen wurden im Schlussergebnis ignoriert. So sieht Wissenschaftlichkeit in der Klimawandel-Proxythermometrie aus.
Abstützung auf eine physikalische Theorie?: Nein
Rein statistische Ableitung?: Ja
Physikalische Erklärung: Keine.
Physikalische Gültigkeit: Keine.
Bedeutung des Schlussergebnisses für die Temperatur: keine.
2. Timothy J. Osborn und Keith R. Briffa (2006) The Spatial Extent of 20th-Century Warmth in the Context of the Past 1200 Years.” [19]
Vierzehn Proxies – elf davon Baumringe, einer dO-18-Eisbohrkern (West-Grönland) – geteilt durch ihre jeweilige Standardabweichung, um eine einheitliche Größenordnung zu erzeugen. Dann werden sie auf die Instrumentenmessdaten skaliert. Die physikalische Bedeutung des dO-18 – Eisbohrkerns ist nicht betrachtet und dessen experimentelle Unsicherheit wird nicht beachtet.
Interessanterweise zeigte der zusammengesetzte Proxy zwischen 1975 und 2000 gegenüber den Instrumentenmessdaten eine Abnahme. Osborn und Briffa verheimlichten den Niedergang nicht, das muss ihnen hoch angerechnet werden. Sie schrieben aber, dass diese Nicht-Bestätigung eine, “Folge des zu erwartenden Rauschens in den Proxy-Aufzeichnungen wäre.”
Ich habe das “Rauschen” abgeschätzt, indem ich die Verfälschung in Bezug auf die Temperaturaufzeichnung verglich, sie beträgt etwa 0.5 C. Es ist auf der grafischen Darstellung von Osborn und Briffa nicht als Unsicherheit dargestellt. Tatsächlich haben beide künstlich die Mittelwerte der Proxy-Reihen von 1856-1995 mit den Oberflächen-Temperatur-Messdaten vermischt, um den Proxy wie eine Temperatur aussehen zu lassen. Die 0,5 C „Rausch“-Abweichung ist unterdrückt und sieht sehr viel kleiner aus, als sie tatsächlich ist. Wären die tatsächlichen 0.5 C “Rausch-” Fehlerbalken auf die Temperaturkurve ihrer abschließenden Grafik skaliert worden, wäre der ganze Versuch auf theatralische Weise geplatzt, abgesehen davon, dass das nichts mit Wissenschaft zu tun hat.
Abstützung auf eine physikalische Theorie?: Nein
Rein statistische Ableitung?: Ja
Physikalische Unsicherheit in T: keine.
Physikalischer Wert: keiner.
Bedeutung des Schlussergebnisses für die Temperatur: keine.
3. Michael E. Mann, Zhihua Zhang, Malcolm K. Hughes, Raymond S. Bradley, Sonya K. Miller, Scott Rutherford, und Fenbiao Ni (2008) “Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia.” [20]
Eine große Anzahl von Proxies vielfacher unterschiedlicher Längen und Herkunft. Darin: Eisbohrkerne, Speleothem, dO-18 von Korallen. Die Daten sind aber von den Baumringzeitreihen beherrscht.  Mann & Co. korrelieren die Reihen statistisch mit lokaler Temperatur während einer “Kalibrationsperiode”, passen sie auf eine gleiche Standardabweichung an, skalieren sie auf die Messdaten und veröffentlichen das Zusammengemischte mit einer Auflösung von 0.1 C (Figur 3). Auch ihre Methode betrachtet nicht die physikalische Bedeutung der dO-18-Proxys verwirft sie.
Abstützung auf eine physikalische Theorie?: Nein
Rein statistische Ableitung?: Ja!
Physikalische Unsicherheit bei der Temperatur dargestellt: keine.
Physikalischer Wert: keiner.
Bedeutung des Schlussergebnisses für die Temperatur: keine.
4. Rosanne D’Arrigo, Rob Wilson, Gordon Jacoby (2006) “On the long-term context for late twentieth century warming.” [21]
Drei Baumring-Zeitreihen von 66 Standorten, die Varianz adjustiert, auf die Instrumenten-Messdaten skaliert und mit einer Auflösung von 0.2 C veröffentlicht (Figur 5 C).
Abstützung auf ein physikalische Theorie?: Nein
Rein statistische Ableitung?: Ja
Physikalisch gültige Temperatur-Unsicherheiten: keine
Physikalische Erklärung der Unterteilungen in 0.2 C: keine.
Physikalische Erklärung der Baumringtemperaturen: keine zu sehen.
Bedeutung des Schlussergebnisses für die Temperatur: keine.
5. Anders Moberg, Dmitry M. Sonechkin, Karin Holmgren, Nina M. Datsenko und Wibjörn Karlén (2005) “Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data.” [22]
Achtzehn Proxies: Zwei d-O18-Meeresoberflächen-Temperaturen (Sargasso und Karibik-Foraminifera-d-O18, ein Stalagmiten-d-O18 (Soylegrotta, Norway), sieben Baumring-Zeitreihen. Dazu weitere Zusammenmischungen.
Die Proxy sind mit einer aufregend neuen Wellen-Transformations-Methode behandelt (noch verbesserungsbedürftig), kombiniert, Varianz-adjustiert, stark auf die Messdaten während der Kalibrierungsperiode skaliert, mit einer Auflösung von 0.2 C veröffentlicht (Figur 2 D). Die Autoren folgten der Standardpraxis des Entfernens und Verwerfens der physikalischen Bedeutung der dO-18-Proxies.
Abstützung auf eine physikalische Theorie?: Nein
Rein statistische Ableitung?: Ja
Physikalische Unsicherheiten aus den dO18 Proxies in die Schlusszusammenstellung übernommen? Nein.
Physikalische Erklärung der Unterteilungen in 0.2 C: Keine.
Bedeutung des Schlussergebnisses für die Temperatur: keine.
6. B.H. Luckman, K.R. Briffa, P.D. Jones und F.H. Schweingruber (1997) “Tree-ring based reconstruction of summer temperatures at the Columbia Icefield, Alberta, Canada, AD 1073-1983.” [23]
Dreiundsechzig regionale Baumring-Zeitreihen, dazu 38 Reihen von fossilem Holz; Einsatz der standardmäßigen statistischen (nicht physikalischen) Kalibrations-Verifikationsfunktion für die Konversion von Baumringen in Temperatur, Überlagerung der Zusammenstellung mit den 1961-1990er Mittelwerten der Messdatenreihe, Veröffentlichung des Ergebnisses mit 0.5 C Auflösung (Figur 8). Im Text werden Anomalien angesprochen bis zu einer (+/-)0.01 C Auflösung (z. B. Tables 3 & 4), die mittleren Anomalien mit (+/-)0.001 C. Diese letztere behauptete Genauigkeit ist 10x höher als die typische Einstufung eines zwei-Punkte kalibrierten Platin-Widerstands-Thermometers unter dem Schutz angestrebter moderner kontrollierter Laborbedingungen.
Physikalische Theorie bei der Erklärung herangezogen?: Nein
Rein statistische Ableitung?: Ja
Physikalische Erklärung der Proxies: Keine.
Bedeutung der Schluss-Zusammenstellung für die Temperatur: Keine.
7. Michael E. Mann, Scott Rutherford, Eugene Wahl, and Caspar Ammann (2005) “Testing the Fidelity of Methods Used in Proxy-Based Reconstructions of Past Climate.” [24]
Diese Studie ist teilweise ein methodischer Überblick über die Wege zur Erzeugung einer Proxy-Paläo-Temperatur, wie sie von den das Fachgebiet beherrschenden Forschern empfohlen werden:
Methode 1: “Die composite-plus-scale (CPS) Methode. Sie besteht aus “einem Dutzend Proxy-Reihen, wobei von jeder angenommen wird, dass sie eine lineare Kombination von lokalen Temperaturänderungen und zusätzlichem Rauschen darstellt, die zusammengefasst (typischerweise mit dekadischer Auflösung;…) und skaliert werden gegen hemisphärische gemittelte Temperatur-Messdaten-Reihen während eines darüber gelegten „Kalibrierungs-“ Intervalls, um eine hemisphärische Rekonstruktion zu bilden. (Hervorhebung von mir)
Methode 2, Climate Field Reconstruction (CFR): “Unsere Umsetzung des CFR Ansatzes benutzt die „regularized expectation maximization (RegEM)“-Methode (Regulierte Erwartungsmaximierung) von Schneider (2001), die für CFR in vielen jüngeren Studien angewandt wird. Die Methode gleicht den auf der „principal component analysis (PCA)“ beruhenden Ansätzen, sie setzt aber eine iterative Schätzung der Daten-Co-Varianzen ein, um die verfügbare Information besser ausnutzen zu können. Wie schon bei Rutherford et al. (2005) haben wir getestet: (i) die direkte Anwendung der RegEM, (ii) einen Ansatz der “hybrid frequency-domain calibration”, der unterschiedliche Kalibrierungen von Komponenten mit Perioden von hoher Zeitfrequenz (Periode kürzer als 20 Jahre) und solchen mit niedriger Zeitfrequenz (Periode länger als 20 Jahre) der jährlichen Mittelwerte, die anschließend zusammengesetzt werden, um eine einzige Rekonstruktion zu bilden, (iii) eine “schrittweise” Version der RegEM, wobei die Rekonstruktion selbst stärker benutzt wird, um die älteren Segmente nacheinander zu kalibrieren.” (Hervorhebung von mir)

Zur Wiederholung des Offensichtlichen:

CPS: wird als repräsentativ für die Temperatur angenommen; statistische Skalierung auf die Messdatenreihe; Methodische Korrelation = Verursachung. Physikalischer Wert: keiner. Wissenschaftlicher Gehalt: keiner.
CFR: Principal component analysis (PCA): eine numerische Methode unter Vernachlässigung intrinsischer physikalischer Deutungen. Die Hauptkomponenten sind numerisch, nicht physikalisch, orthogonal. Numerische „Principal Components“ sind typischerweise Zusammenstellungen multipler aufgelöster (d.h., partieller) physikalischer Signale von unbekannter Größenordnung. Sie haben keine besondere physikalische Bedeutung. Eine quantitative physikalische Bedeutung kann den Principal Components nicht dadurch beigemessen werden, dass auf subjektive Urteile einer ‘Temperatur-Abhängigkeit’ verwiesen wird.
Was bedeutet die Skalierung der Principal Components in die Temperatur-Zeitreihen? Korrelation = Verursachung!
‘Korrelation = Verursachung’ ist möglicherweise der häufigste naive Fehler in der Wissenschaft. Mann et al. zeigen offen, ohne dabei rot zu werden, dass dieser Fehler der Stützpfeiler des gesamten Bereichs der Baumring-Proxy-Thermometrie ist.
Wissenschaftlicher Gehalt der Mann-Rutherford-Wahl-Ammann Proxy-Methode: null.

Zum Schluss noch etwas Beachtliches:

8. Rob Wilson, Alexander Tudhope, Philip Brohan, Keith Briffa, Timothy Osborn, und Simon Tet (2006), “Two-hundred-fifty years of reconstructed and modeled tropical temperatures.”[25]
Wilson et al. rekonstruierten 250 Jahre Meeresoberflächen-Temperaturen, indem sie nur Reihen von Korallen benutzten, auch dO-18, Strontium/Kalzium-, Uran/Kalzium-,  und Barium/Kalzium-Verhältnisse . Die letzteren drei habe ich nicht eingehend überprüft, aber die Betrachtung ihrer Punktstreuungen allein deutet schon darauf hin, dass keines davon genauere Temperaturen hergibt als dO-18. Dennoch, alle Temperatur-Proxies bei Wilson et al. haben echte physikalische Bedeutung. Was wäre das für eine großartige Gelegenheit gewesen, die Methode zu überprüfen, die Auswirkungen des Salzgehalts und biologischer Ungleichgewichte zu diskutieren, und wie das zu berücksichtigen ist. Zusätzlich könnten andere zentrale Elemente stabiler Meeres-Isotopen-Temperaturen erforscht werden.
Was aber machten diese Forscher? Sie fingen mit etwa 60 Proxy-Reihen an, warfen dann alle hinaus, die nicht mit den lokalen Gitternetz-Temperaturen korrelierten. Sechzehn Proxies verblieben, 15 davon waren dO-18. Warum korrelierten die anderen Proxies nicht mit der Temperatur? Rob Wilson & Co. schwiegen sich aus. Nachdem sie zwei weitere Proxies verworfen hatten, um das Problem des Ausfilterns hoher Frequenzen zu vermeiden, blieben ihnen noch 14 Korallen- Meeresoberflächen-Temperatur-Proxies.
Danach setzten sie standardmäßige statistische Berechnungen an: teile durch die Standardabweichung, mittele die Proxies alle zusammen (Einsatz der “nesting procedure” zum Angleichen unterschiedlicher Proxy-Längen), und skaliere dann auf die Messdatenreihe hoch.
Das Lobenswerte bei der Erwähnung dieser Forscher beruht auf der Tatsache, dass sie nur und allein physikalisch echte Proxies benutzten, leider dann aber die physikalische Bedeutung von allen verwarfen.
Damit sind sie besser als die anderen sieben Beispiel-Vertreter, die Proxies ohne jegliche physikalische Bedeutung einbezogen.
Trotzdem:
Physikalische Theorie bei der Erklärung herangezogen?: Nein
Rein statistische Ableitung?: Ja
Einsatz einer physikalisch gültigen Methode: Nein.
Physikalische Bedeutung der Proxies: existierte, wurde berücksichtigt, dann aber verworfen.
Bedeutung der Schluss-Zusammenstellung für die Temperatur: Keine.

Schlussurteil: Die weithin praktizierte Klimawandel-Paläo-Proxythermometrie besteht aus Zusammenstellungen, die allein auf rein statistischen Ableitungen beruhen und auf numerischen Skalierungen. Sie haben nicht nur keinen wissenschaftlichen Wert, schon die Methodik spricht deutlich gegen den wissenschaftlichen Gehalt.

Statistische Methoden: 100%.

 

 

Physikalische Methoden: nahezu keine (ausgenommen stabile Isotopen, aber deren physikalische Bedeutung wird permanent bei den zusammengesetzten Paläoproxies nicht zur Kenntnis genommen).

Bedeutung der numerisch skalierten Zusammenstellungen für die Temperatur: null.

Die sieben Studien sind typische Vertreter und sie sind repräsentativ für das gesamte Feld der Klimawandel-Paläo-Proxythermometrie. Was da wissenschaftlich praktiziert wird, ist wissenschaftlicher Betrug. Es ist Pseudo-Wissenschaft durch und durch.
Studien über stabile Isotopen sind aber echte Wissenschaft. Dieses Feld köchelt so dahin und die darin tätigen Wissenschaftler konzentrieren sich richtig auf das Detail. Ich nehme sie ausdrücklich von meiner generellen Verurteilung der Klimawandel-Paläo-Proxythermometrie aus.
In den nachfolgend genannten Arbeiten habe ich bereits die Glaubwürdigkeit der drei Richtungen der Klimawandel-Wissenschaft überprüft: Klima-Modelle (GCMs) hier (Berechnungen hier), den Datenbestand der Oberflächen-Lufttemperaturdaten hier (alles als pdf-downloads), und mit diesem Beitrag nun die Proxy-Paläo-Temperatur-Rekonstruktionen.
In allen Forschungsrichtungen werden die systematischen Fehler außer acht gelassen. Diese Vernachlässigung der systematischen Fehler zeigt, dass keine der Methoden – wirklich keine einzige – in der Lage ist, die Temperaturveränderungen der letzten 150 Jahre zu behandeln oder gar zu erklären.
Immerhin, die pandemische Ausbreitung dieser Vernachlässigung ist der zentrale Mechanismus für das Überleben des Klimawandel-Alarmismus. Das geht nun schon seit mindestens 15 Jahren so, bei den Klimamodellen seit 24 Jahren. Unterstellt man Integrität, dann muss man aber erkennen, dass die Wissenschaftler, ihre Fachgutachter und ihre Redakteure alle zusammen inkompetent sind.
Schlussfolgerung: Bei Behauptungen über Etwas-Noch-Nie-Dagewesenes bei den jüngeren globalen Lufttemperaturen weiß niemand, wovon überhaupt gesprochen wird.
Ich bin sicher, dass es Menschen gibt, die meine Schlussfolgerung angreifen werden. Sie werden gebeten, hier her zu kommen und ihre Einwände vorzutragen.
 Pat Frank PhD
Die Übersetzung besorgte in dankenswerter Weise Helmut Jäger EIKE

Über den Autor Pat Frank

Patrick Frank ist promovierter Chemiker und hat über 50 fachbegutachtete Artikel veröffentlicht. Er hat in folgenden Magazinen geschrieben: in „Skeptic“ über den Mythos vom „Edlen Wilden“ geschrieben, in „Theology and Science“ über den Mythos vom „Schöpferuniversum“ sowie in Energy & Environment über Fehler in Globaltemperaturbestimmungen sowie in „Free Inquiry“ zusammen mit Thomas H. Ray über den Mythos „Wissenschaft ist Philosophie“.
Referenzen:
1. Mann, M.E., R.S. Bradley, and M.S. Hughes, Global-scale temperature patterns and climate forcing over the past six centuries. Nature, 1998. 392(p. 779-787.
2. Dansgaard, W., Stable isotopes in precipitation. Tellus, 1964. 16(4): p. 436-468.
3. McCrea, J.M., On the Isotopic Chemistry of Carbonates and a Paleotemperature Scale. J. Chem. Phys., 1950. 18(6): p. 849-857.
4. Urey, H.C., The thermodynamic properties of isotopic substances. J. Chem. Soc., 1947: p. 562-581.
5. Brand, W.A., High precision Isotope Ratio Monitoring Techniques in Mass Spectrometry. J. Mass. Spectrosc., 1996. 31(3): p. 225-235.
6. Kim, S.-T., et al., Oxygen isotope fractionation between synthetic aragonite and water: Influence of temperature and Mg2+ concentration. Geochimica et Cosmochimica Acta, 2007. 71(19): p. 4704-4715.
7. O’Neil, J.R., R.N. Clayton, and T.K. Mayeda, Oxygen Isotope Fractionation in Divalent Metal Carbonates. J. Chem. Phys., 1969. 51(12): p. 5547-5558.
8. Epstein, S., et al., Revised Carbonate-Water Isotopic Temperature Scale. Geol. Soc. Amer. Bull., 1953. 64(11): p. 1315-1326.
9. Bemis, B.E., et al., Reevaluation of the oxygen isotopic composition of planktonic foraminifera: Experimental results and revised paleotemperature equations. Paleoceanography, 1998. 13(2): p. 150Ð160.
10. Li, X. and W. Liu, Oxygen isotope fractionation in the ostracod Eucypris mareotica: results from a culture experiment and implications for paleoclimate reconstruction. Journal of Paleolimnology, 2010. 43(1): p. 111-120.
11. Friedman, G.M., Temperature and salinity effects on 18O fractionation for rapidly precipitated carbonates: Laboratory experiments with alkaline lake water ÑPerspective. Episodes, 1998. 21(p. 97Ð98
12. Keigwin, L.D., The Little Ice Age and Medieval Warm Period in the Sargasso Sea. Science, 1996. 274(5292): p. 1503-1508; data site: ftp://ftp.ncdc.noaa.gov/pub/data/paleo/paleocean/by_contributor/keigwin1996/.
13. Shackleton, N.J., Attainment of isotopic equilibrium between ocean water and the benthonic foraminifera genus Uvigerina: Isotopic changes in the ocean during the last glacial. Colloq. Int. C.N.R.S., 1974. 219(p. 203-209.
14. Shackleton, N.J., The high-precision isotopic analysis of oxygen and carbon in carbon dioxide. J. Sci. Instrum., 1965. 42(9): p. 689-692.
15. Barrera, E., M.J.S. Tevesz, and J.G. Carter, Variations in Oxygen and Carbon Isotopic Compositions and Microstructure of the Shell of Adamussium colbecki (Bivalvia). PALAIOS, 1990. 5(2): p. 149-159.
16. Aldrich, J., Correlations Genuine and Spurious in Pearson and Yule. Statistical Science, 1995. 10(4): p. 364-376.
17. D’az, E. and R. Osuna, Understanding spurious correlation: a rejoinder to Kliman. Journal of Post Keynesian Economics, 2008. 31(2): p. 357-362.
18. Crowley, T.J. and T.S. Lowery, How Warm Was the Medieval Warm Period? AMBIO, 2000. 29(1): p. 51-54.
19. Osborn, T.J. and K.R. Briffa, The Spatial Extent of 20th-Century Warmth in the Context of the Past 1200 Years. Science, 2006. 311(5762): p. 841-844.
20. Mann, M.E., et al., Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia. Proc. Natl. Acad. Sci., 2008. 105(36): p. 13252-13257.
21. D’Arrigo, R., R. Wilson, and G. Jacoby, On the long-term context for late twentieth century warming. J. Geophys. Res., 2006. 111(D3): p. D03103.
22. Moberg, A., et al., Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data. Nature, 2005. 433(7026): p. 613-617.
23. Luckman, B.H., et al., Tree-ring based reconstruction of summer temperatures at the Columbia Icefield, Alberta, Canada, AD 1073-1983. The Holocene, 1997. 7(4): p. 375-389.
24. Mann, M.E., et al., Testing the Fidelity of Methods Used in Proxy-Based Reconstructions of Past Climate. J. Climate, 2005. 18(20): p. 4097-4107.
25. Wilson, R., et al., Two-hundred-fifty years of reconstructed and modeled tropical temperatures. J. Geophys. Res., 2006. 111(C10): p. C10007.

Related Files




Wie kann man eine mittlere Globaltemperatur ermitteln? Was die Statistik verlangt und erlaubt

Wenn der zeitliche Verlauf  globaler Temperaturen graphisch dargestellt wird, so z. B. von dem NASA Goddard Institut for Space Studies (GISS), werden meist  Temperaturanomalien gezeigt. (Abb. 1 nebenstehend) Dabei handelt es sich z. B. um Jahresmittelwerte, die ihrerseits auf einen  Mittelwert über ein definiertes Zeitintervall bezogen werden, z. B. 1961 – 1990. Man muss sich darüber im Klaren sein, dass es sich bei Mittelwerten um  Schätzungen handelt, die letztendlich auf einer für repräsentativ gehaltenen Auswahl von Einzelmessungen beruhen. 
Die zulässigen Methoden der Mittelwertbildung unter Berücksichtigung der Schätzfehler  von den Messdaten bis zur globalen Jahresmitteltemperatur soll im Folgenden dargestellt werden. Darauf aufbauend werden für ausgewählte Temperaturreihen die Mittelwerte auf signifikante Unterschiede analysiert.

Abb. 2 
Es existieren weltweit ca. 39.000 meteorologische Stationen, die neben der Registrierung anderen Wetterdaten die bodennahen (2m) Lufttemperatur messen. Wie Abb. 2 zu entnehmen, sind diese Stationen sind nicht homogen über die Landfläche der Erde verteilt (die Markierungen in den Meeren beziehen sich auf  Inseln).
Zwischen 1000 und 3000  von ihnen werden mit z. T. unterschiedlicher Gewichtung zur Berechnung der Globaltemperatur-Reihen  der verschiedenen Institutionen herangezogen. Die bodennahen Lufttemperaturen werden auch von einem Satelliten (TIROS-N ) erfasst und können u. a. als globale Verteilungen dargestellt werden.
So wurden von der NOAA (National Oceanic and Atmospheric Administration, USA) z. B.  für den 2. März 2012 die folgenden ”Momentaufnahmen” (Abb. 3)veröffentlicht:

Abb.  3
Die riesige geographische Variabilität der bodennahen  Landtemperaturen durch einen einzigen Mittelwert  charakterisieren zu wollen, erscheint sehr ehrgeizig. Die ständigen täglichen, wie auch jahreszeitlichen Temperaturänderungen erschweren dieses Vorhaben zusätzlich.
Betrachtet man zunächst einmal nur eine einzige Station. Die allgemein vorgeschriebenen Bedingungen zur Messung der bodennahen Temperatur verlangen, dass ein geeichtes Thermometer in einem als ”englische Hütte” bezeichneten Kasten zwei Meter über dem Erdboden untergebracht ist (Abb. 4).

Abb.  4
Der weiße Anstrich und die Belüftungslamellen sollen gewährleisten, dass die Lufttemperatur ungestört (im Gleichgewicht  mit der Umgebung) gemessen werden kann. Tagesmittelwerte werden weltweit nach verschiedenen Methoden gebildet
In Deutschland wird traditionell das arithmetische Mittel aus den 7 Uhr, 14 Uhr und 21 Uhr Temperaturen berechnet, wobei der 21 Uhr Wert doppelt gewichtet  wird.
Nach Umstellung auf elektronische Datenerfassung sind auch andere Mittelwertbildungen gebräuchlich.
Der Tagesmittelwert ist in jedem Fall eine  Schätzung, die als verbindlich betrachtet wird, ohne mögliche Fehlerquellen der Station (Ablesefehler, Aufbau und Anstrich der ”englischen Hütte”, Beeinflussung der Umgebung durch lokale Wärmequellen) zu berücksichtigen.
  
Abb. 5 zeigt die Tagesmittelwerte der Station Braunschweig Völkenrode des Deutschen Wetterdienstes (DWD) für Februar 2011 dargestellt. Wenn daraus ein Monatsmittelwert gebildet werden soll, muss man aus statistischer Sicht erst einmal untersuchen, welche Art der Mittelwertbildung für diese Grundgesamtheit, wie eine solche Ansammlung von Werten genannt wird, zulässig ist. Das arithmetische Mittel, also die durch ihre Anzahl dividierte Summe aller Werte, ist nur dann sinnvoll (zulässig), wenn sie einer definierten Verteilung unterliegen. Dazu werden die Tagesmitteltemperaturen in Größenklassen unterteilt und als Histogramm dargestellt:

Abb.  6
Wenn die Flächen der Klassen annähernd die Fläche unter der Kurve, die einer Normalverteilung nach Gauss entspricht, ausfüllen, kann die Grundgesamtheit als normalverteilt betrachtet werden (Abb.6). Dies zu entscheiden gibt es statistische Testverfahren, die in der Wissenschaft routinemäßig am Beginn einer statistischen Auswertung stehen. Für die gezeigten Tagesmittelwerte ist die Bildung  eines arithmetischen Mittels demnach zulässig. Hätte der Test das Vorliegen einer normalverteilten Grundgesamtheit abgelehnt, wäre der Median zur Beschreibung der Monatsmitteltemperatur sinnvoll (erlaubt) und ein besserer Repräsentant für den Monatsmittelwert. Aus der aufsteigend angeordneten Einzelwerten wird der Wert bei der halben Anzahl ausgewählt und als Median bezeichnet.
Genau dieser Fall tritt für die Oktober-Temperaturen 2011 ein.
In Abb. 7 sind die Verteilungen der Einzelwerte als schwarze Punkte als sogenannte  Jitterplots dargestellt. -Die Februarwerte streuen symmetrisch um das blau eingezeichnete arithmetische Mittel herum, während die Oktoberwerte unsymmetrisch mit einer Tendenz zu höheren Temperaturen um das das arithmetische Mittel verteilt sind.
Abb.  7
Von diesem weicht der Median deutlich ab, da er sich an der Lage der meisten Einzelwerte orientiert.  Die Kästchen über und unter dem Median repräsentieren die Lage von jeweils 25% der Einzelwerte (25% Quantile) und sind für den Oktober 2011 sehr unterschiedlich, während sie für den Februar fast gleich groß ausfallen. Auch sind die Werte für Median und arithmetisches Mittel fast identisch. Dies ergibt sich bei normalverteilten Grundgesamtheiten, bei denen zusätzlich  Kenngrößen für die Streuung berechnet werden können.
Die rot eingezeichneten Vertrauensbereiche (Konfidenzintervalle) weisen aus, dass der zutreffende Mittelwert  unter Berücksichtigung  der Verteilung der Einzelwerte  mit einer Wahrscheinlichkeit von 95% (95% Konfidenzniveau) in diesem Bereich liegt.

Abb.  8
Da jede Mittelwertbildung eine Schätzung darstellt, ist ihr eine von der Anzahl der Einzelwerte und deren Verteilung (eben der Grundgesamtheit) abhängiges Streuungsmaß sozusagen aufgeprägt.                                                        
Dies erlaubt die Anwendung von Signifikanztests, mittels derer  zum Beispiel für ein vorgegebenes Konfidenzniveau entschieden werden kann, ob sich Mittelwerte signifikant voneinander unterscheiden. Für normalverteilte Grundgesamtheiten  werden dabei andere Tests (Varianzanalyse) als für beliebige (nicht parametrische) Verteilungen angewandt, z. B. der Kruskal-Wallis Test.
Für den Vergleich der Februar-Mitteltemperaturen von 2001 bis 2011 der DWD Station Braunschweig (Abb. 8) können die arithmetischen Mittel der Tagesmittelwerte verglichen werden, da für jedes Jahr eine Normalverteilung vorliegt. Die darauf angewandte Varianzanalyse kommt zu dem Ergebnis, dass sich die Mittelwerte insgesamt auf einem Konfidenzniveau von 95% unterscheiden.
Um Jahresmittelwerte zu bilden, kann man die Tagesmittelwerte direkt verrechnen oder nach Bildung von Monats-mitteln,  diese zur Mittelwertbildung verwenden. 

Abb.  9
Da für die DWD Station Braunschweig die Jahresverteilungen der Tagesmittel die Normalitätskriterien nicht erfüllen, müssen die Mediane benutzt werden (Abb. 9).
Zur Entscheidung, ob sich die Jahres-Mediane signifikant voneinander unterscheiden, wird der Kruskal-Wallis Test angewandt, der zu dem Ergebnis gelangt, dass insgesamt kein signifikanter Unterschied zwischen ihnen vorliegt.
In der Praxis weren jedoch die Jahresmittelwerte aus den Monatsmittelwerten gebildet, wobei einfach vorausgesetzt wird, dass die Tageswerte der Monate jeweils normalverteilt sind. Das trifft auch meistens zu, da Mittelwerte,  auch wenn sie aus nicht normalverteilten Grundgesamtheiten gebildet  werden, tendenziell dazu neigen, eine Normalverteilung  anzunehmen.

Abb.  10
Die Streungsmaße der Monatsmittel werden in den öffentlich zugänglichen Datensätzen nicht weiter berücksichtigt, was jedoch aufgrund der Fehlerfortpflanzungsregeln nach Gauss geboten ist.                                       
Somit stehen nur solch Streuungsparameter,  die sich bei der Bildung von Jahresmittelwerten aus den veröffentlichten Monatswerten ergeben, für Signifikanztests zur Verfügung.
 In die Berechnung von Konfidenzintervallen geht die Anzahl der Einzelwerte als Divisor ein. Daher  fallen sie für Jahresmittelwerte relativ groß aus, da diese jeweils nur aus 12 Werten (Monaten) gebildet werden (Abb. 10).  Die Varianzanalyse sagt aus, dass sich die Jahresmittelwerte nicht signifikant voneinander unterscheiden und gelangt damit zum gleichen Ergebnis wie der vorige Vergleich der Mediane aus Tagesmittelwerten geführt.
Abb.  11
Im nächsten Schritt, werden aus den Monatsmitteln einzelner Stationen Gebietsmittel gebildet. Der Deutsche Wetterdienst berücksichtigt z. Zt.  264 Stationen, die zur Berechnung einer für Deutschland relevanten Mitteltemperatur herangezogen werden. Die Monatswerte sind normalverteilt, so dass die Jahresmittelwerte durch arithmetische Mittel und ihre Konfidenzintervalle repräsentiert werden können. Eine Varianzanalyse weist keine signifikanten Unterschiede zwischen den Jahresmittelwerten seit 1960 aus (Abb. 11).                                                                                 
Dennoch läßt sich ein Trend berechnen, der durch eine Steigung von 0,03 ± 0,006 °C/Jahr  der Regressionsgeraden charakterisiert  wird, für die mit einem Bestimmtheitsmaß  von R2 = 0,33 eine beträchtliche  Unsicherheit besteht.
 
Tab. 1
Nach Angaben des Global Historical Climatology Network (GHCN), bei dem die Temperaturen der weltweit verteilten Stationen gesammelt werden, wurden 2011 zur Ermittlung der globalen mittleren Landtemperatur die Daten von 2644 Stationen berücksichtigt. Anzahl und Verteilung ist der Tabelle 1 zu entnehmen. Wie schon aus der oben gezeigten Karte hervorging, sind die Stationen nicht homogen über die Landfläche verteilt.                                                                                                
Temperatur – Zeit – Reihen werden im Wesentlichen von 3 von Institutionen mit unterschiedlichen Gewichtungen der Werte erstellt und publiziert.
 


Laure M. Montandon et al. haben die unterschiedliche  Berücksichtigung der vom GHCN nach Oberflächentypen differenzierten Landstationen tabelliert (Tab. 2).  Auffällig sind die hohen Anteile der urbanen Stationen. 
In jüngster Zeit haben Überarbeitungen der Zeitreihen dazu geführt, dass sich die Ergebnisse weitestgehend angenähert haben. Dies gilt auch für die beiden Reihen, in denen die Messungen des TIROS-N Satelliten auswertet werden.                  
 
Tab. 2 
Diese Daten basieren auf der Reflexion von ausgesandten Mikrowellensignalen und liefern relative Werte, die mithilfe der  landgestützten Auswertungen kalibriert werden müssen, um sie in Temperaturwerte umrechnen zu können.
 
Abb. 12 stellt die Zeitreihe der globalen monatlichen Mitteltemperaturen dar, wie sie vom NCDC (National Climate Data Center) bereitgestellt wird. Es sei darauf hingewiesen, dass keine Streuungsmaße mitgeteilt werden und daher auch nicht eingezeichnet sind.
Die die Regressionsgerade weist eine  Steigung von 0,022 mit einem Konfidenzintervall von ± 0,01 °C/Jahr auf und hat ein äusserst geringes Bestimmtheitsmaß  von R2 = 0,006 so dass der Trend als sehr unsicher angesehen werden muss.  

In Abb. 13 sind die Temperaturanomalien, bezogen auf die Referenzperiode von 1960 bis 1990, zu sehen. 
Auch hier fehlen Streuungsmaße, die aufgrund der Subtraktion der Mittelwerte der Referenz-Monatsmittemittel von den jeweiligen monatlichen Mittelwerten nach dem Fehlerfortpflanzungsgesetz sehr beträchtlich ausfallen.
Da diese nicht berücksichtigt werden, d. h. weniger Information über die Ausgangsdaten für weitere Berechnungen vorliegt, erhält man mit R2 = 0,5 nur ein scheinbar größeres Bestimmtheitsmass für die Regressionsgerade.
Ihre Steigung unterscheidet sich mit  0,022 ± 0,001 ebenfalls nur durch ein augenscheinlich um den Faktor 10 verringertes Konfidenzintervall von der obigen.
Da die Erdoberfläche nur zu angenähert einem knappen Drittel (29 %) aus Land, zu gut zwei Ditteln (71%) aber aus Ozeanen besteht, erscheint es sinnvoll, deren Temperaturen zur Berechnung einer Global-Mitteltemperatur einzubeziehen. Früher wurde dazu eine Wasserprobe mit einem Schöpfeimer (Pütz oder Bucket) genommen und die Temperatur des Wassers darin gemessen. Deren Schöpftiefe sollte 1 m betragen. Das wurde aber aus praktischen Gründen selten eingehalten. Man kann unterstellen, dass sie je nach Geschwindigkeit des Schiffes und Sorgfalt der beauftragten Person, diese irgendwo zwischen wenigen Zentimetern und max 1 bis 1,5 m lag. Heute wird die Wassertemperatur im Kühlwassereintritt der Schiffe in 3m bis 15 m Tiefe bestimmt. Stationäre Bojen messen die Wassertemperatur in 2m Tiefe (nach Mitteilungen von M. Limburg). 
Die solchermaßen gewonnenen Wassertemperaturen werden als SST (Sea Surface Temperatures) bezeichnet.
In Abb. 14  sind die NCDC Zeitreihen für die SST Monatsmittel-Temperaturen und Anomalien abgebildet:

Abb.  14
Die Steigungen der Regressionsgeraden sind mit 0,009 ± 0,001 und 0,01 ± 0,0002 nahezu identisch. Für die Anomalien ergibt sich ein R2 = 0,7, das aber auf dem Hintergrund fehlender Fehlerfortpflanzung kritisch zu betrachten ist. 
Die Kombination von Land- und Ozeanberflächentemperaturen wird in Abb. 15 gezeigt:

Abb.  15
Die  Steigungen der Regressionsgeraden fallen mit 0,013 ± 0,004 bzw. 0,013 ± 0,0004  auch hier praktisch gleich aus. Das Bestimmtheitsmaß ist mit R2 = 0,7 für die Mittelwert-Anomalien größer als für die Mitteltemperaturen mit  R2 = 0,02.           
Zwar ist es bemerkenswert, dass die Steigung für die Landwerte rund doppelt so hoch wie für SST und Land + SST Werte,  jedoch sollte immer bedacht werden,  dass die Bestimmtheitsmaße recht gering sind,  bzw. für die Anomalien wegen der nicht berücksichtigten Fehlerfortpflanzung nur gesteigert erscheinen.
Werden aus den Monatsmittelwerten Jahresmittel gebildet und die Signifikanzintervalle berechnet und dargestellt, ergibt sich die Abb. 16  für Landtemperaturen der NCDC Reihe.              
Abb.  16
Für die normalverteilten Werte der globalen Monatsmittel ergibt eine Varianzanalyse, dass sich zwischen den arithmetischen Jahresmitteln keine signifikanten Unterschiede nachweisen lassen.
Hierbei wird deutlich, dass bei der üblichen Darstellung von Temperaturreihen als Anomalien ohne Angabe von Streuungsparametern  wichtige Informationen unterdrückt werden und dadurch ungesicherten Spekulationen über Temperaturunterschiede und -trends  Vorschub geleistet wird.
Die Angabe einer globalen Mitteltemperatur bzw. der Veränderung einer globalen Mittelwertanomalie   (z. B. um 2°C gegenüber einem definierten Zeitpunkt) ist daher unter Beachtung statistischer Gesetzmäßigkeiten,  ohne Angabe von Konfindenzintervallen  als sinnlos zu betrachten.
Autor: PD Dr. habil Dr. Eckhard Schulze  < eckhard.schulze@gmx.org >
Quellen:
zu Tab. 1                 http://fzuber.bplaced.net/NOAA-GHCN-Stations-E.pdf
zu Tab. 2                 Laure M. Montandon et al.  Earth Interactions Volume  15 (2011)  Paper No. 6
zu Abb.1                 http://cdiac.ornl.gov/trends/temp/hansen/graphics/gl_land.gif
zu Abb.2                 http://data.giss.nasa.gov/gistemp/station_data/
zu Abb.3                  http://www.osdpd.noaa.gov/ml/mspps/surftprd.html
zu Abb.4                  http://imk-msa.fzk.de/Wettervorhersage/images/Huette.jpg
zu Abb. 5 bis 10      avacon.com/cms/ContentFiles/Internet/Downloads/Netze_SN_unterbrVerbrauchseinr_Tagesmitteltemp_2012.xls
zu Abb.11                http://www.dwd.de/bvbw/generator/DWDWWW/Content/Oeffentlichkeit/KU/KU2/KU21/klimadaten/german/download__gebietsmittel__temp,templateId=raw,property=publicationFile.xls/download_gebietsmittel_temp.xls
zu Abb.12  u. 13      http://junksciencearchive.com/MSU_Temps/NCDCabsLand.csv  bzw. http://junksciencearchive.com/MSU_Temps/NCDCanomLand.csv
zu Abb.14 a u.b       http://junksciencearchive.com/MSU_Temps/NCDCabsOcean.csv  bzw. http://junksciencearchive.com/MSU_Temps/NCDCanomOcean.csv                    
zu Abb.15 a u. b      http://junksciencearchive.com/MSU_Temps/NCDCabs.csv bzw. http://junksciencearchive.com/MSU Temps/NCDCanom.csv
Der gesamte Text kann als pdf im Anhang herunter geladen werden

Related Files




A New Basic 1-Dimension 1-Layer Model Obtains Excellent Agreement With the Observed Earth Temperature

Abstract:
The Earth radiation and energy budget is calculated by a manifold of
rather complex Global Circulation Models. Their outcome mostly
cannot identify radiation in the atmosphere or energy budget
relations. Therefore it is reasonable to look at more basic models
to identify the main aspects of the model results.
account. It is shown that this basic model is in excellent agreement
with the observed integrated global energy budget.
The simplest one of all of those is a 1-dimensional 1-layer model. However, most of
these models – two are discussed here – suffer the drawback that
they do not include essential contributions and relations between
the atmospheric layer and the Earth. The 1-dimensional 1-layer model
presented here integrates sensible and latent heat, the absorption
of solar radiation in the atmosphere and the direct emission of the
long wave radiation to space in addition to the standard
correlations. For the atmospheric layer two different long wave
fluxes are included, top of atmosphere to space and bulk emission to
Earth. The reflections of long wave radiations are taken into account. It is shown that this basic model is in excellent agreement with the observed integrated global energy budget.

Related Files




Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680 sowie des gegenwärtigen kurzperiodischen Klimaverhaltens.

In einem Artikel über den solaren Klimaeinfluss (M.Lockwood und C.Fröhlich..Royal Society’s journal, UK)  ist zu lesen: “There is considerable evidence for solar influence on the Earth’s pre-industrial climate and the Sun may well have been a factor in post-industrial climate change in the first half of the last century. Here we show that over the past 20 years, all the trends in the Sun that could have had an influence on the Earth’s climate have been in the opposite direction to that required to explain the observed rise in global mean temperatures.”
Die Autoren stellen somit den  in  BWK-Beiträgen nachgewiesenen solaren Einfluss auf das langfristige Klimaverhalten nicht in Frage, inklusiv der jüngsten Erwärmung bis vor einigen Jahrzehnten. Wenn man aber das Temperaturverhalten in einem  kurzen, nur 20 Jahre umfassenden Zeitraum untersucht, verlässt man die nachhaltige, langfristige Klimaskala und kommt in den Bereich der Klimafluktuationen, in dem kurzperiodische Klimafaktoren in Relation zu den langfristigen, übergeordneten Prozessen temporär an Bedeutung gewinnen. (BWK-Beiträge SO 11/09 SO 18/10, 01/11). Die kurzfristige Klimaskala lässt grundsätzlich noch keinen Schluss auf die langfristige Klimaskala zu. Wer hier bei der Interpretation keine Skalentrennung vornimmt, vergleicht Äpfel mit Birnen.

Zur Analyse des Klimawandels, also der nachhaltigen Klimaänderung, und seiner Ursachen sind „mindestens 30-jährige Klimaperioden“ (Weltorganisation für Meteorologie) erforderlich.
Wie wenig aussagekräftig dekadische  Temperaturänderungen in Bezug auf die langfristige Klimaentwicklung sind, zeigt Abb.1. Dort sind die globalen Temperaturänderungen von einer Dekade zur Vordekade dargestellt. Danach hätte man seit 1860 mehrfach auf bevorstehende Klimaerwärmungen wie auf Abkühlungen schließen können. Völlig unhaltbar sind Aussagen auf subdekadischer Datenbasis. Die tatsächliche globale Erwärmung nach 1860 ist nur langfristig zu erkennen (Abb.4).
Die nachfolgenden Analysen stellen eine Ergänzung der früheren Untersuchungen zum Klimawandel dar. Im Gegensatz zur bisherigen Definition eines Sonnenfleckenzyklus von Sonnenfleckenmaximum zu Sonnenfleckenmaximum werden jetzt die Sonnenfleckenzyklen von Sonnenfleckenminimum zu Sonnenfleckenminimum definiert. Diese Verschiebung um eine halbe Wellenlänge ist nach der Schwingungslehre ohne Einschränkung möglich. Auch entspricht die neue Betrachtung der internationalen Zählweise der Zyklen. Ferner kann durch den veränderten Ansatz die zyklenbezogene Klimaanalyse zum einen bis zum Jahr 2009 ausgedehnt werden, wodurch auch das ungewöhnliche Temperaturverhalten seit 1998 betrachtet werden kann. Zum anderen ist durch die Untersuchung eine Überprüfung der früheren Ergebnisse gegebe

Die Klimaentwicklung Mittel- und Westeuropas 1680-2009

Die Klimareihe von Mitteleuropa basiert auf den Klimabeobachtungen von Berlin, Basel, Prag und Wien, die Klimareihe von Westeuropa auf der Central England Reihe (CET), wobei aus letzterer die Mitteleuropawerte für die beiden Dekaden 1680-1700 abgeleitet wurden (Reduktion -0,5°C).
Abb.2 zeigt den Klimawandel (anhand von Klimaperioden von 3 Sonnenfleckenzyklen gleitend) seit der Kleinen Eiszeit in Mitteleuropa, Abb.3 in Westeuropa.

Wie Abb.2 und Abb.3 belegen, setzte nach der Kleinen Eiszeit des 17.Jahrhunderts eine Klimaerwärmung im 18.Jahrhundert ein. Danach  kam es zu einer rapiden Abkühlung, die um und nach der  Mitte des 19.Jahrhunderts ihren Tiefpunkt erreichte. Ihr folgte der Temperaturanstieg im 20. Jahrhundert.
Sowohl im kontinental geprägten Mitteleuropa als auch im ozeanischen Westeuropa ist diese sinusartige Klimaschwingung seit 1680 mit einer Periodenlänge von rund 200 Jahren ein Faktum. Damit widerspricht die reale Klimaentwicklung dem sog. Hockey-Schläger-Verhalten, wonach die Klimatemperatur vor 1850 konstant gewesen sei und ein Temperaturanstieg erst mit dem Beginn der Industriealisierung nach 1850 einsetzte. 

Der Einwand, der dargestellte Temperaturverlauf spiegele nur die regionalen Verhältnisse wider, nicht aber die globalen,  ist nicht stichhaltig. So berechnen sich für den Zusammenhang zwischen dekadischen Central England- bzw. Mitteleuropatemperaturen und den globalen Dekadentemperaturen im Zeitraum 1851-2010 Korrelationskoeffizienten von +0,87 bzw. +0,94, d.h. West- und Mitteleuropa machen alle wesentlichen globalen Klimabewegungen mit. Nach den Gesetzen der Logik muss dieses auch für die Zeit vor 1850 gelten. Alles andere  würde bedeuten, dass Europa vom nordhemisphärischen/globalen Klimawandel abgekoppelt wäre.

Die globale Klimareihe ab 1850 erfasst nur die Hälfte der Klimaentwicklung seit 1680. Sie gibt vom Klimawandel der letzten Jahrhunderte allein die jüngste Erwärmung wieder (Abb.4), d.h. sie beginnt in der kalten und lebensfeindlichen Periode des 19. Jahrhunderts, als in Mitteleuropa wegen der ungünstigen Klimabedingungen Menschen verhungert sind und die große Auswanderungswelle in die USA einsetzte. Der globale Temperaturanstieg um +0,7°C zwischen 1860 und 2010  war ein Segen und keineswegs der mit der „2°-Grenze“ propagierte Beginn einer Klimakatastrophe.

Das solare Aktivitätsverhalten seit 1680

In Abb.5 ist die mittlere Sonnenfleckenzahl für Klimaperioden von 3 Sonnenfleckenzyklen gleitend  dargestellt. Damit entspricht der im Mittel 33-jährige Zeitraum von 3 Sonnenfleckenzyklen zum einen  der Definition von Klimaperioden („mindestens 30 Jahre“) der Weltorganisation für Meteorologie. Zum anderen trägt der Ansatz dem kontinuierlichen solaren Energiefluss Rechnung. Erst dadurch lassen sich langfristige Sonnen-/Klimaprozesse von kurzperiodischen Prozessen trennen.
 
Wie bei den früheren Untersuchungen so folgt nach Abb.5 auch bei der veränderten Definition der Sonnenfleckenzyklen (Minimum bis Minimum) das sinusartige Schwingungsverhalten der Sonnenaktivität mit einer rund 200-jährigen Periodenlänge. Der ruhigen Sonne im 17. Jahrhundert (Maunder-Minimum)  folgte eine zunehmend aktive Sonne im 18.Jahhundert. Ihr folgte im 19.Jahrhundert wieder eine Phase mit einer ruhigen Sonne (Dalton-Minimum). Dieser schloss sich die Periode mit stark zunehmender Sonnenaktivität im 20.Jahrhundert a
Vergleicht man den solaren Aktivitätsverlauf mit den Temperaturverläufen von Mitteleuropa (Abb.2) sowie Central England (Abb.3) seit der Kleinen Eiszeit, so ist das langfristige synchrone Verhalten von Sonnenaktivität und Temperatur unverkennbar. Der solare Antrieb hat somit die langfristige Klimaentwicklung, den Klimawandel, in Mittel- und Westeuropa nachweislich gesteuert.
Zum besseren Vergleich mit der globalen Klimaentwicklung ist der Verlauf der solaren Aktivität seit 1857 in Abb.6 dargestellt. Wie man sieht, hat die solare Aktivität seit Beginn der globalen Klimareihe wesentlich zugenommen. Der Vergleich mit Abb.4 zeigt, dass die langfristige Zunahme der Sonnenaktivität und die globale Erwärmung synchron verlaufen sind.
Damit folgt: Der solare Antrieb hat nachweislich sowohl das regionale Klimaverhalten in Mittel- und Westeuropa (sowie in Japan und den USA –BWK-Beitrag SO 01/11) als auch die globale Klimaentwicklung als dominierender Faktor bestimmt. 
 

Anomalien von Sonnenaktivität und Temperatur seit 1680

Korrelationen zwischen zwei Größen liefern ein wichtige Information über den Zusammenhang beider Größen. Bei einem direkten Zusammenhang ist die Korrelation positiv, bei einem inversen Zusammenhang ist sie negativ. Ein Korrelationskoeffizient von Null besagt, dass kein Zusammenhang zwischen den Größen besteht. Je mehr sich der Korrelationskoeffizient dem Maximalwert +1,0 nähert, um so stärker ist der direkte Zusammenhang. Wesentliche Voraussetzung bei Korrelationsbetrachtungen ist die sinnvolle Fragestellung. Eine Korrelation von Geburtenzahl und Zahl der Klapperstörche, ein beliebtes Antibeispiel, ist schon von der Fragestellung her Unfug. Eine Fragestellung über den Zusammenhang von solarer Aktivität und Klimatemperatur ist vernünftigerweise nicht zu bestreiten.
 
Korrelationen haben allerdings den Nachteil, dass sie unanschaulich sind. Die Berechnung des Korrelationskoeffizienten basiert jedoch auf den Anomalien der zu untersuchenden Größen, also ihren Abweichungen vom Mittelwert. Diese aber lassen sich anschaulich darstellen.
In Abb.7 sind die Anomalien der mittleren Sonnenfleckenzahl für die Klimaperioden von 3 Sonnenfleckenzyklen (gleitend) wiedergegeben. Im 17. und 19. Jahrhundert war die Sonnenfleckenzahl/ Sonnenaktivität unternormal (negative Werte). Im 18. und 20.Jahrhundert war die Sonnenfleckenzahl/ Sonnenaktivität dagegen übernormal (positive Werte). Das heißt: Die Beobachtungen belegen den sinusartigen Wechsel von Phasen mit einer ruhigen und einer unruhigen/aktiven Sonne. Die Periodenlänge beträgt rund 200 Jahre.
In Abb.8 sind für den Zeitraum 1680-2009 die über 3 Sonnenfleckenzyklen gleitend gemittelten Abweichungen der Temperaturen von Mitteleuropa dargestellt.
 
Wie die Temperaturanomalien belegen, herrschte in Mitteleuropa im 17. und im 19.Jahrhundert eine ausgeprägte Kälteperiode (negative Werte). Hingegen waren das 18. und das 20. Jahrhundert von übernormalen Temperaturen (positive Werte), von Wärmeperioden, gekennzeichnet. Analog zum solaren Aktivitätsverhalten wird das sinusartige Temperaturverhalten mit einer Periodenlänge von rund 200 Jahren sichtbar.
 
Der Vollständigkeit halber sei auch das Temperaturverhalten von Central England seit 1680 aufgeführt. Die Temperaturanomalien weisen -durch den unmittelbaren Ozean-/Golfstromeinfluss etwas gedämpft- den gleichen langfristigen Schwingungsverlauf auf wie in Mitteleuropa, d.h. sie verlaufen grundsätzlich ebenfalls synchron zu den langfristigen Änderungen der Sonnenaktivität seit 1680.
Damit dürfte der fundamentale Zusammenhang zwischen solaren Antriebsänderungen und der Reaktion des Klimasystems der Erde seit der Kleinen Eiszeit zweifelsfrei nachgewiesen sein. Zeiten mit einer unternormalen Sonnenfleckenzahl/Sonnenaktivität führen zu Kälteperioden, Zeiten mit einer übernormalen Sonnenfleckenzahl/Sonnenaktivität sind die Ursache von Wärmeperioden.

Korrelationen

Durch die Korrelationsberechnungen werden die o.g. Zusammenhänge zwischen Sonnenaktivität und  Klimaverhalten in Maßzahlen gefasst. Gleichzeitig wird die Frage der Irrtumswahrscheinlichkeit der Aussagen, d.h. ihrer Sicherheit,  (Signifikanzniveau) geklärt.
In Abb. 10 sind die linearen Korrelationen über den Zusammenhang von Sonnenfleckenzahl und Temperatur für gleitende Klimaperioden von 3 Sonnenfleckenzyklen dargestellt, und zwar  für Mittel- und Westeuropa für den Zeitraum  1680-1823 (links) sowie ab 1857 für Mitteleuropa, Central England, global, Nord- und Südhalbkugel (rechts).
Mit Korrelationskoeffizienten bis zu +0,95 ist der Zusammenhang zwischen zunehmender Sonnenaktivität im 18.Jahrhundert und der synchronen Klimaerwärmung nach der Kleinen Eiszeit hoch-signifikant nachweisbar. Das gleiche gilt für den Zusammenhang von Dalton-Minimum und der raschen Temperaturabnahme Ende des 18./Anfang des 19.Jahrhunderts. Die Korrelation weist für die Abkühlungsphase den Maximalwert von +1,0 auf.
Für die Ursachenanalyse des Temperaturverhaltens nach 1857 ist es sinnvoll, die Korrelationen zum einen für den Zeitraum 1857-1996 und zum anderen für 1857-2009 zu berechnen. Im Zeitraum 1857-1996 folgen nach Abb.10 für den Zusammenhang von zunehmender Sonnenaktivität und langfristigem Temperaturverhalten als Korrelationskoeffizienten für Mitteleuropa +0,91, Central England +0,82, global +0,91, Nordhalbkugel +0,91 und Südhalbkugel +0,88. Damit bestätigen sich die früheren, für den Zeitraum 1860-1999 berechneten Korrelationen.
Berechnet man die Korrelationen für den Zeitraum 1857-2009, so ergibt sich nach Abb.10 folgendes Bild: Mitteleuropa  +0,83, Central England +0,78, global +0,83, Nordhalbkugel +0,84, Südhalbkugel +0,81. Das heißt: In Bezug auf die langfristige Klimaentwicklung sind die Korrelationen nach wie vor sehr hoch. Durch die Verlängerung des Zeitraums um den 23. Sonnenfleckenzyklus (1997-2009) reduzieren sich jedoch die Korrelationskoeffizienten regional wie global, und zwar  global von +0,91 auf +0,83 und in Mitteleuropa von +0,89 auf +0,83. Auffällig ist, dass im ozeanischen Central England der Rückgang nur 0,04 beträgt.

Das aktuelle Klimaverhalten

Damit erhebt sich die Frage nach der Ursache des Temperaturverhaltens im Zeitraum 1997-2009, welche den Rückgang der linearen Korrelation zwischen Sonnenfleckenzahl und Temperatur seit 1857 zur Folge hat. Bis 1996 konnte der solare Antrieb rund 80% der langfristigen Klimavarianz seit 1857 mit 99,9%-tiger Sicherheit erklären. 20% der Temperaturvariabilität waren auf andere klimarelevante Prozesse zurückzuführen. Offensichtlich hat deren Einfluss im 23. Sonnenfleckenzyklus das Temperaturverhalten maßgeblich bestimmt und die lineare Korrelation zwischen Sonnenaktivität und Temperatur verändert. Um diesen Vorgang zu analysieren, wird nachfolgend der Zusammenhang von mittlerer Temperatur und  Sonnenfleckenzahl je Sonnenfleckenzyklus, also auf der kurzen Zeitskala betrachtet. Wie im Beitrag zur BWK SO 01/11 dargelegt, wirken sich in diesem Fall neben dem permanenten solaren Antrieb verstärkt die kurzperiodischen  Klimaeinflüsse (z.B. Vulkanausbrüche und El Nino/La Nina) auf die Korrelation aus.
 
In Abb.11 sind die Korrelationen über den Zusammenhang von mittlerer Sonnenfleckenzahl und Mitteltemperatur je Sonnenfleckenzyklus ab 1857 für die Zeiträume bis 1964, 1976, 1986, 1996 und 2009 wiedergegeben. Wie sich zeigt, sind die Korrelationskoeffizienten für die Perioden bis 1996 stabil bzw. weisen noch eine steigende Tendenz auf, z.B. global von +0,67 auf +0,75. Der Einbruch der Korrelation von Globaltemperatur und Sonnenaktivität auf Werte um +0,50 erfolgt somit durch kurzfristige Prozesse erst im 23. Sonnenfleckenzyklus, also zwischen 1997 und 2009.

Die Klimagegenwart

Die Frage, welche Prozesse das Temperaturverhalten im 13-jährigen Zeitraum 1997-2009 so maßgeblich beeinflusst haben und wieso der solare Anteil  gesunken ist, wird anhand der globalen Temperaturentwicklung des 20-jährigen Zeitraums 1991-2010 untersucht.  
Abb.12 zeigt die globalen Jahresmitteltemperaturen 1991-2010 (Climate  Research Unit, UK). Deutlich ist an dem gezackten Kurvenverlauf der Einfluss hoch-frequenter Klimaprozesse zu erkennen. Besonders auffällig ist die Temperaturspitze von 1998. Seit diesem Zeitpunkt ist die globale Temperatur nicht weiter gestiegen, d.h. seit 1998 findet keine weitere globale Erwärmung mehr statt.
Wie die Regressionskurve deutlich macht, verharrt die globale Temperatur seit 1998 auf einem gleichmäßigen Niveau mit einer leicht fallenden Tendenz, die sich im La Nina-Jahr 2011 verstärken wird.
Damit gilt es zu prüfen, inwieweit der anthropogene, der solare oder der ozeanische Klimaeinfluss das plateauartige globale Temperaturverhalten zwischen 1998 und 2010 zu erklären vermag.
 

Der atmosphärische CO2-Gehalt

Nach indirekten CO2-Bestimmungen war der Kohlendioxidgehalt der Luft in der Nacheiszeit bis 1850 konstant und lag bei 280 ppm. Damit scheidet jeder CO2-Einfluss auf den Klimawandel bis 1850 von vornherein aus. Weder bei der Wärmeperiode der Römerzeit, der Kälteperiode zur Völkerwanderungszeit, der mittelalterlichen (Wikinger-)Warmzeit noch der  Kleinen Eiszeit hat der CO2-Effekt eine Rolle gespielt. Es waren somit nur natürliche Prozesse (Sonne, Ozeane, Vulkanausbrüche,…), die das Klima wiederholt nachhaltig veränderten.
Nach den obigen Korrelationsanalysen über den Zusammenhang von veränderlicher Sonnenaktivität und langfristiger Klimaentwicklung ist ebenfalls kein wesentlicher Treibhaus-/CO2-Einfluss auf den Klimawandel im Industriezeitalter zu erkennen. Der solare Effekt vermag auch bei der Erwärmung nach 1860 rund 80% des langfristigen regionalen und globalen Klimaverhaltens zu erklären.
Für den CO2-Einfluss auf den Klimawandel bleibt nur das Residuum von 20% übrig, in dem allerdings auch die langfristigen Antriebe von Ozean und globaler Eisbedeckung enthalten sind.
Damit bleibt allein noch die Frage zu klären, ob der gestiegene CO2-Gehalt der Luft das aktuelle Klimaverhalten bestimmt hat. Bedenkt man, dass von der CO2-Zunahme seit 1850 von 280 ppm auf 390 ppm im Jahr 2010 allein 45 ppm auf die 20 Jahre 1991-2010 entfallen, so wird der exponentielle CO2-Anstieg in Abb.13 verständlich. Mit diesem Anstieg müsste nach der anthropogenen Treibhaushypothese ein erheblicher Temperaturanstieg verbunden sein.
Vergleicht man nun Abb.12 und Abb.13 miteinander, so fällt zum einen auf, dass das CO2-Verhalten die kurzperiodischen Temperaturfluktuationen nicht zu erklären vermag. Der CO2-Effekt kennt physikalisch nur die Temperaturzunahme, Abkühlungen, ob kurz- oder langfristig, sind ihm wesensfremd und müssen durch natürliche, ihn überkompensierende Klimaprozesse erklärt werden. Ebensowenig vermag er sprunghafte Temperaturzunahmen zu erklären. Das gilt auch für die Temperaturspitze von 1998.
Nach 1998 steigt der CO2-Gehalt exponentiell weiter an. Die globale Temperatur hingegen geht, wie die Regressionskurve zeigt, in ein Plateau mit leicht fallender Tendenz über. Krasser kann die Divergenz zwischen aktuellem Temperatur- und CO2-Verhalten kaum sein. Damit folgt: Obwohl der CO2-Gehalt der Luft seit 1998 auf sein höchstes Niveau angestiegen ist, stagniert die globale Temperatur. Der CO2-Effekt spielt somit auch beim aktuellen Klimaverhalten  keine erkennbare Rolle.
 

Der ozeanische Einfluss von El Nino und La Nina

Die atmosphärischen Auswirkungen der periodischen Wassertemperaturänderungen im tropischen Pazifik sind bereits in mehreren Beiträgen zu BWK gezeigt worden (SO 11/09, SO 18/10). El Nino als ENSO-Warmphase und La Nina als ENSO-Kaltphase (ENSO=El Nino-Südliche Oszillation)  bestimmen wesentlich die kurzperiodischen globalen Temperaturfluktuationen. Weisen sie, wie in jüngster Vergangenheit, ein Trendverhalten auf, so können sie auch multi-dekadische Auswirkungen auf die Globaltemperatur haben. Ist (gemäß der ONI-Werte des US-Wetterdienstes) Tm die mittlere Abweichung der tropischen Pazifiktemperatur während einer El Nino-Phase vom Normalwert (Tm: positiv) bzw. einer La Nina-Phase (Tm:negativ), so kann der Wärmeeinfluss des Ozeans auf die Atmosphäre durch den thermischen Antriebsfaktor F=Tm*Mon beschrieben werden, wenn die zeitliche Dauer des jeweiligen ENSO-Ereignisses in Monaten erfasst wird.
In Abb.14 ist für jedes Jahrzehnt seit 1951 der resultierende Antrieb gemäß F(El Nino) minus F(La Nina) angegeben, also die Wärmebilanz zwischen den El Nino- und den La Nina-Phasen der Dekade.
Wie man erkennt, überwog in den 1950er Jahren der Einfluss von La Nina gegenüber dem El Nino-Einfluss auf die Atmosphäre. In der 1970er Dekade waren beide thermische Effekte gleich groß, d.h. bei der Ursachenanalyse für die Abkühlung der Nordhalbkugel in dieser Zeit kann ein ENSO-Einfluss vernachlässigt werden.
In den 1980er, den 1990er und vor allem in der Dekade 2001-2010 überwogen die Auswirkungen von El Nino jene von La Nina auf die Atmosphäre. Somit hatte  El Nino nicht nur kurzperiodisch, sondern auch multi-dekadische Auswirkung auf die globale Temperatur seit den 1980er Jahren. Insbesondere in der Dekade 2001-2010 hat El Nino das globale Temperaturniveau wesentlich beeinflusst.
 
In Abb.15 sind die Korrelationskoeffizienten über den Zusammenhang zwischen den jährlichen globalen Mitteltemperaturen und den mittleren jährlichen Anomalien der Pazifiktemperatur im El Nino-/La Nina-Gebiet wiedergegeben. Wie man erkennt, nimmt der kurzperiodische Einfluss der ENSO-Warm- und Kaltphasen auf die Globaltemperatur seit 1991 von Jahr zu Jahr zu und erreicht im Zeitraum 1999-2010 einen Korrelationskoeffizienten von +0,80, bis 2009 sogar von +0,87. Berücksichtigt man den Umstand, dass die El Nino- und die La Nina-Ereignisse jahresübergreifend sind und korreliert den thermischen Antriebsfaktor F=Tm*Mon der ENSO-Phasen mit dem wärmeren/kälteren Jahr der entsprechenden jahresübergreifenden ENSO-Phase, so ergibt sich im Zeitraum 1998-2009/10 ein Korrelationskoeffizient von über +0,95, d.h. die seit 1998 dem Temperaturplateau überlagerten Temperaturfluktuationen gehen praktisch alle auf die Auswirkungen von El Nino/La Nina zurück. 
Die Auswirkungen von El Nino auf die Atmosphäre haben somit einerseits einen maßgeblichen Beitrag zum aktuellen globalen Temperaturniveau geleistet und erklären anderseits zusammen mit den La Nina-Phasen die Pendelbewegungen der Globaltemperatur auf dem Temperaturplateau seit 1998.

Sonnenaktivität und gegenwärtiges Klimaverhalten

Um den solaren Einfluss auf den Klimawandel der letzten Dekaden einordnen zu können, ist in Abb.16 die mittlere Sonnenfleckenzahl der letzten 10 Sonnenfleckenzyklen dargestellt. Seit dem Zyklus 14 (1902-1913) ist sie von 31 auf 96 im Zyklus 19 (1955-1964) angestiegen. Synchron dazu stieg die globale Temperatur. Danach erfolgte im 20.Zyklus (1965-1976) ein Einbruch der Sonnenaktivität. Die mittlere Sonnenfleckenzahl ging um über 35% von 96 auf 59 zurück. Die Nordhalbkugel reagierte aufgrund ihres hohen Festlandanteils spontan auf den Rückgang der solaren Aktivität. In der Arktis kam es zu einem deutlichen Temperaturrückgang (R.Scherhag, BWK SO31/70), und das Nordpolareis dehnte sich im europäischen Teil so weit südwärts aus, dass die Eisbären von Grönland nach Island hätten wandern können. Noch im Frühjahr war die Dänemarkstraße zugefroren, wie die Satellitenaufnahmen zeigten. In der Klimaforschung begann man über eine bevorstehende weitere Kleine Eiszeit nachzudenken.
 
 Doch überraschend nahm im 21. Sonnenfleckenzyklus (1977-1988) die Sonnenaktivität wieder zu. Die mittlere Sonnenfleckenzahl stieg auf 83 an. Mit 78 blieb die mittlere Sonnenfleckenzahl auch im 22. Sonnenfleckenzyklus (1987-1996) auf hohem Niveau, dem dritthöchsten seit der Kleinen Eiszeit. Analog stieg auch die Temperatur der Nordhalbkugel wieder an. Die Südhalbkugel hatte auf den kurzzeitigen solaren Einbruch im 20.Zyklus aufgrund der thermischen Trägheit ihres großen Ozeananteils nicht reagiert.
Dem hohen solaren Aktivitätsniveau der Zyklen 21 und 22 folgte im 23.Sonnenfleckenzyklus (1997-2009) erneut ein Einbruch. Die mittlere Sonnenfleckenzahl ging auf 52 zurück. Wenn die globale/ nordhemisphärische Temperatur nicht unmittelbar auf die solare Aktivitätsabnahme reagiert, liegt das zum einen an der thermischen Trägheit der Ozeane. Vor allem aber wirkt sich, wie gezeigt, der gegenwärtig hohe El Nino-Einfluss auf die globale Temperatur vorübergehend stabilisierend aus.
Zusammenfassend lässt sich sagen: Nach der deutlichen Zunahme der Sonnenfleckenzahl/ Sonnenaktivität im 20.Jahrhundert ist die mittlere Sonnenfleckenzahl im 23. Zyklus auf die kritische Grenze von rund 50 gesunken. Die in diesem Grenzbereich auftretende klimawirksame solare Aktivität entspricht dem indifferenten Klimazustand zwischen einer nachhaltigen Wärme- und einer Kälteperiode (BWK SO  03/09). Das heißt: Das derzeitige Klimaverhalten auf der kurzzeitigen Klimaskala sagt nichts über die weitere langfristige Klimaentwicklung aus. Diese wird auch in Zukunft maßgeblich vom Verhalten der Sonne abhängen.

Die Klimazukunft

Die entscheidende Frage für die zukünftige Klimaentwicklung lautet: Wie verhält sich die solare Aktivität im aktuellen 24.Sonnenfleckenzyklus und den nachfolgenden Zyklen?  Nimmt die mittlere Sonnenfleckenzahl/Zyklus wieder zu, wäre nach der gegenwärtigen Stagnation der globalen Temperatur mit einem weiteren Temperaturanstieg zu rechnen. Sinkt die mittlere Sonnenfleckenzahl/Zyklus langfristig aber unter den kritischen Grenzwert von rund 50/Zyklus, so ist ein globaler Rückgang der Temperatur zu erwarten. Derzeit sprechen alle Anzeichen für eine bevorstehende Abkühlung.
So hat zum einen die NASA soeben (Feb.2011) ihre bisherige Prognose der Sonnenfleckenzahl im 24. Sonnenfleckenzyklus weiter nach unten korrigiert.

Abb.17 Sonnenfleckenzahl des 23. und Prognose des 24. Sonnenfleckenzyklus (NASA)
Wie die NASA-Prognose in Abb. 17 zeigt, wird die mittlere Sonnenfleckenzahl und damit die integrale Sonnenaktivität im aktuellen 24.Zyklus mit hoher Wahrscheinlichkeit den kritischen Grenzwert von 50 deutlich unterschreiten. Dieser Rückgang der solaren Aktivität wie die zu erwartende Abkühlung würden ferner der 200-jährigen Schwingung von Sonnenaktivität (Abb.5) und langfristiger Klimaentwicklung (Abb.2, Abb.3) entsprechen (De-Vries-Zyklus). Die von den Klimamodellen prognostizierte fortschreitende Klimaerwärmung erscheint vor diesem Hintergrund höchst unwahrscheinlich.
Dafür spricht auch die folgende Abbildung.
 
In Abb.18 ist die Abweichung der Periodenlänge der Sonnenfleckenzyklen vom 11-jährigen Mittelwert seit dem Zyklus 1646-1655 wiedergegeben. Wie man erkennt, sind positive Abweichungen von 2 bis 3 Jahren, also überlange Zyklen, selten.
Auffällig ist: Nach dem überlangen Zyklus 1621-1633 begann das Maunder Minimum, und dem Zyklus 1667-1679 folgte der letzte Höhepunkt der Kleinen Eiszeit Ende des 17. Jahrhunderts. In der Wärmeperiode des 18.Jahrhunderts fehlten überlange Zyklen. Mit den übernormalen Zykluslängen 1785-1798 bzw. 1811-1823 korrespondiert das Dalton-Minimum und damit der rapide Temperaturrückgang Ende des 18./Anfang des 19. Jahrhunderts. Die Kälteperiode um die Mitte des 19. Jahrhunderts fällt mit dem überlangen Zyklus 1844-1856 zusammen. Danach wurde bis 1996, also während der gesamten Erwärmungsphase nach 1860, kein überlanger Sonnenfleckenzyklus mehr beobachtet. Erst der Sonnenfleckenzyklus 1997-2009 weist wieder eine Überlänge wie die Zyklen im 17. und 19. Jahrhundert vor Beginn der Kälteperioden auf. Dieser Sachverhalt ist somit ein weiteres Indiz für den Übergang der Sonne von einer aktiven Phase zu einer ruhigen Sonne. Alle solaren Vorzeichen lassen daher nur den Schluss auf einen Rückgang der globalen Temperatur in naher Zukunft zu. Zu vergleichbaren Ergebnissen sind auch das russische Hauptobservatorium Pulkovo bei St.Petersburg und das US-amerikanische SSRC (Space Sciende Research Center) gekommen.

Zusammenfassende Schlussbetrachtungen

Die Analyse  des Klimaverhaltens im Zeitraum 1680-2009 bestätigt die Ergebnisse der früheren Untersuchungen. Der mehrfache Klimawandel seit der Kleinen Eiszeit wurde empirisch nachweislich primär von den langfristigen Veränderungen der Sonnenaktivität gesteuert. Mittlere Sonnenfleckenzahl und Temperatur zeigen regional wie global/ hemisphärisch auf der langfristigen Klimaskala einen synchronen Verlauf. Die Korrelationskoeffizienten über diesen (über Klimaperioden von 3 Sonnenfleckenzyklen gleitenden) Zusammenhang liegen um +0,90 bis +1,0 und sind auf dem 99,9%-Niveau signifikant, d.h. die Irrtumswahrscheinlichkeit beträgt nur 0,1%.
Dabei gilt der dominierende solare Einfluss auf den nachhaltigen Klimawandel nicht nur für die Zeit bis 1850, in der der CO2-Gehalt der Luft konstant bei 280 ppm lag und damit a priori keine Rolle beim Klimawandel spielte. Auch nach 1850 ist kein wesentlicher anthropogener CO2-/ Treibhauseinfluss auf die Klimaentwicklung  zu erkennen. Der solare Effekt vermag an der globalen wie regionalen Erwärmung von 1860 bis 1996 bei den kurzfristigen Klimafluktuationen mit ihren vielen natürlichen Einflussfaktoren   55%-60% und an dem langfristigen Temperaturanstieg rund 80% statistisch abgesichert zu erklären. Der solare Antrieb ist offensichtlich.
Seit der Kleinen Eiszeit war die mittlere Sonnenfleckenzahl/Sonnenaktivität je Zyklus niemals so hoch wie in der 2. Hälfte des 20.Jahrhunderts. Die Werte der Sonnenfleckenzyklen 19, 21 und 22 waren  viermal so hoch wie zur Kleinen Eiszeit und doppelt so hoch wie zur Zeit der Kälteperiode des 19. Jahrhunderts. Die Behauptung, der solare Effekt mache nach den Klimamodellen nur 10% bei der Erwärmung im letzten Jahrhundert aus, ist vor dem Hintergrund der Klimageschichte unlogisch und nach der empirischen Klimaanalyse durch die Realität widerlegt. Die Größenordnung dürfte eher für den anthropogenen CO2-Einfluss auf das Klima zutreffen.
Vor der Betrachtung der Klimavariabilität im Zeitraum 1997/98-2009/10 ist festzuhalten: Entscheidend für die Beurteilung des nachhaltigen Klimawandels ist das langfristige Klimaverhalten. Nicht entscheidend sind dekadische oder etwa subdekadische Klimafluktuationen, da die Prozesse auf der kurzfristigen Klimaskala nur von vorübergehender Bedeutung sind.
In dem mit 13 Jahren anormale langen 23. Sonnenfleckenzyklus (1997-2009) ist die mittlere Sonnenfleckenzahl von rund 80 der beiden Vorzyklen auf 52 zurück gegangen. Damit hat sie den kritischen Grenzwert zwischen aktiver und ruhiger Sonne, zwischen einer Wärme- und einer Kälteperiode erreicht. In dieser indifferenten solaren Übergangsphase ist derzeit auf der kurzfristigen Klimaskala ein erhöhter Einfluss kurzperiodischer Klimaprozesse festzustellen.
Seit 1998 verharrt die globale Temperatur auf einem quasi-konstanten Niveau, einem Temperaturplateau mit leicht fallender Tendenz. Die globale Temperatur führt dabei lediglich kurze und kleine Pendelbewegungen nach oben und unten aus. Dieses gegenwärtige globale Temperaturverhalten korrespondiert zum einen mit den derzeit ungewöhnlich hohen thermischen Auswirkungen von El Nino auf die Atmosphäre, wodurch die globale Temperatur stabilisiert wird. Zum anderen korrespondieren die globalen Temperaturfluktuationen mit den kurzzeitigen Wechseln zwischen El Nino- und La Nina-Phasen. Die Korrelation zwischen dem jahresübergreifenden thermischen Antriebsfaktor F=Tm*Mon der El Nino- und La Nina- Ereignisse im Zeitraum 1998-2009/10 mit der erhöhten/erniedrigten globalen Jahrestemperatur in dieser Phase liegt über +0,95. Es ist somit offenkundig der Wärmefluss des tropischen Pazifiks, der seit dem starken El Nino von 1998 bis heute die globale Temperatur auf der kurzzeitigen Klimaskala bestimmt.  
Der anthropogene CO2-Effekt kommt als Ursache des aktuellen Temperaturverhaltens nicht in Betracht. Wäre er dominant, müsste sich die globale Temperatur seit1998 auf Grund des exponentiellen CO2-Anstiegs stark erhöht haben. Eine konstante globale Temperatur ist durch einen angeblich dominierenden CO2-Effekt physikalisch ebenso wenig zu erklären, wie es globale Abkühlungen sind.  
Entscheidend für die weitere Klimaentwicklung im 21.Jahrhundert wird sein, wohin sich die solare Aktivität aus dem kritischen Grenzbereich des 23. Sonnenfleckenzyklus entwickelt. Bei einem Übergang vom kritischen Grenzwert von rund 50 zu höheren mittleren Sonnenfleckenzahlen/ Sonnenaktivität je Zyklus wäre mit einer weiteren Erwärmung zu rechnen. Ein deutliches Absinken der mittleren Sonnenfleckenzahl/Zyklus unter 50 im 24. Sonnenfleckenzyklus und den folgenden Zyklen würde zu einer Abkühlung führen.
Derzeit weisen alle Vorzeichen auf eine bevorstehende globale Abkühlung hin. Zu den Indizien zählen zum einen die 200-jährige Schwingung der Sonnenaktivität und des synchronen Klimaverhaltens sowie der mit 13 Jahren überlange 23.Sonnenfleckenzyklus. Zum anderen ist nach der aktuellen NASA-Sonnenfleckenprognose eine deutliche Unterschreitung der kritischen mittleren Sonnenfleckenzahl im 24. Sonnenfleckenzyklus bis 2020 zu erwarten.
Die durch den solaren Effekt veränderte globale atmosphärische und ozeanische Zirkulation wird, wie zu allen Zeiten, letztlich über die regionalen Auswirkungen der globalen Abkühlung entscheiden.
Zusammenfassend kann man sagen: Das gegenwärtige solare Verhalten steht nicht im Widerspruch zu seinem dominierenden langfristigen Klimaeinfluss, sondern stellt eine Ergänzung dar, indem es den Klimazustand an der kritischen Grenze der solaren Aktivität zwischen aktiver und ruhiger Sonne, zwischen einer Wärme- und Kälteperiode charakterisiert. Solange die solare Aktivität an der kritischen Grenze verharrt, wird es global weder wärmer noch kälter, d.h. die globale Temperatur strebt durch den solaren Effekt in dieser Phase ein konstantes Niveau an. Solarer Antrieb und globale Temperatur verhalten sich in ihrem Zusammenspiel daher derzeit „normal“.    

Fazit

Auch nach dieser Klimaanalyse ist der solare Einfluss auf unser Klimasystem der dominierende Antrieb des langfristigen, nachhaltigen Klimawandels. Der angeblich dominierende anthropogene CO2-/ Treibhauseffekt ist vor diesem Hintergrund eine offensichtliche Fehleinschätzung, insbesondere auch in Bezug auf seine katastrophalen Auswirkungen. Daher lautet mein Credo auch nach dieser Untersuchung: An die Stelle eines wissenschaftlich nicht konsensfähigen und daher wirtschaftlich nicht vertretbaren globalen Klimaschutzes sollte die oberste Priorität auf den weltweiten Umweltschutz gelegt werden. Saubere Luft, sauberes Wasser, unbelastete Seen, Flüsse, Ozeane und Erdböden sowie ein intaktes Ökosystem gehören zu den Grundrechten des Menschen weltweit. Ein stabiles Klima gehört, wie die Klimageschichte lehrt, nicht dazu. So sollte  man auch bei der Suche nach den Ursachen des Artensterbens die Umweltsünden im Fokus haben, anstatt eine Temperaturschwankung dafür verantwortlich zu machen, die in der jüngeren Klimageschichte  von Natur aus völlig normal ist.
Prof. Dr. Horst Malberg 
zuerst erschienen in  Beiträge zur Berliner Wetterkarte
c/o Institut für Meteorologie der Freien Universität Berlin C.-H.-Becker-Weg 6-10165 Berlin 19/11  http://www.Berliner-Wetterkarte.de                                                   ISSN 0177-3984 SO 09/11                                                                                                                                                                      
Literatur
– Brohan, P., J.J. Kennedy, I. Haris, S.F.B. Tett and P.D. Jones: Uncertainty estimates in regional and global  
   observed temperature changes: a new dataset from 1850. J. Geophysical Research, 111, D12106,  
  doi:10.1029/2005JD006548 — pdf
– BMBF  Herausforderung Klimawandel“. 2004: http://www.bmbf.de/pub/klimawandel.pdf
– Claußnitzer, A. Das Maunder-Minimum. Eine Modellstudie mit dem „Freie Universität Berlin Climate     
  Middle Atmosphere Model“ (FUB-CMAM). Diplomarbeit. 2003
– Cubasch, U. Variabilität der Sonne und Klimaschwankungen. Max-Planck-Forschung. Das Wissen-
  schaftsmagazin der Max-Planck-Gesellschaft (2001)
– Eddy, J.A. „The Maunder Minimum“. Science 192. 1976
– EIKE: www.eike-klima-energie.eu
– Hennig, R. Katalog bemerkenswerter Witterungsereignisse –von den alten Zeiten bis zum Jahre 1800.
  Abh. Kgl. Preuß. Met.Inst.Bd.II/4 .1904
– Hoyt, D. V. and Schatten, K. H.: The role of the sun in climate change. New York-Oxford, Oxford Univer-
  sity Press. 1997
– Jones, P.D., New, M., Parker, D.E., Martin, S. and Rigor, I.G., 1999: Surface air temperature and its varia-    
   tions over the last 150 years. Reviews of Geophysics 37, 173-199.
– Labitzke,K. and H. van Loon: The signal of the 11-years sunspot cycle in the upper troposphere-lower
  Stratosphere. 1997
– Labitzke, K. On the solar cycle – QBO – relationship. J.A.A., special issue 67, 45-54. 2005
– Landscheidt, T. Solar oscillations, sunspot cycles, and climatic change. In: McCormac, B. M., Hsg.:
  Weather and climate responses to solar variations. Boulder, Ass. Univ. Press (1983) 
– Malberg,H. und G. Bökens: Änderungen im im Druck-/Geopotential- und Temperaturgefäl le zwischen Sub-
   tropen und Subpolarregion im atlantischen Bereich im Zeitraum 1960-90. Z.f.Meteor. N.F. (1993)
– Malberg, H.  Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte:
– Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02 
– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02
– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO
   10/03
– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) –
   In Memoriam Prof. Richard Scherhag.
– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07
– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07
– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei  C11/09O2-Verdopplung. SO 02/08
– Die unruhige Sonne und der Klimawandel. SO 20/08
– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO
   03/09
– La Nina – El Nino und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09
– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09
– Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache:
   Zukunft braucht Herkunft. SO 29/09 (2009)
– Der solare Einfluss auf den Klimawandel in Westeuropa seit 1672. SO 37/09 (2009)
– Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen, SO 11/10
   (2010)
– Kurzperiodische und dekadische Klimavariabilität im Zeitraum 1980-2009. SO18/10 (2010)
– Über scheinbare und tatsächliche Klimaerwärmung seit 1850. SO26/10 (2010)
 – Malberg, H. Klimawandel und Klimadiskussion unter der Lupe. Z. f. Nachhaltigkeit 5. 2007
– Malberg, H. Klimawandel und Klimadebatte auf dem Prüfstand. Verh. Ges.Erdkunde zu Berlin. 2007
– Malberg, H. Der solare Einfluss auf den Klimawandel. Jahrbuch der Freunde und Förderer der TU Bergakade-
   mie Freiberg, 2010
– Matthes, K., Y. Kuroda, K. Kodera, U. Langematz: Transfer of the solar signal from the stratosphere to the
   troposphere: Northern winter. J. Geophys. Res., 111.2005
– Matthes, K., U. Langematz, L. L. Gray, K. Kodera   Improved 11- year solar signal in the Freie Universität
   Berlin climate middle atmosphere model. J. Geophys. Res., 109. 2003 
– Negendank, J.W. Gehen wir einer neuen Kaltzeit entgegen? Klimaänderungen und Klimaschutz.TU-
   Cottbus.2007  
– Pelz, J. Die Berliner Jahresmitteltemperaturen von 1701 bis 1996, Beilage Berl. Wetterkarte, 06/1997
– Scafetta; N. and B.J. West: Is Climate Sensitive to Solar Variability. Physics today. (2008)
– Scherhag, R. Die gegenwärtige Abkühlung der Arktis. Beilage Berliner Wetterkarte SO31/1970
– Svensmark, H. Cosmic rays and earth‘s climate. Space Science Rev. 93 (2000)
– Svensmark, H. Cosmic Climatlogy – A new theory emerges. A&G, Vol. 48 (2007)
– Svensmark, H., Friis-Christensen, E. Reply to Lockwood and Fröhlich – The persistent role of the Sun in
  Climate forcing. Danish Nat.Space Center. Scientific Report 3/07 (2007)
– Wehry, W. Einige Anmerkungen zu meteorologischen Messungen und Datenreihen. Beiträge BWK SO 22/09
– Winkler, P. Revision and necessary correction of the long-term  temperature series of Hohenpeissenberg,
   1781–2006- Theor. Appl. Climatol. 75 (2009)
Daten:
Den Temperaturdaten von Basel und Wien liegen die Klimareihen von F. Baur zugrunde, die im Rahmen der „Berliner Wetterkarte“ fortgeführt wurden.
Die Temperaturdaten von Prag wurden der Internet-Veröffentlichung www.wetterzentrale .de/Klima/ entnommen, erweitert durch Werte, die von der Station Prag direkt zur Verfügung gestellt wurden.
Die Temperaturreihe von Berlin entspricht den von J. Pelz auf Berlin-Dahlem reduzierten Werten ab 1701.
Die globalen Temperaturreihen basieren auf den Werten des Climatic Research Unit, UK.
(www.cru.uea.ac.uk/cru/data)
Die Sonnenfleckenzahlen entstammen den Veröffentlichungen von NOAA
(ftp:/ftp.ngdc.noaa.gov/STP/SOLAR_Data/Sunspot­_Numbers/Monthly/)
Die Sonnen vor 1749 wurden verschiednen Quellen entnommen (u.a.Waldheimer,M.:The sunspot activityin the years 1610-1960 (Zürich 1961), Schove, D.J.:Snspot cycles (Hutchinson Stroudsburg 1983), Schönwiese,C.D. Klimatologie (UTB 1994)
Die ONI-Daten (Oceanic Nino Index) basiern auf: ftp:/www.cpc.ncep.noaa.gov/products/analysis/