Treibhäuser des Klima-Alarmismus – Mit welchen Tricks deutsche Universitäten abweichende Meinungen niederhalten

? Herr Limburg, Sie hatten vor im März 2010, an der Universität Leipzig zu promovieren, und wurden daran mit rechtswidrigen Methoden gehindert. Könnten Sie zunächst kurz die Ausgangslage schildern?

Michael Limburg: Lassen Sie mich vorausschicken, dass ich mich zu dieser Promotion erst vergleichsweise spät entschloss. Ich bin berufserfahrener Ingenieur mit vertieften Kenntnissen in den Bereichen Messtechnik und Fehlerstatistik. Zur Erlangung der Promotion als Externer reichte ich im März 2010 bei der Fakultät für Physik und Geowissenschaften der Universität Leipzig eine ingenieurwissenschaftliche Untersuchung zur Frage der Qualität historischer Temperatur- und Meeresspiegeldaten ein. Der Titel lautete „Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme“ [DISS]. Zuvor hatte ich sämtliche Vorbedingungen welche die Promotionsordnung für eine externen Doktoranden vorschreibt – inkl. einer Promotionsvorprüfung – erfüllt. Mein Doktorvater war der damalige Inhaber des Lehrstuhls für physische Geographie, Prof. Dr. Werner Kirstein.

? Als man sich in den zuständigen Gremien mit den Inhalt beschäftigt hatte, gingen dort anscheinend diverse Alarmglocken los?

Michael Limburg: Vermutlich. Dabei hatte die Arbeit mit der bekanntlich strittigen Klimafrage nur bedingt etwas zu tun und mit dem dazu postulierten Treibhauseffekt rein gar nichts. Ich wollte lediglich herausfinden, ob die meteorologischen Daten der Vergangenheit – über den Zeitraum der letzten ca. 150 Jahre – genau genug sind, um daraus die in der Klimadebatte verwendete statistische Größe „Globale Mitteltemperatur“ über die gesamte Zeitspanne hinweg mit ausreichender Genauigkeit von etwa ±1/10 °C glaubwürdig zu berechnen. Dabei kam ich zu dem eindeutigen Ergebnis, dass die verwendeten historischen Wetter-Messdaten dies nicht erlauben. Ich fand heraus, dass die bei der Berechnung der globalen Mitteltemperatur unvermeidliche verbleibende Unsicherheit mindestens genau so groß ist wie die ganzen offiziell angegebenen Änderung über 150 Jahre, wahrscheinlich aber sogar ein Vielfaches beträgt. Dies ergibt sich zwangsläufig bei Anwendung aller gängigen und vielfach erprobten Regeln der Messtechnik und der statistischen Fehlerrechnung. Diese Unsicherheit nimmt zwar mit der im Verlauf des 20. Jahrhunderts zunehmenden Stationsdichte ab, jedoch kommen dafür andere systematische Fehler hinzu. Erst mit der Verfügbarkeit von Satellitenmessungen – also seit ca. 35 Jahren – kann man von einer für diese Zwecke hinreichenden Genauigkeit sprechen. Die Messungen zuvor sind allenfalls für eine grobe Quantifizierung von Zyklen brauchbar, jedoch weder für die Ableitung einer absoluten noch einer relativen globalen Mitteltemperatur innerhalb der genannten engen Unsicherheit. Beim Meeresspiegel ist die Datenlage noch erheblich schlechter und das Ergebnis dementsprechend noch viel unsicherer. Natürlich hätte man meinen Erkenntnissen wissenschaftlich nicht unbedingt folgen müssen. Dann hätte es aber zur guten wissenschaftlichen Praxis gehört, die Ergebnisse mit guten nachprüfbaren Argumenten zu widerlegen. Das jedoch geschah nicht.

? Stattdessen hat man versucht, diese für die Vertreter des Klimaalarmismus unangenehme Wahrheit mit allen Mitteln zu unterdrücken?

Michael Limburg: Das trifft den Sachverhalt. Der Eingang des Manuskripts wurde ordnungsgemäß bestätigt, das Promotionsverfahren damit ordentlich eröffnet, dann jedoch wurde es seitens der federführenden Fakultät zu einer unfassbaren Scharade pervertiert, deren einziges Ziel es war, die Annahme der Promotion zu verhindern. Hierbei scheute man vor keinem Verfahrenstrick zurück und griff sogar zu Methoden, die nicht nur dem akademischen Ehrenkodex widersprachen, sondern teilweise eindeutig rechtswidrig waren. Begründet wurde die dann folgende Ablehnung mit Hilfe von Gutachtern, deren Sachkenntnis ganz offensichtlich so minimal war, dass man hier von einer Bestellung von Gefälligkeitsgutachten sprechen kann.

Doch das war bei weitem nicht alles. Die Fakultät ritt eine regelrechte Attacke auf die Freiheit der Wissenschaft. Grund hierfür dürfte sein, dass die Sicherung von Pfründen für die Universität absoluten Vorrang hatte, weshalb missliebige Ergebnisse unterdrückt werden sollten. Die Arbeit stellte ja indirekt wesentliche Aussagen zur angeblichen „menschengemachten Klimaerwärmung“ und damit einen der Hauptgründe für die Förderung der sogenannten „Erneuerbaren Energien“ infrage. Für beide Themenkomplexe gibt es jedoch höchst umfangreiche Fördergelder. Vermutlich befürchteten die Verantwortlichen diesbezügliche Nachteile, falls sie einer Arbeit Platz und dem Autor einen akademische Grad zugestanden, der dem bisherigem Dogma – und sei es auch nur indirekt – widersprach.

? Sie sprachen soeben von illegalen Methoden. Können Sie das näher ausführen?

Michael Limburg: Das ist leicht nachzuweisen. Die Einreichung der Dissertationsschrift erfolgte am 19. März 2010. Danach hörte ich erst mal lange Zeit nichts. Als ich nach diesem unüblich langen Stillschweigen der Fakultät im August insgesamt sechs renommierte Experten auf diesem Gebiet als Gutachter vorschlug, wurde keiner davon – nicht einmal mein Doktorvater – berücksichtigt. Es wurde darüber nicht einmal diskutiert, weder intern noch mit dem Betreuer oder dem Doktoranden. Dabei waren alle zu diesem Zeitpunkt sehr kompetente und aktive oder ehemalige Hochschullehrer. Einer davon hätte als Gutachter – neben dem Betreuer – bestellt werden sollen, so wie es zuvor immer Usus an dieser Fakultät war. Ich darf dazu anmerken, dass dieses krass von den üblichen Gepflogenheiten abweichende Vorgehen ein Novum darstellte, und zwar nicht nur mit Blick auf die Uni Leipzig.

? Den Grund hierfür haben Sie erst später verstanden?

Michael Limburg: Man wollte vermutlich damit die bereits vorher gelaufenen Machenschaften tarnen. Denn lange zuvor und ohne mir dies überhaupt mitzuteilen, war bereits am 4. Mai. 2010 eine (erste) Promotionskommission zusammengetreten. Diese trat sofort wieder geschlossen zurück und begründete dies mit vermeintlicher „weitgehender politischer Motivation der Thematik der Arbeit“. Wenig später machte die Rechtsabteilung der Universität den Akteuren klar, dass diese Rücktrittsaktion illegal war, weil sie nicht nur gegen die Promotionsordnung, sondern auch gegen das Grundrecht des Doktoranden auf Meinungsfreiheit und das allgemeine Grundrecht der Wissenschaftsfreiheit verstieß. Die Schwere dieses Vorwurfs muss man sich einmal vor Augen halten: Es handelt sich um einen in der Universitätsgeschichte der Bundesrepublik Deutschland einmaligen Vorgang. Dennoch wurde ich als Betroffener nicht über diese Vorgänge informiert. Der zuständige „Doktorandenbetreuer“, ein Hr. Dr. Schiele, hat mich diesbezüglich sogar offen belogen: Auf eine telefonische Anfrage hin wurde mir noch am 11. Mai 2010 wahrheitswidrig mitgeteilt, alles liefe normal. Es wurde sogar versprochen, dass ich über alles zeitnah unterrichtet würde. Dabei war die Promotionskommission bereits eine Woche vorher zurückgetreten.

? Und man hat sich nicht bemüht, die Angelegenheit danach wieder in rechtmäßige Bahnen zu lenken?

Michael Limburg: Nein, im Gegenteil. Um diese Rechtswidrigkeit (so das Justiziariat der Universität in einer Email vom 30. Juni 2010) zu „heilen“, übernahm dann der heutige Dekan der Fakultät, Prof. Dr. J. Haase, selbst die Leitung des Verfahrens und berief im Oktober 2010 eine zweite Promotionskommission ein. Er besetzte sie sofort mit einem zuvor zurückgetretenen Mitglied der ersten Kommission, während diverse Mitglieder derselben der Berufung aller neuen Mitglieder der zweiten Kommission zustimmten. Auch das war formal falsch, denn sie hätten weder mit abstimmen noch teilnehmen dürfen, weil sie nach allen Regeln objektiv befangen waren. Und das war erst der Auftakt zu einer Häufung weiterer Verfahrensfehler und illegaler Praktiken bei der Besetzung der neuen Promotionskommission.

Als nächstes sorgte Dekan Haase dafür dass mein Betreuer, Prof. Werner Kirstein, nicht als Gutachter bestellt wurde. Gründe dafür wurden nicht genannt, jedoch fand sich in den Unterlagen ein Schreiben des Prorektors Forschung und wissenschaftlicher Nachwuchs vom 16.11.2010 an den Promovierendenrat, in dem es heißt: „Probleme um den Arbeitskreis Kirstein und die widersprüchliche Antizipation in der Wissenschaftsgemeinschaft haben in der letzten Zeit eine starke Eskalation erfahren“. Das lässt den Schluss zu, dass hier ein missliebig gewordener Professorenkollege nicht zum Zuge kommen sollte. Stattdessen berief Haase einen anderen Gutachter aus der Fakultät sowie einen weiteren externen Gutachter, die beide eindeutig dem Lager des IPCC zuzurechnen waren. 

? Und an deren Kompetenz hatten Sie Zweifel?

Michael Limburg: Um es kurz und knapp zu sagen: Sie war miserabel. Einer der beiden war der Gutachter der Fakultät, der Meteorologe Prof. Dr. Manfred Wendisch. Dieser hatte sich sogar selbst als nicht ausreichend kompetent für das spezielle Gebiet bezeichnet, um das es bei der Dissertation ging. Dies geht aus einem Schreiben vom 6. Juli 2010 an den Dekan hervor, in dem er sich als nicht sachverständig genug bezeichnet, um in der zweiten Promotionskommission mitzuwirken [WEN1]. In dieser an Haase gerichteten Bitte um Freistellung ist zu lesen: „Leider sehe ich – als Meteorologe mit dem Fachgebiet Atmosphärische Strahlung – nicht, wie ich den Aufgaben eines Kommissionsmitgliedes in diesem Fall voll gerecht werden kann…“. Seiner Bitte wurde damals entsprochen und er wurde durch Prof. Zielhofer ersetzt.

Im Falle Wendisch wurde später deutlich, dass sein zuvor erfolgter Rückzieher bezüglich einer Mitwirkung an der zweiten Promotionskommission (wegen unzureichender Kompetenzen auf diesem Spezialgebiet) korrekt begründet war. Dies hinderte ihn aber nicht daran, später als fakultätseigener Gutachter aufzutreten.

? Wie haben Sie auf diese Berufung einer zweiten Promotionskommission reagiert?

Michael Limburg: Als ich von der Berufung von Prof. Wendisch erfuhr, befürchtete ich aus guten Gründen Befangenheit und protestierte. Wie sehr ich damit Recht hatte, stellte sich später heraus, denn diese Befangenheit manifestierte sich eindeutig in den handgeschriebenen Anmerkungen seines Exemplars der Dissertation, das mir vorliegt. Darin wimmelt es nur so von herabsetzenden Bemerkungen über mich und das dort Geschriebene, vielfach gewürzt mit Fäkalausdrücken wie „Scheiße“ oder „Bullshit“ Ich habe diese in meiner Kritik [KRIT] ausgewertet. Hanebüchen. 

Bezeichnenderweise finden sich diese „Beurteilungen“ sogar an Stellen, wo ich zur Untermauerung bestimmter Gedankengänge gängiges Lehrbuchwissen zitierte. Kann man einen deutlicheren Beweis für eigene Inkompetenz als  Gutachter für ein Promotionsverfahrens liefern als diesen Herrn, der etablierte Lehrmeinungen mit Begriffen wie „Bullshit“, „lächerlich“ oder „Blödsinn“ bezeichnet? Neben den fachlichen Schwächen seines Gutachtens machen ihn der damit dokumentierte eklatante Mangel an Höflichkeit und Respekt vor der Person und Arbeit eines Doktoranden offensichtlich unwürdig, als akademischer Lehrer zu wirken. Sein Gutachten [WEN2].entsprach damit allerdings seiner zuvor abgegebenen Selbsteinschätzung mangelnder Kompetenz. Folgt man meiner hier ebenfalls im Anhang aufgeführten Fachüberprüfung des Gutachtens [KRIT], so war dieses fachlich einfach unbrauchbar und wäre mit der Note „ungenügend“ zu bewerten.

? Das lässt befürchten, dass es um den zweiten Gutachter kaum besser bestellt war?

Michael Limburg: Genau so war es. Auch der externe Gutachter war erkennbar voreingenommen und hätte nicht eingesetzt werden dürfen. Nach diesem zweiten Gutachter hatte der Dekan lange und mit sehr viel Mühe gesucht. Er fand ihn schließlich in dem Meereskundler Prof. Dr. Martin Visbeck vom GEOMAR in Kiel. Mit diesem hatte ich schon im Sommer 2010 einen wissenschaftlichen – aber zivilisierten – Disput per Email über bestimmte Aspekte der Klimafrage per Email ausgetragen. Wobei anzumerken ist, dass wir zum Zeitpunkt dieses Disputs beide nicht wissen konnten, dass er später mal als Gutachter über meine Arbeit tätig werden sollte. Besonders im Gedächtnis geblieben ist mir ein Satz aus seiner abschließenden Email vom 03.07.2010. Darin sagt er aus, er ziehe es vor, seine Kenntnisse aus „den autorisierten Informationen unserer Regierung zu beziehen“.

Mit dieser Äußerung belegt Visbeck, in selten zu findender Offenheit, dass es ihm weniger auf wissenschaftliche Erkenntnis denn auf die Ausrichtung akademischer Betätigung an regierungsamtlichen Vorgaben ankommt. Man muss gar nicht erst Galileo oder als Gegenstück Lyssenko bemühen, um zu erkennen, dass Visbeck nach objektiven Kriterien zumindest befangen war. Hinzu kam noch, dass ihn zuvor der Dekan in seinem Einladungsschreiben an den GEOMAR-Chef Prof. Herzig darauf hingewiesen hatte, dass die Arbeit aus „aktuellem Anlass kontrovers diskutiert werden“ würde. Er war also schon vorab in gewünschter Weise „geimpft“ worden.

? Offensichtlich hatte man somit alle Versatzstücke für ein absurdes Theater sorgfältig ausgewählt und in Stellung gebracht?

Michael Limburg: Ja, man war offensichtlich entschlossen, diese Angelegenheit durchzuziehen und einen „Abweichler“ kaltzustellen. Trotz der bereits bekannten Vorgeschichte wurde Prof. Visbeck im Oktober 2010 als Gutachter bestellt. Als ich das erfuhr, machte ich noch am 9.11.10 und damit rechtzeitig, den Dekan und seinen Stellvertreter Prof. Jacobi auf diesen Sachverhalt aufmerksam und protestierte gegen Visbecks Berufung. Mein Antrag auf Ablehnung wegen Befangenheit wurde aber rundweg abgelehnt. Visbeck lieferte dann sein Gutachten mit zwei Monaten Verspätung ab [VISB]. Darin war er zwar in der Wortwahl seiner Anmerkungen weniger unhöflich als sein Kollege Wendisch. Offensichtlich fehlten ihm aber vielfach die nötigen Kenntnisse, um den in der Dissertation gewählten Weg und die entsprechenden Ergebnisse zu verstehen. Dies war deutlich daran zu erkennen, dass er häufig in seinen Rand-Anmerkungen seines Exemplars der Dissertation die Formulierung „Quatsch“ benutzte. Das ist zwar sein gutes Recht, doch damit ist gleichzeitig auch seine Voreingenommenheit belegt, von der inhaltlichen Wertung der als „Quatsch“ bezeichneten Passagen mal ganz abgesehen.

? Somit hatte die Vorarbeit des Dekans, Gutachter zu berufen, die nicht ausreichend kompetent und zugleich voreingenommen waren, in seinem Sinne Früchte getragen?

Michael Limburg: Definitiv. Beiden Gutachten ist gemeinsam, dass sie es versäumten, zu den überaus umfangreich entwickelten und umfassend belegten Kerngedanken der Arbeit vorzustoßen. Vielmehr blieben sie – vermutlich wegen ihrer manchmal wütenden Voreingenommenheit und fachlichen Begrenztheit – an der Oberfläche. Visbeck gab schon nach wenigen Seiten das intensive Lesen auf. Dies dokumentiert sich daran, dass seine Anmerkungen schon nach wenigen Seiten aufhören. Zudem ließ er sich von seiner Voreingenommenheit zu nicht haltbaren Wertungsaussagen hinreißen.

Wendisch hatte wesentlich mehr gelesen, aber immer wieder darauf beharrt, dass ich den Treibhauseffekt nicht verstanden hätte, was er dann zum Anlass nahm, diesen in seinem Gutachten wortreich zu erklären. Ihm war gar nicht aufgefallen, dass der Treibhauseffekt nirgends und in keiner Weise Gegenstand der Arbeit war. Denn nur an einer Stelle nahm die Arbeit hierauf indirekt Bezug, nämlich als die zwingend logische Schlussfolgerung gezogen wurde, dass die große Unsicherheit der Daten keinerlei Zuordnung von Ursachen zulassen würde, auch nicht die, dass das CO2 auf die Temperatur einwirken würde. Des weiteren ist er auch nicht zu der mathematisch exakten, aber sehr umfangreichen und anspruchsvollen Begründung mittels Fehlerrechnung in der Arbeit vorgedrungen. Stattdessen bemängelte er, ebenso wie Visbeck, ein angebliches Fehlen derselben. Beide hätten sie nur lesen müssen. Das taten sie aber nicht, oder sie wollten sie nicht zur Kenntnis nehmen! Deshalb wurde dieser Teil von keinem der beiden erwähnt, geschweige denn bewertet. Dies lässt sich anhand der im Quellenverzeichnis verfügbar gemachten Dokumente nachweisen.

? Beide Gutachter lieferten demnach die gewünschten „Gefälligkeits-Ablehnungen“ ab?

Michael Limburg: Exakt dies ist erfolgt. Beide Gutachter wurden unter sehr trickreicher Umgehung formalrechtlicher sowie üblicher akademischer Gepflogenheiten beauftragt, was schon per se einen Verstoß gegen wissenschaftliche Regeln darstellt. Sie erstellten dann wunschgemäß Gefälligkeitsgutachten, deren wissenschaftliche Begründungen äußerst dürftig und in Teilen sogar falsch waren und weder formal noch inhaltlich den üblichen Ansprüchen bezüglich wissenschaftlicher Richtigkeit und Objektivität genügten. Beide sind demnach zu Recht als wertlose Gefälligkeitsgutachten zu bezeichnen. Die im Anhang unten zugänglich gemachten Dokumente belegen unwiderlegbar ihre tiefe Voreingenommenheit. Zudem offenbaren sie die oft recht lückenhaften Kenntnisse der Herren bezüglich des in der Dissertation behandelten Wissensgebiets.

Diese Gutachten führten dann zur Ablehnung der Dissertation durch den Fakultätsrat am 28. Februar 2011, ohne dass noch eine wissenschaftliche Diskussion stattgefunden hätte. Dieser Ablehnung habe ich dann am 22. März 2011 anwaltlich widersprochen. Zur Begründung des Widerspruchs, der sich, ausführlich auf formale wie inhaltliche Mängel bezog, nahm der von mir beauftragte Anwalt Selbmann beide Gutachten in einem Gegengutachten vom 30. April 2011 Stück für Stück formal rechtlich auseinander [SELB] und ich tat dasselbe inhaltlich-fachlich [KRIT]. Nur ganz wenige Kritikpunkte in den Gutachten hatten danach Hand und Fuß, bezogen sich aber auf absolute Nebenaspekte ohne reale Bedeutung.

? Doch selbst davon ließ sich die Universität nicht von ihrem Kurs abbringen?

Michael Limburg: Nein, man hielt trotz eindeutiger Rechtsverstöße am einmal eingeschlagenen Weg fest. Eigentlich hätte dieses Gegengutachten nach den Regeln des Verwaltungsrechts bei Prüfungen in einem „Überdenkverfahren“ mit den Gutachtern und mir diskutiert werden müssen. Doch beide bekamen es wohl nie zu Gesicht, denn der mir vorliegende Schriftverkehr zeigt keinerlei entsprechende Hinweise.

Damit fügte die Universität der langen Reihe ihrer Versäumnisse einen weiteren schweren Formfehler hinzu. Und auch danach ging es im gleichen Stil weiter. Ich hatte noch vor dem abschließenden Negativurteil des Fakultätsrates diesen auf seiner Sitzung vom 28. Februar 2011 gebeten, von einer Beschlussfassung über die Dissertation abzusehen und zunächst vier weitere Gutachten abzuwarten, die ich selbst in Auftrag gegeben hatte. Dem wurde jedoch nicht stattgegeben. Man würde doch damit die bisherigen Gutachter brüskieren, hieß es dazu im Protokoll dieser nichtöffentlichen Sitzung. Stattdessen verwarf der Fakultätsrat auf Grund der vorliegenden Gutachten die gesamte Dissertation. Später bewerteten die vier echten Experten-Gutachten meine Arbeit mit den Noten „summa cum laude“ bis „rite“. Diese Gutachten wurden der Universität zur Unterstützung meines Widerspruchs vorgelegt, sie hatten jedoch keinen Einfluss. Rund 10 Monate später lehnte sie am 15. Dezember 2011 meinen Widerspruch mit äußerst schwachen und dürftigen Argumenten als unbegründet ab. Mir ist bis heute unbegreiflich, warum das Verwaltungsrecht vorsieht, dass die Fakultät als Urheberin der Ablehnung auch über den Widerspruch entscheiden durfte, aber so ist die Rechtslage nun mal.

? Und Sie waren nicht gewillt, dies einfach hinzunehmen?

Michael Limburg: Nein, mein Kampfgeist war jetzt geweckt. Deshalb reichte ich Anfang Januar 2012 beim Verwaltungsgericht Leipzig Klage ein. Allerdings kann nach geltender Rechtslage ein Doktorand nur auf Aufhebung der Ablehnung klagen, nicht aber auf Anerkennung der Arbeit. Und es vergingen mehr als anderthalb Jahre, bis ein erster Gerichtstermin angesetzt werden konnte. Dieser wurde für Ende September 2013 anberaumt.

Dem Verwaltungsgericht Leipzig, das über die Klage zu urteilen hatte, muss die ganze Tragweite dieses wohl einmaligen Vorgangs klar gewesen sein, denn es wollte nicht nur über die zahlreichen beanstandeten Formfehler urteilen, sondern auch über die inhaltlichen Differenzen informiert werden und hatte deshalb beide Gutachter als Zeugen geladen. Ich hatte mich schon auf eine Befragung dieser Herren gefreut und mich entsprechend vorbereitet. Doch dazu kam es nicht mehr, weil zuvor auf Wunsch der beklagten Fakultät ein Vergleich geschlossen wurde. Dieser sah vor, dass die Universität die Ablehnung der Arbeit zurückzunehmen hatte. Mit der Zustimmung zu diesem Vergleich wurde auch implizit anerkannt, dass die Gutachten untauglich waren, andernfalls hätte man das Gerichtsurteil abgewartet.

? Sie haben also Recht bekommen, konnten jedoch ihr eigentliches Ziel nicht erreichen?

Michael Limburg: Im Endeffekt hatte ich einen klaren juristischen Erfolg vorzuweisen und stand dennoch mit leeren Händen da. Entsprechend dem im September 2013 getroffenen gerichtlichen Vergleich musste sich die Fakultät mir gegenüber für die Art und Weise der Durchführung des Promotionsverfahrens entschuldigen. Damit hat sie zugleich anerkannt, dass die handelnden Personen mir schweres Unrecht zugefügt haben. Doch was mein eigentliches Ziel, die Erlangung des Doktorgrades anging, so blieb mir dies verwehrt. Ich konnte lediglich erreichen, dass die Arbeit als nicht eingereicht galt. Damit wäre es üblicherweise möglich, sie an jeder anderen deutschen Hochschule wieder einzureichen. Doch wie sich herausstellte war das eine wohl eher theoretische Möglichkeit.

Das zeigte sich, als ich es im Frühjahr 2014 erneut an der Technischen Universität Clausthal versuchte, wo ich zwei fähige Betreuer gefunden hatte. Doch angesichts der offensichtlichen Meinungsgleichschaltung, die auf diesem Gebiet anscheinend an deutschen Hochschulen anzutreffen ist, verweigerte die TU Clausthal zunächst die Annahme der Arbeit. Als Begründung wurde angeführt, dass sie die gerichtliche Rücknahme der Ablehnung seitens der Uni Leipzig für sich nicht gelten lassen wolle. Als sie einsehen musste, dass das aus rechtlichen Gründen nicht haltbar sein würde, errichtete der Dekan der Fakultät, Prof. Dr. Esderts, weitere formale Hürden, die erst nach einer längeren juristischen Auseinandersetzungen hätten überwunden werden können. Dazu war ich im Hinblick auf den dann mit Sicherheit folgenden juristischen Kleinkrieg aber nicht mehr bereit. Ich habe deshalb den akademischen Weg aufgegeben und beschlossen, stattdessen meine Arbeit im Internet zur Diskussion zu stellen. Dazu gehört auch, dass sowohl meine Dissertation als auch die hier im Rahmen des Interviews erwähnten Dokumente im Anhang zu diesem Artikel als abrufbare PDF-Dateien zur Verfügung gestellt werden.

Das Interview führte Fred F. Mueller

Alle Literaturstellen siehe pdf Anlagen

Literaturverzeichnis

[DISS] Limburg, M. (19. März 2010). Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme. Leipzig, Sachsen, Deutschland.

[KRIT] Limburg, M. (30. April 2011). Kritik Gutachen Wendisch & Visbeck.

[SELB] Selbmann, F. (19. April 2011). Widerspruch und ausführliche Begründung. Leipzig, Sachsen, Deutschland.

[VISB] Visbeck, M. (28. Februar 2011). Gutachten Dissertation Limburg. Kiel, S-H, Deutschland.

[WEN1] Wendisch, M. (6. Juli 2010). an Haase Bitte um Freistellung.

[WEN2] Wendisch, M. (26. Januar 2011). Gutachten Dissertation Limburg. Leipzig, Sachsen, Deutschland.

Related Files




„Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme“

Die Entwicklung des Globalklimas ist seit vielen Jahren ein Thema, das Wissenschaft, Öffentlichkeit und vor allem die Politik stark beschäftigt. Es wurde durch die Vermutung zum Thema, dass der Mensch durch die ungebremste Einspeisung von sog. Treibhausgasen, namentlich CO2, zu einer deutlichen Erhöhung der Globaltemperatur beiträgt. Dies sei für die Natur, aber auch die menschliche Entwicklung, schädlich. Dabei wird in aller Regel, wenn vom Globalklima gesprochen wird, dieses auf die Entwicklung der mittleren Globaltemperatur T reduziert. Im Gefolge der mit viel Aufwand errechneten Temperaturerhöhung des letzten Jahrhunderts, von im Durchschnitt ca. 0,7 ± 0,1 °C , wird die Befürchtung geäußert, dass diese Erwärmung Einfluss auf das Ansteigen des globalen Meeresspiegels nähme. Entsprechend werden Untersuchungen angestellt und veröffentlicht, welche die Entwicklung des Anstiegs eines globalem mittleren Meeresspiegels zum Inhalt haben. Darin wird festgestellt, dass dieser (über das ganze Jahrhundert) vermutlich mit einer Rate von ca. 1,8 ± 0,4 mm/Jahr gestiegen sei. Diese Rate, so wird geschätzt, hätte sich besonders im letzten Jahrzehnt des drastisch beschleunigt, d.h. um den Faktor 4, erhöht. Die Arbeit zeigt nun auf, dass es auf Grund der Art der vorhandenen Daten, deren Menge, Messmethoden und Mittel, sowohl bei der Temperatur, als auch beim Meeresspiegel nicht möglich ist die angegebene Genauigkeit darzustellen. Daraus folgt, dass alle darauf aufbauenden Schlussfolgerungen und Zuordnungen, von als wichtig erachteten Ursachen, im Bereich der Unsicherheiten liegen und damit ebenfalls nur sehr grobe Schätzungen sein können. Sie sind deshalb eher Vermutungen zu nennen und daher mit größter Vorsicht zu betrachten.

Summary

The development of global climate has been a topic of great discussion in science, the public, and foremost in politics for a number of years. It has been suspected that man has contributed significantly to an increase in global temperature by emitting so-called greenhouse gases, namely CO2. This is claimed to be harmful for nature and for human development. Here, as a rule, when global climate is discussed, everything gets reduced to the development of the mean global temperature. As a consequence of the temperature increase of approx. 0.7°± 0.1°C over the last century, which was calculated with great effort1, fear is now being expressed that this warming is having an impact on global sea level increase. Accordingly, studies are being carried out and published concerning the impacts a global mean sea level increase could have. It has been determined to have risen (over an entire century) at a rate of approximately 1.8 ± 0.4 mm/year. This rate, it is estimated, has accelerated dramatically especially during the last decade – by a factor of 4. This work shows that based on the type of available data, their quantity, and methods used, as is the case with temperature, it is not possible to give the sea level with an accuracy that is claimed. Thus the result is that all conclusions and correlations based on this data, which are from causes considered to be important, lie within the range of uncertainties and thus can only be regarded as very rough estimates. For this reason they can be only considered as conjecture and thus must be taken with great caution.

Einen Überblick über die Entstehungsgeschichte dieser Arbeiten finden Sie hier

Related Files




Neuer systematischer Fehler bei Anomalien der globalen Zeitreihe der Mitteltemperatur

Neuer systematischer Fehler bei Anomalien der globalen Zeitreihe der Mitteltemperatur

ZUSAMMENFASSUNG

Bestehende Einschätzungen der Unsicherheit und ihrer mathematischen Modelle für die Bestimmung von Fehlern, die zur Abschätzung der globalen Durchschnittstemperatur-Anomalien verwendet wurden, werden hier untersucht. Dabei wurden methodische Fehler im Bewertungsmodell von Brohan et al 06 [1] festgestellt, die sie zur Beschreibung als nicht umfassend und präzise genug erkennen lässt. Für eine andere Art von Fehlern wurde dies bereits von Frank [2], [3], im Folgenden als F 10 und F 11, gezeigt. Zusätzlich zu den Feststellungen beider Arbeiten von Frank 10,11, wurde hier ein sehr häufiger, aber neuer systematischer Fehler isoliert und als „Algorithmus-Fehler“ definiert und benannt. Dieser Fehler wurde bisher durch die verwendete Methode der Anomalienbildung als selbst korrigierend angesehen oder es wurde vermutet, dass er von einigen unbekannten und ungenannten Homogenisierungsprozessen korrigiert wird. Aber das war bisher nicht der Fall. Er fügt daher der momentanen Mitteltemperatur eine zusätzliche systematische  Unsicherheit oder zusätzliche Fehlerspanne von  mindestens

+ 0,3 ° C und – 0,23 ° C

für jede globale mittleren Anomalie Berechnung hinzu.

Dieses Ergebnis wird erzielt, wenn man nur die am häufigsten verwendeten Algorithmen zur Berechnung der Tagesmitteltemperatur  mit  dem „wahren“-Algorithmus durch Mittelwertbildung täglich kontinuierlich durchgeführter Messungen miteinander vergleicht. Bedingt durch die Tatsache, dass die reale Verteilung aller verwendeten Algorithmen (nach Griffith [4] > 100 verschiedene) über Zeit und Fläche nicht bekannt ist, weder für die Land-basierten Temperaturdaten noch für die SST (Meeresoberflächentemperaturen), wird der Minimalwert dieses Fehler hier als typisch ausgewählt. In der Realität ist aber der dadurch erzeugte Fehler vermutlich noch um einiges größer.

EINFÜHRUNG

Allgemeine Bemerkungen

Zum Zwecke der Klarheit ist der erste Teil diese Aufsatzes dem allgemeinen Verhalten der Anomalien-Berechnung in Bezug auf die Fehlerfortpflanzung gewidmet. Es wird gezeigt, dass die weithin angenommen Fehlerreduktions-Fähigkeiten eines Anomalie-Modells nur für einen einzigen Sonderfall gelten, aber generell kann sie die endgültigen systematischen Fehler nicht reduzieren – vor allem in Zeitreihen – sondern sie wird sie in fast allen anderen Fällen sogar noch erhöhen. Weiterhin werden hier eine Vielzahl von weiteren potentiellen, wie realen systematischen Fehler genannt, von denen nur sehr wenige bisher identifiziert, dann quantifiziert und somit korrigiert werden konnten, und auch das bisher nur teilweise. Auch dies wird hier gezeigt.

Mit diesem Wissen muss die Mindest-Unsicherheit für jeden jährlichen globalen Mitteltemperaturwert nicht nur auf die hier beschriebenen, (bei 2 sigma = 95% Vertrauensbereich) zwischen ± 1,084 ° C bis ± 2,084 ° C, sondern auf eine Spanne die mindestens 3 bis 5 mal größer ist, angehoben werden.

Somit ist die durchschnittliche globale Temperaturanomalie für die letzten 150 Jahre in einem sehr großen Unsicherheitsband aufgelöst, das viel breiter ist, als die gesamte vermutete Veränderung des 20. Jahrhunderts. Deshalb ist jeder Versuch, dass deren Variation möglichen „Forcings“ zuzuordnen sei, nur wissenschaftliche Spekulation. Der einzige, aber sehr wichtige, Ausnahme könnte der Einfluss einer starken zyklischen Forcings sein, das um ein gegebenes Mittel schwingt. Seine Schwingungssignale können viel leichter im Unsicherheits-Band erkannt und damit unterschieden werden und zwar auf Grund ihrer zuvor beschriebenen repetitiven Natur…

…….

FAZIT

Es wurde gezeigt, dass die begrenzte Unsicherheits-Beurteilung des B 06 papers und seiner Vorgänger nicht die reale Situation in Bezug auf die Unsicherheiten der historischen Temperatur beschreibt: Um dies zu zeigen, wurde ein einziger, aber weit verbreiteter Fehler, mit dem Namen „Algorithmus-Fehler“ untersucht. Er allein addiert mindestens ± 0,23 ° C (1 σ!) zum systematischen Fehler wie er von F 11 entwickelt wurde, hinzu.  Aber es wurde auch gezeigt, dass der Gesamt-Fehler in der Realität wahrscheinlich noch viel größer sein muss.

Außerdem wurde gezeigt, dass er nur einer von einer Vielzahl von anderen systematischen Fehlern ist, die auf den vorangegangenen Seiten genannt worden sind. Die wurden aber bisher nie sorgfältig untersucht und daher auch noch nicht korrigiert.

Aus diesem Grund muss jeder Versuch versagen, eine genaue Zeitreihe einer globalen Temperaturanomalie zu entwickeln, weil diese immer von einem viel breiteren Band der Unsicherheitsband begleitet wird.

Außerdem ist der genaue Wert der Anomalie selbst irgendwo in diesem breiten Unsicherheitsband versteckt, was bedeutet, dass auch die resultierende Hüllkurve unsymmetrisch zur versteckten Anomalie Zeitreihe ist.

Somit ist es unmöglich,  dieser eine mögliche Ursache für ihre Veränderung zuzuordnen. Jeder Versuch, eine wahrscheinliche Ursache für die Änderung der globalen Temperaturzeitreihe zu definieren, bleibt daher reine Spekulation.

Die einzige, aber sehr  wichtige Ausnahme kann der Einfluss eines starken Forcings sein, das um einen bestimmten Mittelwert schwingt. Sein Schwingungssignal lässt sich viel leichter vom zuvor beschrieben Unsicherheits-Band unterscheiden, allein aufgrund seiner sich wiederholenden Natur. Dies liegt daran, dass alle zuvor genannten Fehlerquellen, entweder sprunghaft auftreten und dann stabil über der Zeit (beispielsweise die Änderung der Rechen-Algorithmus der verwendet wird) bleiben, oder aber einen schleichenden Fehler bewirken, mit zu- oder oder abnehmender Fehlergröße, (wie die Veränderung der Eigenschaften einer Wetterhütte im Laufe der Zeit zum Beispiel durch Alterung der Farbe), aber selbst keine Schwingungseigenschaften zu zeigen.

Aus Sicht der obigen Ergebnisse kann man für die Zwecke der Klimaforschung fragen, welchen wissenschaftlichen Wert eine Mittelwerts-Anomalie für die ganze Welt haben kann, wie sie zum Beispiel in B 06 entwickelt wurde, wenn man die großen Schwankungen der Mittelwerte der Erd-Temperaturen in Abhängigkeit von ihrer Lage auf dem Globus (siehe S.2; von +30 ° bis -35 ° C) und von Saison zu Saison betrachtet.

Das bedeutet nicht, dass es keine Erwärmung gab, denn sie konnte in einigen Perioden des letzten Jahrhunderts beobachtet werden, weil andere Proxies weltweit zeigen, dass es eine moderate Erwärmung gab, aber es bedeutet, dass diese Konstruktion einer Temperatur-Zeitreihe es nicht erlaubt, die Ergebnisse, für die sie gedacht ist, zu liefern.

Related Files




Beeinflusst die globale Viehwirtschaft das Klima?

Der Viehzüchter und Experte für Tropische Weidewirtschaft Albrecht Glatzle hat in drei Publikationen in wissenschaftlichen Zeitschriften mit peer review die Vorwürfe der Klimaschädlichkeit der Viehwirtschaft analysiert und kommt zu dem Schluss, dass sowohl die FAO, wie auch der Weltklimarat IPCC, auf dessen Anleitung zur Erstellung Nationaler Treibhausgasinventare sich die FAO in weiten Teilen bezieht, schwere methodische Fehler begingen.

Grundvoraussetzung für eine Klimabeeinflussung durch Haustiere ist eine messbare Klimaerwärmung durch anthropogene Treibhausgasemissionen (z.B. CO2, CH4, N2O). Eine nennenswerte Klimasensitivität dieser Treibhausgasemissionen bestreitet z.B. EIKE auf dieser Webseite seit Jahren mit hunderten von guten wissenschaftlichen Argumenten, denen eigentlich nichts hinzuzufügen ist. Ergänzt soll hier lediglich werden, dass sich der Weltklimarat selbst, dessen Existenzberechtigung ja mit der Aufrechterhaltung des Klima-Alarms steht und fällt, durch inhärente Widerspruche ad absurdum führt, was bei gründlichem Studium der IPCC-Berichte deutlich wird:

Im 4. Sachstandbericht AR4 (2007) werden in Tabelle 2.11 sechzehn (16) natürliche und menschengemachte Antriebskräfte (forcing agents) für das weltweite Temperaturgeschehen aufgelistet und hinsichtlich ihres wissenschaftlichen Verständnisses bewertet. Nur eine dieser Antriebskräfte wird als gut verstanden, und 11 werden als schlecht bis sehr schlecht verstanden klassifiziert. Genau diese Antriebskräfte sind es aber, die als Variablen in die Modellberechnungen künftiger Temperaturszenarien einfließen. Selbst jedem Laien wird einleuchten, dass bei einen so hohen Niveau von Unsicherheit der verwendeten Variablen keine Zukunftsszenarien mit akzeptabler Vertrauenswürdigkeit erstellt werden können. Das IPCC tat dies aber trotzdem. Unter der stillschweigenden Annahme einer ganzen Reihe zusätzlicher, unbestätigter Randbedingungen werden Projektionen künftiger Temperaturentwicklungen in Abhängigkeit von bestimmten Emissionsszenarien erstellt, die allesamt ziemlich steil nach oben zeigen (z.B. Fig. TS.26 im AR4).

Wissenschaftler, die Beiträge zum letzten IPCC-Bericht (2013) AR5 leisteten, haben die Temperaturprojektionen aus früheren Berichten einer empirischen Validierung unterworfen, soweit sie heute schon mit den tatsächlich gemessenen Temperaturen verglichen werden können. Das Ergebnis war ernüchternd: Die derzeit gemessenen globalen Mittelwerttemperaturen liegen deutlich unterhalb der Konfidenzintervalle aller früheren vom IPCC erstellten Temperaturprojektionen (Fig.1.4 aus dem an die Öffentlichkeit gelangten 2nd order draft von AR5, siehe http://www.washingtontimes.com/news/2012/dec/18/chilling-climate-change-news/ ). Nach gängigen wissenschaftlichen Kriterien müssten daher sämtliche IPCC-Modelle als unzutreffend verworfen werden. Leider haben sich die Funktionäre des IPCC aber dazu entschieden, die genannte Abbildung nicht in die endgültige Version des AR5 aufzunehmen. Stattdessen haben sie in ihrer „Summary for Policy Makers“ die Wahrscheinlichkeit, dass der Mensch mittels Treibhausgasen das Klima merklich erwärmt, von 90 auf 95% angehoben, obwohl seit Erscheinen der letzten 3 IPCC-Sachstandsberichte (17 Jahren) keine weitere Erderwärmung mehr beobachtet worden war, trotz weiter steigender Treibhausgas-Emissionen.

Selbst wenn man von einer beträchtlichen Klimaerwärmung durch anthropogene Treibhausgase ausgeht, wie vom IPCC postuliert, gibt es erhebliche Diskrepanzen zwischen der Realität und dem Motto „Less Meat = Less Heat“, unter dem im Europäischen Parlament im Jahre 2009 eine Anhörung stattfand: Diese Diskrepanzen werden in den drei genannten Veröffentlichungen mit unterschiedlicher Ausführlichkeit abgehandelt. Hier sollen nur die wichtigsten kurze Erwähnung finden:

–       Während in der Anleitung zur Erstellung Nationaler Treibhausgasinventare (IPCC 2006, http://www.ipcc-nggip.iges.or.jp/public/2006gl/vol4.html ) im Falle von CO2 korrekterweise nur zusätzliche, vom Menschen verursachte Emissionen berücksichtigt werden, wird bei der Bewertung von Methan- und Lachgasemissionen ein schwerwiegender Fehler begangen: Es werden mit akribischer Genauigkeit Formeln, Richtwerte und Anhaltspunkte abgehandelt, um die Gesamtemissionen dieser Gase aus bewirtschafteten Ökosystemen (managed ecosystems) abzuschätzen. Emissionen aus natürlichen Ökosystemen werden aber per definitionem nicht berücksichtigt, weil sie ja nicht menschengemacht sind. Aber auch natürliche Ökosysteme geben manchmal sogar erhebliche Mengen an Methan und Lachgas ab. Deshalb muss selbstverständlich die jährliche Gesamtemission aus einem bewirtschafteten Ökosystem um den Betrag nach unten korrigiert werden, der von dem zuvor an diesem Standort vorhandenen natürlichen Ökosystem (also ohne menschlichen Einfluss, d.h. vor der Inkulturnahme) jedes Jahr abgegeben wurde, um auf den anthropogenen Anteil der berechneten Gesamtemission zu kommen. Diese Korrektur ist in der IPCC-Anleitung nicht vorgesehen und wurde infolgedessen weder von der FAO noch in irgendeiner der mir bekannten einschlägigen wissenschaftlichen Veröffentlichungen zu diesem Thema vorgenommen. Eine systematische und erhebliche Überschätzung der als anthropogen deklarierten Emissionen von Nicht-CO2-Treibhausgasen aus Agro-Ökosystemen ist die logische Konsequenz, da Baseline-Emissions-Szenarien über Raum und Zeit keine Berücksichtigung finden.

–       Weder bei der von Satelliten gemessenen geographischen Verteilung der Methankonzentration in der Atmosphäre noch bei ihrer historischen Entwicklung ist ein Haustiersignal erkennbar. Zum Beispiel hat zwischen  1990 und 2007 der Weltbestand an Rindern um über 115 Millionen Kopf zugenommen während der Anstieg der Methankonzentration in der Atmosphäre auf null abfiel. Diese empirischen Beobachtungen  vertragen sich schlecht mit der Behauptung der FAO, die Rinderhaltung trage mit 35 bis 40% zu den Methanemissionen anthropogenen Ursprungs bei.

–       Die „Emissionsintensität“ (erforderliche Emission von CO2-Äquivalenten für die Erzeugung von einem Kilo Rindfleisch) berechnet die FAO je nach Kontinent unterschiedlich: Während in Europa die historischen Emissionen aus der Rodung zur Grünlanderzeugung unterschlagen werden, weil sie schon vor langer Zeit erfolgten, werden diese CO2-Emissionen in Südamerika, wo heute immer noch gerodet wird, um Weideland anzulegen, in dem Jahr, in dem sie anfallen, in voller Höhe auf die in Südamerika erzeugte Fleischmenge verrechnet.
Dieses Vorgehen ist methodisch nicht sauber:
Wenn Buschland oder Wald gerodet oder ausgelichtet wird zur Ansaat von Weideland, dann wird die daraus hervorgehende einmalige Emission in Kauf genommen, um auf dem neu angelegten Dauergrünland über einen sehr langen Zeitraum Fleisch zu produzieren. Zur Berechnung der Emissionsintensität darf daher die bei der Rodung einmalig freigesetzte CO2-Menge nicht auf eine beliebig gewählte Fleischmenge (z.B. Jahresproduktion von Südamerika) umgelegt werden. Sie muss vielmehr auf die Gesamtmenge des auf der neu angelegten Weidefläche während ihrer gesamten Nutzungszeit erzeugten Fleischs verteilt werden. Diese Nutzungszeit kann sich leicht über Jahrhunderte erstrecken wie z.B. in Mitteleuropa, wo sich nahezu alles Grünland an ehemaligen Waldstandorten befindet. Je länger aber die Nutzungszeit, desto geringer wird der Emissionsanteil aus der Rodung, der auf ein kg erzeugtes Fleisch entfällt, ja er tendiert sogar gegen Null. Soweit es um die Emissionsintensität geht (nicht um die in einem bestimmten Jahr in einem bestimmten Kontinent freigesetzte gesamte CO2-Menge), wäre es daher richtig, bei Fleischerzeugung auf Dauergrünland die einmalige Emission aus Rodung grundsätzlich zu vernachlässigen. Die FAO behandelt aber verschiedene Kontinente in dieser Frage uneinheitlich und begeht damit einen weiteren methodischen Fehler.

Die wissenschaftliche Substanz der weit verbreiteten Behauptung, man könne durch Fleischverzicht oder Reduzierung des Fleischkonsums das Klima der Erde beeinflussen, ist vernachlässigbar gering. IPCC und FAO sind mehreren methodischen Fehlern erlegen. Dass auch Hilfsorganisationen wie Misereor und Brot für die Welt aus Gründen des Klimaschutzes zum Fleischverzicht aufrufen, zeugt von Ignoranz und Desinformation. Dasselbe gilt für das Europäische Parlament, wenn es sich für eine Audienz unter dem Schlagwort „Less Meat = Less Heat“ nicht zu schade ist. 

Dr. sc. agr. Albrecht Glatzle Paruguay

Hier die Links zu den Veröffentlichungen von Dr. Glatzle (EIKE) zum Thema

1. http://www.pastoralismjournal.com/content/4/1/1  

Questioning key conclusions of FAO publications ‘Livestock’s Long Shadow’ (2006) appearing again in ‘Tackling Climate Change Through Livestock’ (2013)

2. http://tropicalgrasslands.info/index.php/tgft/article/view/144/92 

Planet at Risk from Grazing Animals?

Related Files




Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records

Abstract:

The longest six instrumental temperature records of monthly means reach back maximally to 1757 AD and were recorded in Europe. All six show a V-shape, with temperature drop in the 19th and rise in the 20th century. Proxy temperature time series of Antarctic ice cores

show this same characteristic shape, indicating this pattern as a global phenomenon. We used the mean of the 6 instrumental records for analysis by discrete Fourier transformation (DFT), wavelets, and the detrended fluctuation method (DFA). For comparison, a  stalagmite record was also analyzed by DFT. The harmonic decomposition of the above mentioned mean shows only 6 significant frequencies above periods over 30 yr. The Pearson correlation between the mean, smoothed by a 15 yr running average (boxcar) and the reconstruction using the 6 significant frequencies yields r = 0.961. This good agreement has a 99.9% confidence level

confirmed by Monte Carlo simulations. It shows that the climate dynamics is governed at present by periodic oscillations. We find indications that observed periodicities result from intrinsic dynamics.

Related Files




Stellvertreter(Proxy-) Methodik führt zu Pseudowissenschaft

Doch es gibt auch andere Wissenschaftler, die sowohl Baumringe, Sedimentschichtarten und -dicken oder das Mischungsverhältnis von verschiedenen atmosphärischen Isotopen zur Proxy-Temperaturbestimmung verwendet haben. Sie wollten weder betrügen, noch haben sie das getan. Ihre Veröffentlichungen sind zahlreich und werden tlw. im folgenden Beitrag von Pat Frank aufgelistet und bewertet. Und zwar nach der entscheidenden Frage bewertet:

Wie gut, bzw.wie genau lässt sich ein Temperaturverlauf aus Poxydaten rekonstruieren?

Wie kann man die Rohdaten kalibrieren? Was hängt wovon ab? Wie hoch ist die nicht zu unterschreitende Fehlermarge?

Um es kurz zu machen: Sein Urteil ist bis auf eine Ausnahme sehr negativ. Lesen Sie warum:

Proxy-Wissenschaft und Proxy-Pseudo-Wissenschaft    

Es ist bekannt, dass die weithin veröffentlichte Proxythermometrie seit 1998 [1] unwissenschaftlichist, und dies ganz besonders, seit Steve McIntyre und Ross McKitrick aufdeckten, dass sie auf absichtsvoller reiner statistischer Numerologie beruht. Vor einiger Zeit diskutierte ich hier auf WUWT mit Michael Tobis über die Unwissenschaftlichkeit der Proxy-Paläothermometrie. Es begann mit Michaels Kommentar hier und meiner Antwort dort. Michael berief sich bald auf seine Autoritäten auf Planet3.org. Wir hatten einen netten Gedankenaustausch, der damit endete, dass der Moderator und Mitstreiter Arthur Smith fälschlicherweise Zensur ausübte, weil er glaubte, eine Beleidigung zu erkennen. (Für starke Nerven: hier ist der Kommentar in voller Länge zu finden)

Immerhin, zwei hiesige Experten in Proxythermometrie kamen Michael zu Hilfe: Kaustubh Thimuralai, graduiert im Fach Proxy-Klimatologie an der Universität von Austin, Texas, und Kevin Anchukaitis, Dendroklimatologe an der Columbia Universität. Kaustubh hat seine Verteidigung auf seinem eigenen Blog veröffentlicht.

Ihre Argumentation hatte eines gemeinsam: eine ausschließliche Berufung auf stabile Isotopen-Temperatur-Proxys – sie sagten kein Wort zur Verteidigung der Baumring-Thermometrie, welche die große Menge der Paläo-Temperatur-Rekonstruktionen darstellt.

Die Unwissenschaftlichkeit der veröffentlichten Paläothermometrie wurde durch die Tatsache belegt, dass sie auf deren Kernbereich mit den Baumringen überhaupt nicht verteidigten; anders gesagt: "Verurteilung durch Verschweigen".

Auch fanden sie kein Wort der Verteidigung dafür, dass die Physik durch Statistik ersetzt wird, was nahezu durchgängig in der Paläothermometrie geschieht.

Aber ihre Berufung auf die Thermometrie mit stabilen Isotopen-Proxys gibt Anlass zu einer Überprüfung. Das möchte ich hier nun tun: eine Analyse der Temperatur-Rekonstruktion aus stabilen Isotopen-Proxys durchführen, anschließend einen kurzen Abriss der Dendrothermometrie geben. 

Soweit die einleitenden Worte von Dr. Pat Frank. Unseren Lesern schon bekannt durch seine Fehlerbetrachtungen der Zeitreihe der globalen Mitteltemperatur (hier) und (hier)

Im (sehr ausführlichen) Aufsatz (hier im Original) erläutert Frank nun im 1. Teil sehr ausführlich die Möglichkeiten und Grenzen der Temperaturbestimmung aus Isotopenverhältnissen mittels bekannter Analysemethoden. Nach gründlicher Prüfung aller anderen Methoden, erkennt Frank dieses Verfahren als einziges an, welches -einigermaßen- eine verlässliche Temperaturbestimmung erlaubt. Allerdings hat auch diese Verfahren seine Grenzen, die sich in breiten Fehlermargen äußern. Es sind eben trotzdem keine Präzisionsthermometer sondern Stellvertreter.

Wer will kann das im anhängenden pdf Beitrag nachlesen. Wir bringen in dieser News nur sein Resumée. Darin wendet Frank die zuvor erarbeiteten Erkenntnisse auf veröffentlichte Berichte und Proxymethoden an. 

Teil II: Pseudo-Wissenschaft: Statistische Thermometrie

Nun zu den veröffentlichten typischen Proxy-Paläotemperatur-Rekonstruktionen. Ich habe mich mit einem repräsentativen Satz von acht hochrenommierten Studien beschäftigt und wissenschaftliche Belege gesucht. Mit Belegen meine ich, ob die Studien sich auf die Theoretische Physik berufen.

Kurzfassung: keine davon kann im Sinne der Theoretischen Physik Gültigkeit beanspruchen. Keine davon zeigt eine Temperatur.

Bevor ich weitermache, ist ein Wort zu „Korrelation und Verursachung“ fällig. Michael Tobis hat darüber geschrieben, “Wenn zwei Signale korreliert sind, dann enthält jedes Signal Information über das andere. Mehr zu behaupten ist einfach nur dumm.”

Davon gibt es eine Menge in der Proxythermometrie. Eine Klarstellung ist Pflicht. John Aldrich beschrieb in einem schönen Papier [16] die Schlacht zwischen Karl Pearson und G. Udny Yule wegen: „Korrelation deutet auf Verursachung hin“. Pearson glaubte das, Yule nicht.

Auf Seite 373 macht Aldrich eine sehr bedeutende Unterscheidung: “Statistische Folgerungen sind Folgerungen aus Stichproben auf die Gesamtbevölkerung. Wissenschaftliche Folgerungen zielen auf Erkenntnisse über die Bevölkerung im Sinne einer theoretischen Struktur.”

Im Klartext: Statistik beschäftigt sich mit Beziehungen zwischen Zahlen. Wissenschaft beschäftigt sich mit Schlussfolgerungen aus falsifizierbaren Theorien.

Wir werden sehen, dass die unten erwähnten Proxy-Studien unzulässigerweise beide Kategorien vermischen. Sie konvertieren richtige Statistik in falsche Wissenschaft.

Um diesen Punkt noch zuzuspitzen, verweise ich auf einige schöne Beispiele von falschen Korrelationen. Und hier sind die Gewinner des Wettbewerbs von 1998 an der Purdue University wegen falscher Korrelationen: Dabei waren [so abwegige] Korrelationen wie die zwischen dem Absatz von Speiseeis und Ertrunkenen, zwischen Ministergehältern und dem Wodkapreis. Pace Michael Tobis sagte dazu, dass jede der Korrelationen “Signale” korrelierte, die offensichtlich Informationen über den dazu in Beziehung gesetzten Sachverhalt enthielten. Mit meiner Ironie hoffe ich, das Thema abschließend behandelt zu haben.

Diaz und Osuna [17] weisen auf den Unterschied “zwischen Alchemie und Wissenschaft hin … , der darin besteht, dass (1) streng getestete Modelle spezifiziert sind, die (2) hinreichend die verfügbaren Daten beschreiben, (3) überlieferte Erkenntnisse berücksichtigen und (4) von wohlbegründeten Theorien abgeleitet sind.“ (Hervorhebung durch den Autor)

Eine verursachende Bedeutung in einer Korrelation kann nur im deduktiven Kontext einer falsifizierbaren Theorie erkannt werden, die die Korrelation erwartet. Statistik (induktives Schlussfolgern) kann niemals alleine eine Verursachung offen legen.

Für die Klimawandel-Paläo-Proxythermometrie wird gezeigt werden, dass die Diaz und Osuna Elemente 1, 3, 4 für wahre Wissenschaft fehlen. Das macht sie zur Alchemie, auch als Pseudo-Wissenschaft bekannt.

Also zunächst zur Klimawandel Paläo-Proxythermometrie:

1. Thomas J. Crowley und Thomas S. Lowery (2000) “How Warm Was the Medieval Warm Period?.” [18]

Fünfzehn Zeitreihen werden benutzt: drei dO-18 (Keigwins Sargasso-See Proxy, GISP 2, und die Dunde Eiskappen-Zeitreihe), acht Baumring-Zeitreihen, die Zeitreihe der Temperatur von Mittelengland (CET), eine Temperatur-Zeitreihe von Island (IT) und zwei Proxies mit Pflanzenwachstum (China Phänologie und Michigan Pollen).

Alle fünfzehn Reihen sind zwischen 0 und 1 skaliert und dann gemittelt. Es besteht eine völlige Vernachlässigung der Bedeutung der fünf physikalisch gültigen Reihen. (3 x dO18, IT und CET). Alle sind auf die gleiche physikalisch bedeutungslose Begrenzung einer Einheit skaliert.

Man bedenke, was das heißt: Crowley und Lowry haben fünf physikalisch bedeutungsvolle Reihen ausgewählt und dann die Physik nicht betrachtet. Nur dadurch konnten die Reihen für die Verwendung in der Klimawandel- Proxythermometrie geeignet gemacht werden.

Es gibt keine physikalische Theorie, um Baumringmessungen in Temperaturen umzusetzen. Angesicht der Nicht-Existenz einer derartigen Theorie bleiben jegliche exakten Beziehungen völlig im Dunkeln.

Wie aber haben Crowley und Lowery ihre auf Einheiten skalierten Proxy-Mittelwerte in Temperaturen konvertiert? Nun denn: “Die beiden Gesamtheiten wurden so skaliert, damit sie mit den Temperaturmessdaten der Nordhalbkugel von Jones et al. übereinstimmten …“. So einfach ist das.

Kurz gesagt, die fünfzehn Reihen wurden numerisch auf eine gemeinsame Skala adjustiert, gemittelt und größenmäßig an die gemessenen Temperaturen angepasst. Schließlich geben Crowley und Lowry noch eine Auflösung von (+/-)0.05 C für ihre Temperaturen an. Messunsicherheiten bei den physikalisch wahren Zeitreihen wurden im Schlussergebnis ignoriert. So sieht Wissenschaftlichkeit in der Klimawandel-Proxythermometrie aus.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalische Erklärung: Keine.

Physikalische Gültigkeit: Keine.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

2. Timothy J. Osborn und Keith R. Briffa (2006) The Spatial Extent of 20th-Century Warmth in the Context of the Past 1200 Years.” [19]

Vierzehn Proxies – elf davon Baumringe, einer dO-18-Eisbohrkern (West-Grönland) – geteilt durch ihre jeweilige Standardabweichung, um eine einheitliche Größenordnung zu erzeugen. Dann werden sie auf die Instrumentenmessdaten skaliert. Die physikalische Bedeutung des dO-18 – Eisbohrkerns ist nicht betrachtet und dessen experimentelle Unsicherheit wird nicht beachtet.

Interessanterweise zeigte der zusammengesetzte Proxy zwischen 1975 und 2000 gegenüber den Instrumentenmessdaten eine Abnahme. Osborn und Briffa verheimlichten den Niedergang nicht, das muss ihnen hoch angerechnet werden. Sie schrieben aber, dass diese Nicht-Bestätigung eine, “Folge des zu erwartenden Rauschens in den Proxy-Aufzeichnungen wäre.”

Ich habe das “Rauschen” abgeschätzt, indem ich die Verfälschung in Bezug auf die Temperaturaufzeichnung verglich, sie beträgt etwa 0.5 C. Es ist auf der grafischen Darstellung von Osborn und Briffa nicht als Unsicherheit dargestellt. Tatsächlich haben beide künstlich die Mittelwerte der Proxy-Reihen von 1856-1995 mit den Oberflächen-Temperatur-Messdaten vermischt, um den Proxy wie eine Temperatur aussehen zu lassen. Die 0,5 C „Rausch“-Abweichung ist unterdrückt und sieht sehr viel kleiner aus, als sie tatsächlich ist. Wären die tatsächlichen 0.5 C “Rausch-” Fehlerbalken auf die Temperaturkurve ihrer abschließenden Grafik skaliert worden, wäre der ganze Versuch auf theatralische Weise geplatzt, abgesehen davon, dass das nichts mit Wissenschaft zu tun hat.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalische Unsicherheit in T: keine.

Physikalischer Wert: keiner.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

3. Michael E. Mann, Zhihua Zhang, Malcolm K. Hughes, Raymond S. Bradley, Sonya K. Miller, Scott Rutherford, und Fenbiao Ni (2008) “Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia.” [20]

Eine große Anzahl von Proxies vielfacher unterschiedlicher Längen und Herkunft. Darin: Eisbohrkerne, Speleothem, dO-18 von Korallen. Die Daten sind aber von den Baumringzeitreihen beherrscht.  Mann & Co. korrelieren die Reihen statistisch mit lokaler Temperatur während einer “Kalibrationsperiode”, passen sie auf eine gleiche Standardabweichung an, skalieren sie auf die Messdaten und veröffentlichen das Zusammengemischte mit einer Auflösung von 0.1 C (Figur 3). Auch ihre Methode betrachtet nicht die physikalische Bedeutung der dO-18-Proxys verwirft sie.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja!

Physikalische Unsicherheit bei der Temperatur dargestellt: keine.

Physikalischer Wert: keiner.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

4. Rosanne D’Arrigo, Rob Wilson, Gordon Jacoby (2006) “On the long-term context for late twentieth century warming.” [21]

Drei Baumring-Zeitreihen von 66 Standorten, die Varianz adjustiert, auf die Instrumenten-Messdaten skaliert und mit einer Auflösung von 0.2 C veröffentlicht (Figur 5 C).

Abstützung auf ein physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalisch gültige Temperatur-Unsicherheiten: keine

Physikalische Erklärung der Unterteilungen in 0.2 C: keine.

Physikalische Erklärung der Baumringtemperaturen: keine zu sehen.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

5. Anders Moberg, Dmitry M. Sonechkin, Karin Holmgren, Nina M. Datsenko und Wibjörn Karlén (2005) “Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data.” [22]

Achtzehn Proxies: Zwei d-O18-Meeresoberflächen-Temperaturen (Sargasso und Karibik-Foraminifera-d-O18, ein Stalagmiten-d-O18 (Soylegrotta, Norway), sieben Baumring-Zeitreihen. Dazu weitere Zusammenmischungen.

Die Proxy sind mit einer aufregend neuen Wellen-Transformations-Methode behandelt (noch verbesserungsbedürftig), kombiniert, Varianz-adjustiert, stark auf die Messdaten während der Kalibrierungsperiode skaliert, mit einer Auflösung von 0.2 C veröffentlicht (Figur 2 D). Die Autoren folgten der Standardpraxis des Entfernens und Verwerfens der physikalischen Bedeutung der dO-18-Proxies.

Abstützung auf eine physikalische Theorie?: Nein

Rein statistische Ableitung?: Ja

Physikalische Unsicherheiten aus den dO18 Proxies in die Schlusszusammenstellung übernommen? Nein.

Physikalische Erklärung der Unterteilungen in 0.2 C: Keine.

Bedeutung des Schlussergebnisses für die Temperatur: keine.

6. B.H. Luckman, K.R. Briffa, P.D. Jones und F.H. Schweingruber (1997) “Tree-ring based reconstruction of summer temperatures at the Columbia Icefield, Alberta, Canada, AD 1073-1983.” [23]

Dreiundsechzig regionale Baumring-Zeitreihen, dazu 38 Reihen von fossilem Holz; Einsatz der standardmäßigen statistischen (nicht physikalischen) Kalibrations-Verifikationsfunktion für die Konversion von Baumringen in Temperatur, Überlagerung der Zusammenstellung mit den 1961-1990er Mittelwerten der Messdatenreihe, Veröffentlichung des Ergebnisses mit 0.5 C Auflösung (Figur 8). Im Text werden Anomalien angesprochen bis zu einer (+/-)0.01 C Auflösung (z. B. Tables 3 & 4), die mittleren Anomalien mit (+/-)0.001 C. Diese letztere behauptete Genauigkeit ist 10x höher als die typische Einstufung eines zwei-Punkte kalibrierten Platin-Widerstands-Thermometers unter dem Schutz angestrebter moderner kontrollierter Laborbedingungen.

Physikalische Theorie bei der Erklärung herangezogen?: Nein

Rein statistische Ableitung?: Ja

Physikalische Erklärung der Proxies: Keine.

Bedeutung der Schluss-Zusammenstellung für die Temperatur: Keine.

7. Michael E. Mann, Scott Rutherford, Eugene Wahl, and Caspar Ammann (2005) “Testing the Fidelity of Methods Used in Proxy-Based Reconstructions of Past Climate.” [24]

Diese Studie ist teilweise ein methodischer Überblick über die Wege zur Erzeugung einer Proxy-Paläo-Temperatur, wie sie von den das Fachgebiet beherrschenden Forschern empfohlen werden:

Methode 1: “Die composite-plus-scale (CPS) Methode. Sie besteht aus “einem Dutzend Proxy-Reihen, wobei von jeder angenommen wird, dass sie eine lineare Kombination von lokalen Temperaturänderungen und zusätzlichem Rauschen darstellt, die zusammengefasst (typischerweise mit dekadischer Auflösung;…) und skaliert werden gegen hemisphärische gemittelte Temperatur-Messdaten-Reihen während eines darüber gelegten „Kalibrierungs-“ Intervalls, um eine hemisphärische Rekonstruktion zu bilden. (Hervorhebung von mir)

Methode 2, Climate Field Reconstruction (CFR): “Unsere Umsetzung des CFR Ansatzes benutzt die „regularized expectation maximization (RegEM)“-Methode (Regulierte Erwartungsmaximierung) von Schneider (2001), die für CFR in vielen jüngeren Studien angewandt wird. Die Methode gleicht den auf der „principal component analysis (PCA)“ beruhenden Ansätzen, sie setzt aber eine iterative Schätzung der Daten-Co-Varianzen ein, um die verfügbare Information besser ausnutzen zu können. Wie schon bei Rutherford et al. (2005) haben wir getestet: (i) die direkte Anwendung der RegEM, (ii) einen Ansatz der “hybrid frequency-domain calibration”, der unterschiedliche Kalibrierungen von Komponenten mit Perioden von hoher Zeitfrequenz (Periode kürzer als 20 Jahre) und solchen mit niedriger Zeitfrequenz (Periode länger als 20 Jahre) der jährlichen Mittelwerte, die anschließend zusammengesetzt werden, um eine einzige Rekonstruktion zu bilden, (iii) eine “schrittweise” Version der RegEM, wobei die Rekonstruktion selbst stärker benutzt wird, um die älteren Segmente nacheinander zu kalibrieren.” (Hervorhebung von mir)

Zur Wiederholung des Offensichtlichen:

CPS: wird als repräsentativ für die Temperatur angenommen; statistische Skalierung auf die Messdatenreihe; Methodische Korrelation = Verursachung. Physikalischer Wert: keiner. Wissenschaftlicher Gehalt: keiner.

CFR: Principal component analysis (PCA): eine numerische Methode unter Vernachlässigung intrinsischer physikalischer Deutungen. Die Hauptkomponenten sind numerisch, nicht physikalisch, orthogonal. Numerische „Principal Components“ sind typischerweise Zusammenstellungen multipler aufgelöster (d.h., partieller) physikalischer Signale von unbekannter Größenordnung. Sie haben keine besondere physikalische Bedeutung. Eine quantitative physikalische Bedeutung kann den Principal Components nicht dadurch beigemessen werden, dass auf subjektive Urteile einer ‘Temperatur-Abhängigkeit’ verwiesen wird.

Was bedeutet die Skalierung der Principal Components in die Temperatur-Zeitreihen? Korrelation = Verursachung!

‘Korrelation = Verursachung’ ist möglicherweise der häufigste naive Fehler in der Wissenschaft. Mann et al. zeigen offen, ohne dabei rot zu werden, dass dieser Fehler der Stützpfeiler des gesamten Bereichs der Baumring-Proxy-Thermometrie ist.

Wissenschaftlicher Gehalt der Mann-Rutherford-Wahl-Ammann Proxy-Methode: null.

Zum Schluss noch etwas Beachtliches:

8. Rob Wilson, Alexander Tudhope, Philip Brohan, Keith Briffa, Timothy Osborn, und Simon Tet (2006), “Two-hundred-fifty years of reconstructed and modeled tropical temperatures.”[25]

Wilson et al. rekonstruierten 250 Jahre Meeresoberflächen-Temperaturen, indem sie nur Reihen von Korallen benutzten, auch dO-18, Strontium/Kalzium-, Uran/Kalzium-,  und Barium/Kalzium-Verhältnisse . Die letzteren drei habe ich nicht eingehend überprüft, aber die Betrachtung ihrer Punktstreuungen allein deutet schon darauf hin, dass keines davon genauere Temperaturen hergibt als dO-18. Dennoch, alle Temperatur-Proxies bei Wilson et al. haben echte physikalische Bedeutung. Was wäre das für eine großartige Gelegenheit gewesen, die Methode zu überprüfen, die Auswirkungen des Salzgehalts und biologischer Ungleichgewichte zu diskutieren, und wie das zu berücksichtigen ist. Zusätzlich könnten andere zentrale Elemente stabiler Meeres-Isotopen-Temperaturen erforscht werden.

Was aber machten diese Forscher? Sie fingen mit etwa 60 Proxy-Reihen an, warfen dann alle hinaus, die nicht mit den lokalen Gitternetz-Temperaturen korrelierten. Sechzehn Proxies verblieben, 15 davon waren dO-18. Warum korrelierten die anderen Proxies nicht mit der Temperatur? Rob Wilson & Co. schwiegen sich aus. Nachdem sie zwei weitere Proxies verworfen hatten, um das Problem des Ausfilterns hoher Frequenzen zu vermeiden, blieben ihnen noch 14 Korallen- Meeresoberflächen-Temperatur-Proxies.

Danach setzten sie standardmäßige statistische Berechnungen an: teile durch die Standardabweichung, mittele die Proxies alle zusammen (Einsatz der “nesting procedure” zum Angleichen unterschiedlicher Proxy-Längen), und skaliere dann auf die Messdatenreihe hoch.

Das Lobenswerte bei der Erwähnung dieser Forscher beruht auf der Tatsache, dass sie nur und allein physikalisch echte Proxies benutzten, leider dann aber die physikalische Bedeutung von allen verwarfen.

Damit sind sie besser als die anderen sieben Beispiel-Vertreter, die Proxies ohne jegliche physikalische Bedeutung einbezogen.

Trotzdem:

Physikalische Theorie bei der Erklärung herangezogen?: Nein

Rein statistische Ableitung?: Ja

Einsatz einer physikalisch gültigen Methode: Nein.

Physikalische Bedeutung der Proxies: existierte, wurde berücksichtigt, dann aber verworfen.

Bedeutung der Schluss-Zusammenstellung für die Temperatur: Keine.

Schlussurteil: Die weithin praktizierte Klimawandel-Paläo-Proxythermometrie besteht aus Zusammenstellungen, die allein auf rein statistischen Ableitungen beruhen und auf numerischen Skalierungen. Sie haben nicht nur keinen wissenschaftlichen Wert, schon die Methodik spricht deutlich gegen den wissenschaftlichen Gehalt.

Statistische Methoden: 100%.

 

 

Physikalische Methoden: nahezu keine (ausgenommen stabile Isotopen, aber deren physikalische Bedeutung wird permanent bei den zusammengesetzten Paläoproxies nicht zur Kenntnis genommen).

Bedeutung der numerisch skalierten Zusammenstellungen für die Temperatur: null.

Die sieben Studien sind typische Vertreter und sie sind repräsentativ für das gesamte Feld der Klimawandel-Paläo-Proxythermometrie. Was da wissenschaftlich praktiziert wird, ist wissenschaftlicher Betrug. Es ist Pseudo-Wissenschaft durch und durch.

Studien über stabile Isotopen sind aber echte Wissenschaft. Dieses Feld köchelt so dahin und die darin tätigen Wissenschaftler konzentrieren sich richtig auf das Detail. Ich nehme sie ausdrücklich von meiner generellen Verurteilung der Klimawandel-Paläo-Proxythermometrie aus.

In den nachfolgend genannten Arbeiten habe ich bereits die Glaubwürdigkeit der drei Richtungen der Klimawandel-Wissenschaft überprüft: Klima-Modelle (GCMs) hier (Berechnungen hier), den Datenbestand der Oberflächen-Lufttemperaturdaten hier (alles als pdf-downloads), und mit diesem Beitrag nun die Proxy-Paläo-Temperatur-Rekonstruktionen.

In allen Forschungsrichtungen werden die systematischen Fehler außer acht gelassen. Diese Vernachlässigung der systematischen Fehler zeigt, dass keine der Methoden – wirklich keine einzige – in der Lage ist, die Temperaturveränderungen der letzten 150 Jahre zu behandeln oder gar zu erklären.

Immerhin, die pandemische Ausbreitung dieser Vernachlässigung ist der zentrale Mechanismus für das Überleben des Klimawandel-Alarmismus. Das geht nun schon seit mindestens 15 Jahren so, bei den Klimamodellen seit 24 Jahren. Unterstellt man Integrität, dann muss man aber erkennen, dass die Wissenschaftler, ihre Fachgutachter und ihre Redakteure alle zusammen inkompetent sind.

Schlussfolgerung: Bei Behauptungen über Etwas-Noch-Nie-Dagewesenes bei den jüngeren globalen Lufttemperaturen weiß niemand, wovon überhaupt gesprochen wird.

Ich bin sicher, dass es Menschen gibt, die meine Schlussfolgerung angreifen werden. Sie werden gebeten, hier her zu kommen und ihre Einwände vorzutragen.

 Pat Frank PhD

Die Übersetzung besorgte in dankenswerter Weise Helmut Jäger EIKE

Über den Autor Pat Frank

Patrick Frank ist promovierter Chemiker und hat über 50 fachbegutachtete Artikel veröffentlicht. Er hat in folgenden Magazinen geschrieben: in „Skeptic“ über den Mythos vom „Edlen Wilden“ geschrieben, in „Theology and Science“ über den Mythos vom „Schöpferuniversum“ sowie in Energy & Environment über Fehler in Globaltemperaturbestimmungen sowie in „Free Inquiry“ zusammen mit Thomas H. Ray über den Mythos „Wissenschaft ist Philosophie“.

Referenzen:

1. Mann, M.E., R.S. Bradley, and M.S. Hughes, Global-scale temperature patterns and climate forcing over the past six centuries. Nature, 1998. 392(p. 779-787.

2. Dansgaard, W., Stable isotopes in precipitation. Tellus, 1964. 16(4): p. 436-468.

3. McCrea, J.M., On the Isotopic Chemistry of Carbonates and a Paleotemperature Scale. J. Chem. Phys., 1950. 18(6): p. 849-857.

4. Urey, H.C., The thermodynamic properties of isotopic substances. J. Chem. Soc., 1947: p. 562-581.

5. Brand, W.A., High precision Isotope Ratio Monitoring Techniques in Mass Spectrometry. J. Mass. Spectrosc., 1996. 31(3): p. 225-235.

6. Kim, S.-T., et al., Oxygen isotope fractionation between synthetic aragonite and water: Influence of temperature and Mg2+ concentration. Geochimica et Cosmochimica Acta, 2007. 71(19): p. 4704-4715.

7. O’Neil, J.R., R.N. Clayton, and T.K. Mayeda, Oxygen Isotope Fractionation in Divalent Metal Carbonates. J. Chem. Phys., 1969. 51(12): p. 5547-5558.

8. Epstein, S., et al., Revised Carbonate-Water Isotopic Temperature Scale. Geol. Soc. Amer. Bull., 1953. 64(11): p. 1315-1326.

9. Bemis, B.E., et al., Reevaluation of the oxygen isotopic composition of planktonic foraminifera: Experimental results and revised paleotemperature equations. Paleoceanography, 1998. 13(2): p. 150Ð160.

10. Li, X. and W. Liu, Oxygen isotope fractionation in the ostracod Eucypris mareotica: results from a culture experiment and implications for paleoclimate reconstruction. Journal of Paleolimnology, 2010. 43(1): p. 111-120.

11. Friedman, G.M., Temperature and salinity effects on 18O fractionation for rapidly precipitated carbonates: Laboratory experiments with alkaline lake water ÑPerspective. Episodes, 1998. 21(p. 97Ð98

12. Keigwin, L.D., The Little Ice Age and Medieval Warm Period in the Sargasso Sea. Science, 1996. 274(5292): p. 1503-1508; data site: ftp://ftp.ncdc.noaa.gov/pub/data/paleo/paleocean/by_contributor/keigwin1996/.

13. Shackleton, N.J., Attainment of isotopic equilibrium between ocean water and the benthonic foraminifera genus Uvigerina: Isotopic changes in the ocean during the last glacial. Colloq. Int. C.N.R.S., 1974. 219(p. 203-209.

14. Shackleton, N.J., The high-precision isotopic analysis of oxygen and carbon in carbon dioxide. J. Sci. Instrum., 1965. 42(9): p. 689-692.

15. Barrera, E., M.J.S. Tevesz, and J.G. Carter, Variations in Oxygen and Carbon Isotopic Compositions and Microstructure of the Shell of Adamussium colbecki (Bivalvia). PALAIOS, 1990. 5(2): p. 149-159.

16. Aldrich, J., Correlations Genuine and Spurious in Pearson and Yule. Statistical Science, 1995. 10(4): p. 364-376.

17. D’az, E. and R. Osuna, Understanding spurious correlation: a rejoinder to Kliman. Journal of Post Keynesian Economics, 2008. 31(2): p. 357-362.

18. Crowley, T.J. and T.S. Lowery, How Warm Was the Medieval Warm Period? AMBIO, 2000. 29(1): p. 51-54.

19. Osborn, T.J. and K.R. Briffa, The Spatial Extent of 20th-Century Warmth in the Context of the Past 1200 Years. Science, 2006. 311(5762): p. 841-844.

20. Mann, M.E., et al., Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia. Proc. Natl. Acad. Sci., 2008. 105(36): p. 13252-13257.

21. D’Arrigo, R., R. Wilson, and G. Jacoby, On the long-term context for late twentieth century warming. J. Geophys. Res., 2006. 111(D3): p. D03103.

22. Moberg, A., et al., Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data. Nature, 2005. 433(7026): p. 613-617.

23. Luckman, B.H., et al., Tree-ring based reconstruction of summer temperatures at the Columbia Icefield, Alberta, Canada, AD 1073-1983. The Holocene, 1997. 7(4): p. 375-389.

24. Mann, M.E., et al., Testing the Fidelity of Methods Used in Proxy-Based Reconstructions of Past Climate. J. Climate, 2005. 18(20): p. 4097-4107.

25. Wilson, R., et al., Two-hundred-fifty years of reconstructed and modeled tropical temperatures. J. Geophys. Res., 2006. 111(C10): p. C10007.

Related Files




Wie kann man eine mittlere Globaltemperatur ermitteln? Was die Statistik verlangt und erlaubt

Wenn der zeitliche Verlauf  globaler Temperaturen graphisch dargestellt wird, so z. B. von dem NASA Goddard Institut for Space Studies (GISS), werden meist  Temperaturanomalien gezeigt. (Abb. 1 nebenstehend) Dabei handelt es sich z. B. um Jahresmittelwerte, die ihrerseits auf einen  Mittelwert über ein definiertes Zeitintervall bezogen werden, z. B. 1961 – 1990. Man muss sich darüber im Klaren sein, dass es sich bei Mittelwerten um  Schätzungen handelt, die letztendlich auf einer für repräsentativ gehaltenen Auswahl von Einzelmessungen beruhen. 

Die zulässigen Methoden der Mittelwertbildung unter Berücksichtigung der Schätzfehler  von den Messdaten bis zur globalen Jahresmitteltemperatur soll im Folgenden dargestellt werden. Darauf aufbauend werden für ausgewählte Temperaturreihen die Mittelwerte auf signifikante Unterschiede analysiert.

Abb. 2 

Es existieren weltweit ca. 39.000 meteorologische Stationen, die neben der Registrierung anderen Wetterdaten die bodennahen (2m) Lufttemperatur messen. Wie Abb. 2 zu entnehmen, sind diese Stationen sind nicht homogen über die Landfläche der Erde verteilt (die Markierungen in den Meeren beziehen sich auf  Inseln).

Zwischen 1000 und 3000  von ihnen werden mit z. T. unterschiedlicher Gewichtung zur Berechnung der Globaltemperatur-Reihen  der verschiedenen Institutionen herangezogen. Die bodennahen Lufttemperaturen werden auch von einem Satelliten (TIROS-N ) erfasst und können u. a. als globale Verteilungen dargestellt werden.

So wurden von der NOAA (National Oceanic and Atmospheric Administration, USA) z. B.  für den 2. März 2012 die folgenden ”Momentaufnahmen” (Abb. 3)veröffentlicht:

Abb.  3

Die riesige geographische Variabilität der bodennahen  Landtemperaturen durch einen einzigen Mittelwert  charakterisieren zu wollen, erscheint sehr ehrgeizig. Die ständigen täglichen, wie auch jahreszeitlichen Temperaturänderungen erschweren dieses Vorhaben zusätzlich.

Betrachtet man zunächst einmal nur eine einzige Station. Die allgemein vorgeschriebenen Bedingungen zur Messung der bodennahen Temperatur verlangen, dass ein geeichtes Thermometer in einem als ”englische Hütte” bezeichneten Kasten zwei Meter über dem Erdboden untergebracht ist (Abb. 4).

Abb.  4

Der weiße Anstrich und die Belüftungslamellen sollen gewährleisten, dass die Lufttemperatur ungestört (im Gleichgewicht  mit der Umgebung) gemessen werden kann. Tagesmittelwerte werden weltweit nach verschiedenen Methoden gebildet

In Deutschland wird traditionell das arithmetische Mittel aus den 7 Uhr, 14 Uhr und 21 Uhr Temperaturen berechnet, wobei der 21 Uhr Wert doppelt gewichtet  wird.

Nach Umstellung auf elektronische Datenerfassung sind auch andere Mittelwertbildungen gebräuchlich.

Der Tagesmittelwert ist in jedem Fall eine  Schätzung, die als verbindlich betrachtet wird, ohne mögliche Fehlerquellen der Station (Ablesefehler, Aufbau und Anstrich der ”englischen Hütte”, Beeinflussung der Umgebung durch lokale Wärmequellen) zu berücksichtigen.
  

Abb. 5 zeigt die Tagesmittelwerte der Station Braunschweig Völkenrode des Deutschen Wetterdienstes (DWD) für Februar 2011 dargestellt. Wenn daraus ein Monatsmittelwert gebildet werden soll, muss man aus statistischer Sicht erst einmal untersuchen, welche Art der Mittelwertbildung für diese Grundgesamtheit, wie eine solche Ansammlung von Werten genannt wird, zulässig ist. Das arithmetische Mittel, also die durch ihre Anzahl dividierte Summe aller Werte, ist nur dann sinnvoll (zulässig), wenn sie einer definierten Verteilung unterliegen. Dazu werden die Tagesmitteltemperaturen in Größenklassen unterteilt und als Histogramm dargestellt:

Abb.  6

Wenn die Flächen der Klassen annähernd die Fläche unter der Kurve, die einer Normalverteilung nach Gauss entspricht, ausfüllen, kann die Grundgesamtheit als normalverteilt betrachtet werden (Abb.6). Dies zu entscheiden gibt es statistische Testverfahren, die in der Wissenschaft routinemäßig am Beginn einer statistischen Auswertung stehen. Für die gezeigten Tagesmittelwerte ist die Bildung  eines arithmetischen Mittels demnach zulässig. Hätte der Test das Vorliegen einer normalverteilten Grundgesamtheit abgelehnt, wäre der Median zur Beschreibung der Monatsmitteltemperatur sinnvoll (erlaubt) und ein besserer Repräsentant für den Monatsmittelwert. Aus der aufsteigend angeordneten Einzelwerten wird der Wert bei der halben Anzahl ausgewählt und als Median bezeichnet.

Genau dieser Fall tritt für die Oktober-Temperaturen 2011 ein.

In Abb. 7 sind die Verteilungen der Einzelwerte als schwarze Punkte als sogenannte  Jitterplots dargestellt. -Die Februarwerte streuen symmetrisch um das blau eingezeichnete arithmetische Mittel herum, während die Oktoberwerte unsymmetrisch mit einer Tendenz zu höheren Temperaturen um das das arithmetische Mittel verteilt sind.

Abb.  7

Von diesem weicht der Median deutlich ab, da er sich an der Lage der meisten Einzelwerte orientiert.  Die Kästchen über und unter dem Median repräsentieren die Lage von jeweils 25% der Einzelwerte (25% Quantile) und sind für den Oktober 2011 sehr unterschiedlich, während sie für den Februar fast gleich groß ausfallen. Auch sind die Werte für Median und arithmetisches Mittel fast identisch. Dies ergibt sich bei normalverteilten Grundgesamtheiten, bei denen zusätzlich  Kenngrößen für die Streuung berechnet werden können.

Die rot eingezeichneten Vertrauensbereiche (Konfidenzintervalle) weisen aus, dass der zutreffende Mittelwert  unter Berücksichtigung  der Verteilung der Einzelwerte  mit einer Wahrscheinlichkeit von 95% (95% Konfidenzniveau) in diesem Bereich liegt.

Abb.  8

Da jede Mittelwertbildung eine Schätzung darstellt, ist ihr eine von der Anzahl der Einzelwerte und deren Verteilung (eben der Grundgesamtheit) abhängiges Streuungsmaß sozusagen aufgeprägt.                                                        

Dies erlaubt die Anwendung von Signifikanztests, mittels derer  zum Beispiel für ein vorgegebenes Konfidenzniveau entschieden werden kann, ob sich Mittelwerte signifikant voneinander unterscheiden. Für normalverteilte Grundgesamtheiten  werden dabei andere Tests (Varianzanalyse) als für beliebige (nicht parametrische) Verteilungen angewandt, z. B. der Kruskal-Wallis Test.

Für den Vergleich der Februar-Mitteltemperaturen von 2001 bis 2011 der DWD Station Braunschweig (Abb. 8) können die arithmetischen Mittel der Tagesmittelwerte verglichen werden, da für jedes Jahr eine Normalverteilung vorliegt. Die darauf angewandte Varianzanalyse kommt zu dem Ergebnis, dass sich die Mittelwerte insgesamt auf einem Konfidenzniveau von 95% unterscheiden.

Um Jahresmittelwerte zu bilden, kann man die Tagesmittelwerte direkt verrechnen oder nach Bildung von Monats-mitteln,  diese zur Mittelwertbildung verwenden. 

Abb.  9

Da für die DWD Station Braunschweig die Jahresverteilungen der Tagesmittel die Normalitätskriterien nicht erfüllen, müssen die Mediane benutzt werden (Abb. 9).

Zur Entscheidung, ob sich die Jahres-Mediane signifikant voneinander unterscheiden, wird der Kruskal-Wallis Test angewandt, der zu dem Ergebnis gelangt, dass insgesamt kein signifikanter Unterschied zwischen ihnen vorliegt.

In der Praxis weren jedoch die Jahresmittelwerte aus den Monatsmittelwerten gebildet, wobei einfach vorausgesetzt wird, dass die Tageswerte der Monate jeweils normalverteilt sind. Das trifft auch meistens zu, da Mittelwerte,  auch wenn sie aus nicht normalverteilten Grundgesamtheiten gebildet  werden, tendenziell dazu neigen, eine Normalverteilung  anzunehmen.

Abb.  10

Die Streungsmaße der Monatsmittel werden in den öffentlich zugänglichen Datensätzen nicht weiter berücksichtigt, was jedoch aufgrund der Fehlerfortpflanzungsregeln nach Gauss geboten ist.                                       

Somit stehen nur solch Streuungsparameter,  die sich bei der Bildung von Jahresmittelwerten aus den veröffentlichten Monatswerten ergeben, für Signifikanztests zur Verfügung.

 In die Berechnung von Konfidenzintervallen geht die Anzahl der Einzelwerte als Divisor ein. Daher  fallen sie für Jahresmittelwerte relativ groß aus, da diese jeweils nur aus 12 Werten (Monaten) gebildet werden (Abb. 10).  Die Varianzanalyse sagt aus, dass sich die Jahresmittelwerte nicht signifikant voneinander unterscheiden und gelangt damit zum gleichen Ergebnis wie der vorige Vergleich der Mediane aus Tagesmittelwerten geführt.

Abb.  11

Im nächsten Schritt, werden aus den Monatsmitteln einzelner Stationen Gebietsmittel gebildet. Der Deutsche Wetterdienst berücksichtigt z. Zt.  264 Stationen, die zur Berechnung einer für Deutschland relevanten Mitteltemperatur herangezogen werden. Die Monatswerte sind normalverteilt, so dass die Jahresmittelwerte durch arithmetische Mittel und ihre Konfidenzintervalle repräsentiert werden können. Eine Varianzanalyse weist keine signifikanten Unterschiede zwischen den Jahresmittelwerten seit 1960 aus (Abb. 11).                                                                                 

Dennoch läßt sich ein Trend berechnen, der durch eine Steigung von 0,03 ± 0,006 °C/Jahr  der Regressionsgeraden charakterisiert  wird, für die mit einem Bestimmtheitsmaß  von R2 = 0,33 eine beträchtliche  Unsicherheit besteht.

 

Tab. 1

Nach Angaben des Global Historical Climatology Network (GHCN), bei dem die Temperaturen der weltweit verteilten Stationen gesammelt werden, wurden 2011 zur Ermittlung der globalen mittleren Landtemperatur die Daten von 2644 Stationen berücksichtigt. Anzahl und Verteilung ist der Tabelle 1 zu entnehmen. Wie schon aus der oben gezeigten Karte hervorging, sind die Stationen nicht homogen über die Landfläche verteilt.                                                                                                

Temperatur – Zeit – Reihen werden im Wesentlichen von 3 von Institutionen mit unterschiedlichen Gewichtungen der Werte erstellt und publiziert.

 

Laure M. Montandon et al. haben die unterschiedliche  Berücksichtigung der vom GHCN nach Oberflächentypen differenzierten Landstationen tabelliert (Tab. 2).  Auffällig sind die hohen Anteile der urbanen Stationen. 

In jüngster Zeit haben Überarbeitungen der Zeitreihen dazu geführt, dass sich die Ergebnisse weitestgehend angenähert haben. Dies gilt auch für die beiden Reihen, in denen die Messungen des TIROS-N Satelliten auswertet werden.                  

 

Tab. 2 

Diese Daten basieren auf der Reflexion von ausgesandten Mikrowellensignalen und liefern relative Werte, die mithilfe der  landgestützten Auswertungen kalibriert werden müssen, um sie in Temperaturwerte umrechnen zu können.

 

Abb. 12 stellt die Zeitreihe der globalen monatlichen Mitteltemperaturen dar, wie sie vom NCDC (National Climate Data Center) bereitgestellt wird. Es sei darauf hingewiesen, dass keine Streuungsmaße mitgeteilt werden und daher auch nicht eingezeichnet sind.

Die die Regressionsgerade weist eine  Steigung von 0,022 mit einem Konfidenzintervall von ± 0,01 °C/Jahr auf und hat ein äusserst geringes Bestimmtheitsmaß  von R2 = 0,006 so dass der Trend als sehr unsicher angesehen werden muss.  

In Abb. 13 sind die Temperaturanomalien, bezogen auf die Referenzperiode von 1960 bis 1990, zu sehen. 

Auch hier fehlen Streuungsmaße, die aufgrund der Subtraktion der Mittelwerte der Referenz-Monatsmittemittel von den jeweiligen monatlichen Mittelwerten nach dem Fehlerfortpflanzungsgesetz sehr beträchtlich ausfallen.

Da diese nicht berücksichtigt werden, d. h. weniger Information über die Ausgangsdaten für weitere Berechnungen vorliegt, erhält man mit R2 = 0,5 nur ein scheinbar größeres Bestimmtheitsmass für die Regressionsgerade.

Ihre Steigung unterscheidet sich mit  0,022 ± 0,001 ebenfalls nur durch ein augenscheinlich um den Faktor 10 verringertes Konfidenzintervall von der obigen.

Da die Erdoberfläche nur zu angenähert einem knappen Drittel (29 %) aus Land, zu gut zwei Ditteln (71%) aber aus Ozeanen besteht, erscheint es sinnvoll, deren Temperaturen zur Berechnung einer Global-Mitteltemperatur einzubeziehen. Früher wurde dazu eine Wasserprobe mit einem Schöpfeimer (Pütz oder Bucket) genommen und die Temperatur des Wassers darin gemessen. Deren Schöpftiefe sollte 1 m betragen. Das wurde aber aus praktischen Gründen selten eingehalten. Man kann unterstellen, dass sie je nach Geschwindigkeit des Schiffes und Sorgfalt der beauftragten Person, diese irgendwo zwischen wenigen Zentimetern und max 1 bis 1,5 m lag. Heute wird die Wassertemperatur im Kühlwassereintritt der Schiffe in 3m bis 15 m Tiefe bestimmt. Stationäre Bojen messen die Wassertemperatur in 2m Tiefe (nach Mitteilungen von M. Limburg). 

Die solchermaßen gewonnenen Wassertemperaturen werden als SST (Sea Surface Temperatures) bezeichnet.

In Abb. 14  sind die NCDC Zeitreihen für die SST Monatsmittel-Temperaturen und Anomalien abgebildet:

Abb.  14

Die Steigungen der Regressionsgeraden sind mit 0,009 ± 0,001 und 0,01 ± 0,0002 nahezu identisch. Für die Anomalien ergibt sich ein R2 = 0,7, das aber auf dem Hintergrund fehlender Fehlerfortpflanzung kritisch zu betrachten ist. 

Die Kombination von Land- und Ozeanberflächentemperaturen wird in Abb. 15 gezeigt:

Abb.  15

Die  Steigungen der Regressionsgeraden fallen mit 0,013 ± 0,004 bzw. 0,013 ± 0,0004  auch hier praktisch gleich aus. Das Bestimmtheitsmaß ist mit R2 = 0,7 für die Mittelwert-Anomalien größer als für die Mitteltemperaturen mit  R2 = 0,02.           

Zwar ist es bemerkenswert, dass die Steigung für die Landwerte rund doppelt so hoch wie für SST und Land + SST Werte,  jedoch sollte immer bedacht werden,  dass die Bestimmtheitsmaße recht gering sind,  bzw. für die Anomalien wegen der nicht berücksichtigten Fehlerfortpflanzung nur gesteigert erscheinen.

Werden aus den Monatsmittelwerten Jahresmittel gebildet und die Signifikanzintervalle berechnet und dargestellt, ergibt sich die Abb. 16  für Landtemperaturen der NCDC Reihe.              

Abb.  16

Für die normalverteilten Werte der globalen Monatsmittel ergibt eine Varianzanalyse, dass sich zwischen den arithmetischen Jahresmitteln keine signifikanten Unterschiede nachweisen lassen.

Hierbei wird deutlich, dass bei der üblichen Darstellung von Temperaturreihen als Anomalien ohne Angabe von Streuungsparametern  wichtige Informationen unterdrückt werden und dadurch ungesicherten Spekulationen über Temperaturunterschiede und -trends  Vorschub geleistet wird.

Die Angabe einer globalen Mitteltemperatur bzw. der Veränderung einer globalen Mittelwertanomalie   (z. B. um 2°C gegenüber einem definierten Zeitpunkt) ist daher unter Beachtung statistischer Gesetzmäßigkeiten,  ohne Angabe von Konfindenzintervallen  als sinnlos zu betrachten.

Autor: PD Dr. habil Dr. Eckhard Schulze  < eckhard.schulze@gmx.org >

Quellen:

zu Tab. 1                 http://fzuber.bplaced.net/NOAA-GHCN-Stations-E.pdf

zu Tab. 2                 Laure M. Montandon et al.  Earth Interactions Volume  15 (2011)  Paper No. 6

zu Abb.1                 http://cdiac.ornl.gov/trends/temp/hansen/graphics/gl_land.gif

zu Abb.2                 http://data.giss.nasa.gov/gistemp/station_data/

zu Abb.3                  http://www.osdpd.noaa.gov/ml/mspps/surftprd.html

zu Abb.4                  http://imk-msa.fzk.de/Wettervorhersage/images/Huette.jpg

zu Abb. 5 bis 10      avacon.com/cms/ContentFiles/Internet/Downloads/Netze_SN_unterbrVerbrauchseinr_Tagesmitteltemp_2012.xls

zu Abb.11                http://www.dwd.de/bvbw/generator/DWDWWW/Content/Oeffentlichkeit/KU/KU2/KU21/klimadaten/german/download__gebietsmittel__temp,templateId=raw,property=publicationFile.xls/download_gebietsmittel_temp.xls

zu Abb.12  u. 13      http://junksciencearchive.com/MSU_Temps/NCDCabsLand.csv  bzw. http://junksciencearchive.com/MSU_Temps/NCDCanomLand.csv

zu Abb.14 a u.b       http://junksciencearchive.com/MSU_Temps/NCDCabsOcean.csv  bzw. http://junksciencearchive.com/MSU_Temps/NCDCanomOcean.csv                    

zu Abb.15 a u. b      http://junksciencearchive.com/MSU_Temps/NCDCabs.csv bzw. http://junksciencearchive.com/MSU Temps/NCDCanom.csv

Der gesamte Text kann als pdf im Anhang herunter geladen werden

Related Files




A New Basic 1-Dimension 1-Layer Model Obtains Excellent Agreement With the Observed Earth Temperature

Abstract:
The Earth radiation and energy budget is calculated by a manifold of
rather complex Global Circulation Models. Their outcome mostly
cannot identify radiation in the atmosphere or energy budget
relations. Therefore it is reasonable to look at more basic models
to identify the main aspects of the model results.
account. It is shown that this basic model is in excellent agreement
with the observed integrated global energy budget.
The simplest one of all of those is a 1-dimensional 1-layer model. However, most of
these models – two are discussed here – suffer the drawback that
they do not include essential contributions and relations between
the atmospheric layer and the Earth. The 1-dimensional 1-layer model
presented here integrates sensible and latent heat, the absorption
of solar radiation in the atmosphere and the direct emission of the
long wave radiation to space in addition to the standard
correlations. For the atmospheric layer two different long wave
fluxes are included, top of atmosphere to space and bulk emission to
Earth. The reflections of long wave radiations are taken into account. It is shown that this basic model is in excellent agreement with the observed integrated global energy budget.

Related Files




Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680 sowie des gegenwärtigen kurzperiodischen Klimaverhaltens.

In einem Artikel über den solaren Klimaeinfluss (M.Lockwood und C.Fröhlich..Royal Society’s journal, UK)  ist zu lesen: “There is considerable evidence for solar influence on the Earth’s pre-industrial climate and the Sun may well have been a factor in post-industrial climate change in the first half of the last century. Here we show that over the past 20 years, all the trends in the Sun that could have had an influence on the Earth’s climate have been in the opposite direction to that required to explain the observed rise in global mean temperatures.”

Die Autoren stellen somit den  in  BWK-Beiträgen nachgewiesenen solaren Einfluss auf das langfristige Klimaverhalten nicht in Frage, inklusiv der jüngsten Erwärmung bis vor einigen Jahrzehnten. Wenn man aber das Temperaturverhalten in einem  kurzen, nur 20 Jahre umfassenden Zeitraum untersucht, verlässt man die nachhaltige, langfristige Klimaskala und kommt in den Bereich der Klimafluktuationen, in dem kurzperiodische Klimafaktoren in Relation zu den langfristigen, übergeordneten Prozessen temporär an Bedeutung gewinnen. (BWK-Beiträge SO 11/09 SO 18/10, 01/11). Die kurzfristige Klimaskala lässt grundsätzlich noch keinen Schluss auf die langfristige Klimaskala zu. Wer hier bei der Interpretation keine Skalentrennung vornimmt, vergleicht Äpfel mit Birnen.

Zur Analyse des Klimawandels, also der nachhaltigen Klimaänderung, und seiner Ursachen sind „mindestens 30-jährige Klimaperioden“ (Weltorganisation für Meteorologie) erforderlich.

Wie wenig aussagekräftig dekadische  Temperaturänderungen in Bezug auf die langfristige Klimaentwicklung sind, zeigt Abb.1. Dort sind die globalen Temperaturänderungen von einer Dekade zur Vordekade dargestellt. Danach hätte man seit 1860 mehrfach auf bevorstehende Klimaerwärmungen wie auf Abkühlungen schließen können. Völlig unhaltbar sind Aussagen auf subdekadischer Datenbasis. Die tatsächliche globale Erwärmung nach 1860 ist nur langfristig zu erkennen (Abb.4).

Die nachfolgenden Analysen stellen eine Ergänzung der früheren Untersuchungen zum Klimawandel dar. Im Gegensatz zur bisherigen Definition eines Sonnenfleckenzyklus von Sonnenfleckenmaximum zu Sonnenfleckenmaximum werden jetzt die Sonnenfleckenzyklen von Sonnenfleckenminimum zu Sonnenfleckenminimum definiert. Diese Verschiebung um eine halbe Wellenlänge ist nach der Schwingungslehre ohne Einschränkung möglich. Auch entspricht die neue Betrachtung der internationalen Zählweise der Zyklen. Ferner kann durch den veränderten Ansatz die zyklenbezogene Klimaanalyse zum einen bis zum Jahr 2009 ausgedehnt werden, wodurch auch das ungewöhnliche Temperaturverhalten seit 1998 betrachtet werden kann. Zum anderen ist durch die Untersuchung eine Überprüfung der früheren Ergebnisse gegebe

Die Klimaentwicklung Mittel- und Westeuropas 1680-2009

Die Klimareihe von Mitteleuropa basiert auf den Klimabeobachtungen von Berlin, Basel, Prag und Wien, die Klimareihe von Westeuropa auf der Central England Reihe (CET), wobei aus letzterer die Mitteleuropawerte für die beiden Dekaden 1680-1700 abgeleitet wurden (Reduktion -0,5°C).

Abb.2 zeigt den Klimawandel (anhand von Klimaperioden von 3 Sonnenfleckenzyklen gleitend) seit der Kleinen Eiszeit in Mitteleuropa, Abb.3 in Westeuropa.

Wie Abb.2 und Abb.3 belegen, setzte nach der Kleinen Eiszeit des 17.Jahrhunderts eine Klimaerwärmung im 18.Jahrhundert ein. Danach  kam es zu einer rapiden Abkühlung, die um und nach der  Mitte des 19.Jahrhunderts ihren Tiefpunkt erreichte. Ihr folgte der Temperaturanstieg im 20. Jahrhundert.

Sowohl im kontinental geprägten Mitteleuropa als auch im ozeanischen Westeuropa ist diese sinusartige Klimaschwingung seit 1680 mit einer Periodenlänge von rund 200 Jahren ein Faktum. Damit widerspricht die reale Klimaentwicklung dem sog. Hockey-Schläger-Verhalten, wonach die Klimatemperatur vor 1850 konstant gewesen sei und ein Temperaturanstieg erst mit dem Beginn der Industriealisierung nach 1850 einsetzte. 

Der Einwand, der dargestellte Temperaturverlauf spiegele nur die regionalen Verhältnisse wider, nicht aber die globalen,  ist nicht stichhaltig. So berechnen sich für den Zusammenhang zwischen dekadischen Central England- bzw. Mitteleuropatemperaturen und den globalen Dekadentemperaturen im Zeitraum 1851-2010 Korrelationskoeffizienten von +0,87 bzw. +0,94, d.h. West- und Mitteleuropa machen alle wesentlichen globalen Klimabewegungen mit. Nach den Gesetzen der Logik muss dieses auch für die Zeit vor 1850 gelten. Alles andere  würde bedeuten, dass Europa vom nordhemisphärischen/globalen Klimawandel abgekoppelt wäre.

Die globale Klimareihe ab 1850 erfasst nur die Hälfte der Klimaentwicklung seit 1680. Sie gibt vom Klimawandel der letzten Jahrhunderte allein die jüngste Erwärmung wieder (Abb.4), d.h. sie beginnt in der kalten und lebensfeindlichen Periode des 19. Jahrhunderts, als in Mitteleuropa wegen der ungünstigen Klimabedingungen Menschen verhungert sind und die große Auswanderungswelle in die USA einsetzte. Der globale Temperaturanstieg um +0,7°C zwischen 1860 und 2010  war ein Segen und keineswegs der mit der „2°-Grenze“ propagierte Beginn einer Klimakatastrophe.

Das solare Aktivitätsverhalten seit 1680

In Abb.5 ist die mittlere Sonnenfleckenzahl für Klimaperioden von 3 Sonnenfleckenzyklen gleitend  dargestellt. Damit entspricht der im Mittel 33-jährige Zeitraum von 3 Sonnenfleckenzyklen zum einen  der Definition von Klimaperioden („mindestens 30 Jahre“) der Weltorganisation für Meteorologie. Zum anderen trägt der Ansatz dem kontinuierlichen solaren Energiefluss Rechnung. Erst dadurch lassen sich langfristige Sonnen-/Klimaprozesse von kurzperiodischen Prozessen trennen.

 

Wie bei den früheren Untersuchungen so folgt nach Abb.5 auch bei der veränderten Definition der Sonnenfleckenzyklen (Minimum bis Minimum) das sinusartige Schwingungsverhalten der Sonnenaktivität mit einer rund 200-jährigen Periodenlänge. Der ruhigen Sonne im 17. Jahrhundert (Maunder-Minimum)  folgte eine zunehmend aktive Sonne im 18.Jahhundert. Ihr folgte im 19.Jahrhundert wieder eine Phase mit einer ruhigen Sonne (Dalton-Minimum). Dieser schloss sich die Periode mit stark zunehmender Sonnenaktivität im 20.Jahrhundert a

Vergleicht man den solaren Aktivitätsverlauf mit den Temperaturverläufen von Mitteleuropa (Abb.2) sowie Central England (Abb.3) seit der Kleinen Eiszeit, so ist das langfristige synchrone Verhalten von Sonnenaktivität und Temperatur unverkennbar. Der solare Antrieb hat somit die langfristige Klimaentwicklung, den Klimawandel, in Mittel- und Westeuropa nachweislich gesteuert.

Zum besseren Vergleich mit der globalen Klimaentwicklung ist der Verlauf der solaren Aktivität seit 1857 in Abb.6 dargestellt. Wie man sieht, hat die solare Aktivität seit Beginn der globalen Klimareihe wesentlich zugenommen. Der Vergleich mit Abb.4 zeigt, dass die langfristige Zunahme der Sonnenaktivität und die globale Erwärmung synchron verlaufen sind.

Damit folgt: Der solare Antrieb hat nachweislich sowohl das regionale Klimaverhalten in Mittel- und Westeuropa (sowie in Japan und den USA –BWK-Beitrag SO 01/11) als auch die globale Klimaentwicklung als dominierender Faktor bestimmt. 

 

Anomalien von Sonnenaktivität und Temperatur seit 1680

Korrelationen zwischen zwei Größen liefern ein wichtige Information über den Zusammenhang beider Größen. Bei einem direkten Zusammenhang ist die Korrelation positiv, bei einem inversen Zusammenhang ist sie negativ. Ein Korrelationskoeffizient von Null besagt, dass kein Zusammenhang zwischen den Größen besteht. Je mehr sich der Korrelationskoeffizient dem Maximalwert +1,0 nähert, um so stärker ist der direkte Zusammenhang. Wesentliche Voraussetzung bei Korrelationsbetrachtungen ist die sinnvolle Fragestellung. Eine Korrelation von Geburtenzahl und Zahl der Klapperstörche, ein beliebtes Antibeispiel, ist schon von der Fragestellung her Unfug. Eine Fragestellung über den Zusammenhang von solarer Aktivität und Klimatemperatur ist vernünftigerweise nicht zu bestreiten.

 

Korrelationen haben allerdings den Nachteil, dass sie unanschaulich sind. Die Berechnung des Korrelationskoeffizienten basiert jedoch auf den Anomalien der zu untersuchenden Größen, also ihren Abweichungen vom Mittelwert. Diese aber lassen sich anschaulich darstellen.

In Abb.7 sind die Anomalien der mittleren Sonnenfleckenzahl für die Klimaperioden von 3 Sonnenfleckenzyklen (gleitend) wiedergegeben. Im 17. und 19. Jahrhundert war die Sonnenfleckenzahl/ Sonnenaktivität unternormal (negative Werte). Im 18. und 20.Jahrhundert war die Sonnenfleckenzahl/ Sonnenaktivität dagegen übernormal (positive Werte). Das heißt: Die Beobachtungen belegen den sinusartigen Wechsel von Phasen mit einer ruhigen und einer unruhigen/aktiven Sonne. Die Periodenlänge beträgt rund 200 Jahre.

In Abb.8 sind für den Zeitraum 1680-2009 die über 3 Sonnenfleckenzyklen gleitend gemittelten Abweichungen der Temperaturen von Mitteleuropa dargestellt.

 

Wie die Temperaturanomalien belegen, herrschte in Mitteleuropa im 17. und im 19.Jahrhundert eine ausgeprägte Kälteperiode (negative Werte). Hingegen waren das 18. und das 20. Jahrhundert von übernormalen Temperaturen (positive Werte), von Wärmeperioden, gekennzeichnet. Analog zum solaren Aktivitätsverhalten wird das sinusartige Temperaturverhalten mit einer Periodenlänge von rund 200 Jahren sichtbar.

 

Der Vollständigkeit halber sei auch das Temperaturverhalten von Central England seit 1680 aufgeführt. Die Temperaturanomalien weisen -durch den unmittelbaren Ozean-/Golfstromeinfluss etwas gedämpft- den gleichen langfristigen Schwingungsverlauf auf wie in Mitteleuropa, d.h. sie verlaufen grundsätzlich ebenfalls synchron zu den langfristigen Änderungen der Sonnenaktivität seit 1680.

Damit dürfte der fundamentale Zusammenhang zwischen solaren Antriebsänderungen und der Reaktion des Klimasystems der Erde seit der Kleinen Eiszeit zweifelsfrei nachgewiesen sein. Zeiten mit einer unternormalen Sonnenfleckenzahl/Sonnenaktivität führen zu Kälteperioden, Zeiten mit einer übernormalen Sonnenfleckenzahl/Sonnenaktivität sind die Ursache von Wärmeperioden.

Korrelationen

Durch die Korrelationsberechnungen werden die o.g. Zusammenhänge zwischen Sonnenaktivität und  Klimaverhalten in Maßzahlen gefasst. Gleichzeitig wird die Frage der Irrtumswahrscheinlichkeit der Aussagen, d.h. ihrer Sicherheit,  (Signifikanzniveau) geklärt.

In Abb. 10 sind die linearen Korrelationen über den Zusammenhang von Sonnenfleckenzahl und Temperatur für gleitende Klimaperioden von 3 Sonnenfleckenzyklen dargestellt, und zwar  für Mittel- und Westeuropa für den Zeitraum  1680-1823 (links) sowie ab 1857 für Mitteleuropa, Central England, global, Nord- und Südhalbkugel (rechts).

Mit Korrelationskoeffizienten bis zu +0,95 ist der Zusammenhang zwischen zunehmender Sonnenaktivität im 18.Jahrhundert und der synchronen Klimaerwärmung nach der Kleinen Eiszeit hoch-signifikant nachweisbar. Das gleiche gilt für den Zusammenhang von Dalton-Minimum und der raschen Temperaturabnahme Ende des 18./Anfang des 19.Jahrhunderts. Die Korrelation weist für die Abkühlungsphase den Maximalwert von +1,0 auf.

Für die Ursachenanalyse des Temperaturverhaltens nach 1857 ist es sinnvoll, die Korrelationen zum einen für den Zeitraum 1857-1996 und zum anderen für 1857-2009 zu berechnen. Im Zeitraum 1857-1996 folgen nach Abb.10 für den Zusammenhang von zunehmender Sonnenaktivität und langfristigem Temperaturverhalten als Korrelationskoeffizienten für Mitteleuropa +0,91, Central England +0,82, global +0,91, Nordhalbkugel +0,91 und Südhalbkugel +0,88. Damit bestätigen sich die früheren, für den Zeitraum 1860-1999 berechneten Korrelationen.

Berechnet man die Korrelationen für den Zeitraum 1857-2009, so ergibt sich nach Abb.10 folgendes Bild: Mitteleuropa  +0,83, Central England +0,78, global +0,83, Nordhalbkugel +0,84, Südhalbkugel +0,81. Das heißt: In Bezug auf die langfristige Klimaentwicklung sind die Korrelationen nach wie vor sehr hoch. Durch die Verlängerung des Zeitraums um den 23. Sonnenfleckenzyklus (1997-2009) reduzieren sich jedoch die Korrelationskoeffizienten regional wie global, und zwar  global von +0,91 auf +0,83 und in Mitteleuropa von +0,89 auf +0,83. Auffällig ist, dass im ozeanischen Central England der Rückgang nur 0,04 beträgt.

Das aktuelle Klimaverhalten

Damit erhebt sich die Frage nach der Ursache des Temperaturverhaltens im Zeitraum 1997-2009, welche den Rückgang der linearen Korrelation zwischen Sonnenfleckenzahl und Temperatur seit 1857 zur Folge hat. Bis 1996 konnte der solare Antrieb rund 80% der langfristigen Klimavarianz seit 1857 mit 99,9%-tiger Sicherheit erklären. 20% der Temperaturvariabilität waren auf andere klimarelevante Prozesse zurückzuführen. Offensichtlich hat deren Einfluss im 23. Sonnenfleckenzyklus das Temperaturverhalten maßgeblich bestimmt und die lineare Korrelation zwischen Sonnenaktivität und Temperatur verändert. Um diesen Vorgang zu analysieren, wird nachfolgend der Zusammenhang von mittlerer Temperatur und  Sonnenfleckenzahl je Sonnenfleckenzyklus, also auf der kurzen Zeitskala betrachtet. Wie im Beitrag zur BWK SO 01/11 dargelegt, wirken sich in diesem Fall neben dem permanenten solaren Antrieb verstärkt die kurzperiodischen  Klimaeinflüsse (z.B. Vulkanausbrüche und El Nino/La Nina) auf die Korrelation aus.

 

In Abb.11 sind die Korrelationen über den Zusammenhang von mittlerer Sonnenfleckenzahl und Mitteltemperatur je Sonnenfleckenzyklus ab 1857 für die Zeiträume bis 1964, 1976, 1986, 1996 und 2009 wiedergegeben. Wie sich zeigt, sind die Korrelationskoeffizienten für die Perioden bis 1996 stabil bzw. weisen noch eine steigende Tendenz auf, z.B. global von +0,67 auf +0,75. Der Einbruch der Korrelation von Globaltemperatur und Sonnenaktivität auf Werte um +0,50 erfolgt somit durch kurzfristige Prozesse erst im 23. Sonnenfleckenzyklus, also zwischen 1997 und 2009.

Die Klimagegenwart

Die Frage, welche Prozesse das Temperaturverhalten im 13-jährigen Zeitraum 1997-2009 so maßgeblich beeinflusst haben und wieso der solare Anteil  gesunken ist, wird anhand der globalen Temperaturentwicklung des 20-jährigen Zeitraums 1991-2010 untersucht.  

Abb.12 zeigt die globalen Jahresmitteltemperaturen 1991-2010 (Climate  Research Unit, UK). Deutlich ist an dem gezackten Kurvenverlauf der Einfluss hoch-frequenter Klimaprozesse zu erkennen. Besonders auffällig ist die Temperaturspitze von 1998. Seit diesem Zeitpunkt ist die globale Temperatur nicht weiter gestiegen, d.h. seit 1998 findet keine weitere globale Erwärmung mehr statt.

Wie die Regressionskurve deutlich macht, verharrt die globale Temperatur seit 1998 auf einem gleichmäßigen Niveau mit einer leicht fallenden Tendenz, die sich im La Nina-Jahr 2011 verstärken wird.

Damit gilt es zu prüfen, inwieweit der anthropogene, der solare oder der ozeanische Klimaeinfluss das plateauartige globale Temperaturverhalten zwischen 1998 und 2010 zu erklären vermag.

 

Der atmosphärische CO2-Gehalt

Nach indirekten CO2-Bestimmungen war der Kohlendioxidgehalt der Luft in der Nacheiszeit bis 1850 konstant und lag bei 280 ppm. Damit scheidet jeder CO2-Einfluss auf den Klimawandel bis 1850 von vornherein aus. Weder bei der Wärmeperiode der Römerzeit, der Kälteperiode zur Völkerwanderungszeit, der mittelalterlichen (Wikinger-)Warmzeit noch der  Kleinen Eiszeit hat der CO2-Effekt eine Rolle gespielt. Es waren somit nur natürliche Prozesse (Sonne, Ozeane, Vulkanausbrüche,…), die das Klima wiederholt nachhaltig veränderten.

Nach den obigen Korrelationsanalysen über den Zusammenhang von veränderlicher Sonnenaktivität und langfristiger Klimaentwicklung ist ebenfalls kein wesentlicher Treibhaus-/CO2-Einfluss auf den Klimawandel im Industriezeitalter zu erkennen. Der solare Effekt vermag auch bei der Erwärmung nach 1860 rund 80% des langfristigen regionalen und globalen Klimaverhaltens zu erklären.

Für den CO2-Einfluss auf den Klimawandel bleibt nur das Residuum von 20% übrig, in dem allerdings auch die langfristigen Antriebe von Ozean und globaler Eisbedeckung enthalten sind.

Damit bleibt allein noch die Frage zu klären, ob der gestiegene CO2-Gehalt der Luft das aktuelle Klimaverhalten bestimmt hat. Bedenkt man, dass von der CO2-Zunahme seit 1850 von 280 ppm auf 390 ppm im Jahr 2010 allein 45 ppm auf die 20 Jahre 1991-2010 entfallen, so wird der exponentielle CO2-Anstieg in Abb.13 verständlich. Mit diesem Anstieg müsste nach der anthropogenen Treibhaushypothese ein erheblicher Temperaturanstieg verbunden sein.

Vergleicht man nun Abb.12 und Abb.13 miteinander, so fällt zum einen auf, dass das CO2-Verhalten die kurzperiodischen Temperaturfluktuationen nicht zu erklären vermag. Der CO2-Effekt kennt physikalisch nur die Temperaturzunahme, Abkühlungen, ob kurz- oder langfristig, sind ihm wesensfremd und müssen durch natürliche, ihn überkompensierende Klimaprozesse erklärt werden. Ebensowenig vermag er sprunghafte Temperaturzunahmen zu erklären. Das gilt auch für die Temperaturspitze von 1998.

Nach 1998 steigt der CO2-Gehalt exponentiell weiter an. Die globale Temperatur hingegen geht, wie die Regressionskurve zeigt, in ein Plateau mit leicht fallender Tendenz über. Krasser kann die Divergenz zwischen aktuellem Temperatur- und CO2-Verhalten kaum sein. Damit folgt: Obwohl der CO2-Gehalt der Luft seit 1998 auf sein höchstes Niveau angestiegen ist, stagniert die globale Temperatur. Der CO2-Effekt spielt somit auch beim aktuellen Klimaverhalten  keine erkennbare Rolle.

 

Der ozeanische Einfluss von El Nino und La Nina

Die atmosphärischen Auswirkungen der periodischen Wassertemperaturänderungen im tropischen Pazifik sind bereits in mehreren Beiträgen zu BWK gezeigt worden (SO 11/09, SO 18/10). El Nino als ENSO-Warmphase und La Nina als ENSO-Kaltphase (ENSO=El Nino-Südliche Oszillation)  bestimmen wesentlich die kurzperiodischen globalen Temperaturfluktuationen. Weisen sie, wie in jüngster Vergangenheit, ein Trendverhalten auf, so können sie auch multi-dekadische Auswirkungen auf die Globaltemperatur haben. Ist (gemäß der ONI-Werte des US-Wetterdienstes) Tm die mittlere Abweichung der tropischen Pazifiktemperatur während einer El Nino-Phase vom Normalwert (Tm: positiv) bzw. einer La Nina-Phase (Tm:negativ), so kann der Wärmeeinfluss des Ozeans auf die Atmosphäre durch den thermischen Antriebsfaktor F=Tm*Mon beschrieben werden, wenn die zeitliche Dauer des jeweiligen ENSO-Ereignisses in Monaten erfasst wird.

In Abb.14 ist für jedes Jahrzehnt seit 1951 der resultierende Antrieb gemäß F(El Nino) minus F(La Nina) angegeben, also die Wärmebilanz zwischen den El Nino- und den La Nina-Phasen der Dekade.

Wie man erkennt, überwog in den 1950er Jahren der Einfluss von La Nina gegenüber dem El Nino-Einfluss auf die Atmosphäre. In der 1970er Dekade waren beide thermische Effekte gleich groß, d.h. bei der Ursachenanalyse für die Abkühlung der Nordhalbkugel in dieser Zeit kann ein ENSO-Einfluss vernachlässigt werden.

In den 1980er, den 1990er und vor allem in der Dekade 2001-2010 überwogen die Auswirkungen von El Nino jene von La Nina auf die Atmosphäre. Somit hatte  El Nino nicht nur kurzperiodisch, sondern auch multi-dekadische Auswirkung auf die globale Temperatur seit den 1980er Jahren. Insbesondere in der Dekade 2001-2010 hat El Nino das globale Temperaturniveau wesentlich beeinflusst.

 

In Abb.15 sind die Korrelationskoeffizienten über den Zusammenhang zwischen den jährlichen globalen Mitteltemperaturen und den mittleren jährlichen Anomalien der Pazifiktemperatur im El Nino-/La Nina-Gebiet wiedergegeben. Wie man erkennt, nimmt der kurzperiodische Einfluss der ENSO-Warm- und Kaltphasen auf die Globaltemperatur seit 1991 von Jahr zu Jahr zu und erreicht im Zeitraum 1999-2010 einen Korrelationskoeffizienten von +0,80, bis 2009 sogar von +0,87. Berücksichtigt man den Umstand, dass die El Nino- und die La Nina-Ereignisse jahresübergreifend sind und korreliert den thermischen Antriebsfaktor F=Tm*Mon der ENSO-Phasen mit dem wärmeren/kälteren Jahr der entsprechenden jahresübergreifenden ENSO-Phase, so ergibt sich im Zeitraum 1998-2009/10 ein Korrelationskoeffizient von über +0,95, d.h. die seit 1998 dem Temperaturplateau überlagerten Temperaturfluktuationen gehen praktisch alle auf die Auswirkungen von El Nino/La Nina zurück. 

Die Auswirkungen von El Nino auf die Atmosphäre haben somit einerseits einen maßgeblichen Beitrag zum aktuellen globalen Temperaturniveau geleistet und erklären anderseits zusammen mit den La Nina-Phasen die Pendelbewegungen der Globaltemperatur auf dem Temperaturplateau seit 1998.

Sonnenaktivität und gegenwärtiges Klimaverhalten

Um den solaren Einfluss auf den Klimawandel der letzten Dekaden einordnen zu können, ist in Abb.16 die mittlere Sonnenfleckenzahl der letzten 10 Sonnenfleckenzyklen dargestellt. Seit dem Zyklus 14 (1902-1913) ist sie von 31 auf 96 im Zyklus 19 (1955-1964) angestiegen. Synchron dazu stieg die globale Temperatur. Danach erfolgte im 20.Zyklus (1965-1976) ein Einbruch der Sonnenaktivität. Die mittlere Sonnenfleckenzahl ging um über 35% von 96 auf 59 zurück. Die Nordhalbkugel reagierte aufgrund ihres hohen Festlandanteils spontan auf den Rückgang der solaren Aktivität. In der Arktis kam es zu einem deutlichen Temperaturrückgang (R.Scherhag, BWK SO31/70), und das Nordpolareis dehnte sich im europäischen Teil so weit südwärts aus, dass die Eisbären von Grönland nach Island hätten wandern können. Noch im Frühjahr war die Dänemarkstraße zugefroren, wie die Satellitenaufnahmen zeigten. In der Klimaforschung begann man über eine bevorstehende weitere Kleine Eiszeit nachzudenken.

 

 Doch überraschend nahm im 21. Sonnenfleckenzyklus (1977-1988) die Sonnenaktivität wieder zu. Die mittlere Sonnenfleckenzahl stieg auf 83 an. Mit 78 blieb die mittlere Sonnenfleckenzahl auch im 22. Sonnenfleckenzyklus (1987-1996) auf hohem Niveau, dem dritthöchsten seit der Kleinen Eiszeit. Analog stieg auch die Temperatur der Nordhalbkugel wieder an. Die Südhalbkugel hatte auf den kurzzeitigen solaren Einbruch im 20.Zyklus aufgrund der thermischen Trägheit ihres großen Ozeananteils nicht reagiert.

Dem hohen solaren Aktivitätsniveau der Zyklen 21 und 22 folgte im 23.Sonnenfleckenzyklus (1997-2009) erneut ein Einbruch. Die mittlere Sonnenfleckenzahl ging auf 52 zurück. Wenn die globale/ nordhemisphärische Temperatur nicht unmittelbar auf die solare Aktivitätsabnahme reagiert, liegt das zum einen an der thermischen Trägheit der Ozeane. Vor allem aber wirkt sich, wie gezeigt, der gegenwärtig hohe El Nino-Einfluss auf die globale Temperatur vorübergehend stabilisierend aus.

Zusammenfassend lässt sich sagen: Nach der deutlichen Zunahme der Sonnenfleckenzahl/ Sonnenaktivität im 20.Jahrhundert ist die mittlere Sonnenfleckenzahl im 23. Zyklus auf die kritische Grenze von rund 50 gesunken. Die in diesem Grenzbereich auftretende klimawirksame solare Aktivität entspricht dem indifferenten Klimazustand zwischen einer nachhaltigen Wärme- und einer Kälteperiode (BWK SO  03/09). Das heißt: Das derzeitige Klimaverhalten auf der kurzzeitigen Klimaskala sagt nichts über die weitere langfristige Klimaentwicklung aus. Diese wird auch in Zukunft maßgeblich vom Verhalten der Sonne abhängen.

Die Klimazukunft

Die entscheidende Frage für die zukünftige Klimaentwicklung lautet: Wie verhält sich die solare Aktivität im aktuellen 24.Sonnenfleckenzyklus und den nachfolgenden Zyklen?  Nimmt die mittlere Sonnenfleckenzahl/Zyklus wieder zu, wäre nach der gegenwärtigen Stagnation der globalen Temperatur mit einem weiteren Temperaturanstieg zu rechnen. Sinkt die mittlere Sonnenfleckenzahl/Zyklus langfristig aber unter den kritischen Grenzwert von rund 50/Zyklus, so ist ein globaler Rückgang der Temperatur zu erwarten. Derzeit sprechen alle Anzeichen für eine bevorstehende Abkühlung.

So hat zum einen die NASA soeben (Feb.2011) ihre bisherige Prognose der Sonnenfleckenzahl im 24. Sonnenfleckenzyklus weiter nach unten korrigiert.

Abb.17 Sonnenfleckenzahl des 23. und Prognose des 24. Sonnenfleckenzyklus (NASA)

Wie die NASA-Prognose in Abb. 17 zeigt, wird die mittlere Sonnenfleckenzahl und damit die integrale Sonnenaktivität im aktuellen 24.Zyklus mit hoher Wahrscheinlichkeit den kritischen Grenzwert von 50 deutlich unterschreiten. Dieser Rückgang der solaren Aktivität wie die zu erwartende Abkühlung würden ferner der 200-jährigen Schwingung von Sonnenaktivität (Abb.5) und langfristiger Klimaentwicklung (Abb.2, Abb.3) entsprechen (De-Vries-Zyklus). Die von den Klimamodellen prognostizierte fortschreitende Klimaerwärmung erscheint vor diesem Hintergrund höchst unwahrscheinlich.

Dafür spricht auch die folgende Abbildung.

 

In Abb.18 ist die Abweichung der Periodenlänge der Sonnenfleckenzyklen vom 11-jährigen Mittelwert seit dem Zyklus 1646-1655 wiedergegeben. Wie man erkennt, sind positive Abweichungen von 2 bis 3 Jahren, also überlange Zyklen, selten.

Auffällig ist: Nach dem überlangen Zyklus 1621-1633 begann das Maunder Minimum, und dem Zyklus 1667-1679 folgte der letzte Höhepunkt der Kleinen Eiszeit Ende des 17. Jahrhunderts. In der Wärmeperiode des 18.Jahrhunderts fehlten überlange Zyklen. Mit den übernormalen Zykluslängen 1785-1798 bzw. 1811-1823 korrespondiert das Dalton-Minimum und damit der rapide Temperaturrückgang Ende des 18./Anfang des 19. Jahrhunderts. Die Kälteperiode um die Mitte des 19. Jahrhunderts fällt mit dem überlangen Zyklus 1844-1856 zusammen. Danach wurde bis 1996, also während der gesamten Erwärmungsphase nach 1860, kein überlanger Sonnenfleckenzyklus mehr beobachtet. Erst der Sonnenfleckenzyklus 1997-2009 weist wieder eine Überlänge wie die Zyklen im 17. und 19. Jahrhundert vor Beginn der Kälteperioden auf. Dieser Sachverhalt ist somit ein weiteres Indiz für den Übergang der Sonne von einer aktiven Phase zu einer ruhigen Sonne. Alle solaren Vorzeichen lassen daher nur den Schluss auf einen Rückgang der globalen Temperatur in naher Zukunft zu. Zu vergleichbaren Ergebnissen sind auch das russische Hauptobservatorium Pulkovo bei St.Petersburg und das US-amerikanische SSRC (Space Sciende Research Center) gekommen.

Zusammenfassende Schlussbetrachtungen

Die Analyse  des Klimaverhaltens im Zeitraum 1680-2009 bestätigt die Ergebnisse der früheren Untersuchungen. Der mehrfache Klimawandel seit der Kleinen Eiszeit wurde empirisch nachweislich primär von den langfristigen Veränderungen der Sonnenaktivität gesteuert. Mittlere Sonnenfleckenzahl und Temperatur zeigen regional wie global/ hemisphärisch auf der langfristigen Klimaskala einen synchronen Verlauf. Die Korrelationskoeffizienten über diesen (über Klimaperioden von 3 Sonnenfleckenzyklen gleitenden) Zusammenhang liegen um +0,90 bis +1,0 und sind auf dem 99,9%-Niveau signifikant, d.h. die Irrtumswahrscheinlichkeit beträgt nur 0,1%.

Dabei gilt der dominierende solare Einfluss auf den nachhaltigen Klimawandel nicht nur für die Zeit bis 1850, in der der CO2-Gehalt der Luft konstant bei 280 ppm lag und damit a priori keine Rolle beim Klimawandel spielte. Auch nach 1850 ist kein wesentlicher anthropogener CO2-/ Treibhauseinfluss auf die Klimaentwicklung  zu erkennen. Der solare Effekt vermag an der globalen wie regionalen Erwärmung von 1860 bis 1996 bei den kurzfristigen Klimafluktuationen mit ihren vielen natürlichen Einflussfaktoren   55%-60% und an dem langfristigen Temperaturanstieg rund 80% statistisch abgesichert zu erklären. Der solare Antrieb ist offensichtlich.

Seit der Kleinen Eiszeit war die mittlere Sonnenfleckenzahl/Sonnenaktivität je Zyklus niemals so hoch wie in der 2. Hälfte des 20.Jahrhunderts. Die Werte der Sonnenfleckenzyklen 19, 21 und 22 waren  viermal so hoch wie zur Kleinen Eiszeit und doppelt so hoch wie zur Zeit der Kälteperiode des 19. Jahrhunderts. Die Behauptung, der solare Effekt mache nach den Klimamodellen nur 10% bei der Erwärmung im letzten Jahrhundert aus, ist vor dem Hintergrund der Klimageschichte unlogisch und nach der empirischen Klimaanalyse durch die Realität widerlegt. Die Größenordnung dürfte eher für den anthropogenen CO2-Einfluss auf das Klima zutreffen.

Vor der Betrachtung der Klimavariabilität im Zeitraum 1997/98-2009/10 ist festzuhalten: Entscheidend für die Beurteilung des nachhaltigen Klimawandels ist das langfristige Klimaverhalten. Nicht entscheidend sind dekadische oder etwa subdekadische Klimafluktuationen, da die Prozesse auf der kurzfristigen Klimaskala nur von vorübergehender Bedeutung sind.

In dem mit 13 Jahren anormale langen 23. Sonnenfleckenzyklus (1997-2009) ist die mittlere Sonnenfleckenzahl von rund 80 der beiden Vorzyklen auf 52 zurück gegangen. Damit hat sie den kritischen Grenzwert zwischen aktiver und ruhiger Sonne, zwischen einer Wärme- und einer Kälteperiode erreicht. In dieser indifferenten solaren Übergangsphase ist derzeit auf der kurzfristigen Klimaskala ein erhöhter Einfluss kurzperiodischer Klimaprozesse festzustellen.

Seit 1998 verharrt die globale Temperatur auf einem quasi-konstanten Niveau, einem Temperaturplateau mit leicht fallender Tendenz. Die globale Temperatur führt dabei lediglich kurze und kleine Pendelbewegungen nach oben und unten aus. Dieses gegenwärtige globale Temperaturverhalten korrespondiert zum einen mit den derzeit ungewöhnlich hohen thermischen Auswirkungen von El Nino auf die Atmosphäre, wodurch die globale Temperatur stabilisiert wird. Zum anderen korrespondieren die globalen Temperaturfluktuationen mit den kurzzeitigen Wechseln zwischen El Nino- und La Nina-Phasen. Die Korrelation zwischen dem jahresübergreifenden thermischen Antriebsfaktor F=Tm*Mon der El Nino- und La Nina- Ereignisse im Zeitraum 1998-2009/10 mit der erhöhten/erniedrigten globalen Jahrestemperatur in dieser Phase liegt über +0,95. Es ist somit offenkundig der Wärmefluss des tropischen Pazifiks, der seit dem starken El Nino von 1998 bis heute die globale Temperatur auf der kurzzeitigen Klimaskala bestimmt.  

Der anthropogene CO2-Effekt kommt als Ursache des aktuellen Temperaturverhaltens nicht in Betracht. Wäre er dominant, müsste sich die globale Temperatur seit1998 auf Grund des exponentiellen CO2-Anstiegs stark erhöht haben. Eine konstante globale Temperatur ist durch einen angeblich dominierenden CO2-Effekt physikalisch ebenso wenig zu erklären, wie es globale Abkühlungen sind.  

Entscheidend für die weitere Klimaentwicklung im 21.Jahrhundert wird sein, wohin sich die solare Aktivität aus dem kritischen Grenzbereich des 23. Sonnenfleckenzyklus entwickelt. Bei einem Übergang vom kritischen Grenzwert von rund 50 zu höheren mittleren Sonnenfleckenzahlen/ Sonnenaktivität je Zyklus wäre mit einer weiteren Erwärmung zu rechnen. Ein deutliches Absinken der mittleren Sonnenfleckenzahl/Zyklus unter 50 im 24. Sonnenfleckenzyklus und den folgenden Zyklen würde zu einer Abkühlung führen.

Derzeit weisen alle Vorzeichen auf eine bevorstehende globale Abkühlung hin. Zu den Indizien zählen zum einen die 200-jährige Schwingung der Sonnenaktivität und des synchronen Klimaverhaltens sowie der mit 13 Jahren überlange 23.Sonnenfleckenzyklus. Zum anderen ist nach der aktuellen NASA-Sonnenfleckenprognose eine deutliche Unterschreitung der kritischen mittleren Sonnenfleckenzahl im 24. Sonnenfleckenzyklus bis 2020 zu erwarten.

Die durch den solaren Effekt veränderte globale atmosphärische und ozeanische Zirkulation wird, wie zu allen Zeiten, letztlich über die regionalen Auswirkungen der globalen Abkühlung entscheiden.

Zusammenfassend kann man sagen: Das gegenwärtige solare Verhalten steht nicht im Widerspruch zu seinem dominierenden langfristigen Klimaeinfluss, sondern stellt eine Ergänzung dar, indem es den Klimazustand an der kritischen Grenze der solaren Aktivität zwischen aktiver und ruhiger Sonne, zwischen einer Wärme- und Kälteperiode charakterisiert. Solange die solare Aktivität an der kritischen Grenze verharrt, wird es global weder wärmer noch kälter, d.h. die globale Temperatur strebt durch den solaren Effekt in dieser Phase ein konstantes Niveau an. Solarer Antrieb und globale Temperatur verhalten sich in ihrem Zusammenspiel daher derzeit „normal“.    

Fazit

Auch nach dieser Klimaanalyse ist der solare Einfluss auf unser Klimasystem der dominierende Antrieb des langfristigen, nachhaltigen Klimawandels. Der angeblich dominierende anthropogene CO2-/ Treibhauseffekt ist vor diesem Hintergrund eine offensichtliche Fehleinschätzung, insbesondere auch in Bezug auf seine katastrophalen Auswirkungen. Daher lautet mein Credo auch nach dieser Untersuchung: An die Stelle eines wissenschaftlich nicht konsensfähigen und daher wirtschaftlich nicht vertretbaren globalen Klimaschutzes sollte die oberste Priorität auf den weltweiten Umweltschutz gelegt werden. Saubere Luft, sauberes Wasser, unbelastete Seen, Flüsse, Ozeane und Erdböden sowie ein intaktes Ökosystem gehören zu den Grundrechten des Menschen weltweit. Ein stabiles Klima gehört, wie die Klimageschichte lehrt, nicht dazu. So sollte  man auch bei der Suche nach den Ursachen des Artensterbens die Umweltsünden im Fokus haben, anstatt eine Temperaturschwankung dafür verantwortlich zu machen, die in der jüngeren Klimageschichte  von Natur aus völlig normal ist.

Prof. Dr. Horst Malberg 

zuerst erschienen in  Beiträge zur Berliner Wetterkarte

c/o Institut für Meteorologie der Freien Universität Berlin C.-H.-Becker-Weg 6-10165 Berlin 19/11  http://www.Berliner-Wetterkarte.de                                                   ISSN 0177-3984 SO 09/11                                                                                                                                                                      

Literatur

– Brohan, P., J.J. Kennedy, I. Haris, S.F.B. Tett and P.D. Jones: Uncertainty estimates in regional and global  

   observed temperature changes: a new dataset from 1850. J. Geophysical Research, 111, D12106,  

  doi:10.1029/2005JD006548 — pdf

– BMBF  Herausforderung Klimawandel“. 2004: http://www.bmbf.de/pub/klimawandel.pdf

– Claußnitzer, A. Das Maunder-Minimum. Eine Modellstudie mit dem „Freie Universität Berlin Climate     

  Middle Atmosphere Model“ (FUB-CMAM). Diplomarbeit. 2003

– Cubasch, U. Variabilität der Sonne und Klimaschwankungen. Max-Planck-Forschung. Das Wissen-

  schaftsmagazin der Max-Planck-Gesellschaft (2001)

– Eddy, J.A. „The Maunder Minimum“. Science 192. 1976

– EIKE: www.eike-klima-energie.eu

– Hennig, R. Katalog bemerkenswerter Witterungsereignisse –von den alten Zeiten bis zum Jahre 1800.

  Abh. Kgl. Preuß. Met.Inst.Bd.II/4 .1904

– Hoyt, D. V. and Schatten, K. H.: The role of the sun in climate change. New York-Oxford, Oxford Univer-

  sity Press. 1997

– Jones, P.D., New, M., Parker, D.E., Martin, S. and Rigor, I.G., 1999: Surface air temperature and its varia-    

   tions over the last 150 years. Reviews of Geophysics 37, 173-199.

– Labitzke,K. and H. van Loon: The signal of the 11-years sunspot cycle in the upper troposphere-lower

  Stratosphere. 1997

– Labitzke, K. On the solar cycle – QBO – relationship. J.A.A., special issue 67, 45-54. 2005

– Landscheidt, T. Solar oscillations, sunspot cycles, and climatic change. In: McCormac, B. M., Hsg.:

  Weather and climate responses to solar variations. Boulder, Ass. Univ. Press (1983) 

– Malberg,H. und G. Bökens: Änderungen im im Druck-/Geopotential- und Temperaturgefäl le zwischen Sub-

   tropen und Subpolarregion im atlantischen Bereich im Zeitraum 1960-90. Z.f.Meteor. N.F. (1993)

– Malberg, H.  Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte:

– Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02 

– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02

– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO

   10/03

– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) –

   In Memoriam Prof. Richard Scherhag.

– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07

– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07

– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei  C11/09O2-Verdopplung. SO 02/08

– Die unruhige Sonne und der Klimawandel. SO 20/08

– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO

   03/09

– La Nina – El Nino und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09

– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09

– Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache:

   Zukunft braucht Herkunft. SO 29/09 (2009)

– Der solare Einfluss auf den Klimawandel in Westeuropa seit 1672. SO 37/09 (2009)

– Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen, SO 11/10

   (2010)

– Kurzperiodische und dekadische Klimavariabilität im Zeitraum 1980-2009. SO18/10 (2010)

– Über scheinbare und tatsächliche Klimaerwärmung seit 1850. SO26/10 (2010)

 – Malberg, H. Klimawandel und Klimadiskussion unter der Lupe. Z. f. Nachhaltigkeit 5. 2007

– Malberg, H. Klimawandel und Klimadebatte auf dem Prüfstand. Verh. Ges.Erdkunde zu Berlin. 2007

– Malberg, H. Der solare Einfluss auf den Klimawandel. Jahrbuch der Freunde und Förderer der TU Bergakade-

   mie Freiberg, 2010

– Matthes, K., Y. Kuroda, K. Kodera, U. Langematz: Transfer of the solar signal from the stratosphere to the

   troposphere: Northern winter. J. Geophys. Res., 111.2005

– Matthes, K., U. Langematz, L. L. Gray, K. Kodera   Improved 11- year solar signal in the Freie Universität

   Berlin climate middle atmosphere model. J. Geophys. Res., 109. 2003 

– Negendank, J.W. Gehen wir einer neuen Kaltzeit entgegen? Klimaänderungen und Klimaschutz.TU-

   Cottbus.2007  

– Pelz, J. Die Berliner Jahresmitteltemperaturen von 1701 bis 1996, Beilage Berl. Wetterkarte, 06/1997

– Scafetta; N. and B.J. West: Is Climate Sensitive to Solar Variability. Physics today. (2008)

– Scherhag, R. Die gegenwärtige Abkühlung der Arktis. Beilage Berliner Wetterkarte SO31/1970

– Svensmark, H. Cosmic rays and earth‘s climate. Space Science Rev. 93 (2000)

– Svensmark, H. Cosmic Climatlogy – A new theory emerges. A&G, Vol. 48 (2007)

– Svensmark, H., Friis-Christensen, E. Reply to Lockwood and Fröhlich – The persistent role of the Sun in

  Climate forcing. Danish Nat.Space Center. Scientific Report 3/07 (2007)

– Wehry, W. Einige Anmerkungen zu meteorologischen Messungen und Datenreihen. Beiträge BWK SO 22/09

– Winkler, P. Revision and necessary correction of the long-term  temperature series of Hohenpeissenberg,

   1781–2006- Theor. Appl. Climatol. 75 (2009)

Daten:

Den Temperaturdaten von Basel und Wien liegen die Klimareihen von F. Baur zugrunde, die im Rahmen der „Berliner Wetterkarte“ fortgeführt wurden.

Die Temperaturdaten von Prag wurden der Internet-Veröffentlichung www.wetterzentrale .de/Klima/ entnommen, erweitert durch Werte, die von der Station Prag direkt zur Verfügung gestellt wurden.

Die Temperaturreihe von Berlin entspricht den von J. Pelz auf Berlin-Dahlem reduzierten Werten ab 1701.

Die globalen Temperaturreihen basieren auf den Werten des Climatic Research Unit, UK.

(www.cru.uea.ac.uk/cru/data)

Die Sonnenfleckenzahlen entstammen den Veröffentlichungen von NOAA

(ftp:/ftp.ngdc.noaa.gov/STP/SOLAR_Data/Sunspot­_Numbers/Monthly/)

Die Sonnen vor 1749 wurden verschiednen Quellen entnommen (u.a.Waldheimer,M.:The sunspot activityin the years 1610-1960 (Zürich 1961), Schove, D.J.:Snspot cycles (Hutchinson Stroudsburg 1983), Schönwiese,C.D. Klimatologie (UTB 1994)

Die ONI-Daten (Oceanic Nino Index) basiern auf: ftp:/www.cpc.ncep.noaa.gov/products/analysis/




Weltweite Temperaturmessungen beweisen: Kein anthropogen verursachter Klimawandel

Auf der Konferenz in Kyoto 1997 verabschiedete die Staatengemeinschaft eine Klima-Rahmenkonvention, welche die völkerrechtliche Grundlage für den internationalen Klimaschutz bilden sollte. Weitere 20 Jahre später wird von den offiziellen Klimainstituten die angeblich vom Menschen verursachte globale Erwärmung immer noch als die Hauptaufgabe der Menschheit angesehen, denn diese Erwärmung gefährdet angeblich ihre Existenz. Tatsächlich wurde bis heute nie bewiesen, dass das vom Menschen direkt oder indirekt produzierte CO2 die ihm zugedachte Wirkung hat. Diese Annahme beruht lediglich auf Modellrechnungen für die künftige Entwicklung der Temperatur. Im Gegenteil: Nach den Grundgesetzen der Physik ist die vom Weltklimarat (IPCC) befürchtete Wirkung des CO2 gar nicht möglich.

Der „Klimawandel“ ist dank massiver Unterstützung der Medien und der Politik zum Zeitgeist ge­worden. Dies wurde möglich, weil die aus den mittels Modellrechnungen generierten Szenarien in der öffentlichen Wahrnehmung zu Prognosen wurden, die für die Zukunft lebensfeindliche Zu­stände voraussagen und Angst erzeugen. Angst fördert bekanntlich die Regierbarkeit.

In vielen Regionen Deutschlands haben sich Initiativen gebildet, um Maßnahmen gegen den Klimawandel zu entwickeln, im Detail zu planen, ihre Ausführung zu überwachen und nach der Fertigstellung zu unterhalten. Oft ergreifen Kommunal- oder Kreisverwaltungen oder Bezirksregierungen  die Initiative und behalten dann die Federführung. Neben vielen anderen Aktivitäten werden Tagungen veranstaltet, um die aktuelle Situation des Klimawandels zu behandeln, um Projekte vorzustellen (Anmerkung der Redaktion: Hier die neueste Idee zur Instrumentalisierung des Klimawandels: Die Klimakollekte der ev. Kirche), und ihre Ausführungen und die Ergebnisse zu erörtern. Und wer als Außenstehender daran teilnimmt, um die Aktivitäten kennen zu lernen – beispielsweise an den 21. Arnsberger Umweltgesprächen – , der kann seine Eindrücke wie folgt zusammenfassen:

  • Der Klimawandel als solcher wird offiziell weder diskutiert noch gar in Frage gestellt. Er wird als Tatsache angesehen, und deshalb wird Klimaschutz für erforderlich gehalten. Klimaschutz hat in Deutschland mittlerweile des Rang eines Glaubensbekenntnisses. 

  • Man spricht fast immer von Klimaschutz, obwohl es sich meistens um Maßnahmen des Umweltschutzes handelt. Der Unterschied zwischen beiden bleibt in der Regel unbekannt oder unbeachtet. Er  ist aber entscheidend, wenn es um die Auswahl konkreter Maßnahmen geht: Unsere Umwelt müssen – und können – wir schützen, unser Klima nicht, denn das bestimmen seit 4,5 Mrd. Jahren die Sonne und die von ihr gesteuerten Faktoren. Investitionen in Maßnahmen für den Umweltschutz sind notwendig, hilfreich und deshalb ihr Geld wert. Dagegen sind die vom IPCC und den nationalen Institutionen empfohlenen und von der Politik beschlossenen und in’s Werk gesetzten Investitionen in die Reduktion des Klimagases CO2 („2°C-Ziel“) sinn- und nutzlos. In den hier vorgestellten Berichten wird das bewiesen.

„Nur Geologen haben dazu noch eine andere Meinung“, wurde dem Verfasser mal in der Diskussion nach einem Vortrag vorgeworfen. Richtig! Und wenn die sie nicht hätten, wären sie keine Geologen, denn die haben verinnerlicht, dass das Klima nur vorübergehend  gleich bleibt., und dass ihr ständiger Wandel zu den Selbstverständlichkeiten gehört, mit denen wir auf der Erde zu leben haben. Und Geologen wissen üblicherweise nicht nur, dass sich das Klima ändert, sondern auch, warum dies geschieht. Manche Klimaforscher meinen, „auch die Sonne sei ein wirksamer Faktor“ – was ja wohl impliziert, dass andere Faktoren wirksamer und deshalb wichtiger sind. Das ist falsch, denn die Sonne ist der wirksame Faktor – und jedes anderes Modell ist obszön – was wäre unser Weltraum ohne Sonne? Wer sparsam bis unbekleidet am Strand liegt und zu frieren beginnt, wird sich freuen, wenn die vorüberziehende Wolke nicht mehr die Sonne verdeckt, und es wieder wärmer wird. 

Die Basis für die Beurteilung der Tempe­raturentwicklung haben die Temperaturmessungen zu sein, die als Temperaturgangli­nien aufgetragen werden. Sie lassen erkennen, ob – und wie – sich über die Zeit die Temperatur verän­dert. Der Trend, den die Ganglinien anzeigen, ist für eine qualitative Beurteilung zuverlässig. Die Ganglinien können auch für die Ermittlung der quantitativen Änderungen geeignet sein, wenn richtig gemessen und ausgewertet wird. Der Verfasser hat bisher in drei Etappen Temperaturdaten und Temperaturganglinien ausgewertet und stellt die Ergebnisse hier vor.

Im Frühjahr 2009 wurden in der ersten Etappe die Daten von 46 Stationen aus Wetterzentrale.de qualitativ und quantitativ ausgewertet. Mit den Messungen und Aufzeichnungen wurde 1701 in Berlin begonnen, die weiteren Stationen nahmen nach und nach ihren Dienst auf. Sie liegen meistens in Eu­ropa, aber auch in Nordamerika, Austra­lien, Sibirien und Japan. Diese „WZ-Daten“ haben gezeigt, dass außer einer geringen Er­wär­mung nach der Kleinen Eiszeit kein Klimawandel stattgefunden hat, sondern lediglich geringe Temperaturschwankungen, und folglich kann auch keine anthro­pogen verursachte Erwärmung im 20. Jahrhundert festgestellt werden.

Im Frühjahr 2010 folgte dann die zweite Bearbeitungsetappe. Es wurden 1134 Temperaturganglinien der NASA von allen Kontinenten Ozeanen analysiert, und damit weltweit die Temperaturentwicklung zwischen 1880 und 2008 er­fasst. Dabei wurden die Trends der Ganglinien beurteilt, nämlich ob sie Erwärmung oder Abküh­lung oder Konstanz anzeigen, und außerdem wurde der Wärme-Insel-Effekt beurteilt. Bei dieser Auswertung wurde eine geographische Zuordnung vorgenommen, d.h. die Ganglinien wurden nach Kontinenten und Ozeanen und dann innerhalb dieser geographischen Einheiten nach ihren Koordinaten so geordnet, dass die jeweils benachbarten in Gruppen zu je acht zusammengestellt wurden. Diese qualitative Auswertung ergab, dass ca. 74% aller Stationen keine größeren Erwärmungen als zuvor anzeigen, sondern dass die Temperaturen zwischen 1880 und 2008 größtenteils nicht angestiegen sind. Sie sind trotz vorübergehender Schwankungen im Mittel gleich geblieben oder haben sich sogar erniedrigt – nämlich 62,1% bzw. 11.9%. Das Ergebnis ist für die Temperaturentwicklung der Welt des letzten Jahrhunderts repräsentativ.

Die dritte Etappe wurde durch den Zufall initiiert, dass weitere Langzeit-Temperaturreihen verfügbar wurden. Der Weltklimarat (IPCC) und andere offizielle Institute haben für ihre Zustandsbeschreibung des Klimas und die daraus abgeleiteten Folgerungen die Temperaturmessungen seit ca. 1880 zugrunde gelegt. Dieser sehr viel zu kurze Beobachtungszeitraum kann Langzeitentwicklungen des Klimas nicht erfassen, dafür sind möglichst lange Temperaturreihen erforderlich. Zusammen mit denen des ersten Berichtes sind in der dritten Etappe die Daten von insgesamt 82 Stationen ausgewertet worden, nämlich aus den Internet-Portalen Wetterzentrale, The Little Ice Age Thermosmeters und Rimfrost. Die Ergebnisse bilden den Gegenstand des dritten Berichts, der im Februar, März und April 2011 erarbeitet wurde. Die Temperaturreihen beginnen 1659 mit der Ganglinie für Mittelengland, zu den in der Folgezeit immer weitere hinzu gekommen sind – ab 1701 in Berlin (siehe oben). Sie reichen bis zur Gegenwart, schließen also den Zeitraum 1880-2009 mit ein. Die 82 Stationen liegen größtenteils in Europa, aber auch in allen anderen Kontinenten.

Das IPCC erkennt in dem globalen Temperaturanstieg des 20. Jahrhunderts eine klima­tologische Besonderheit. Diese Diagnose ist nur möglich, wenn man die Tempe­raturmessungen des 18. und 19. Jahrhunderts unberücksichtigt und die Wirkung des Wärme-Insel-Effekts außer acht lässt. Eine solche Nichtbeachtung von älteren Daten ist jedoch unzulässig, denn eine Beurteilung erfordert immer einen Ver­gleich, d.h. Temperaturänderungen dürfen immer nur im Zu­sam­menhang mit vorhergehenden beurteilt werden. In diesem Falle zeigt der Vergleich, dass im 18. und 19. Jahrhundert stärkere und schnellere Än­derungen erfolgt sind als im 20. Jahrhundert, die folglich  keine Besonderheit bil­den.

In den letzten 300 Jahren haben, wie auch schon vorher, Abkühlungs- und Erwärmungsphasen miteinander abgewechselt. Das IPCC und, beispielsweise, das PIK sehen unsere CO2-Produktion als Ursache für die Erwärmung im 20. Jahrhundert an. Um dies zu klären, ist zu prüfen, wann es wärmer geworden ist, denn die Ursache kommt vor der Wirkung. Diese Auswertung weist nach, dass die wesentliche Erwärmungsphase vor unserer CO2-Produktion statt gefunden hat. Ein kausaler Zusammenhang ist folglich auszuschließen.

Die drei erwähnten Berichte sind als PDF-Dateien beigefügt und abrufbar. Ihre Titel lauten:

Temperature readings beginning in early 18th century disprove global warming

Repräsentative Beispiele von NASA-Temperaturkurven

Langzeit-Temperaturreihen widerlegen menschen-gemachten Klimawandel

 Prof. Dr. Friedrich Karl Ewert Diplom Geologe EIKE

Related Files