Neue Studie enthüllt: US Wetterbehörde NOAA setzt die Erwärmung der letzten 30 Jahre doppelt so hoch an wie gemessen!

Denn legt man die realen Bedingungen zugrunde, und das haben die Autoren der Studie mittels neuer Verfahren getan, dann bleibt nur ein Erwärmungstrend  der qualitativ hochwertigen Stationen von +0,155 °/Dekade übrig, während die Stationen auf oder im Umfeld von dichter  Bebauung, Kläranlagen, Parkplätzen, Einkaufszentren, Flughäfen usw. einen solchen von +,0248 bis 0,309 °C/Dekade aufwiesen. Mithin besonders die Zunahme an veränderter Landnutzung bzw. Stadtbebauung etc. maßen. Die NOAA hingegen hatte bei ihrer Korrektur die richtigen  Daten  der unbeeinflussten Stationen, auf die Werte der kontaminierten Stationen – also deutlich nach oben- korrigiert, während die Absenkung der Werte auf die der unbeeinflussten Stationen richtig gewesen wäre.

Update 31.7.12

Abbildung 1 Das folgende Diagramm (entnommen hier) zeigt Anomalien mit laufendem 12-Monats-Durchschnitt   für die drei unterschiedlichen Datensätzen (USHCN, CRUTem3 und ISH PDAT) … Man beachte die große Unterschiede in der berechneten linearen Erwärmung Trends. Wo ist die Erwärmung?
Quelle für PDAT  U.S. Population-Adjusted Temperature Dataset (PDAT)  von Dr. Roy Spencer, die besser behandelt UHI entwickelt.
Ausgangspunkt der Studie war die Klärung der Frage, ob die starke Umwandlung der Landschaft, sowie die weithin zunehmende  Verstädterung in den USA – unter dem Begriff UHI zusammengefasst- einen erheblich, statistisch signifikanten, Einfluss auf den Erwärmungstrend in den USA hätte oder nicht. Die  US Wetterbehörde NOAA hat diesen Einfluss zwar bisher nicht verneint aber stets behauptet, dieser sei statistisch belanglos (nicht signifikant) oder sauber korrigiert worden.  Dabei verwendete sie die 1999 von Marcel Leroy (Meteo France) eingeführte Klassifizierung von Stationen. Leroy hat diese Klassifizierung vor einiger Zeit noch einmal überarbeitet und 2011 diese Version vorgeschlagen. Sie ist von der WMO* zertifiziert. Die Watts et al Studie nutzt daher diese neue Klassifizierung, die wesentlich genauer die Abschätzung der Wirkung der Umgebung auf die Messergebnisse von Wetterstationen erlaubt.
Die Pressemitteilung schließt mit den Sätzen:

Vergleiche zeigen, dass NOAA Korrekturverfahren bei der Korrektur der schlecht aufgestellten Stationen versagen, denn die hätten nach unten angepasst werden müssen,  stattdessen wurden die gut aufgestellten  Stationen nach oben d.h  an die schlechten Stationen angepasst. Gut aufgestellte ländliche Stationen zeigen daher nach der USHCNv2 Korrektur einen dreifach höheren Erwärmungstrend. Es wird auch gezeigt, dass urbane Gebiete sich schneller erwärmen, als mittel-urbane Gebiete und diese wiederum schneller als ländliche Gebiete.
Da eine unverhältnismäßig hoher Anteil Stationen städtisch (10%) und semi-urbanen (25%) sind, wenn man sie mit der tatsächlichen Topographie der USA vergleicht, dann übertreibt dies die Temperatur Trends weiter. Montandon et al (2011) dokumentiert diesen großen urbanen Fehler bei den Stationen auf gemäß dem Global Historical Climate Netzwerk.
Diese Faktoren, zusammen mit der Qualität der Stations Standorte, haben zu einer Verdoppelung in der 30-jährigen Periode der Jahre 1979  – 2008  und damit zu unechten US- Temperaturtrends geführt.

Kritiker wandten natürlich sofort ein, dass dies nur die USA und damit ca. 2 % der Landfläche der Erde beträfe, übersahen dabei aber, dass die US Stationen – bis heute- als die besten der Welt galten, und sie übersahen auch, dass für andere Kontinente – insbesondere Europa – (siehe auch EIKE Bericht über den Wäreminseleffekt hier und hier) genau  so gilt. Es bleibt abzuwarten ob, wann und wie die deutschen Mainstreammedien über diese Studie berichten werden. Wir werden Sie jedenfalls auf dem Laufenden halten.
Michael Limburg EIKE
*Commission for Instruments and Methods of Observation (CIMO-XV, 2010) Fifteenth session, in September 2010 as a WMO-ISO standard
Die Berichterstattung wird fortgesetzt.
Hier die Original Pressemitteilung
und hier die PowerPoint undefinedDateien sowie undefinedhier und undefinedhier (im Original) mit Einzelheiten
weiter führende Links
Ein dicker Hund: Erwärmung der USA in den letzten 30 Jahren wohl nur halb so stark wie bislang angenommen
The big news is out on Watts Up: Half the trend is due to badly placed thermometers and erroneous adjustments 
Anthony Watts Drops A Big Bomb – That Makes A Little Bang




Die Römer kannten keine Gletscher – Studie zur Klimaerwärmung

Schweizer und deutsche Klimaforscher haben nachgewiesen, dass sich Nord­europa in den letzten 2000 Jahren abgekühlt hat. Die Studie stellt die Grundlagen infrage, auf die sich der Welt­klimarat (IPCC) beruht. Anstatt die Resultate zu diskutieren, wird die Studie im Internet in mehreren Blog-Beiträgen voreilig als «inkompetente Analyse» ­bezeichnet. An vorderster Front macht Mike E. Mann von der Penn State University gegen die Wissenschaftsarbeit mobil, die Anfang Juni in der renommierten Fachzeitschrift «Nature Climate Change» erschienen ist. Auf der ­Online-Plattform «RealClimate» klagt er beispielsweise, die veröffentlichten Ergebnisse seien von Forschern und Medien falsch interpretiert worden. Mike Mann hat allen Grund, gegen die Resultate zu wettern: Würde sich nämlich herausstellen, dass die Ergebnisse der Klimaforscher um Jan Esper von der Johannes-Gutenberg-­Universität in Mainz, Ulf Büntgen von der Eidgenös­sischen Forschungsanstalt für Wald, Schnee und Landschaft (WSL) und ­Daniel Nievergelt vom Oeschger-Zentrum für Klimafolgenforschung der Universität Bern den Temperaturverlauf korrekt wiedergeben, wäre eine zentrale Arbeit der Klimaforschung widerlegt. Und ­diese Arbeit stammt von Mike Mann.

Temperatur als Hockeyschläger

In den ersten beiden IPCC-Berichten (1990 und 1995) gingen die Klimawissenschaftler noch davon aus, dass im Hochmittelalter die globale Temperatur deutlich wärmer war als heute. Doch 1999 behauptete der Geophysiker Mike Mann, damals Assistenzprofessor in Massachusetts, aus Jahresringen ­fossiler Bäume einen dramatischeren Verlauf des globalen Klimas ableiten zu können; die entsprechende Studie erschien im Fachblatt «Geophysical Re­search Letters» und wurde 2001 in den dritten Sachstandsbericht des Welt­klimarates aufgenommen.
Die globale Temperaturentwicklung auf Manns Grafik gleicht dabei einem liegenden Hockeyschläger. Die Kurve startet im Jahr 1000. Bis Anfang des 20. Jahrhunderts sind die Veränderungen nur minimal; die Grafik gleicht dem Stock. Dann steigt die Kurve dramatisch an, hakenförmig, wie am unteren Ende des Hockeyschlägers. Meistens wird der Graf an dieser Stelle zusätzlich rot eingefärbt. «Damit verdeutlichen wir die Einmaligkeit des Temperaturanstiegs», sagte IPCC-Chef Rajendra Pachauri vor einigen Jahren im Gespräch mit dem BaZ-Journalisten.
Inzwischen legen mehrere Studien nahe, dass mit dieser Hockeyschlägerkurve etwas nicht stimmt. Bereits 2003 legten Wissenschaftler um Jan Esper, der damals noch an der Forschungs­anstalt WSL in Birmensdorf arbeitete, nahe, dass die durchschnittliche Temperatur um das Jahr 1000 höher gewesen sein musste, als die Hockeyschläger­kurve vorgibt. Zu diesem Schluss kam Esper, als er mehrere Baumproben untersuchte und feststellte, dass zu dieser Zeit ideale Wachstumsbedingungen geherrscht haben mussten. Die im Wissenschaftsmagazin «Science» veröffentlichten Resultate wurden damals von vielen Forschern in Zweifel gezogen, konnten aber nicht widerlegt werden.

Sustenpass, eine grüne Alp

Zwei Jahre später kritisierte eine international zusammengesetzte Gruppe um Hans von Storch vom Helmholtz-Zentrum für Küstenforschung in Geesthacht erneut die Hockeyschlägerkurve. Von Storch untersuchte die sogenannten Proxy-Daten der Klimamodelle und stellte fest, dass die Temperaturschwankungen möglicherweise erheblich unterschätzt wurden, wie er in der Zeitschrift «Science» berichtete. Auch von Storchs Daten legten nahe, dass die durchschnittliche Temperatur um das Jahr 1000 bis 1100 höher gewesen sein musste als auf der Hockeyschläger­kurve angegeben.
Viel zu reden gab auch eine Arbeit von Christian Schlüchter, Professor für Quartär- und Umweltgeologie an der Universität Bern, Lehrbeauftragter der ETH Zürich und begeisterter Alpenforscher. Im Juni 2004 berichtete er in der Zeitschrift «Die Alpen», die der Schweizer Alpen-Club (SAC) herausgibt, über Forschungsresultate, die er in den vergangenen zehn Jahren gesammelt und in verschiedenen Fachmagazinen – unter anderem 2001 in «The Holocene» – veröffentlicht hat. Im Fachblatt sorgten sie kaum für Aufregung; der populärwissenschaftliche Beitrag im SAC-Magazin hingegen wurde als Provokation verstanden, denn Schlüchter behauptete, dass der Sustenpass zur Zeit des ­Römischen Reiches eine grüne Alp war und sich der Steigletscher auf die Höhe der Tierberglihütte (2795 m ü. M.) zurückgezogen habe. Zu dieser Einschätzung gelangte der Berner, als er in den Hochflutablagerungen eines Gletscherbaches im unmittelbaren Vorfeld des Unteraargletschers im Berner Oberland 30 bis 60 Zentimeter dicke Holzstücke und Überbleibsel eines Moores fand. «Die Fundstücke wurden durch die grossen Schmelzwasserausbrüche unter dem Gletscher hervorgespült. Das Material stammt also von dort, wo heute Eis liegt», so Schlüchter. Das sei aussergewöhnlich, denn Bäume und sogar ein Moor könne es an diesen Stellen nur gegeben haben, wenn das «ewige Eis» zu früheren Zeiten deutlich kleiner war und die Baumgrenze höher lag.
Um Klarheit zu schaffen, liess der Geologieprofessor die Proben im Labor mithilfe der Radiokarbonmethode untersuchen und datieren. Dabei stellte man Erstaunliches fest: «Die bestimmten Alter bildeten keine chaotische Datenwolke über die letzten 10 000 Jahre, sondern fallen in definierte Zeit­fenster», so Schlüchter. «Bisher konnten zehn Zeitfenster bestimmt werden. Über die letzten 10 000 Jahre gerechnet, ergibt das etwas über fünfzig Prozent der Zeit mit kürzeren Gletschern als heute.» – Im Klartext: Unsere Gletscher waren nach der letzten Eiszeit selten so stark ausgebildet wie heute.

Falsche Vorstellung von der Eiszeit

Der Berner Christian Schlüchter zieht aus den Ergebnissen noch einen weiteren Schluss: «Vor 1900 bis 2300 Jahren lagen die Gletscherzungen mindestens 300 Meter höher als heute. So wurden in der Römerzeit die Gletscher kaum als solche erlebt, aus dem einfachen Grund, weil sie weitab von den damals benutzten Alpenübergängen lagen und somit auch nicht als Hindernis empfunden wurden.» Dies würde erklären, weshalb in den sonst sehr detaillier­ten Beschreibungen der römischen Chro­nisten kaum ein Wort über die Gletscher zu finden ist. Schlüchter fordert: «Aufgrund dieser Funde muss die bisher gängige Vorstellung von den seit der Eiszeit durchgehend relativ stark vergletscherten Alpen entscheidend re­vi­diert werden. Die Alpen waren mehrheitlich grüner, als sie es heute sind.»
Martin Funk, ETH-Glaziologieprofessor an der Versuchsanstalt für Wasserbau, Hydrologie und Glaziologie, hat sich Schlüchters Resultate von 2001 ­angesehen: «Ich sehe keinen Grund, an den Ergebnissen und Aussagen zu zweifeln, höchstens bei einigen Details», ­findet der Experte und fügt an, dass Schlüchters Untersuchung in der neueren Zeit nur eine Periode (zwischen dem Jahr 500 und 800) mit kleinerer Vergletscherung angibt. «Das heisst, man kann zwischen der Hockeyschlägerkurve des IPCC und Schlüchters Ergebnissen nicht viel vergleichen. Dazu kommt, dass die Temperatur allein nicht viel über Gletscherschwankung aus­sagt. Dafür müsste man noch Angaben über die Niederschlagsänderungen haben», so der Gletscherexperte.
Nun legen Schweizer und deutsche Klimaforscher um Jan Esper eine Studie vor, die einerseits belegt, dass es im Hochmittelalter deutlich wärmer war, andererseits aber auch zeigt, dass sich das Klima in Nordeuropa in den letzten 2000 Jahren abgekühlt hat. Das Team kombinierte die Resultate von Jahresringdichtemessungen von fossilen ­Kieferbäumen zu einer Zeitreihe zurück bis ins Jahr 138 vor unserer Zeit­rechnung. Die Holzdichte korreliere sehr gut mit den Sommertemperaturen in diesem Raum nahe der nordischen Waldgrenze, daher sei es den Forschern gelungen, eine Temperaturrekonstruktion «von bisher unerreichter Qualität» zu erstellen, teilt die Johannes-Gutenberg-Universität mit. Diese Rekonstruktion zeige nun mit hoher Auflösung die Wärmebedingungen zur Römerzeit und im Hochmittelalter, aber auch die Kältephasen zur Zeit der Völkerwanderung oder der späteren kleinen Eiszeit.

Klimapolitische Bedeutung

«Wir haben festgestellt, dass die historischen Temperaturen zur Römerzeit und im Mittelalter bis dato zu kühl eingeschätzt wurden», sagt Esper zurückhaltend. Diese Befunde seien insofern von klimapolitischer Bedeutung, «da sie die Beurteilung des aktuellen Klimawandels im Vergleich zu den historischen Warmphasen beeinflussen».
Die von Jan Esper vorgelegte Klimakurve zeige neben diesen Kalt- und Warmphasen aber noch ein Phänomen, mit dem nicht zu rechnen war, heisst es in der Mitteilung. Erstmals konnten die Forscher anhand der Baumjahresringe einen viel längerfristigen Abkühlungstrend, der sich kontinuierlich über die letzten 2000 Jahre abspielte, präzise ­berechnen. Den Berechnungen zufolge habe sich die globale Temperatur pro Jahrtausend um minus 0,3 Grad abgekühlt. «Eigentlich erscheint diese Zahl nicht als sonderlich imposant», so Esper. «Allerdings ist sie im Vergleich zur globalen Erwärmung, die bis heute weniger als ein Grad Celsius beträgt, nicht zu vernachlässigen.»
Marcel Breu, Wissenschaftsjournalist 
Hier der Link zur Pressemitteilung der "Johannes Gutenberg Universität Mainz mit Dank an Leser Heinz Eng für die Anregung
Zuerst veröffentlicht in der Basler Zeitung und auf Oekowatsch  vom 26. Juli 2012 
#gallery-1 { margin: auto; } #gallery-1 .gallery-item { float: left; margin-top: 10px; text-align: center; width: 33%; } #gallery-1 img { border: 2px solid #cfcfcf; } #gallery-1 .gallery-caption { margin-left: 0; } /* see gallery_shortcode() in wp-includes/media.php */




CO2 folgt der Temperatur „um höchstens ein paar hundert Jahre“ belegen neue Forschung in der Antarktis:

„Unsere Analysen von Eisbohrkernen aus dem Eisschild der Antarktis zeigen, dass die CO2-Konzentration in der Atmosphäre dem Anstieg der Temperaturen in der Antarktis sehr eng folgt und höchstens um ein paar hundert Jahre versetzt ist“. – Sune Olander Rasmussen

Abbildung 2: Histogramme für die zwei Methoden der Bestimmung der Verzögerung, mit der das atmosphärische CO2 auf Temperaturänderungen in der Antarktis reagiert (direkte und abgeleitete Korrelation) unter Verwendung jedes einzelnen der beiden CO2-Datensätze (der Stationen Byrd und Siple Dome). Die grauen Hintergrund-Histogramme basieren auf dem vollständigen Komposit der Proxy-Temperatur, die gleiche wie in Abbildung 1b. Die überlagerten Kurven zeigen die korrespondierenden Verzögerungs-Histogramme, wenn man im Gegenzug jede der 5 Aufzeichnungen von der Proxy-Temperatur ausschließt: Ausschluss von Siple (rot), Ausschluss von Law Dome (grün), Ausschluss von Byrd (blau), Ausschluss von EDML (türkis) und Ausschluss von Talos Dome (violett)
Von der University of Copenhagen – Rise in temperatures and CO2 follow each other closely in climate change
Die größte Klimaänderung, die die Welt während der letzten 100 000 Jahre erlebt hat, war der Übergang von der Eiszeit zu einer warmen Zwischeneiszeit. Neue Forschungen am Niels Bohr Institut an der University of Copenhagen deuten darauf hin, dass im Gegensatz zu früheren Ansichten der Anstieg der Temperatur und der Anstieg des atmosphärischen CO2-Gehaltes zeitlich eng aufeinander folgen. Die Ergebnisse wurden in der Fachzeitschrift Climate of the Past veröffentlicht.
In einem wärmeren Klima ist der atmosphärische CO2-Gehalt von Natur aus höher. Das Gas CO2 (Kohlendioxid) ist ein Treibhausgas, das die Wärmestrahlung vom Erdboden absorbiert und die Erde folglich warm hält. Bei Verschiebungen zwischen Eiszeiten und Zwischeneiszeiten hilft der atmosphärische CO2-Gehalt dabei, die natürlichen Klimavariationen zu verstärken.
Ursprünglich hatte man gedacht, dass – als die Temperatur am Ende der Eiszeit vor etwa 19 000 Jahren zu steigen begann – die Zunahme des CO2-Gehaltes in der Atmosphäre mit einer Verspätung bis zu 1000 Jahren erfolgt.
„Unsere Analysen von Eisbohrkernen aus dem Eisschild der Antarktis zeigen, dass die CO2-Konzentration in der Atmosphäre dem Anstieg der Temperaturen in der Antarktis sehr eng folgt und höchstens um ein paar hundert Jahre versetzt ist“, erklärt Sune Olander Rasmussen, Assistenzprofessor und Koordinator am Centre for Ice and Climate at the Niels Bohr Institute at the University of Copenhagen.
 
Ein Eisbohrkern aus der Tiefbohrung durch den Eisschild in Law Dome in der Antarktis.
Die wichtige Rolle der Tiefsee
Die Forschungen, die in Zusammenarbeit mit Forschern von der University of Tasmania in Australien durchgeführt worden sind, basieren auf Messungen von Eisbohrkernen aus fünf Bohrlöchern durch den Eisschild in der Antarktis. Der Eisschild bildete sich aus Schnee, der nicht mehr abschmolz, sondern Jahr für Jahr weiter anwuchs, wodurch das Ganze allmählich zu einer Kilometer dicken Eisschicht zusammen gepresst worden ist. Während dieser Kompression wurden Luftbläschen zwischen den Schneeflocken eingeschlossen, so dass das Eis als Folge davon winzige Bestandteile der historischen Atmosphäre enthält. Die Zusammensetzung des Eises gibt auch Aufschluss über die Temperatur zum Zeitpunkt des Schneefalls, so dass das Eis ein Archiv für vergangene Klimate und die Zusammensetzung der Atmosphäre ist.
„Die Eisbohrkerne zeigen eine fast synchrone Beziehung zwischen der Temperatur in der Antarktis und dem atmosphärischen CO2-Gehalt, und dies legt nahe, dass die Prozesse in der Tiefsee um die Antarktis eine wichtige Rolle bei der CO2-Zunahme spielen“, erklärt Sune Olander Rasmussen.

Abbildung 1: Die Forschungsergebnisse zeigen, dass die CO2-Konzentration in der Atmosphäre der Temperatur in der Antarktis eng folgt, und zwar während der gesamten Verschiebung von der Eis- zur Zwischeneiszeit während der Periode vor 19 000 bis 11 000 Jahren vor heute. Die grüne Kurve zeigt die Temperatur aus Messungen von den 5 in der Karte markierten Eisbohrkernen. Die rote und blaue Kurve zeigen den atmosphärischen CO2-Gehalt in den Luftblasen innerhalb der Bohrkerne der beiden Bohrungen in Siple Dome (rot) und Byrd (blau). Die Analyse zeigt, dass die CO2-Konzentration der Temperaturzunahme mit einer Verzögerung von nicht mehr als einigen hundert Jahren folgt. Dass die CO2-Konzentration in der Atmosphäre der antarktischen Temperatur so eng nachfolgt bedeutet, dass Prozesse im Ozean rund um die Antarktis eine wichtige Rolle beim CO2-Anstieg spielen.
Rasmussen erklärt: eine der Theorien lautet, dass es bei einer Erwärmung der Antarktis stärkere Winde über dem Südlichen Ozean gibt und dass diese Winde mehr Wasser aus tiefen Schichten im Ozean an die Oberfläche befördert, und zwar aus Tiefen, in denen es einen hohen CO2-Gehalt gibt infolge all der kleinen Organismen, die absterben, auf den Meeresboden absinken und verrotten. Starke Winde über den Südlichen Ozeanen bringt die Zirkulation im Ozean mehr dieses CO2-angereicherten Tiefenwassers an die Oberfläche, und ein Teil davon entweicht in die Atmosphäre. Dieser Prozess ist das Bindeglied zwischen Temperatur und CO2, und die neuen Ergebnisse zeigen, dass diese Verbindung viel enger als gedacht ist und schneller als früher geglaubt erfolgt.
Einfluss auf das Klima
Die globale Temperatur hat sich aus natürlichen Gründen geändert, und zwar infolge sich verändernder Solarstrahlung aufgrund der Variationen der Erdumlaufbahn um die Sonne sowie der Neigung und Orientierung der Erdachse. Diese sind als die Milankovich-Zyklen bekannt und ereignen sich etwa alle 100 000, 42 0000 und 22 000 Jahre. Dies sind die Zyklen, die dafür sorgen, dass das Erdklima zwischen langen Eiszeiten von etwa 100 000 Jahren und warmen Zwischeneiszeiten von etwa 10 000 bis 15 000 Jahren hin und her pendelt. Die natürliche Erwärmung des Klimas wurde durch den zunehmenden CO2-Gehalt verstärkt.
„Heute beobachten wir, dass die Menschheit dafür gesorgt hat, dass der CO2-Gehalt in der Atmosphäre während der letzten 150 Jahre genau so stark gestiegen ist wie in den 8000 Jahren während des Übergangs von der letzten Eiszeit in die gegenwärtige Zwischeneiszeit, und das kann das Erdklima aus dem Gleichgewicht bringen“, erklärt Sune Olander Rasmussen und fügt hinzu: „Darum ist es sogar noch wichtiger, dass wir besser verstehen, welche Prozesse für Klimaänderungen in der Vergangenheit sorgten, weil die gleichen Prozesse auch heute zusätzlich zu den anthropogenen Prozessen wirken können, die wir heute erleben. In dieser Hinsicht hilft uns das Klima der Vergangenheit zu verstehen, wie die verschiedenen Teilaspekte des Klimasystems miteinander wechselwirken und was wir in Zukunft erwarten können“.

Verstärkte Bedingungen für die Zeitverzögerung zwischen der antarktischen Temperatur und CO2 ausgangs der letzten Eiszeit
J. B. Pedro1,2, S. O. Rasmussen3, and T. D. van Ommen2,4
1Antarctic Climate & Ecosystems Cooperative Research Centre, University of Tasmania, Hobart, Tasmania, Australia
2Institute of Marine and Antarctic Studies, University of Tasmania, Hobart, Tasmania, Australia
3Centre for Ice and Climate, University of Copenhagen, Copenhagen, Denmark
4Australian Antarctic Division, Kingston, Tasmania, Australia
Abstract: Antarktische Eisbohrkerne liefern klare Beweise für eine enge Kopplung zwischen Variationen der antarktischen Temperatur und der atmosphärischen CO2-Konzentration während der Eis-/Zwischeneiszeitzyklen seit mindestens 8000 Jahren. Präzise Informationen des Timings zwischen CO2- und Temperaturänderungen können dabei helfen, unser Verständnis der dieser Kopplung zugrunde liegenden Prozesse zu vertiefen. Hier konzentrieren wir uns auf das Ende der letzten Eiszeit vor 19 000 bis 11 000 Jahren, einem Zeitraum, in dem die CO2-Konzentrationen um etwa 80 ppmv und die antarktische Temperatur um etwa 10°C gestiegen ist. Schöpft man einen kürzlich entwickelte Proxy für die regionale Temperatur der Antarktis aus, abgeleitet aus fünf Bohrkernen nahe der Küste und zwei Bohrkernen mit hoher Präzision bei der Datierung des CO2-Gehaltes, zeigen wir, dass die CO2-Zunahme wahrscheinlich der Zunahme der antarktischen Temperatur um weniger als 400 Jahre hinterher lief und dass sogar ein kurzes Vorauseilen der CO2-Zunahme gegenüber der Temperaturzunahme nicht ausgeschlossen werden kann. Dieses Ergebnis, das für beide CO2-Aufzeichnungen gilt, impliziert eine schnellere Kopplung zwischen Temperatur und CO2 als ursprünglich geschätzt, war man doch von einer Verschiebung bis zu einem Millenium ausgegangen.
Final Revised Paper (PDF, 463 KB)   Discussion Paper (CPD)
Citation: Pedro, J. B., Rasmussen, S. O., and van Ommen, T. D.: Tightened constraints on the time-lag between Antarctic temperature and CO2 during the last deglaciation, Clim. Past, 8, 1213-1221, doi:10.5194/cp-8-1213-2012, 2012.
Link: http://wattsupwiththat.com/2012/07/23/new-research-in-antarctica-shows-co2-follows-temperature-by-a-few-hundred-years-at-most/
Übersetzt von Chris Frey EIKE




„Nachhaltige Gerechtigkeit” = Umverteilung des Mangels

Gerade diese Woche hat die Civil Society Reflection Group on Global Development Perspectives [etwa: Gruppe der zivilisierten Gesellschaft zu globalen Entwicklungsperspektiven] einen neuen Bericht zum Rio+20-Erdgipfel zur Nachhaltigen Entwicklung veröffentlicht. Die Kurzdarstellung von No Future Without Justice [Keine Zukunft ohne Gerechtigkeit] beginnt mit der Feststellung „Die Welt braucht eine fundamentale Veränderung“. Das Dokument bietet dann „Lösungen“ an, darunter einen „universellen fiskalischen Ausgleich“ und ein „massives und absolutes Abkoppeln des Wohlergehens von Ausbeutung und Verbrauch von Ressourcen“.
In der 18-köpfigen Gruppe sind keine Amerikaner – aber sie verdammt die USA und andere Regierungen wegen ihrer Verpflichtung gegenüber wirtschaftlichem Wachstum und nicht so sehr der Umverteilung von Wohlstand. Die Gruppe verlangt, dass die Regierungen eine Schlüsselrolle bei der Förderung von „Nachhaltigkeit“ und Wohlergehen spielen. Sie besteht darauf, dass alle Regierungen den universellen Zugang zur öffentlichen Gesundheitsvorsorge anbieten sowie garantierte staatliche Zuwendungen für jedes Kind, garantierte staatliche Unterstützung für Arbeitslose und Unterbeschäftigte und grundlegende universelle Pensionen sowie universelle soziale Sicherheit.
Kurz gesagt, sie wollen den totalen Bevormundungsstaat – aber ohne jede Ausbeutung von Ressourcen und ökonomisches Wachstum. Mit anderen Worten, das garantiert nachhaltige Ungerechtigkeit und die Umverteilung zunehmenden Mangels.
Die Gruppe räumt ein, dass die menschliche Zivilisation „immer noch irgendeine Art Wachstum in weiten Teilen der Welt braucht, um die Grenzen der maximal verfügbaren Ressourcen für arme Länder auszudehnen“. Allerdings werden die massiven Investitionen, die für den Übergang zu einer vollständig auf erneuerbaren Energien basierenden Wirtschaft notwendig sind, eine „massive Schrumpfung der Produktion, der Abteilungen und der Aktivitäten erfordern, die den Nachhaltigkeitstest nicht bestehen“ – nach Festlegungen von ihnen sowie mit ihnen verbundener Organisationen und das Umweltprogramm der UN UNEP.
Finanzielle Schlüsselaspekte zum Anschub hin zu „Nachhaltigkeit“ schließt ein „grüneres“ und „fortschrittlicheres“ Steuersystem ein, darunter eine finanzielle Transaktionssteuer, Aufhebung sämtlicher Subventionen mit Ausnahme für erneuerbare Energie, Kürzung der Militärausgaben und gleichzeitig einen dramatisch zunehmenden „Stimulus“, ein Kompensationssystem, um „Klimaschulden“ bei vermeintlich durch den kohlenwasserstoff-getriebenen Klimawandel abzuzahlen, ein neues Rahmenwerk zur Regulierung finanzieller Märkte, eine Sicherheitskommission bzgl. finanzieller Produkte und noch mehr Regulierungen für Hedgefonds und privates Kapital. Die Gruppe verlangt auch eine öffentliche Kontrolle von Rating-Agenturen und die Übernahme von internationalen Bilanzrichtlinien durch die Regierungen.
Um sicherzustellen, dass die „nachhaltige Entwicklung” auch wirklich jeden Aspekt der Gesellschaft durchdringt, schlug die Gruppe die Einsetzung eines „Sherpas“ für Nachhaltigkeit vor (im Rang eines Ministers), ein parlamentarisches Komitee zur Überwachung der Politik, ja an der Nachhaltigkeit festzuhalten, einen UN-Nachhaltigkeitsrat, eine universelle periodische Begutachtung zur Nachhaltigkeit und einen Ombudsmann für Gerechtigkeit zwischen den Generationen und zukünftigen Generationen vor. Sie befürwortet auch einen zwischenstaatlichen Rat zur Nachhaltigkeit (International Panel on Sustainability), der auf dem „Erfolg“ des IPCC aufbauen soll.
Natürlich würden alle diese Fäden bei der Ersten politischen Institution der Welt und der Bastion für Freiheit, Fairness, Demokratie und Menschenrechte zusammen laufen – dem Generalsekretariat der UN.
Um diese „fundamentale” Verschiebung hin zum Nachhaltigkeits-Paradigma zu lenken, hat die Gruppe acht Prinzipien festgelegt – wobei das „Vorsorgeprinzip“ der Schlüssel ist. Dieses verbietet jede Aktivität, die ein Risiko darstellen oder „schädlich“ sein könnte. Die eigenen Rezepte zur Nachhaltigkeit sind natürlich von jeder Begutachtung nach dem Vorsorgeprinzip ausgenommen.
Die Objektive muss es sein, stellen sie fest, Ökonomien zu schaffen, die die Kohlenstoffemissionen, den Energieverbrauch, die Ausbeutung primärer Ressourcen, die Wegwerfgesellschaft sowie Luft- und Wasserverschmutzung drastisch begrenzen. Die Gesellschaft muss auch den vermeintlichen und von Computern modellierten Verlust von Spezies sowie den Ruin von Ökosystemen beenden.
Dies alles erfordert natürlich die Pflicht, das Verbraucherverhalten und den Lebensstil zu ändern (zumindest für das gemeine Volk) und die Erkenntnis, dass Arbeit (anders als Kapital) kein Produktionsfaktor ist. Tatsächlich ist Arbeit der Gruppe zufolge nicht einmal eine Handelsware. Mehr noch, nur „vernünftige“ Arbeit qualifiziert sich für das Nachhaltigkeits-Paradigma. (Wobei „vernünftige Arbeit“ nirgends definiert ist, darunter versteht man vermutlich rückenschädliche Landwirtschaft für den Eigenbedarf von Sonnenauf- bis Sonnenuntergang. Dies wird nach der Agenda der Gruppe als „traditionelle“ oder „organische“ Landwirtschaft bezeichnet und nicht durch moderne mechanisierte Agrikultur ersetzt).
Woher kommt all dies Geschwafel? Aus der Agenda 21, dem Mittelpunkt des ursprünglichen Erdgipfels in Rio – welche in Parallelveranstaltungen in Belo Horizonte, Brasilien, immer wieder verlängert, verändert und wieder verändert wird, während die wesentlichen Diskussionen zur Nachhaltigkeit in Rio stattfinden.
In der Agenda 21 heißt es zum Beispiel, dass „es zum Erreichen der Ziele der Umweltqualität und der nachhaltigen Entwicklung … Änderungen des Verbraucherverhaltens bedarf“. Dies würde ebenfalls unter UN-Aufsicht erfolgen, weil, wie es der Gründer des Erdgipfels Maurice Strong ausdrückte, die Tage der nationalen Souveränität vorbei sind und die Welt ein System des Transfers von Wohlstand braucht, um die Umweltsicherheit zu gewährleisten.
Kurz gesagt, „nachhaltige Entwicklung” ist ein System, dass nach einer Neudefinition von Geschäftsaktivitäten verlangt, weg vom Streben nach persönlichem Profit – und von Aktivitäten der Regierung, weg vom Streben nach individuellem Glück und Gerechtigkeit – hin zum Streben nach gesellschaftlicher Güte, wie sie von Aktivisten und den UN definiert wird.
Einfach gesagt, wie es Brian Sussman in seinem neuen Buch Eco-Tyranny schreibt, ist es das ultimative Ziel der das Nachhaltigkeits-Paradigma Anbetenden, „die wertvollsten“ Rechte, die in der Amerikanischen Unabhängigkeitserklärung stehen, zu löschen: „Alle Menschen sind gleich, sie wurden von ihrem Schöpfer mit gewissen unveränderlichen Rechten ausgestattet, darunter Leben, Freiheit und Streben nach Glück – um diese Rechte zu sichern, werden unter den Menschen Regierungen eingerichtet, die ihre Vollmachten direkt vom Einverständnis der Regierten ableiten“.
Die Agenda 21 und das Nachhaltigkeits-Paradigma bekämpfen und unterminieren auch Adam Smiths Glaube, dass das natürliche Streben der Menschheit nach Selbstverwirklichung, Profit und Verbesserung zu größerem Wohlstand, Gesundheit und Gerechtigkeit für alle führt.
Alles in allem ist die Vision der UN/Maurice Strong/Civil Society Reflection-Gruppe nichts weiter als die jüngste Verkörperung von Platos Republik. Den Thesen Platos zufolge agiert eine gebildete, elitäre, aber wohlwollende und mythische Klasse in dem Glauben, dass ihre selbst ernannten Könige der Philosophie alle richtigen Antworten haben und die Zustimmung der Regierten nicht erforderlich ist. Der Rest der Menschheit muss im Gleichschritt folgen oder die Konsequenzen tragen; egal wie exemplarisch die Ergebnisse sind.
Wie Alexander Hamilton beobachtet hat, sind die Menschen unglücklicherweise keine Engel. Mehr noch, es fordert Erfahrung und den gesunden Menschenverstand heraus anzunehmen, dass die elitären UN, UNEP sowie die Gemeinschaft der Umweltaktivisten jemals Weisheit losgelöst von leidenschaftlicher Ideologie an den Tag legen werden – oder Wohlwollen für die Menschen, die sie regieren wollen.
Paul Driessen and Duggan Flanakin
Bemerkung von Anthony Watts hierzu: Die Rio+20-Agenda der UN bedeutet jeweils weniger Freiheit, Glück, wirkliche Gerechtigkeit und Fortschritte hinsichtlich der Menschenrechte.
____________
Paul Driessen is senior policy advisor for the Committee For A Constructive Tomorrow (www.CFACT.org and www.CFACT.tv) and author of Eco-Imperialism: Green power – Black death. Duggan Flanakin is director of research and international programs for CFACT.
Link: http://wattsupwiththat.com/2012/06/19/sustainable-justice-redistribution-of-scarcity/
Übersetzt von Chris Frey EIKE




Prognosen des Meeresspiegelanstiegs und was sie wert sind

 

Abbildung 1: BILD benutzte die Veröffentlichungen zum prognostizierten Meeresspiegelanstieg um 3 m und mehr, für einen wohl scherzhaften Aufmacher. Holland geht also wieder einmal unter, wie im bereits wiederlegten IPCC-Bericht, dass die Niederlande unter Wasser lägen.

Da Klimacomputerspiele in der Öffentlichkeit offensichtlich an Glanz verloren haben, ist das PIK dazu übergegangen, seiner Studie einen vermeintlichen Wahrheitscharakter dadurch mitzugeben, dass sich ihre Studie auf tatsächliche Beobachtungen der letzten tausend Jahre stützt: “Erstmals bietet diese Studie damit eine umfassende Projektion für einen derart langen Zeitraum. Sie stützt sich dabei auf den tatsächlich beobachteten Meeresspiegelanstieg im vergangenen Jahrtausend sowie auf Szenarien für künftige Treibhausgasemissionen“ und weiter “Die neue Studie verwendet einen so genannten semi-empirischen Ansatz, der auf dem Zusammenhang zwischen beobachteter Temperatur und Meeresspiegel während der vergangenen Jahrhunderte basiert, um daraus Schätzungen für einen Meeresspiegelanstieg in Szenarien künftiger globaler Erwärmung abzuleiten und zu berechnen.“

Donnerwetter! Wenn das nichts ist, tausend Jahre tatsächlicher Meeresspiegelanstieg als Datenbasis und „semi-empirischer Ansatz“. Klingt wirklich gut! Man beachte tausend Jahre und “tatsächlich“. Wie der Meeresspiegelanstieg seiner Meinung nach in den letzten tausend Jahren aussieht, hat das PIK bereits am 20.06.2011 veröffentlicht (Abbildung 2).

 

Abbildung 2 zeigt den Meeresspiegelanstieg nach PIK, Quelle: PIK, Sea levels rising at fastest rate in 2000 years“ vom 20.06.2011.

Man beachte in Abbildung 2:

·         von 1000 – 1380 = +0,6 mm/a

·         von 1380 – 1900 = -0,1 mm/a

·         von 1900 – 2010 = +2,1 mm/a

In Summe ergibt die PIK`sche Datenbasis einen mittleren Meeresspiegelanstieg von weniger als 0,4 mm/a über die letzten 1000 Jahre, die Rahmstorf und Co angeblich für ihre Prognose von 3 m Meeresspiegel bis zum Jahr 2300 als Basis herangezogen haben. Wird der prognostizierte Anstieg von 3 m, der nach Aussage von Rahmstorf auf tausend Jahre und “tatsächlich“ beruht, aufs Jahr umgerechnet, so ergibt sich ein Meeresspiegelanstieg von mehr als 10 mm/a und zwar ab sofort ! Ein wahrlich abenteuerlicher Prognosewert, anhand der gezeigten PIK´schen Datenbasis für die letzten 1000 Jahre.

Abbildung 3 zeigt den sich tatsächlich entwickelten Meeresspiegelanstieg über die letzten Jahre.

  

Abbildung 3: Entwicklung des Meeresspiegels über die letzten Jahre. Deutlich ist zu sehen, dass dieser nicht zusehends steigt, sondern, zusehends fällt, Quelle

Das gleiche Bild zeigt Abbildung 4

 

Abbildung 4 zeigt die Anstiegsraten pro Jahr über die letzten 20 Jahre. Der Anstieg des Meeresspiegels hat sich deutlich verlangsamt. Von einem beschleunigten Anstieg kann demnach keine Rede sein, Quelle: WUWT, “Sea Level Rise and Solar Activity“.

Wie auf einer Datenbasis von weniger als 0,4 mm/a für die letzten 1000 Jahre oder der gegenwärtigen Anstiegsrate von 1,5 mm/a ein Meeresspiegelanstieg von 3 m (10 mm/a ab sofort) erreicht werden soll, wissen wohl nur die Seher vom PIK. Obwohl, tausend Jahre, da war doch mal was. Haben die „Forscher“ etwa diese Datenbasis für ihre Studie genommen? Müsste man beim PIK einmal nachfragen.

Was bei der Verwendung von Modelrechnungen im Vergleich zur Realität herauskommt, kann z.B. in den ACIA-Berichten bestaunt werden, woraus die folgenden Abbildungen entnommen sind. Exemplarisch die Prognosemodelle zum Wolkenbedeckungsgrad, der essenziell für die Klimabewertung ist, der solaren Einstrahlung, die z.B. für die Kenntnisse der Energieflüsse (Trenberth) Voraussetzung ist und der Niederschlagsentwicklung.

 

Abbildung 5 zeigt nach diversen Modellberechnungen (alle mit Hochleistungsrechnern, sog. Supercomputern durchgeführt) der Wolkenbedeckung (links) und der solaren Einstrahlung (rechts) im Zeitraum von 1981 – 2000 von 70° – 90° nördlicher Breite. “TOVS“ zeigt die mittels Satellit aufgenommenen Vergleichsdaten beim Bedeckungsgrad und “Langley“ die Beobachtungsdaten der solaren Einstrahlung. „Bemerkenswert“ ist die Übereinstimmung der solaren Einstrahlung für die Monate November bis Februar. Diese kommt indes einzig dadurch zustande, dass die solare Einstrahlung im Winter in den Polargebieten bekanntermaßen gleich Null ist.

Gleiches Durcheinander der Modellbetrachtungen und Ergebnisse beim Niederschlag.

 

Das Tohuwabohu der Ergebnisse, die unterschiedlicher nicht sein können, braucht daher nicht weiter betont zu werden. Erstaunliche Übereinkunft in den verschiedenen und übrigens anerkannten Klimacomputermodellen zueinander und zur Realität zeigt sich einzig in der solaren Einstrahlung im Zeitraum von Oktober – Februar (Abbildung 5 rechts). Die Polarnacht können die Klimamodelle und die Supercomputer demnach exakt vorher bestimmen. Ob hierzu allerdings Supercomputer und aufwendige Klimamodelle diverser Institute notwendig sind, wagt der Autor zu bezweifeln.

Prof. Marotzke, Direktor des Max Planck Instituts für Meteorologie sagte auf dem 4. ExtremWetterKonkress in Bremerhaven “Wenn die Erde zum Eisball wird“ zu den Klimamodellen:

“Unsere Arbeiten zeigen zum ersten Mal mit einem umfassenden gekoppelten Klimamodell, dass die Erde bei heutiger Sonneneinstrahlung und heutiger Konzentration von Kohlendioxid in der Atmosphäre sowohl den heutigen Klimazustand als auch den Eisballzustand annehmen kann.“ Der Volksmund kennt hierzu eine treffende Aussage: “Außer Spesen, nichts gewesen.“

Bereits in seinem letzten EIKE-Beitrag „Climate change is pseudoscience“ fügte der Autor an (da dies so wichtig ist, soll es an dieser Stelle wiederholt und ergänzt werden):

Die angesprochene Pseudowissenschaft mittels Klimamodellen wäre nicht so tragisch, würden durch die Spielzeuge (z.B. Computerspiele, dort Klimamodelle genannt) und Spielplätze (hier der Meeresspiegelanstieg) nicht Unsummen von Geldern, unsere Steuergelder verschleudert. Von den hunderten von Milliarden, die durch daran ansetzende Maßnahmen, Abgaben und falscher Wegrichtungen, buchstäblich in den Wind geschrieben, bzw. Solargöttern geopfert werden, ganz zu schweigen.

Insofern bewegen sich diverse Regierungen/politische Programme und deren (pseudo)wissenschaftliche Helfer, auf einer Stufe mit der Weltanschauung der Maya-Kultur und die diversen Klimaprognosen auf derselben Ebene wie die Vorhersagen der keltisch/germanischen Druiden oder der antiken Orakel. Unsere Vorfahren benutzten die Innereien von Tieren, um die Zukunft zu ergründen. Gänseleber und Krötenblasen waren sehr beliebt. Heute werden wieder Innereien benutzt, um in die Zukunft zu blicken. Es sind die BYTES und FLOPS der Supercomputer – mit demselben Ergebnis.

 

Raimund Leistenschneider – EIKE