Das wissenschaftliche Ende der Klimakatastrophe – Fortsetzung

Insbesondere die ursprüngliche Arbeit von Lindzen et al., die inzwischen im Internet verfügbar ist und daher hier als pdf-File beigefügt werden darf, war unmittelbar nach ihrem Erscheinen heftiger Kritik ausgesetzt. So schrieb beispielsweise der dem IPCC nahe stehende Klimaforscher  Kevin Trenberth in http://www.realclimate.org/index.php/archives/2010/01/lindzen-and-choi-unraveled/:

–         die Arbeit sei nicht robust,

–         sie missinterpretiere die Luft-Wasser Interaktionen in den Tropen,

–         robustere Methoden zeigten keine Diskrepanzen zwischen IPCC-Modellen und Messungen,

–         die Arbeit hätte Messungen mit Modellen verglichen, die  unvollständige „Forcings“ aufwiesen und

–         die Arbeit würde die Klimasensitivität falsch berechnen.

Lindzen/Choi sahen sich mit dem offenen Eingeständnis, dass diese Kritik tatsächlich zu großen Teilen berechtigt ist, veranlasst, auf die Einwände von Trenberth im Detail einzugehen und eine Erwiderung/Ergänzung zu veröffentlichen, in der lückenlos auf alle Kritikpunkte eingegangen wird. Angesichts dieser Ergänzung darf indes ein in den inzwischen zahlreichen „Für-und-Wider-Blogs“ völlig übersehener Umstand nicht unerwähnt bleiben: die Arbeit von Paltridge, die leider nur als Abstract im Internet zugänglich ist, der hier als pdf-File angefügt ist und die auf Ballonmessungen der atmosphärischen Feuchte basiert, wurde bisher nicht kritisiert. Sie wies ebenso wie auch die Arbeit von Lindzen/Choi, aber auf einem anderen Wege, nach, dass Gegenkoppelungen überwiegen, konnte aber hierzu keine quantitativen Angaben machen. Aus diesem Grunde ist zumindest einmal zutreffend zu konstatieren:

Von einer gefährlichen Rückkoppelung, die die Klimasensitivität über die o.g. 1 Grad hinaustreibt, kann definitiv keine Rede mehr sein. Und da CO2-Verdoppelung grob mit dem Verbrennen aller fossilen Brennstoffressourcen der Erde gleichgesetzt werden kann, ist das Thema einer „globalen Klimakatastrophe infolge ansteigender anthropogener CO2-Emissionen“ wissenschaftlich jetzt wohl endgültig erledigt. Die Politik und industrielle Interessengruppen an einer gefährlichen globalen Erwärmung infolge anthropogener CO2-Emissionen werden sicher noch etwas länger brauchen, bis sie von dieser Wahrheit eingeholt werden.

Die Erwiderung/Korrektur von Lindzen und Choi liegt als pdf-File bei. Es erscheint wenig sinnvoll, auf die z.Teil sehr technischen Ausführungen hier in allen Einzelheiten näher einzugehen, der einschlägig klimawissenschaftlich gebildete Leser möge sich an die Originalarbeit halten. Nur das Wichtigste in Zusammenfassung:

–  die zu starke Glättung der 36-Tage Präzession des ERBE Satelliten  wurde durch eine bessere Auflösung ersetzt.

–  zu den Daten des ERBE Satelliten wurden nunmehr auch Daten des CERES Satelliten von 1985-1999 ergänzend hinzugezogen.

–  Rauschen der ausgehenden Strahlung sowie Strahlungsänderungen, die Oberflächen-Temperaturänderungen der Ozeane bewirken, wurden sorgfältig von den Strahlungsänderungen unterschieden, die durch Rückkoppelungseffekt infolge Änderungen der Oberflächen-Temperaturänderungen der Ozeane bewirkt werden.

–  Eine genauere Näherung für die Strahlungsbilanz ohne Rückkoppelungen wurde aufgestellt.

–  An der zulässigen Extrapolation der Ergebnisse von den Tropen auf gemäßigte Breiten wurde nicht abgegangen, da sie gemäß einer früheren Veröffentlichung des Autors (Lindzen, R.S., M.-D. Chou, and A.Y. Hou (20019, Does the Earth have an adaptive infrared iris?, Bull. Amr. Met. Soc., 82, 417-432) abgesichert ist.

Und um das Wichtigste nicht zu vergessen: Das Ergebnis der Erwiderung/Ergänzung von Lindzen/Choi unterscheidet sich um nichts von dem der ursprünglichen  Originalarbeit. Somit ist das wissenschaftliche Ende der anthropogenen Klimakatastrophe wiederholt und definitiv zu bestätigen. Wer jetzt noch von einem „Zwei Grad Ziel“ spricht, macht eine rein politische Aussage und nimmt dabei billigend die Unterschlagung wissenschaftlicher Erkenntnisse in Kauf.

Prof. Dr. Horst-Joachim Lüdecke, Physiker

EIKE-Pressesprecher

Dr. Rainer Link, Physiker

Related Files




Oxburgh Kommission: Warum Lord Oxburgh das Angebot, die Untersuchungen zum Verhalten der CRU zu leiten, nicht ausschlagen konnte

 

Zunächst etwas zum Hintergrund:

  1. Die von der CRU publizierten wissenschaftlichen Erkenntnisse sind eine wesentliche Grundlage für Entscheidungen der EU und der britischen Regierung, die Anlagen zur Erzeugung „grüner Energien” mit großen Beträgen zu subventionieren.
  2. Die Subventionen der „Erneuerbaren Energien” haben allein im Jahr 2008 insgesamt 50 Milliarden US-Dollar betragen (externer Link Quelle).
  3. Das Organisierte Verbrechen hat bereits damit begonnen, sich einen Teil der Subventionen zu sichern, deren Verwendung offenbar nicht gut genug gegen Missbrauch geschützt ist (Beispiel aus Spanien).
  4. Die Veröffentlichung der Klimagate-E-Mails hat beträchtlichen Schaden bei den Aktienkursen von Firmen verursacht, die sich mit „Erneuerbaren Energien” beschäftigen, besonders nach dem Scheitern von Kopenhagen, einem kalten Winter und den aufgedeckten Betrügereien mit Emissionszertifikaten.
  5. Die University of East Anglia hat eine eigene Kommission zur Untersuchung der Praktiken ihres Forschungsinstituts [CRU] eingesetzt und Lord Oxburgh gebeten, diese Kommission zu leiten.
  6. Lord Oxburgh ist gleichzeitig Vorstandvorsitzender von Falck Renewables, einem Hersteller von Windfarmen und zugleich britische Tochterfirma der  Falck Group, einem Hersteller mit Sitz in Mailand.
  7. Eine Schwesterfirma von Oxburghs Falck Renewables, Actelios, ist börsennotiert und hat nach ClimateGate usw. bedeutende Kursverluste erlitten.
  8. Lord Oxburghs Firma, deren Konzernmutter und mehr als eine Schwesterfirma übten  im Umfeld desErwerbs von Eigentum und bei der Errichtung von grünen Energiesystemen Aktivitäten des Organisierten Verbrechens aus.
  9. Die grüne Energie-Industrie, Oxburghs Firma, Investoren aus dem Organisierten Verbrechen, Falck Renewables, deren Konzernmutter und Schwesterfirmen konnten nur von einer Untersuchung profitieren, deren Befunde die „wissenschaftlichen Ergebnisse” der CRU nicht in Frage stellen würde.
  10. Der Oxburgh-Bericht war oberflächlich und umfaßte gerade einmal 5 Seiten. Die Kommission befragte niemanden von ausserhalb der Universität. Sie untersuchte 11 Papiere, die nicht Gegenstand der ClimateGate-Kontroverse waren. Diese Papiere waren entweder von der Universität oder von der Royal Society ausgewählt worden, deren Mitglied der CRU-Direktor Phil Jones ist.

Kann man glauben, dass der „Mob” die Untersuchung geleitet hat? Sicher nicht. Kann man glauben, dass Lord Oxburgh zusätzliche Gründe hatte, die Ergebnisse seiner Untersuchung zugunsten des Status Quo zu bewerten? Das ist gut möglich. Kann man meinen, dass Unterwelt-Verbindungen zu den Fördermitteln für Erneuerbare Energien fast jeder Entscheidung über diese Energien abträglich ist? Definitiv Ja. Kann man glauben, dass die Universität von East Anglia die falsche Person mit dem Vorsitz der Untersuchung beauftragt hat? Ganz bestimmt Ja.

Als man Lord Oxburgh den Vorsitz der Untersuchungskommission anbot, welche die wissenschaftlichen Praktiken der CRU, wo die Klimagate-Emails herkamen, beleuchten sollte, fragten sich viele, ob er überhaupt objektiv sein konnte. Und zwar hauptsächlich deswegen, weil er einer Firma vorstand, die Windparks im UK und in Europa baute. Vielleicht gab es auch noch andere Gründe, seine Objektivität in Frage zu stellen. Nach dem Klimagate-Skandal, dem Scheitern des Kopenhagener Klimagipfels und einem sehr kalten Winter in Europa und den USA, hat die Schwesterfirma von Falck Renewables, die öffentlich notierte Actelios, die Hälfte ihres Wertes verloren. Für Lord Oxburgh stand möglicherweise viel auf dem Spiel und er könnte das von seinem Gremium gefällte Urteil gut gebraucht haben..

Aber da könnte noch viel mehr sein. Genau wie im späten 19. Jahrhundert, als es viele Betrügereien und kriminelle Machenschaften bei der Entwicklung der Ölindustrie gegeben hatte, kommt es jetzt in großem Rahmen zu organisierter Kriminalität bei der Entwicklung der Erneuerbaren Energien. Entweder kann man den von der Mafia neu gefundenen Sinn für die Ökologie loben oder das laxe Herumwerfen mit Subventionen seitens der Regierung zur Kenntnis nehmen.

Lord Oxburgh ist der Vorsitzende von Falck Renewables, einem Hersteller von Windparks, dessen Mutterfirma die in Schwierigkeiten geratene Falck-Gruppe in Mailand, Italien ist. Die Projekte von Falck Renewables scheinen einem Muster zu folgen:

Ihr Projekt in La Muela, Spanien, war verstrickt in die Festnahme von 18 Personen, die im Verdacht der organisierten Kriminalität standen (was associated with the arrest of 18 people on organised crime issues ).

Mächtige Windturbinen rührten in der Luft über La Muela während der vergangenen Woche, aber der  echte Aufruhr entstand durch die Verhaftung des Bürgermeisters der kleinen aragonesischen Stadt sowie 18 anderer Personen wegen desVerdachts eines neuen spanischen Phänomens: Öko-Korruption.“

Ebenso beim Falck – Windpark in Buddosò – Alà di Sardi: „vier Personen verhaftet (Four people arrested,), Beschlagnahmen in sieben Windparks und 12 Firmen, das ist das Ergebnis der Operation ‚Vom Winde Verweht’ (gone with the wind), für die der Gerichtshof von Avellino Haftbefehle ausgeschrieben hat: für Oreste Vigorito, 62, Rechtsanwalt in Neapel, Präsident und Direktor vom Fußballclub IVPC Benevento Calcio; Vito Nicastro, 52, aus Alcamo, Ferdinand Renzulli, 42, aus Avellino und Vincent Dongorra, 46, aus Enna. Gegen weitere 11 Personen wurde in verschiedenen Fällen der Verantwortlichkeit wegen organisierten Betrugs ermittelt, mit dem man sich Zuwendungen der öffentlichen Hand zum Bau von Windparks erschleichen wollte. Neun der unter Verdacht stehenden Firmen befinden sich in Avellino, die restlichen in Sizilien.“

In Bezug auf Falcks Windpark in Minervino Murge habe wir am Freitag berichtet, dass der Anti-Mafia-Staatsanwalt in Trapani die Operation „Eolus“ gestartet hat. Dabei wurden 8 Haftbefehle erlassen gegen Personen mit Beziehungen zu lokalen „Familien“, Verwaltungsbeamten, städtischen Funktionsträgern und Unternehmern: wegen Begünstigung der mafiosen Vereinigung „La Cosa Nostra“, im Besonderen weil sie der mafiosen Familie von Mazara del Vallo die Befugnis übertragen hatten, wirtschaftlichen Aktivitäten zu steuern, Genehmigungen zu erteilen, Verträge und öffentliche Dienstleistungen bei der Herstellung von elektrischer Windenergie zu kontrollieren, wie auch wegen politisch-mafiosen Stimmenmissbrauchs.

Die Identifikation von Personen und Firmen bei der sizilianischen gerichtlichen Untersuchung enthüllte verstörende Verbindungen zur Herstellung von Windparks in Apulien: zu den Gemeinden Minervino Murge, Spinazzola und Poggiorsini, auf deren Gebiet einige Firmen Interesse bekundet haben und bereits in einigen Fällen mit Installationen ohne die erforderlichen Konzessione begonnen haben.

In Bezug auf den Windpark “Petralia Sottana” nahe Palermo: was haben Puglia, Sizilien, Mazara del Vallo-minervino Murge (Puglia, Sicily, Mazara del Vallo-Minervino Murge ) gemeinsam? Nichts außer dem Interesse an Windenergie. Firmen, die sich dafür interessieren, Windturbinen in Apulien zu errichten, sind mit ähnlichen Windparks in Sizilien verbunden, den gleichen, die in die Untersuchungen unter der Bezeichnung „Aeolus“ des hoch motivierten Mafia-Anklägers in Trapani verwickelt sind.

Die Subventionen Italiens und der EU für die Errichtung von Windparks und der welthöchsten garantierten Einspeisevergütung in Höhe von €ct 180 ($ct 240, p 160*) pro Kwh für den so gewonnenen Strom haben Süditalien in einen sehr attraktiven Markt verwandelt, der durch die organisierte Kriminalität ausgebeutet wird.

In der „Financial Times“ hieß es dazu 2009: „Multinationale Konzerne fangen an, etwas zu entdecken, das italienischen Investoren bereits bestens bekannt ist: dass nämlich unter dem freigiebigen  europäischen System der Förderungen – unterstützt durch Verschmutzungszertifikate (green credits), die industrielle Luftverschmutzer kaufen müssen – ein Netz von Korruption und dunkler Geschäfte existiert.

Rossana Interlandi, die kürzlich ernannte Vorsitzende des sizilianischen Umweltamtes, erklärt, dass die Projektentwickler – sie nennt diese ‚Spekulanten’ – ebenfalls durch ein Gesetz geködert wurden, die den italienischen Netzbetreiber verpflichtet, Zuwendungen an Windparkbetreiber selbst dann zu zahlen, wenn diese gar keinen Strom produzieren.

Die Anzahl italienischer Städte mit einem Windpark in der Nähe hat sich innerhalb eines Jahres dank der Zuwendungen der EU verdoppelt. Es wäre sehr erstaunlich, wenn die Mafia dabei nicht die Finger im Spiel hätte.

Die Lage in Italien verschlechterte sich mittlerweile bis zu einem Punkt, dass man auf Solarinstallationen von Anwohnern setzt, nur um den Einfluss der Mafia so gering wie möglich zu halten.

Windenergie ist inzwischen zu einer großen Industrie geworden, die weiter rasant wächst. Eine Menge dunkler Gestalten wird davon magisch angezogen, größtenteils wegen der öffentlichen Zuwendung sowohl für die Errichtung als auch die Vergütung des erzeugten grünen Stromes.

Der Mutterkonzern von Oxburgh’s Falck Renewables ist die Falck-Gruppe in Mailand. Wie in so vielen italienischen Geschäftsbereichen gibt es auch hier ein kompliziertes Wirrwarr von Querverbindungen und Überkreuz- Beteiligungen, dass es fast unmöglich ist, dieses System zu entschlüsseln. Immerhin war Falck’s Schwesterkonzern Actelios Gegen­stand einer Anti-Mafia-Untersuchung, wie in der letzten Woche berichtet.

Niemand von Falck Renewables oder der Muttergesellschaft wurde bisher verhaftet, obwohl Achille Colombo, der frühere Chef, von seinem Posten zurückgetreten ist und Berichte über neue, inzwischen abgesagte fragwürdige Geschäfte mit dem Betreiber einer sizilianischen Müllverbrennungsfirma bekannt wurden. Dieser Handel, der abgesagt wurde und immer noch untersucht wird, hatte einen Wert von etwa € 4 Milliarden. Die Falck-Gruppe ist eine in Mailand ansässige Firma, die Windparks in Kalabrien und Sizilien errichtet hat und gegen die wegen Verstrickungen mit der Mafia ermittelt wird. Einige dieser Windparks, einschließlich einer in der Nähe von Corleone, wurden schon vor einiger Zeit fertig gestellt, aber bis heute noch nicht an das Netz angeschlossen. Trotzdem flossen die EU-Subventionen sehr großzügig.

Falck’s Schwesterfirma Platani Energia Ambiente war ebenfalls Gegenstand von Anti-Mafia-Ermittlungen, und zwar in Bezug auf einen umstrittenen Grundstückshandel von 2002 bis 2007. Dies führte dazu, dass der Chefunterhändler, Gioacchino Genchi, gefeuert wurde.

Das Letzte, was diese Leute brauchten, waren Meldungen, dass die Windenergie für das Überleben des Planeten gar nicht von Belang wäre. Ebenso unwillkommen wären Meldungen, dass die Botschaft von der gegenwärtigen Erwärmung der Erde beispiellos in den letzten 1000 Jahren, wie von der CRU in die Welt hinein posaunt, möglicherweise gar nicht stimmte. Die Rezession hat die Börsennotierungen grüner Technologie schwer heruntergezogen. Das Scheitern des Kopenhagener Klimagipfels, der Kollaps des Handels mit CO2-Zertifikaten sowie zahlreiche Skandale waren auch nicht gerade hilfreich.

Eine Schnelluntersuchung durch ein Komitee, welchem eines der Ziele diente, und die sich auf internationale Interviews und ausgewählte Papiere (wie es scheint) konzentrierte, und die bezeichnenderweise keines der Papiere der Skeptiker begutachtete, ließ die CRU als duftende, aber etwas desorganisierte, dennoch engagierte’ Rose erscheinen.

Die Reaktion sowohl in den Hauptmedien sowie von den Regierungen auf den Oxburgh – Berichtes zeigen, dass deren Ergebnisse mehr als willkommen waren – sie könnten sogar notwendig gewesen sein, um die massive Umstellung hin zu grüner Energie weiter zu beflügeln.

Ich wiederhole hier, dass ich keine Beweise habe, dass Oxburgh oder seine Firma irgendwie mit der Mafia zusammen hängt. Aber nicht einmal seriöse Firmen können in Italien weit entfernt von der Mafia operieren, und sie können davon überrascht werden, plötzlich auch Gegenstand von Ermittlungen zu sein. Ich habe keinen der in diesem Bericht genannten Hauptakteure interviewt, was eigentlich an erster Stelle eines nachforschenden Reporters stehen sollte, der ich jedoch nicht bin. Ich kommentiere lediglich italienische Meldungen und Meinungen, habe ich doch sieben Jahre lang dort gelebt und verstehe zufälligerweise Italienisch.

Aber der Druck auf Lord Oxburghs Firma war enorm angesichts genereller finanzieller Bedingungen und der Verwicklung in rechtliche Schwierigkeiten in Italien, und so war es unvermeidlich, dass jemand die Frage stellte, ob er wirklich unparteiisch sein könnte.

Noch wichtiger ist, dass die Flut öffentlicher Gelder, neue Transaktionen und neue Partnerschaften mit Projekten in fernen Ländern es schwierig, wenn nicht unmöglich macht, mit der gebotenen Sorgfalt und vorzugehen. Das ist wie im Wilden Westen bei der Erzeugung erneuerbarer Energie und dem Handel mit CO2-Zertifikaten. Es gibt seit Jahren Skandale – und es wird weitere geben. Was hat man sich dabei gedacht, jemanden (selbst einen so angesehenen Mann wie Oxburgh) über Dinge urteilen zu lassen, die seine eigene Firma betrafen – sogar deren Überleben? Ich wiederhole, ich stelle nicht Lord Oxburghs Integrität in Frage, aber kann sich überhaupt irgendjemand aus dem Bereich der erneuerbaren Energien von derartigen Assoziationen frei machen? Allein im Jahre 2009 gab es in Spanien 19 Festnahmen im Zusammenhang mit Korruption beim Bau eines Windparks, es gab einen Skandal in Ungarn, wo CO2-Zertifikate mehrfach gehandelt wurden. In Maine erwarb ein Regulator Eigentumsrechte für   eine Firma , die er zubeaufsichtigen hatte und die er weiter führte, ein Washingtoner Biologe wird angeklagt, weil er Subventionen für einen Windpark in seinen eigenen non-profit Forschungsbereich umgeleitet hat, in Kanada wird ermittelt gegen ungesetzliche Lobbyarbeit grüner Lobbyisten – die Liste ließe sich endlos weiter fortsetzen.

Und jetzt kommt eine Firma daher, die in so viele Skandale und fragwürdige Machenschaften verstrickt ist, und ein Urteil wird gefällt, das den Erneuerbaren eine dringend benötigte Atempause im Allgemeinen verschafft und der eigenen eingschließlich der Schwesterfirmen  die Möglichkeit zum Durchstarten.

Es war wirklich ein höchst zweckmäßiges Ergebnis, diese Entlastung der CRU.

Ein Gastbeitrag von Thomas Fuller, San Francisco Environmental Examiner

Ins Netz gestellt von Anthony Watts am 25.4.2010

Weitere infos über Oxburghs Aktivitäten finden Sie hier:

 Lord Oxburgh  (ehemaligem Vorsitzendem des Shell UK der Rothschilds und hier)

Dankenswerterweise von C. Frey und H. Jäger für EIKE übersetzt

Weitere Details hier!

Related Files




Wie ein fehlendes M die Temperaturen nach oben treibt: Es ist schlimmer als gedacht

In meinem letzten Beitrag haben wir über eine merkwürdige Temperatur-Anomalie ge­sprochen, die Jean S. in den GISS-Daten vom März gefunden und an Climate Audit ge­schickt hatte.

Diese Anomalie über Finnland hat eine interessante Signatur und die vom GISS auf sei­ner Webseite veröffentlichte Korrektur bestätigt, was ich seit einigen Monaten suche.

Die Daten für den Zeitraum zwischen dem 13. und 15.4. beruhten auf Daten, die am 12.4. heruntergeladen worden waren und die einige Stationsmeldungen enthielten, bei denen das negative Vorzeichen verloren gegangen sein könnte.

Ich machte mir einige Arbeit vom vergangenen Dezember bis Januar und weil bei GISS die Bestätigung  "negative Vorzeichen fehlen" aufgestempelt wurde, kann ich jetzt zeigen, dass fehlende negative Vorzeichen kein gelegentliches Ereignis sind, sie fehlen mit Regelmäßigkeit und die Auswirkung ist sehr ausgeprägt, wenn das geschieht. Das zielt ins Herz der Datensammlungs-Integrität und beruht auf einfachem menschlichen Irrtum. Der Fehler liegt nicht beim GISS (obwohl man dort eine neue Qualitätssicherung braucht) sondern meist bei NOAA/NCDC, die die GHCN verwalten und die auch bessere Qualitätssicherung brauchen. Der Fehler entsteht am Flughafen, wahrscheinlich bei jemand, der im Kontrollturm sitzt. Leser, die Piloten sind, werden das verstehen, wenn sie sehen, worüber ich spreche.

Ich habe den Fehler überall in der Welt entdeckt. Lesen Sie bitte weiter, und ha­ben Sie Geduld. Da muss eine Menge von Einzelheiten besprochen werden, um die An­gelegenheit ordentlich zu behandeln. Ich muss ganz von vorne in der Kette der Klimadaten anfangen, da, wo sie entstehen, und mich nach oben arbeiten.

Zuerst eine Erläuterung zur Entstehung des Fehlers und zu den Unterschieden zwi­schen den Boden- und den Satelliten-Messdaten. Ich sollte erwähnen, dass im Satelli­tenbild von der Erdbeobachtung der NASA (NEO) der gleiche Fehler nicht auftaucht, wie in der GISTEMP-Karte oben.

NASA NEO March 1-31 2010 day satellite measured temp anomaly – click for larger image

Warum? Vielleicht wegen besserer Sensoren, aber meist hat es mit einer unterschied­lichen Datensammlungsmethode zu tun. Bei den Bodendatensätzen, einschließlich der Land- und Meeresdaten, wird fast jeder Datenpunkt von einer menschlichen Hand an­gefasst, sogar die von automatischen Flughafensensoren erfassten Flughafendaten werden manchmal manuell umgeschrieben (oft in Drittwelt- und technologisch unter­entwickelten Ländern.). Bei den Bodenmessdaten sind Tausende von Sensoren über die Erde verteilt, von unterschiedlicher Konstruktion, in unterschiedlicher Umgebung, von vielen unterschiedlichen Personen bedient mit unterschiedlichen Mess- und Meldestan­dards. Die Präzision, Genauigkeit und Kalibrierung des weitverbreiteten Bodenmess-Netzwerks ist unterschiedlich, besonders wenn eine breite Mischung von Instrumen­tenarten vorliegt. So unterscheidet sich auch die Ausstattung im Netzwerk der US – Kli­matologie-Geschichte erheblich.

 

Von Satelliten werden die Daten von einem einzigen Punkt aus gemessen mit einem einzigen Sensortyp, der an Bord mit Hilfe einer Präzisionsquelle kalibriert wird. An Bord sind redundante Platin-Widerstand-Thermometer (PRTs) auf die Satelliten-Radiometer gesetzt. Die PRTs werden einzeln in einem Laboratorium kalibriert, bevor sie in den Messinstrumenten installiert werden. Die Satellitendaten werden automatisch gemes­sen und gesendet. Im Gegensatz zu den Bodentemperaturmessungen geschieht kein menschlicher Eingriff beim Datenerfassen und beim Übermitteln. Die Satellitenda­tenerfassung ist viel homogener als der Mischmasch bei den Bodendaten.

Ich meine, dass man sicher sagen kann, dass das Risiko menschlicher Fehler bei den Bodenrohdaten mindestens um eine Größenordnung höher ist (vielleicht sogar um mehrere) als die Fehlermöglichkeit bei den Satellitenrohdaten. Die Verarbeitung nach der Erfassung ist ein weiterer Punkt, doch im Rahmen dieses Aufsatzes konzentriere ich mich nur auf die Rohdatenerfassung und Übertragung.

Wie schon im jüngst aktualisierten Kompendium über die Probleme mit den Bodenmessda­ten von Joe D’Aleo und mir erwähnt, gibt es eine Tendenz beim Globalen Historischen Klimato­logischen Netzwerk (GHCN), sich bei den Klimadaten immer mehr auf Flughäfen zu verlassen. Das ist meiner Meinung nach ein riesiger Fehler, weil zusätzlich zu unseren Problemen, wie E.M. Smith (auch bekannt als "Chiefio") berichtet, in GISS (GISS benutzt GHCN) weltweit eine kompletter Übergang zu Flughafenwetterdaten als Klimadaten­quelle erfolgt ist. Er sagte mir in einer Email vom 20. Jan. 2010:

Sehen Sie hier nach:

AGW GIStemp Measure Jet Age Airport Growth

Das ist eine recht gute Beschreibung der Probleme mit den Daten. Wir haben eine globale Darstellung für GHCN mit Stand von August. Mehr Einzelheiten stehen im Link, aber ich denke, Sie möchten über den "Jetzt"-Zustand etwas erfahren…..

Rest siehe pdf Anhang (20 Seiten) sowie Schluß unten

………………………………………..

………………………………………..

………………………………………..

Fehlendes "M" – Sofortige Polartemperaturverstärkung?

Man hat gesagt, dass sich die Signatur der globalen Erwärmung an den Polen zuerst zeigen wird. Die Polartemperaturverstärkung (polar amplification) wird definiert als:

"Die Polartemperaturverstärkung (stärkere Temperaturzunahme in der Arktis im Vergleich zur gesamten Erde) ist das Ergebnis der zusammenkommenden Rück­kopplungen und anderer Prozesse." Dies gilt nicht für die Antarktis, weil das südli­che Meer als Wärmesenke wirkt. Weit verbreitet ist diese Behauptung: "Klimamodelle sagen allgemein eine Verstärkung der Erwärmung in den Polregio­nen voraus", z. B. Doran et al. Jedoch sagen die Klimamodelle Temperaturverstär­kung für die Arktis, aber nur gemäßigte Erwärmung für die Antarktis voraus.

Interessanterweise hat der METAR-Codierfehler sein größtes Ausmaß an den Polen, weil die Unterschiede durch das Fehlen des Minuszeichens mit kälter werdender Tem­peratur größer werden. Heureka! NWT (North Western Territories) ist ein großartiges Beispiel, weil durch ein einziges fehlendes "M" die Temperatur von -43 Grad F auf +43 Grad F springt.

Am Äquator wird man keine METAR-Kodierfehler finden, weil die Temperatur dort niemals unter 0 Grad C fällt. Niemand wird dies dort codieren. In mittleren Breiten kann es vorkommen, aber eher jahreszeitlich bedingt und mit nicht so großem Unterschied.

Ein Beispiel:

Durch Änderung von M05/M08 auf 05/M08 wird die Temperatur von -5 Grad C auf +5 Grad C gesetzt, doch an Orten wie Boston, Chicago oder Denver, usw. kann eine +5 Grad C – Temperatur leicht in jedem Wintermonat vorkommen, in dem auch -5 Grad C. vorkommen. Deshalb verschwindet der Fehler im Rauschen des "Wetters" und wird wahrscheinlich niemals bemerkt. Aber er schiebt den Temperaturdurchschnitt ein we­nig nach oben, wenn er nicht korrigiert wird.

Aber in der Arktis und der Antarktis macht das fehlende M in einer M20/M25 METAR-Meldung einen Unterschied von 40 Grad C aus, wenn da +20 Grad C stehen. Und es scheint wenig wahrscheinlich, dass wir einen Wintermonat in Sibirien oder auf Antark­tika erleben, der normalerweise bis auf 20 Grad C hochgeht, daher wird der Fehler nicht im Wetterrauschen untergehen, sondern wird zu einem starken Signal, wenn er nicht korrigiert wird.

Die Neigung zur Bestätigung der Fehler aus der Erwartungshaltung der Polartemperaturverstär­kung heraus mag der Grund sein, warum bis dato niemand darauf hingewiesen hat. Darüber hinaus scheinen sich die Organisationen, die aus Bodentemperaturen abgelei­tete Klimadaten präsentieren (GISS, CRU), nur mit monatlichen und jährlichen Durch­schnitten zu beschäftigen. Tägliche oder stündliche Daten werden nicht präsentiert, soviel ich weiß, und wenn auf diese Zeiträume bezogene Fehler passieren, werden sie nicht bemerkt.

Seit das NASA GISS zugegeben hat, dass fehlende Minuszeichen zur heißen Anomalie über Finnland im März beigetragen haben, und anhand der vielen METAR-Codierfehler Vorkommnisse, die ich für andere Stationen auf der Erde nachgewiesen habe, scheint der Schluss vertretbar zu sein, dass unsere METAR-Daten von kalten Orten durch Codierfehler verfälscht sein könnten, die aus dem System herrühren.

Die gezeigten Daten zwischen dem 13. und 15. 4. beruhen auf Daten, die am 12. 4. heruntergeladen wurden. Darin enthalten sind einige Stationsmeldungen von Finn­land, wo das Minuszeichen unter den Tisch gefallen sein kann.

  4/15/10 http://data.giss.nasa.gov/gistemp/

Dieses verflixte fehlende M, oder ein zusätzliches Leerzeichen, oder nur ein "-", wenn ein "M" gemeint ist (das ist der grundlegenden mathematischen Vorstellung zuwider), alles zusammen scheinen eine Rolle zu spielen beim menschlichen Irrtum, der zu den Da­tenfehlern in unserer globalen Oberflächentemperatur beiträgt. Um die Größe des Pro­blems zu bestimmen, ist eine umfassende Überprüfung aller Daten nötig, von unten nach oben, von deren Entstehung bis zu den [daraus erzeugten] Ergebnissen. Bei NOAA/ NCDC muss angefangen werden, weil die für die Qualitätssicherung der Daten ver­antwortlich ist.

Man sagt, dass "der Mensch die globale Erwärmung verursacht". Ich meine, genauer wäre die Aussage: "Menschliche Fehler erzeugen die globale Erwärmung".

Anmerkung: In diesem Beitrag habe ich die Fehler vorgeführt. In einem folgenden Bei­trag hoffe ich, Datenanalysen mit den Zahlen durchzuführen, um zu sehen, welche Auswirkung die Fehler tatsächlich haben. Natürlich ist jeder willkommen, der das ma­chen will, Links auf Grafiken und Tabellen zu liefern.

– Anthony [Watts]. den Originalartikel finden Sie hier

Die angekündigten weiteren Beiträge von Watts dazu sind 

(2) http://wattsupwiththat.com/2010/04/22/dial-m-for-mangled-wikipedia-and-environment-canada-caught-with-temperature-data-errors/

und 

(3) http://wattsupwiththat.com/2010/04/24/inside-the-eureka-weather-station/

Die Übersetzung besorgte in dankenswerterweise und bewährter Manier Helmut Jäger für EIKE. 

Related Files




Deutsche Klimafolgenforscher starten das letzte Gefecht: Ein neuer Rettungsversuch für ein globales Klimaabkommen – Die Klima-Kopfpauschale!

Wenn selbst die Kanzlerin der als Klimastreber bekannten Deutschen sich öffentlich davon verabschiedet (auch hier), dürfte das (stille) internationale Begraben dieser Zielsetzung wohl nur noch eine Formsache sein. Die nächste große Klimakonferenz Ende dieses Jahres wird daher wohl wieder einmal viel Tamtam bringen und ansonsten ohne konkretes Ergebnis zu Ende gehen. Man sieht sich im nächsten Jahr.

Paradigmenwechsel in der deutschen Klimapolitik
Der Wechsel der Marschrichtung in der deutschen Politik kommt einem Paradigmenwechsel gleich. Und man muss kein Prophet sein, um zu folgern, dass damit auch ein Verlust des Einflusses der Klimaforscher auf die Politik in unserem Land einhergehen wird. Am meisten dürfte davon das Potsdamer Institut für Klimafolgenforschung (PIK) betroffen sein, welches bislang mit Stefan Rahmstorf und Institutsdirektor Hans Joachim Schellnhuber noch 2 der 8 Mitglieder des einflussreichenWissenschaftlichen Beirats der Bundesregierung Globale Umweltveränderungen (WBGU) stellt und mit knapp 200 Beschäftigten ein hohes Interesse daran hat, dass die Klimafurcht und alles was dazu gehört weiter geschürt wird.

Ungeachtet dieser Entwicklung, oder vielleicht gerade deswegen, also um noch einmal eine entscheidende “Duftmarke” zu setzen, hat das PIK jetzt ein Grundsatzpapier herausgegeben, in dem ein völlig neuer Weg vorgestellt wird, der doch noch den erhofften Durchbruch in der Klimapolitik bringen soll. Unter dem Titel “Neue Strategie zur Realisierung des 2°max Klimaziels” präsentieren die Forscher einen Lösungsansatz, den sie “Peak and Trade” nennen und hinter dem sich eine Art Klima-Kopfpauschale verbirgt. Nach den Vorstellungen der Wissenschaftler soll jedem Erdenbürger zunächst ein Kontingent von rund 5 Tonnen CO2 zugesprochen werden. Wird dieses überschritten, muss in einen Topf (eine neu zu schaffende “Weltklimabank”) gezahlt werden, bei Unterschreitung gibt es Geld aus diesem Topf. Morgen, am 29.4.10 wird dieses Papier mit großem TamTam von PIK Chef-Schellnhuber und Bundesumweltumweltminister Röttgen in den Räumen der Bundespressekonferenz in Bonn der Öffentlickeit (s. u.) vorgestellt. Wir können sicher sein, dass es wieder große mediale Aufmerksamkeit erfährt.

 

Pro Kopf CO2-Ausstoß nach Ländern. Die Größe des Kreises spiegelt den CO2-Ausstoß wider. Quelle: Gapminder World

Die Amerikaner hätten demnach mit 16,9 Tonnen pro Jahr und Einwohner einen mehr als 3 mal zu hohen Ausstoß, wir Deutschen mit 9,8 Tonnen einen fast doppelt zu hohen. In Westeuropa stehen Schweden und die Schweiz (je 5,6 Tonnen pro Einwohner) und Frankreich (6,3 Tonnen) besonders gut da. Erstere, weil sie sehr viel Strom aus Wasserkraft erzeugen, und letztere wegen der Stromerzeugung aus Kernkraft.

Kopfpauschale als Lockangebot für Schwellen- und Entwicklungsländer
Woher kommt die magische Grenze von rund 5 Tonnen pro Einwohner? Die Autoren der Studie begründen diese mit einem vermutlich im Jahr 2015 erreichten globalen CO2-Ausstoß von 35 Milliarden Tonnen. Und diese Zahl, geteilt durch eine Weltbevölkerung im Jahr 2010 von geschätzten 6,9 Milliarden Menschen, ergibt 5,1 Tonnen pro Erdenbewohner. Vergleicht man die CO2-Emissionen pro Kopf der Länder der Welt (klick auf die Infografik), dann kann einem aber auch eine ganz andere Vermutung kommen.

Das Scheitern der letzten Weltklimakonferenz in Kopenhagen lag zu einem nicht unerheblichen Teil am Widerstand der aufstrebenden Entwicklungs- und Schwellenländer, allen voran Brasilien, China und Indien. Und diese Länder liegen (Brasilien und Indien deutlich) unterhalb der magischen 5,1 Tonnen-Grenze, würden also von der jetzt vorgeschlagenen Regelung profitieren.  Mit diesen Maßnahmen, so könnte man mutmaßen, sollen die abtrünnigen Schwellenländer finanziell für eine Zustimmung geködert werden. Politisch korrekt nennt man das heute wohl “ins Boot holen”.

Kopfpauschale schafft Anreiz zum Bevölkerungswachstum
Profitieren von einer solchen Regelung würden vor allem bevölkerungsreiche Schwellen- und Entwicklungsländer. Je mehr Einwohner und je geringer der Entwicklungsstand, umso mehr Geld ist zu holen. Für solche Länder würde diese Regelung vor allem den Anreiz erhöhen, einen möglichst großen Anteil ihrer Bevölkerung von der Entwicklung auszuschließen, denn dadurch würde deren pro Kopf CO2 Verbrauch nachhaltig auf niedrigem Niveau gehalten werden. Von den Einnahmen, die für diese Länder durch die CO2-Karenz ihrer Bevölkerung generiert würden, bekäme diese wohl eher nichts zu sehen. Wie die Erfahrungen aus den zahlreichen Entwicklungshilfe-Programmen gerade für die ärmsten Länder in Afrika zeigen, fließen solche Gelder entweder in den Militäretat oder landen direkt auf den Schweizer Nummernkonten der Regierungsmitglieder.

[Update]
Welt 27. 04. – Klimaforscher fordern CO2-Höchstmenge pro Kopf
FAZ 28. 04. – Asyl für Klimasünder

ÄHNLICHE BEITRÄGE (BETA):

Rudolf Kipp EIKE; zuerst erschienen in abgewandelter Form bei Science Sceptical

Update 1:

15:00 Uhr     – NEU –
BPK BONN Klimapolitik nach Kopenhagen: Auf drei Ebenen zum Erfolg Der WGBU übergibt im Vorfeld des Petersberger Klimadialogs ein Politikpapier an die Bundesregierung
– BONNER TERMIN! – Veranstaltungsort: BPA, Dienstsitz Bonn, Welckerstraße 11, 53113 Bonn

  • Dr. Norbert Röttgen, Bundesminister für Umwelt, Naturschutz und Reaktorsicherheit
  • Prof. Dr. Hans-Joachim Schellnhuber, Vorsitzender des Wissenschaftlichen Beirats der Bundesregierung Globale Veränderungen (WBGU), Direktor des Postdam-Instituts für Klimafolgenforschung (PIK)
  • Prof. Dr. Dirk Messner, Stellv. Vorsitzender des Wissenschaftlichen Beitrats der Bundesregierung Globale Umweltveränderungen (WBGU), Direktor des Deutschen Institut für Entwicklungspolitik (DIE)
  • Update 2: FDP Kauch solidarisiert sich sofort mit dieser neue Botschaft:
  • ++ KAUCH: FDP unterstützt globalen CO2-Markt (29.04.2010)

    BERLIN. Zu den Vorschlägen für eine neue Klimaschutzstrategie, die der Wissenschaftliche Beirat für Globale Umweltfragen (WBGU) der Bundesregierung vorgelegt hat, erklärt der umweltpolitische Sprecher der FDP-Bundestagsfraktion Michael KAUCH: 

    Die Experten des WBGU vertreten die Strategie eines globalen CO2-Marktes.
    Die FDP-Bundestagsfraktion unterstützt dieses Konzept seit vielen Jahren. Die Liberalen haben das Ziel eines globalen Kohlenstoffmarktes auch im Koalitionsvertrag verankert. Dennoch bleibt die Frage, ob China und die USA, die bisher ein Kyoto-Nachfolgeabkommen verweigern, sich durch diesen Vorschlag einbinden lassen.

    Begrüßenswert ist der Ansatz des WBGU, jedem Menschen gleiche Emissionsmengen zuzugestehen. Das würde die "basarähnlichen" Verhandlungen auf den Klimakonferenzen über Reduktionsverpflichtungen und Ausgleichszahlungen durch einen objektiven Maßstab ersetzen. 
    Vernünftig ist die Doppelstrategie der Bundesregierung, sowohl auf ein neues Klimaschutzabkommen als auch auf praktische Klimaschutz-Kooperation mit Partnerländern zu setzen.

Die Redaktion mein: Dem ist nichts hinzufügen!




Die Klimakanzlerin war gestern – Merkel strebt kein global bindendes Abkommen zum CO2-Ausstoss mehr an

So sieht wohl ein geordneter Rückzug aus. Wie der Spiegel in seiner Online-Ausgabe heute berichtet, hat unsere Bundeskanzlerin das Ziel aufgegeben, einen weltweit verbindlichen Vertrag für CO2-Emissionen anzustreben:

Merkel rückt von Weltklimavertrag ab

Bundeskanzlerin Angela Merkel (CDU) will nach Informationen des Nachrichtenmagazins SPIEGEL verbindliche globale Grenzwerte für Treibhausgase vorerst nicht weiter verfolgen. Die Kanzlerin rückt damit von dem Ziel ab, die Erderwärmung durch einen Weltklimavertrag auf zwei Grad Celsius zu begrenzen…

Diese Entscheidung offenbart, dass Frau Merkel inzwischen wohl aufgegangen ist, dass ein solches Abkommen schlicht nicht durchsetzbar ist. Möglicherweise reagiert die Kanzlerin damit auch auf eine Umfrage des Spiegel, bei der herauskam, dass mittlerweile nur noch 42 Prozent der Deutschen Angst vor dem Klimawandel haben. Oder Frau Merkel hat irgendwie mitbekommen, dass das 2-Grad-Ziel gar keine wissenschaftliche Grundlage hat. Vielleicht ist sie damit auch auf den Wissenschaftlichen Beirat des Bundesfinanzministeriums gefolgt, der kürzlich festgestellt hat, dass Strebertum bei der Klimapolitik sich eher nicht lohnt.

Wer weiß? Jedenfalls ist diese Entscheidung als ein erster kleiner Schritt in die richtige Richtung sehr zu begrüßen.

Rudolf Kipp EIKE – zuerst veröffentlich bei Science Sceptical

ÄHNLICHE BEITRÄGE (BETA):




Forscher warnen: Globale Abkühlung wird Arktis-Rohstoffe unzugänglich machen!

Nach seinen Worten schwanken die Temperaturen auf der Erde in einem 60-jährigen Turnus. „Jetzt treten alle Komponenten des Klimasystems in eine negative Phase ein.“ Die Abkühlung werde in 15 Jahren ihren Höhepunkt erreichen, sagte der Forscher. Politiker, die auf eine globale Klimaerwärmung bauen, hätten auf das falsche Pferd gesetzt.

„Die Nordostpassage wird einfrieren und nur mit Eisbrechern passierbar sein“, sagte Pokrowski. Auch die angekündigte Erschließung des arktischen Schelfs könne auf schwere Probleme stoßen.

Der Weltklimarat IPCC, der eine Klimaerwärmung prophezeit, lässt laut Pokrowski viele Faktoren außer Acht. So befänden sich die meisten amerikanischen Wetterstationen in Städten, wo die Temperaturen immer höher seien. „Wir wissen nicht alles, was passiert. Das Klimasystem ist sehr kompliziert und der IPCC ist nicht die Wahrheit in letzter Instanz.“

Die Rivalität um die Arktis hat sich in den letzten Jahren deutlich verschärft. Um die reich gefüllte Naturschatzkammer buhlen Russland, die USA, Kanada, Großbritannien und andere Anrainerstaaten. Viele von ihnen kündigten die Aufstellung von Schiffsverbänden für Polfahrten an.

Quelle Nowosti SANKT PETERSBURG, 23. April (RIA Novosti)

Mehr Details dazu hier




Die Beiträge des USHCN und GISS zum Fehler der vieljährigen Temperaturaufzeichnung einer Wetterstation auf dem Lande

Wie Watts zeigt, gibt es viel zu viele von der Umgebung beeinflusste Wetterstationen und nur wenige, die sich in einer angemessenen Umgebung befinden. Die Untersuchung der Daten jener Stationen ergibt eine gute Basis, mit der man die Eigenheiten der von NCDC und GISS vorgenommenen Anpassungen zeigen kann.

Eine solche Station ist Dale Enterprise im US-Bundesstaat Virginia. Das Wetterbüro hat Rohdaten dieser Station sowie monatliche und jährliche Mittelwerte aufgezeichnet, und zwar schon seit dem Jahre 1891 bis heute, eine Reihe von 119 Jahren. In dem Zeitraum zwischen 1892 und 2008 fehlen nur ganze 9 Monate (von insgesamt 1041 Monaten), das ist eine Fehlrate von weniger als 0.64 Prozent. Die Analyse unten interpoliert diese fehlenden Daten folgendermaßen: Es wurde ein Mittelwert über 10 Jahre um den fehlenden Wert gebildet. Das erschien besser als die Daten anderer Stationen zu Hilfe zu nehmen. Diese Methode minimiert die Unsicherheiten,  die sich aus der Verwendung der Daten anderer Stationen ergeben, von denen nicht sicher ist, ob sie wirklich ‚sauber’ sind.

Die Station selbst liegt auf dem Feld eines Landgutes, weit weg von Gebäuden oder befestigten Flächen. Das ursprüngliche Thermometer wurde weiter benutzt, um die Messungen mit elektronischen Messfühlern seit 1994 zu vergleichen.

(Foto 1)

Die Station Dale Enterprise liegt in den sanften Hügeln östlich des Shenandoah – Tals, fast zwei Kilometer entfernt vom nächsten Dorf und über fünf Kilometer entfernt von der nächsten größeren Ortschaft Harrisonburg, einem Städtchen mit 44 000 Einwohnern.

 

(Foto 2)

Mit Ausnahme der Inbetriebnahme des elektronischen Sensors im Jahre 1994 und dem Interpolieren der fehlenden neun Monate gibt es keinerlei Gründe, die Rohdaten dieser Station irgendwie zu bearbeiten.

Die folgende Graphik zeigt den Temperaturverlauf aus den Rohdaten

(Bild 1: Aktueller Temperaturtrend: 0.24°C/Jahrhundert)

Es deutet sich ein stufenweiser Rückgang der Temperatur nach 1994 an. In Virginia stehen keine weiteren Stationen auf dem Lande zur Verfügung, die ebenfalls mit elektronischen Sensoren im Vergleich zu herkömmlichen Messungen mit Thermometern über eine längere Periode Werte zeigen. Der Vergleich mit urbanen Stationen ergibt eine potentiell große Abweichung zum Wärmeren während der 20 Jahre von 1984 bis 2004. Dies gilt besonders in Virginia, liegen doch diese urbanen Stationen typischerweise an Flughäfen, auf denen sich die Bebauung und die Flugbewegungen in dieser Periode erheblich verändert haben.

Bemerkenswerterweise haben weder NCDC noch GISS dieser Änderung in der Gewinnung der Daten Rechnung getragen. Daher ist jede Abweichung, die sich aus dieser Änderung eventuell ergeben hat, nach wie vor sowohl in den Originaldaten als auch in den bearbeiteten Daten enthalten.

Die Bearbeitung durch das NCDC 

Viele haben sich auf die Änderungen der Daten vom NCDC durch das GISS konzentriert, aber die ‚Homogenisierung’, die durch das NCDC selbst vorgenommen wurde, ist genauso interessant, wenn auch viel schwerer zu verstehen, wie in diesem Beispiel gezeigt wird.

NCDC sammelt die Originaldaten und passt sie ein in einen Datensatz, der zu einem Teil des historischen Klimanetzwerkes der USA wird (United States Historical Climatology Network USHCN) wird. Die meisten Forschungsinstitute, einschließlich GISS und HadCRU, beginnen mit dem Datensatz des USHCN. Bild 2 dokumentiert die vom NCDC vorgenommenen Änderungen der Originaldaten und legt nahe, dass man Untersuchungen mit den Originaldaten beginnen sollte.

(Bild 2, Dale Enterprise, Virginia Rohdaten im Vergleich zu bearbeiteten USHCN-Daten)

Die rote Linie in der Graphik zeigt die Änderungen, die an den Rohdaten vorgenommen wurden. Angesichts der Lage der Station Dale Enterprise und dem Fehlen jeglicher mikroklimatischen Verzerrung muss man sich fragen, warum das NCDC überhaupt Änderungen an diesen Rohdaten vornimmt. So, wie die rote Linie aussieht, hat man nicht den Eindruck, dass diese Änderungen nur deshalb vorgenommen wurden, um Datenlücken zu schließen oder andere offensichtlichen Verschiebungen zu korrigieren. Tatsächlich hat das NCDC in jedem Jahr Daten verändert, außer 1998 und 1999! [Beachte: wenn ein 62-jähriger promovierter Wissenschaftler ein Ausrufezeichen benutzt, sollte seine Äußerung mit außerordentlicher Aufmerksamkeit zur Kenntnis genommen werden.]

Aus der Graphik wird klar ersichtlich, dass man bei den USHCN – Daten den ‚reset’ – Button anklicken sollte. Nur anhand dieser einen Station lässt sich feststellen, dass die USHCN – Daten ungeeignet für jedwede weitere Untersuchungen sind, und das der Anspruch eines ‚Datensatzes mit hoher Qualität’ völlig unangebracht ist.

Die Bearbeitung durch das GISS

GISS beansprucht von sich, dass seine Anpassung der Daten die Effekte korrigieren soll, die der urbane Wärmeinseleffekt auf die Aufzeichnungen hat. (In theory, they adjust stations based on the night time luminosity of the area within which the station is located. Ich bekenne, diesen Satz kriege ich nicht sinnvoll übersetzt! Herr Jäger, haben Sie einen Vorschlag? A. d. Übers.) Diese grobe Annäherung ist schon angesichts der Werte der Station Dale Enterprise falsch. Es gibt keinen hinreichenden Grund, die Werte einer Station ohne jede mikroklimatische Verzerrungen zu überarbeiten; einer Station, die fast zwei Kilometer von der nächsten Ansiedlung, über 5 Kilometer von einer Kleinstadt und über 100 km von einer Ansiedlung mit über 50 000 Einwohnern, ab denen man definitionsgemäß von einer Stadt spricht, entfernt ist. Die nächst gelegene Stadt Harrisonburg hat einen einzigen großen Industriestandort, einen Steinbruch und eine mittelgroße Universität (die James Madison Universität JMU). Fraglos haben die Studenten der JMU nie gelernt, nachts das Licht auszuschalten. Nach meiner persönlichen Erfahrung bin ich nicht einmal sicher, ob sie überhaupt nachts ins Bett gehen. Daraus ergibt sich eine Abweichung, die wir die „Trinken – Party – college kids“ – Abweichung nennen können. Ob es möglich ist, eine solche Abweichung überhaupt zu korrigieren, überlasse ich anderen. Jedenfalls handelt es sich um eine typische amerikanische Kleinstadt, überwiegend bestehend aus Einfamilienhäusern und zwei oder drei Hochhäusern. Der eigentliche Stadtkern besteht aus sechs Häuserblöcken und neben dem Getreidesilo weniger als zehn Gebäuden mit mehr als 5 Stockwerken. Sogar innerhalb dieses Stadtkerns gibt es zahlreiche Parks. Das übrige Stadtgebiet besteht aus lockerer Wohnbebauung und der Universität mit ihren Freiflächen.

Obwohl es keinerlei Gründe gibt, die Daten der Station Dale Enterprise wegen irgendeines Wärmeinseleffektes zu verändern, hat das GISS die Daten bearbeitet, wie die nachfolgende Graphik (Bild 3) zeigt. Ich zeige diese Anpassungen, weil sie typisch sind für die grundsätzliche Natur der Art von Anpassungen, wie sie das GISS vornimmt, ohne Beachtung, wie sich diese Anpassungen auf die aktuelle Temperatur auswirken.

Bild 3

Hier sind lediglich die Daten des USHCN und GISS samt der zugehörigen Trendlinie geplottet. Eingezeichnet in blau ist aber auch die Trendlinie der Rohdaten.

Die Anpassungen der USHCN – Daten vom GISS auf die Werte der Station Dale Enterprise folgen einem wohlbekannten Muster. GISS zieht die früheren Werte nach unten und übernimmt die jüngeren Daten unverändert vom USHCN. Dadurch entsteht natürlich immer eine Verzerrung hin zu einer Erwärmung. Der Vergleich der Trendlinien in der Graphik ist jedoch etwas schwierig. Die Trends der Rohdaten, der USHCN- und der GISS – Daten sind: 0.24°C, -0.32°C und 0.43°C, pro Jahrhundert, versteht sich.

Wenn man annimmt, dass die USHCN – Daten einen „Datensatz von hoher Qualität“ darstellen, dann macht die Anpassung durch GISS viel mehr als eine Verstärkung der Erwärmung, es kehrt den Trend dieser „hohen Qualität“ der Daten um. Man beachte, dass das GISS den Erwärmungstrend im Vergleich zu den Rohdaten verdoppelt.

Diese Präsentation stellt den Beginn der Analyse von Temperaturaufzeichnungen in Virginia dar. Das ‚Center for Environmental Stewardship of the Thomas Jefferson Institute for Public Policy’ plant, sämtliche Daten aus Landgebieten in Virginia zu untersuchen, um herauszufinden, welche Landstationen am besten geeignet sind, langzeitliche Temperaturtrends abzuschätzen, egal ob lokal oder weltweit. Nur eine landesweite Verfolgung dieses Zieles kann zu einem wirklichen Datensatz „hoher Qualität“ führen, auf den sich die wissenschaftliche Gemeinschaft verlassen kann; egal ob man diese Daten für Modellrechnungen benutzt oder den Beitrag menschlicher Aktivitäten abschätzen will.

von David W. Schnare, Esq. Ph.D. Das Original erschien hier

Die Übersetzung besorgte dankenswerterweise Chris Frey für EIKE

The SPPI analysis of rural versus urban trends




Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen !

Die Klimaanalysen auf allen räumlichen wie zeitlichen Klimaskalen haben gezeigt, dass beim langfristigen Klimawandel die Sonne der dominierende Klimafaktor ist und dass dem anthropogenen Treibhaus-/CO2-Effekt nur eine untergeordnete Rolle zukommen kann.

Im Sinne dieser Ergebnisse muss es folglich möglich sein, die Grundzüge des langfristigen Klimawandels der vergangenen Jahrhunderte in Abhängigkeit von der veränderten Sonnenaktivität zu rekonstruieren.

Einen mathematische Ansatz dazu bietet die (lineare) Methode der kleinsten quadratischen Abweichung. Dabei werden nur die beobachteten Mitteltemperaturen und die mittleren Sonnenfleckenzahlen der definierten Klimaperioden benötigt. Im

Sinne der Klimadefinition der WMO werden Periodenlängen von rund 30 Jahren, d.h. von 3 Sonnenfleckenzyklen (im Mittel 33 Jahre), betrachtet. Für jede Klimaperiode wird nach der Methode der kleinsten quadratischen Abweichung die beobachtete Mitteltemperatur durch einen berechneten Temperaturwert in Abhängigkeit von der mittleren Sonnenfleckenzahl approximiert.      

Ist y = T(SF), so gilt:   y = x0 + x1 * SFi ,

d.h. die berechnete Mitteltemperatur der Klimaperioden ist nur eine Funktion der Sonnenfleckenzahl SF. Der Schnittpunkt x0 der Geraden mit der y-Achse folgt aus:  x0 = Tm – x1 * SFm  

und der Anstieg x1 der Geraden aus:>

x1 =  Summe(SFi anom*Ti anom) / Summe(SFi anom)².

Die Anomalien (anom) sind die Abweichung der Einzelperioden vom Mittelwert über alle Perioden……

….- Die Klimaanalysen auf allen räumlichen wie zeitlichen Klimaskalen haben gezeigt, dass beim langfristigen Klimawandel die Sonne der dominierende Klimafaktor ist und dass dem anthropogenen Treibhaus-/CO2-Effekt nur eine untergeordnete Rolle zukommen kann. 

Ergebnisse und den ganzen Artikel finden Sie in der Dateianlage und unter Publikationen hier

Autor: Prof. Dr. Malberg

Related Files




Rätsel gelöst – Globale Erwärmung versteckt sich in den Ozeanen!

Es wird in den letzten Jahren einfach nicht wärmer (aus den Climategate Mails):

“Fakt ist, wir können im Moment das Fehlen der Erwärmung nicht erklären, und es ist ein Hohn dass wir es nicht können.”

„The fact is that we can’t account for the lack of warming at the moment and it is a travesty that we can’t.“

Und seit 2005 nimmt auch der Wärmeinhalt der Ozeane deutlich weniger zu,  als es die Modelle der Forscher und die Satellitenmessungen für diesen Zeitraum eigentlich erwarten lassen. Aber Trenberth wäre kein Klimaforscher von Weltruf, wenn er nicht auch eine Auflösung für dieses Rätsel parat hätte. Die Wärme ist da. Sie muss da sein, schließlich zeigen es die Modelle. Sie versteckt sich nur geschickt irgendwo in den Ozeanen.

Missing Energy – Fehlende Energie

Und zwar offensichtlich an Stellen, wo unsere Messmethoden sie nicht finden können. Und diese “versteckte Wärme” wird, wenn Sie denn wieder auftaucht, mit voller Wucht zurückschlagen:

“Die Wärme wird wiederkommen und uns heimsuchen, früher oder später.”

“The heat will come back to haunt us sooner or later,”

Mit dieser Publikation ist Trenberth nicht der erste Klimawissenschaftler von Weltrang, der sich in einer Erklärung versucht, warum es in den letzten Jahren nicht wärmer wird. Es sind nicht fehlerhafte Modelle der Klimaforscher, sondern natürliche Phänomene, welche die Stagnation erklären. Man beachte dabei, dass eine Abkühlung, die wir uns nicht richtig erklären können, fast immer natürliche Ursachen hat. Eine Erwärmung, für die wir keine andere Erklärung haben, ist in unseren Zeiten hingegen absolut immer ein untrüglicher Hinweis für einen menschlichen Einfluss.

Klimawissenschaftler bereiten sich auf kältere Zeiten vor

So war es auch in einer weiteren aktuellen Arbeit, bei der der gefunden wurde, dass die Sonnenaktivität als eine Ursache für die kalten Winter in Europa gesehen wird, und aufgrund der momentan schwächelnden Sonne mit noch mehr Ereignissen dieser Art gerechnet werden muss (wir berichteten)  Es könnte also kalt bleiben. Als Ursache dafür werdennatürliche Schwankungen angegeben. Diese natürlichen Schwankungen, von denen bisher immer gesagt wurde, sie wären viel zu klein, um die Erwärmung der 80er und 90er zu erklären, sind jetzt in den 2000ern stark genug um den menschlichen Einfluss aufzuhalten, ja sogar umzukehren. Obwohl in der gleichen Zeit weit mehr CO2 ausgestoßen wurde als jemals zuvor und der CO2-Gehalt in der Atmosphäre in diesem Zeitraum von 365 auf 385 ppm angewachsen ist.

Die Entwicklung der Globaltemperatur seit 2002

Der erste zu sein von den etablierten Klimaforschern, der auf eine mögliche Abkühlung in den nächsten Jahren oder Jahrzehnten hingewiesen hat, diese Ehre gebührt wohl dem Kieler Klimatologen Mojib Latif. Dieser publizierte bereit im Mai 2008 eine Arbeit, in der veränderte Meeresströmungen als Ursache für die fehlende Erwärmung gesehen werden. Und langfristige Schwankungen dieser Strömungen ließen darauf schließen, dass diese Phase der Abkühlung noch 10 oder 20 Jahre andauern könne.  Latif hat damit früh erkannt, dass man auch als Warner unter den Klimaforschern auf veränderte Rahmenbedingungen reagieren muss.   Auf den Punkt brachte er dies mit einer Aussage auf der UNO-Klimakonferenz in Genf am 1. September letzten Jahres vor mehr als 1500 Top-Klimawissenschaftlern:

“Ich bin kein Klimaskeptiker, aber wir müssen die unangenehmen Fragen selbst stellen oder andere werden es tun.”

Es liegt nahe zu vermuten, dass in nächster Zeit noch mehr Publikationen auftauchen, die für die nächste Zukunft eine Abkühlung prognostizieren. Schließlich untergräbt das Festhalten daran, dass es wärmer wird, obwohl die Messdaten das schon seit langem nicht mehr zeigen, so langsam die Glaubwürdigkeit der Klimawissenschaftler.  Allen diesen Arbeiten wird vermutlich gemein sein, dass natürliche Ursachen (oder eine noch unbekannter Ursache) für die Abkühlung verantwortlich sind. Und natürlich werden die Autoren auch jedes mal aufs neue beteuern, dass die neuen Ergebnisse die bisherigen Erkenntnisse zum Menschen als globalem Klimakiller keinesfalls in Frage stellen.

Rudolf Kipp EIKE Übernommen von Climate Sceptical

Weitere Quellen:

Is There “Missing” Heat In The Climate System? My Comments On This NCAR Press Release
NCAR’s missing heat – they could not find it any-where

ÄHNLICHE BEITRÄGE (BETA):




Verzweifelt: Wie „Top-Wissenschaftler“ versuchen das Zwei-Grad-Ziel zu rechtfertigen – und scheitern!

Der Artikel verdeutlicht das Dilemma der Klimaforschung. Es wird nicht nur real seit knapp 10 Jahren nicht mehr wärmer, auch der metaphorische Wind, der den Klimaforschern ins Gesicht weht wird immer schärfer. Denn: Wenn selbst der Spiegel in dieser Form darüber berichtet, dann ist der Hype um den Klimawandel wohl endgültig vorbei. Ein Umstand, den die etablierte Klimaclique so verständlicherweise auf keinen Fall hinnehmen will.

Deutsche Top-Wissenschaftler und Berater der Bundesregierung üben scharfe Kritik am Spiegel-Artikel

Entsprechend scharf fiel die Antwort von drei führenden Köpfen der deutschsprachigen Klima-Alarmisten-Szene aus. Die Professoren Hans-Joachim Schellnhuber vom Potsdam-Institut für Klimafolgenforschung, Claus Leggewie vom Kulturwissenschaftlichen Institut Essen und Renate Schubert vom Institut für Umweltentscheidungen der ETH Zürich sparen in einer Replik, die jetzt in der Zeit erschienen ist, nicht an deutlichen Worten. Da sollen Medien von einer „bizarren Szene der Klimaskeptiker“ durch „intellektuelle Doppelmoral“ motiviert worden sein, der „etablierten Klimaforschung Falschaussagen in der Substanz vorzuwerfen“.

Das sind harte Vorwürfe, dem auf jeden Fall eine sinnvolle wissenschaftliche Begründung folgen sollte. Wer dies jedoch erwartet hatte, der wurde enttäuscht. Aussagen finden sich reichlich, wissenschaftliche Begründungen jedoch? Fehlanzeige.

Wenig wissenschaftliches von den Wissenschaftlern

Der Artikel wirft kein gutes Licht auf den Zustand unserer Wissenschaftslandschaft, sind die Autoren doch allesamt Mitglieder im Wissenschaftlichen Beirat Globale Umweltveränderungen (WBGU), und repräsentieren somit die Elite der Forscher in Deutschland. Erste Zweifel an deren Kompetenz stellen sich jedoch schnell ein, wird doch das fast komplette Scheitern in Kopenhagen beinahe als Erfolg verkauft, schließlich habe die Weltgemeinschaft mehrheitlich das 2-Grad-Ziel anerkannt. Eine etwas eigenwillige Darstellung, während der Rest der Welt recht einhellig von einem „Scheitern von Flopenhagen“ spricht.

Mit einer Gewissheit und Präzision, die wissenschaftlich durch nichts zu rechtfertigen ist, verkünden die drei Professoren: „Die bisher von 76 Staaten gemeldeten Maßnahmenpakete lassen eine menschgemachte Erderwärmung von 3,5 Grad Celsius bis zum Jahr 2100 erwarten.“ Erklärung oder Belege? Keine. So klingen vielleicht Politiker und Umweltaktivisten, aber keine Wissenschaftler.

Und auch sonst nehmen es die Autoren mit der Wissenschaft nicht so genau. Eine in vielen Augen längst widerlegte und zumindest höchst umstrittene Arbeit, die mittlerweile als eine Art Kronzeuge für schlechte Wissensschaft in der Klimaforschung gilt, wird von ihnen nach wie vor mit Zähnen und Klauen verteidigt. Gemeint ist der legendäre Hockeystick von Michael Mann, mit dem 1998 versucht wurde, die mittelalterliche Warmzeit zu eliminieren. Für die drei Professoren nach wie vor bester Stand der Wissenschaft.

Ewiggestrige nannte man solche faktenresistenten Hardliner schon bald nach dem Ende des Sozialismus. Und so werden die Menschen in einigen Jahren ähnlich kopfschüttelnd auf die Ausführungen der letzten “redlichen“ Klimaforscher schauen, wie sie es heute bei den Reden der letzten Regierung der DDR tun. Und so wie damals der Sozialismus nicht zu retten war, weil er ein ideologisch motiviertes, unbrauchbares System darstellte, so würde heute eine Reform des IPCC nichts daran ändern, dass der gesamte von der UN gelenkte Forschungsapparat von Grund auf dafür geschaffen zu sein scheint, politisierte Pseudowissenschaft zu fördern. Eine unabhängige und unparteiische wissenschaftliche Bewertung kann ein solches Gremium schon aus Prinzip nicht leisten. Dafür sind die Abhängigkeiten einfach zu groß.

Wissenschaftliche Begründung für die 2-Grad-Marke? Fehlanzeige

Aber zurück zu den drei Professoren und der Wissenschaft. Laut Aussage im Artikel wäre die, vom Spiegel als rein politisch bezeichnete, 2-Grad-Marke schon dadurch gerechtfertigt, dass „während der gesamten Entwicklungsgeschichte des Homo sapiens niemals höhere Temperaturen als »vorindustrielles Niveau plus zwei Grad Celsius« geherrscht haben“. Auch wäre seit „10000 Jahren die globale Mitteltemperatur nahezu konstant“ geblieben.

Eine äußerst kühne Behauptung, zeigen doch die meisten Temperatur-Rekonstruktionen aus diesem Zeitraum ein ganz anderes Bild.  Demnach hat es in den letzten 10.000 Jahren ganz erhebliche Schwankungen von teilweise mehreren °C in wenigen Jahrzehnten gegeben. Erkennbar ist dies unter anderem in den Eisbohrkernen aus Grönland oder aus Isotopenmessungen in Sedimenten und Tropfsteinhöhlen. Auch die Gletscher in den Alpen zeigen den Forschern in den letzten Jahren immer deutlicher, dass deren Ausdehnung mindestens zur Hälfte dieser Zeit geringer war als heute, dass es also in diesem Zeitraum dort deutlich wärmer war, als heute.

Dass es um eine wissenschaftliche Begründung der 2-Grad-Marke nicht zum Besten steht, haben auch die drei Autoren indirekt zugegeben: „Zwei Grad und nicht mehr – diese Orientierungsmarke lässt sich auf vielfältige Weise wissenschaftlich untermauern, aber natürlich nicht letztendlich beweisen.“ Was aber bitteschön ist ein wissenschaftliches Untermauern ohne stichhaltige Beweise?

Hans Joachim Schellnhuber, der im Spiegel als einer der Väter des 2-Grad-Zieles geführt wird, wird dort ganz anders zitiert: „Bei Überschreiten der Zwei-Grad-Grenze, so verkündete der deutsche Umweltminister Norbert Röttgen (CDU) vor dem gescheiterten Kopenhagen-Gipfel, ‚wäre ein Leben auf unserem Planeten, wie wir es bisher kennen, nicht mehr möglich‘. Doch das ist wissenschaftlicher Unfug. ‚Zwei Grad sind keine magische Grenze, das ist ganz klar ein politisches Ziel‘, sagt selbst Hans Joachim Schellnhuber, Direktor des Potsdam-Instituts für Klimafolgenforschung (PIK). ‚Weder kommt es bei einer stärkeren Erwärmung sofort zum Weltuntergang, noch sind wir bei einer geringeren Erwärmung auf jeden Fall gerettet. Die Wirklichkeit ist natürlich viel komplizierter.‘"

Vor diesem Hintergrund ist das propagieren von 2 Grad als absoluter Grenze wohl höchstens besseres Raten auf höherem akademischem Niveau. Bei Maßnahmen, die nicht weniger als den vollständigen Umbau unserer technischen Zivilisation bedeuten, sollte jedoch etwas mehr erwartet werden, als das vage Bauchgefühl einiger besorgter Wissenschaftler.

Die Große Transformation

Worum es den Autoren wirklich geht, erfährt man auch im Artikel in der Zeit. Denn, so schreiben die drei, selbst wenn der Klimawandel nicht wie prophezeit stattfinden würde, wären die von der Wissenschaft vorgeschlagenen Maßnahmen trotzdem von Vorteil. Sie sprechen dabei von einem Umbau der Gesellschaft, weg von fossilen Brennstoffen, hin zu einer „nachhaltigen“ Lebensweise.

Damit schreiben sie konsequent fort, was zwei von Ihnen (Schellnhuber und Leggewie) als  die „Große Transformation“ unserer Industriegesellschaft bereits im letzten Jahr gefordert haben (der ursprüngliche Ausdruck „globale Kulturrevolution“ wurde schnell wieder verworfen, er erinnerte wohl zu stark an gescheiterte Versuche den Menschen von oben verordnete Glückseligkeit zu bescheren). Bei einer Konferenz zur großen Transformation in Essen wurde im letzten Jahr auch die Frage aufgeworfen (und nicht abschließend beantwortet), ob Demokratien überhaupt noch die richtige Regierungsform darstellen, oder ob nicht mehr autoritäre Gesellschaftssysteme „flexibler“ auf die neuen Anforderungen reagieren können. Wenn man bedenkt, dass allein 4 der 8 Mitglieder des WBGU als  Vortragende an dieser Veranstaltung teilgenommen haben, dann entsteht durchaus der Eindruck, dass diese „Große Transformation“ mittlerweile so etwas wie einen Konsens im WBGU darstellt.

 

Was die „Große Transformation“ in der Praxis bedeutet, kann man schon heute bei den rasant steigenden Kosten für Energie erkennen. Energieintensiven Betrieben werden so lange die Produktionskosten erhöht, bis diese vollständig ins Ausland abwandern. Diese produzieren dann eben dort die Waren für uns – falls wir sie uns dann noch leisten können. Das verbessert unsere CO2-Bilanz, indem die Emissionen an einer anderen Stelle der Welt produziert werden. Global gesehen wird jedoch kein Gramm CO2 eingespart. Lediglich die Arbeitsplätze bei uns im Land sind danach „nachhaltig“ verschwunden.

Die Damen und Herren Professoren scheinen solche Details weniger zu stören. Wer über eine Professorenstelle ein sicheres Beamtengehalt mit Pensionsberechtigung bezieht, muss sich um die wirtschaftliche Zukunft unseres Landes wohl weniger Sorgen machen, als jene, die über ihre Arbeit in den produzierenden Betrieben das Gehalt auch der Professoren mit erwirtschaften. Diese hingegen können sich ihr Auskommen offensichtlich schon durch die Produktion möglichst vieler hohler Phrasen sicherstellen.

Wenn nichts mehr hilft wird das „Vorsorgeprinzip“ bemüht

Mangels vernünftiger wissenschaftlicher Begründungen wird dann einfach das Vorsorgeprinzip zur Rechtfertigung des 2-Grad-Ziels bemüht: „Wer das Vorsorgeprinzip über Bord wirft, weil er keine absolute Problemgewissheit vorfindet, ist töricht oder verantwortungslos.“ Das klingt engagiert und besorgt zu gleich. Ganz so, wie man es eben von einem Politiker erwarten würde, nicht aber von einem Wissenschaftler. Schließlich gibt es in der Wissenschaft kein „Prinzip der Vorsorge“. Es handelt sich dabei lediglich um einen griffigen PR-Slogan. Auch wenn das Vorsorgeprinzip 1992 auf dem „Erdgipfel“ in Rio de Janeiro einstimmig angenommenen angenommen und dadurch quasi zum globalen Richtlinie für umweltpolitische Entscheidungen erhoben wurde, handelt es sich dabei vor allem um ein Werkzeug, jegliche politische Willkür im Nachhinein zu rechtfertigen.

So wichtige Entscheidungen wie die Zukunft unserer Industriegesellschaft aber sollten vor allem auf einer fundierten Risiko-Nutzen-Analyse, anstatt auf diffusen Ängsten, beruhen. Die besten und am meisten detaillierten Informationen, die wir aus hunderten von Studien von tausenden Bohrlöchern, Kilometern von Eisbohrkernen und hunderttausende Wetterballon- und Sattelitenmessungen haben, zeigen uns aber, dass das Risiko einer katastrophalen Erwärmung äußerst gering ist und dass wir nur wenig von einer Reduktion der CO2-Emissionen profitieren würden. Und selbst wenn all die Katastrophenszenarien einträfen, wäre die seit Anbeginn der Zeiten vollzogene Anpassung nicht nur weitaus wirkungsvoller, sondern auch um Größenordnungen billiger, als alle Vermeidungsstratgien der großen Transformation.

Wenn der Beitrag der drei Professoren als Widerlegung des Spiegel-Artikels „Die Wolkenschieber“ gedacht war, dann ist dies gründlich daneben gegangen. Vielleicht sollte man auch der geistigen Elite in unserem Land mal wieder erklären, dass gute Absichten und ideologische Motive kein Ersatz für eine saubere wissenschaftliche Beweisführung sind.

Ein Kommentar von Rudolf Kipp, EIKE

Links

Der Spiegel – Die Wolkenschieber

FAZ – Ein Limit von zwei Grad Erwärmung ist praktisch Unsinn

Novo Argumente – Diagnose: Klimafieber – Das “Zwei-Grad-Ziel”, dem sich die klimabesorgte Weltgemeinschaft unterzuordnen gedenkt, ist blanker Unsinn. Novo103 (11–12 2009), S. 54