Windturbinensyndrom schlimmer als gedacht

Als Teil seiner Dissertation hat Zhenhua Wang eine Studie über den Lärm von Windfarmen durchgeführt. Zhenhua Wang studiert Geographie, Umwelt und Bevölkerung (Environment and Population) an der University of Adelaide, Australien.

Windturbinen-Syndrom lässt mehr Menschen leiden als gedacht

Die Ergebnisse zeigen, dass 70% der Befragten, die im Abstand von bis zu 5 km von Windfarmen leben, vom Lärm der Windturbinen negativ beeinträchtigt sind. Mehr als 50% sind „sehr oder moderat negativ beeinträchtigt“. Das ist beträchtlich höher als frühere Studien aus Europa zeigen.

Die Untersuchung wurde nahe der Waterloo-Windfarm in Südaustralien durchgeführt. Dort stehen 37 Vestas V90 3 MW Turbinen über eine Ausdehnung von mehr als 18 km (1).

Diese Megaturbinen sollen, wie berichtet wird, mehr Geräusch im Niedrigfrequenzbereich (Low Frequency Noise – LFN) emittieren als kleinere Modelle. Daher sind mehr Menschen über größere Distanzen von den bekannten Symptomen des Windturbinensyndroms betroffen: Schlaflosigkeit, Kopfschmerzen, Übelkeit, Stress, geringere Konzentrationsfähigkeit, Erregbarkeit usw. Das führt zu schlechterem Gesundheitszustand und einer reduzierten Widerstandsfähigkeit gegen Krankheiten. Die dänische Regierung hat kürzlich anerkannt, dass LFN eine erschwerende Lärm-Komponente ist, dem Menschen in der Nachbarschaft von Windfarmen ausgesetzt sind. Das führte zum Erlass von Vorschriften, um die niederfrequenten Geräuschpegel innerhalb der Wohnungen auf 20 dB(A) zu begrenzen. Unglücklicherweise wurden die Berechnungsparameter so manipuliert, dass niederfrequenter Lärm bis zu 30 dB(A) innerhalb von Wohnungen in 30% der Fälle erlaubt ist, wie Professor Henrik Moller offenlegte. „Kaum jemand würde 30 dB(A) nachts in der Wohnung akzeptieren“, schrieb der Professor im vergangenen Monat (2).

Eine Zusammenfassung der australischen Studie steht hier (3), aber die vollständige Doktorarbeit ist nicht veröffentlicht. Die European Platform against Windfarms (EPAW) und die North-American Platform against Windpower (NA-PAW) haben die University of Adelaide um die Freigabe dieses wichtigen Dokumentes im Interesse der öffentlichen Gesundheit gebeten.

Ein Nachbar der Waterloo-Windfarm, Andreas Marciniak, schrieb in der vergangenen Woche an eine Lokalzeitung: „Halten Sie es für lustig, dass ich in meinem Alter nach Adelaide in einen Schuppen meiner Mutter umziehen musste und mein Bruder nach Hamilton in einen Wohnwagen ohne Wasser oder Elektrizität?“ (4) Sowohl Herrn Marciniak als auch seinem Bruder ist von den behandelnden Ärzten einschließlich eines Kardiologen angeraten worden, ihre Wohnungen zu verlassen und nicht mehr zurückzukehren, solange sich die Windturbinen drehen.

„Wie viele Menschen werden noch gezwungen sein, ihre Wohnungen zu verlassen, bis die Regierungen auf die Tausende von Windfarm-Opfern aufmerksam werden, die von EPAW und NAPAW vertreten werden? Es wird noch etwas Zeit brauchen, bis genügende Geld für einen großen Prozess gesammelt worden ist,“ sagte Sherri Lange von der NAPAW, „aber die Zeit arbeitet für uns: Die Opferzahlen werden ständig größer.“

von Mark Duchamp

Originalartikel hier

Übersetzung: Helmut Jäger, EIKE

Referenzen:

(1) http://ecogeneration.com.au/news/waterloo_wind_farm_officially_opened/054715/

(2) http://wattsupwiththat.com/2012/02/09/windfarm-noise-renowned-acoustician-denounces-double-standards-in-noise-regulations

(3) http://www.wind-watch.org/documents/evaluation-of-wind-farm-noise-policies-in-south-australia/

(4) Letter sent to the Editor of the Burra Broadcaster by Mr. Andreas Marciniak, windfarm victim. http://www.disturbines.org.nz/modules.php?name=News&file=article&sid=100




Gestohlene Skeptiker-Unterlagen: Fakegate – Diebstahl jetzt amtlich

Veröffentlichung von "The Heartland Institute" zum Geständnis von Gleick

Peter Gleick hat den Diebstahl gestanden

Text des Schreibens von Heartland

Heute abend hat Peter Gleick, ein bekannter Name in der Klimawandel-Bewegung, den Diebstahl der elektronischen Dokumente aus dem Heartland Institut gestanden. Er wollte eine von seinen Ansichten abweichende Gruppe diskreditieren und ins Zwielicht zu setzen.

Posted on February 20, 2012 by Anthony Watts

(per E-Mail erhielt Anthony Watts das folgende Schreiben von Mr. Bast, Präsident des Heartland Instituts. Weiteres siehe hier)

20.2.2012

Gleicks Vergehen ist schwerwiegend. Die Dokumente, deren Diebstahl er zugab, enthielten persönliche Informationen über Heartland-Instituts-Mitglieder, Spender und Verbündete. Die Veröffentlichung hat deren Identität bloßgestellt, deren Privatsphäre verletzt und deren persönliche Sicherheit gefährdet.

Gleick veröffentlichte ein zusätzliches Dokument als angeblich vom Heartland Institute kommend. Es war ein gefälschtes Memo mit der angeblichen Heartland-Strategie zum Klimawandel. Dieses Papier wurde breit in Zeitungen, Presseveröffentlichungen, Webseiten und Blogs in aller Welt zitiert. Es hat erheblich und dauerhaft die Reputation des Heartland Institute geschädigt, vieler Wissenschaftler, Strategieberater und Organisationen, die mit Heartland zusammenarbeiten.

Eine bloße Entschuldigung reicht nicht aus, um den Schaden wiedergutzumachen.

Gleick sagte in seinem Geständnis, dass er diese Tat begangen hätte, weil er glaubte, das das Heartland Institute eine “rationale Debatte” zum Klimawandel verhindern würde.

Das ist unglaublich. Heartland fordert immer wieder eine wirkliche Debatte über dieses wichtige Thema. Gleick selbst war kurz vor seinem Dokumentendiebstahl gebeten worden, an einer Heartland Veranstaltung teilzunehmen, wo über den Klimawandel debattiert werden sollte. Er hatte abgelehnt.

Gleick behauptet auch, er hätte das gefälschte Memo nicht geschrieben, sondern nur die Dokumente gestohlen, um den Inhalt des Memos zu überprüfen, das er von einem Anonymus erhalten hätte. Auch das ist nicht glaubwürdig. Viele unabhängige Kommentatoren haben schon geschlossen, dass das Memo aller Wahrscheinlichkeit von Gleick verfaßt worden wäre.

Wir hoffen auf ein vollständigeres Geständnis von Gleick in den nächsten Tagen.

Heartland bespricht sich mit einem Rechtsberater, um über die nächsten Schritte zu entscheiden, und wird morgen mehr zur Lage veröffentlichen. Inzwischen fordert Heartland erneut alle Redaktionen, Blogger, Webseiten-Betreiber auf, die gestohlenen und betrügerischen Dokumente von ihren Seiten zu entfernen und alle darauf beruhenden diffamierenden Kommentare, und Widerrufe zu veröffentlichen.

Mehr Information bei: Jim Lakely, communications director of The Heartland Institute, at 312/377-4000 or jlakely@heartland.org.

————————————–

Anthony Watts hat auf WUWT eine Seite mit laufender Berichterstattung eingerichtet. Wegen der ständigen Aktualisierungen und des "Live-Charakters" der Seite sollten die Beiträge dort (leider nur in Englisch) eingesehen werden. Eine Übersetzung würde die Aktualität zerstören.

—————————————

Übersetzung: Helmut Jäger, EIKE




Klima-Skeptiker-Finanzen: Heartland-Institut wehrt sich gegen Kampagne mit tlw. gefälschten und gestohlenen Dokumenten

Joanne Nova schreibt:

Die Anhänger des Glaubens von menschengemachten Wetterkatastrophen machen sich nass vor Freude. Es tut weh, wenn man erwachsene Männer mit kindlichem Benehmen sieht.
Schlimm für sie, weil sie ja tatsächlich von Climategate eins versetzt bekommen hatten, und sie haben nur darauf gewartet und gebetet, dass doch irgendjemand mal die Skeptiker auf die gleiche Ebene stellen würde, wo sie selbst sich gezeigt hatten: als schäbig, schamlos und geldgierig – ganz zu schweigen von der Heuchelei, Täuschung und Inkompetenz.
Stattdessen bewies die in den Himmel gehobene Anti-Skeptiker-Webseite „non-denier-gate” nur, wie unglaublich erfolgreich das Heartland Institute ist. Sehen Sie sich die Zahlen an. Die Skeptiker haben es geschafft und die Popaganda gegen eine Flut von Geld umgedreht. Das ist doch wirklich eine Leistung.

Es gingen an: (in USD)

Entity

USD

 

Greenpeace

 $300m

 2010 Annual Report

WWF

 $700m

 ”  ($524m Euro)

Pew Charitable Trust

 $360m

2010 Annual Report

Sierra Club

 $56m

2010 Annual Report

NSW climate change fund (just one random govt example)

 $750m

 NSW Gov (A$700m)

UK university climate fund (just another random govt example)

$360m

UK Gov (£234 m)

Heartland Institute

$7m

 (actually $6.4m)

US government funding for climate science and technology

 $7,000m

 “Climate Money” 2009

US government funding for “climate related appropriations”

$1,300m

USAID 2010

Annual turnover in global carbon markets

$120,000m

2010 Point Carbon

Annual investment in renewable energy

$243,000m

2010  BNEF

US government funding for skeptical scientists

$ 0

 

Das sind jährliche Umsätze und jährliche Etats. "m" steht für Million

Das Expose zeigt, dass die Bedeutung des Heartland Institute stark steigt, bei einem unglaublich kleinen aber effizientem Etat. Dies natürlich unter der Annahme, dass das sogenannte Exposè wahr, keine Fälschung und auch nicht verändert ist. Das könnte natürlich noch herauskommen. Man achte daher auf Informationen oder Bestätigungen auf der Heartland Webseite (und hier Details)
Hier ist ein Weckruf für die freiheitsliebenden Menschen in aller Welt.
Es ist jetzt an der Zeit, monatlich einen Teil ihres regelmäßigen Einkommens für Spenden an alle Menschen zu reservieren, die für Sie arbeiten. (Spenden-Icon hier auf der Seite). Die Tatsache, dass Heartland nur einen einzigen großzügigen Spender hat, ist bemerkenswert. Wo sind die übrigen?
Die Heuchelei blüht. Der Sierra-Club hatte eine eigene Kategory für $1.000.000- Spenden von “Anonymen” in seinem 2010er Jahresbericht. Merkwürdigerweise hat DeSmog deswegen überhaupt nicht geschäumt. Der Club-Jahres-Bericht erwähnt “Spenden, für die das zutrifft”, und augenscheinlich schließt das die böse Exxon ein, ganz zu schweigen von GoldMan Sachs, Barclays, Google, Monsanto, Nestle, Yahoo, Bank of America, und viele andere. Belassen wir’s dabei.

Cartoon von Josh zum Schreiben der "betrübten" Alarmisten Kollegen an Heartland in Wahrheit jedoch verfasst von Aaron Huertas. resident of Washington, DC and I am employed as a press secretary at the Union of Concerned Scientists.(hier der vorverfasste Text)

Wenn Bob Carter (EIKE Beiratsmitglied) eine honorarartige Zuwendung von $1.500 monatlich erhält, muss die Verlockung der dicken Dollars eine machtvolle Verführung für Menschen wie Tim Flannery sein, der sich mit ca $1.200 pro Arbeitstag zufrieden geben muss.
Wie ich immer zu sagen pflege, wenn solche Dinge hochkommen: Ja, bitte, laßt uns doch mal über die Finanzierung reden.
Hier kann man mehr lesen. Dank an die Radikalinskis von Desmogblog. Sie haben uns darauf aufmerksam gemacht, wie es auf ihrer Seite wirklich aussieht.

Wie der Diebstahl der Papiere von einem Leitungstreffen bei Heartland geschehen konnte, beschreibt:

HEARTLANDs PRESSE-ERKLÄRUNG

Das Heartland Institute nimmt zum Diebstahl und der Fälschung von Dokumenten Stellung.
15. 02. 2012 – Die folgende Stellungnahme von The Heartland Institute – einer unabhängigen Denkfabrik – ist zur Verwendung frei gegeben. Weitere Informationen bei: Communications Director Jim Lakely, jlakely@heartland.org oder Tel.: USA 312/377-4000.

Gestern nachmittag haben zwei Interessengruppen mehrere Dokumente ins Netz gestellt, von denen sie behaupteten, es wäre der Etat 2012 von The Heartland Institute sowie Pläne für die Einwerbung von Zuwendungen und der Strategie. Einige wurden von Heartland gestohlen, mindestens eins ist eine Fälschung und einige könnten verändert worden sein.
Die gestohlenen Dokumente scheinen vom Präsidenten von Heartland zu stammen und wurden für das Direktoriumstreffen am 17. Januar geschrieben. Als die Dokumente gestern mittag veröffentlicht wurde, befand sich der Präsident auf Reisen und konnte noch nicht festzustellen, ob sie verändert worden sind. Daher kann die Authentizität der Dokumente noch nicht bestätigt werden.
Seither sind die Dokument über das Internet weit verbreitet worden, und wir wiederholen, es gab keine Bemühungen, ihre Authentizität* zu prüfen.
Ein Dokument mit dem Titel “Confidential Memo: 2012 Heartland Climate Strategy” ist eine komplette Fälschung mit dem offensichtlichen Ziel der Diffamierung und Diskreditierung des Heartland Instituts. Es ist von niemanden geschrieben worden, der mit dem Heartland Institut zu tun hat. Es drückt nicht die Heartland-Ziele, Pläne oder Taktiken aus. Es enthält mehrere offensichtliche und schwere falsche Tatsachenbehauptungen.

Wir bitten mit allem Respekt alle Aktivisten, Blogger und Journalisten, unverzüglich alle derartigen Dokumente und Zitate, insbesondere das gefälschte „Klimastrategie“-Papier und Zitate daraus und alle weiteren Zitate, von ihren Blogs, Webseiten und Publikationen zu nehmen und Widerrufe zu veröffentlichen.

Diejenigen, die die Dokumente bereits kommentierten, haben bei Heartland weder wegen einer Bestätigung noch einer Verneinung der Authentiziät nachgefragt. Wir meinen, dass derartiges Verhalten ein privatrechtliches und möglicherweise strafrechtliches Vergehen darstellt, wofür wir Anzeige erstatten und Entschädigung einfordern wollen, darin eingeschlossen auch Schadensersatz für die Herabsetzung unserer Reputation. Wir forden insbesondere auf, diese Dokumente und alle im Zusammenhang damit stehenden Behauptungen unverzüglich von den Blogs, Webseiten, Publikationen zu entfernen und Widerrufe zu veröffentlichen.

Wie konnte das geschehen? Die Dokumente sind von einer unbekannten Person entwendet worden, die sich in betrügerischer Absicht unter Vorspiegelung der Identität eines Heartland Direktoriums-Mitglieds an einen Mitarbeiter des Instituts wandte und um die erneute Übersendung des Sitzungsmaterials an eine neue E-Mail-Adresse bat.
Gestohlene Identität und Computerbetrug sind Straftaten, auf denen Freiheitsentzug steht. Wir wollen diese Person finden und sie dafür ins Gefängnis bringen.

Entschuldigungen: Das Heartland Institute entschuldigt sich bei den Spendern, deren Identität durch diesen Diebstahl offengelegt wurde. Wir versprechen vielen unserer Spender Anonymität, und wir sehen, dass der Hauptgrund für den Dokumentendiebstahl und die Fälschungen war, es für Spender schwieriger zu machen, unsere Arbeit zu unterstützen.
Wir entschuldigen uns auch bei den Heartland-Mitarbeitern, den Direktoren und unseren gemeinsamen Freunden, deren Privatsphäre verletzt und deren Integrität in Zweifel gezogen wurde beim Kampf um die Einführung von hieb- und stichfester Wissenschaft in die globale Klimawandel-Debatte.

Lektion: Die Meinungsverschiedenheit über die Ursachen, Folgen und besten politischen Antworten auf den Klimawandel sind tief. Das haben wir verstanden.

Aber ehrliche Meinungsverschiedenheiten können niemals dazu dienen, kriminelle Handlungen und Betrügereien zu rechtfertigen, wie sie sich in den vergangenen 24 Stunden ereignet haben. Angesichts des allgemeinen Anstands und der journalistischen Ethik bitten jeden an der Klimawandel-Debatte Beteiligten, inne zu halten und über das nachzudenken, was geschehen ist.

Die Leute, die die Dokumente herumgeschickt und darüber geschrieben haben, bevor wir eine Möglichkeit hatten, deren Authentizität zu überprüfen, sollten sich für ihre Handlungen schämen und ihr schlechtes Benehmen sollte berücksichtigt werden, wenn es um ihre Glaubwürdigkeit heute und zukünftig geht.
———————————————————————————
Das Heartland Institute ist eine 28 Jahre alte nationale non-profit Organisation mit Büros in Chicago, Illinois und Washington, DC. Seine Ziele sind die Erkennung, Entwicklung und Beförderung von Lösungen sozialer und wirtschaftlicher Probleme durch den freien Markt. Weitere Informationen auf der Webseite http://www.heartland.org oder telefonisch: USA 312/377-4000.
———————————————————————————–

Joanne Nova; Den Originalbeitrag finden Sie hier

* Inzwischen ist herausgekommen, dass das Hauptdokument eine Fäschung ist. Details dazu hier und hier Es wir jedoch nach wie vor verwendet von DeSmog Herausgeber  Richard Littlemore continues to promote it. Und auch Brad Johnson, sowie Joe Romm.

Übersetzung: Helmut Jäger, EIKE




Fehler in der BEST-Studie zur Klimaerwärmung

Fehler in der BEST-Studie: Keine Berücksichtigung der Siedlungsdichte und der kalten Winter.

Im BEST-Papier Influence of Urban Heating on the Global Temperature Land Average Using Rural Sites Identified from MODIS Classifications stellen die roten Punkte Messstationen mit Erwärmungstrends dar, die blauen mit Abkühlungstrends. In diesem Artikel wird gezeigt, dass Dr. Richard Muller sich nicht eingehend mit dem Einfluss der Besiedelung und der kalten Winter beschäftigt hat und auch nicht die Wintertemperaturen weiter im Norden beachtet hat.

Abb. 1. Dies ist Abbildung 4 aus dem BEST-Papier

Abb. 2. Die Jahresmitteltemperatur in Nordamerika (Quelle hier)

Die meisten der von Dr. Richard Muller et al. überprüften Temperaturmessstationen liegen in den USA. Im eingangs zitierten Papier wurde Abkühlung bei 33% der Stationen entdeckt, dazu wurde eine Gauss-Verteilung (Abb. 3 unten) für Erwärmung und Abkühlung erstellt, die die Autoren mit Messfehlern erklärten.
Das klingt merkwürdig, weil die Stationen mit Abkühlung – wie auf der Karte oben gezeigt – keine zufällige Verteilung haben. Dies wäre aber zu erwarten, wenn die Gauss-Verteilung auf einen Zufallsfehler zurückginge. Viele Stationen sind im Südost-Quadranten der USA zu gelegen. Um die verstädterten Gebiete zeigt sich sehr deutlich eine Konzentration von roten Punkten. Dies ist vom Wärmeinsel-Effekt (UHI) verursacht. Woher kommt aber der blaue Abkühlungseffekt im Südosten?
Abb. 2 zeigt eine weitere Karte mit den Jahresmitteltemperaturen in Nordamerika von 1950 bis 2000.  Man beachte, dass das Gebiet mit Abkühlung in Abb. 1 auch das warme Gebiet in Abb. 2 ist. Für diese Abkühlung in Abb. 1 gab Dr. Muller keine Erklärung.


Abb. 3. Die Gauss’sche Trendverteilung aus dem oben zitierten BEST-Papier

Der Verfasser hat Daten von 71 Orten mit durchgängigen Langzeit-Aufzeichnungen (von 1930 bis 2000), verteilt über die USA und Kanada, heruntergeladen und sich dabei auf die Region mit Abkühlung und die Gebiete nördlich und westlich davon konzentriert. Jede Örtlichkeit wurde nach Möglichkeit anhand des Netzes von Anthony Watts’ SurfaceStations.org auf Metadaten überprüft, insbesondere auf die Entfernung der Thermometerstandorte vom nächstgelegenen beheizten Gebäude. Die Bevölkerungszahlen der umliegenden Gebiete wurden Wikipedia entnommen. Die Dezember-, Januar- und Februar-Temperaturen (Winter) wurden von GISS heruntergeladen und die Temperaturtrends von 1934 bis 2000 für jeden Ort berechnet, so auch die Winter-Mitteltemperaturen.
Abb. 4 stellt die Winter-Mitteltemperaturen und den Winter-Temperaturtrend für 71 Orte dar.
 
Abb. 4. Winter-Mitteltemperaturen und Winter-Temperaturtrend für 71 Orte versus Erwärmungs- oder Abkühlungstrend für die Periode von 1934 bis 2000. Die  Winter-Mitteltemperaturen sind für die Periode von 1930 bis 1980 berechnet

Orte mit kalten Wintern zeigen einen Erwärmungstrend. Extremes Beispiel ist Edmonton, Alberta, Kanada, mit 4,4°C Erwärmung und einer durchschnittlichen Winter-Temperatur von 11,9°C. Die Erwärmung ist natürlich vom Wärmeinsel-Effekt (UHI) verursacht. Edmonton ist im Zeitraum von 1931 bis 2001 von ungefähr 80.000 auf 666.000 Einwohner gewachsen. Die kalten Winter-Temperaturen überzeichnen den UHI-Effekt.

Abb. 5 stellt die Erwärmung versus derzeitige Einwohnerzahl dar.
 
Abb. 5. Zusammengefasste Darstellung des Winter-Temperaturtrends (1934 – 2000) versus Bevölkerung (blau) und Entfernung der Thermometer zum nächstgelegenen beheizten Gebäude, normalerweise ein Wohngebäude (rosa)

Schon vor Beginn der Studie war dem Verfasser klar, dass ein beheiztes Gebäude in der Nähe eines Thermometers die Ablesungen in Richtung WARM verfälschen würde. Das konnte auch anhand einer großen Stichprobe nachgewiesen werden. Abbildung 5 zeigt, dass das aber nicht generell stimmt. Eine große in der Umgegend lebende Bevölkerungszahl erzeugt einen Erwärmungseffekt. Im Winter noch verstärkt durch die Differenz zwischen den Innen- und Außentemperaturen, weil mehr Wärme nach draußen verloren geht. Für einzelne nahegelegene Gebäude ist das nicht erkennbar. Die Zahlen wurden gedreht und gewendet bis herauskam: bei einem 3 Meter entfernten Bauernhaus gibt es nur geringe Erwärmung, aber einige Tausend Häuser in der Umgegend erzeugen eine “Wärmeblase”, was schon einen Unterschied macht. Die aus Kaminen hinausgehende Wärme übersteigt bei weitem die durch Mauern hinausgehende Wärme.
Es gibt Ausnahmen, Abbildung 6 zeigt eine besonders bemerkenswerte.

 
Abb. 6. Die Wetterstation in Grand Forks, North Dakota. Sie liegt am Wettervorhersagebüro der NOAA/NWS Eastern North Dakota. Die Wetterstation (Cotton Region Shelter (CRS)) liegt etwa 3 Meter vor den Belüftungsschlitzen der Klimaanlage für das Büro. Aus SurfaceStations.org

Der Winter-Temperaturtrend am Grand Forks Wetterdienst-Büro beträgt 2,9°C Erwärmung; etwa 1,5°C über dem Betrag, der der Bevölkerung zuzurechnen wäre.

Ein anderes Ausnahmebeispiel ist der Ort der Station Albert Lea, Minnesota. (Abbildung 7). Die Winter-Erwärmung in Albert Lea liegt etwa 2,5°C über dem Betrag, den die Bevölkerung verursachen würde.


Abb. 7. Klärwerk in Albert Lea, MN. Die Gebäude, Wassertanks, Abwasserbecken umgeben die Station. Foto aus SurfaceStations.org

Diese und andere Ausnahmen, zusammen mit Städten mit großer wachsender Einwohnerzahl, stellen die roten Punkte in Abbildung 1 dar. Die blauen Punkte zeigen, was das Klima wirklich macht: Abkühlung. Die gemessene Abkühlung dehnt sich nicht in den kühleren Norden und Westen aus, weil der Wärmeinsel-Effekt (UHI) diese Gebiete stärker erwärmt als den Süden.
Der Wärmeinsel-Effekt wirkt sich in kühleren Wintern übertrieben stark aus.

Ist der Wärmeinsel-Effekt ein Problem in ländlichen Ortschaften mit Einwohnerzahlen unter 10.000?
Aus der Zusammenstellung wurden 50 Orte mit Bevölkerungszahlen unter 10.000 ausgewählt. Sie wurden dann in zwei Gruppen nach ihren Wintermitteltemperaturen angeordnet. Abbildung 8 zeigt die kühlere Gruppe, Abbildung 9 die wärmere.

 
Abb. 8. Plots der Wintertemperaturen und Temperaturtrends versus Bevölkerung von 25 Orten mit Wintertemperaturen von 0°C bis minus 10°C


Abb. 9. Plots der Wintertemperaturen und Temperaturtrends versus Bevölkerung von 25 Orten mit Wintertemperaturen von 0°C bis plus 10°C

Abbildungen 8 und 9 zeigen keine bevölkerungsabhängigen Veränderungen beim Temperaturtrend von 1934 bis 2000. Die durchschnittliche Wintererwärmung für beide Gruppen betrug für den Zeitraum von 1934 bis 2000 etwa 0,5°C. Aber es gibt eine signifikante bevölkerungsabhängige Differenz bei den Wintertemperaturen. Für Orte mit Bevölkerungszahlen über 1000 sind die Winter im Durchschnitt wärmer, sie werden nicht nur wärmer, sie sind immer wärmer. Warum? Es sind alles kleine Städte und Dörfer, die langsam, wenn überhaupt, gewachsen sind, während gleichzeitig Thermometer aufgestellt wurden. Das Bevölkerungswachstum hielt Schritt mit den Verbesserungen der Heizsysteme und der Isolierungen.
Die (Bevölkerungs)größe ist wichtig, wie auch die absolute Wintertemperatur. BEST (und GISS) sollten erkennen, dass sie die Grenze für „ländliche Bevölkerung“ auf 1000 vermindern müssen. Nur von Satelliten-Bildern aus auf die Lichterverteilung in der Umgebung zu achten, reicht nicht. Man muss schon die Metadaten der tatsächlichen Bevölkerung und der Örtlichkeiten erforschen. Bei Orten mit durchschnittlichen Wintertemperaturen unter Null muss besonders darauf geachtet werden, nahegelegene Wärmequellen auszuschließen. Es könnte ja so einfach sein, eine Temperaturmessstation auf dem Gelände des örtlichen Klärwerks aufzustellen, aber das ist keine gute Idee, wenn es um die Messungen der Temperaturen geht.

Was ist im vergangenen Jahrzehnt passiert? Für globale Darstellungen hat GISS eine Trenddarstellung für die jeweiligen Örtlichkeiten für den Zeitraum von 2001 bis Ende 2011 gemacht. Abbildung 10 zeigt das Resultat.


Abb. 10. Die GISS-Karte der jährlichen (Januar bis Dezember-) Temperaturtrends (Veränderung) von 2001 bis 2011. Die in der oberen rechten Ecke angegebenen –0.01 ist die Zahl für den globalen Trend,
0.01°C Abkühlung. (Quelle hier)

In Abbildung 10 stehen die roten Flächen für Erwärmungen von 2°C bis 4°C an etwa 10 Mess-Orten, die meisten an der sibirischen Arktisküste. Dort ist Erwärmung, weil der Wind das Eis von der sibirschen Küste wegtreibt. Man vergleiche Abbildung 10 mit Abbildung 1. Viele rote Punkte in der Abbildung 1 befinden sich im Abkühlungsgebiet der Abbildung 10 oben. Das ist das genaue Gegenteil von dem, was das BEST-Papier zeigt. Jene Orte mögen Erwärmung während der von BEST untersuchten Periode gehabt haben, jetzt aber haben sie Abkühlung.
Man beachte auch in Abbildung 10, dass sich die Kontinente in einer Abkühlung zu befinden scheinen, nur die Landstationen an der Arktisküste zeigen Erwärmung. Pazifik und Nordatlantik kühlen ab. Sie werden noch kälter werden, wenn die Kontinente weiter abkühlen. Wir befinden uns nun seit zehn Jahren am Anfang eines der regelmäßigen 60 bis 70 Jahre dauernden Erwärmungs- und Abkühlungszyklen, dazu noch am Ende eines 200 Jahre langen Zyklus seit dem Dalton Minimum (1790 to 1830). Wenn die Sonne wirklich am Anfang eines Großen Minimums steht, vergleichbar dem Dalton- oder dem Maunder-Minimum – dabei scheint das letztere wahrscheinlicher zu sein – dann wird es noch viel kälter, und das für eine Dauer von wenigstens 40 oder 50 Jahren.

Die USDA hat gerade eine Karte zur Winterhärte der Pflanzen veröffentlicht. Die Vegetationszone wurde um eine Zone nach Norden verschoben im Vergleich zur vorherigen Karte. Diese Verschiebung sollte noch einmal überdacht werden. Im vergangenen Winter hat die Kälte im südlichen Neu-Mexiko und West-Texas viele mexikanische Palmen und andere Tropenpflanzen vernichtet, die seit 100 Jahren die vergangenen Winter überstanden hatten. Thermometeranzeigen können lügen, Pflanzen nicht.

Zusammenfassung

Im BEST-Papier hat Dr. Muller die durch den Wärmeinsel-Effekt verursachten Veränderungen bei den nördlichen Stationen nicht beachtet. Dadurch hat er die Tatsache übersehen, dass in den kontinentalen USA tatsächlich eine Abkühlung stattfindet. Ich frage mich, wie kalt es noch werden muss, bis Berkeley Earth die Abkühlung bemerkt.

Zusatzbild des Übersetzers:

Kalter Winter 2012 – Vorbote einer globalen Abkühlung?

Ed Caryl 

Original hier

Zur Fehlerlastigkeit von BEST-Studien siehe auch die Studie von Lüdecke, H.-J; R. Link; F.-K. Ewert auf EIKE.

Übersetzung: Helmut Jäger, EIKE




Englischer Europa-Abgeordneter spricht Klartext

Was in der EU geschieht – in England und Schottland noch schlimmer wegen zusätzlicher Kosten.

Die De-Industrialisierung Europas

von Roger Helmer

Wir könnten auch in den Flughäfen ein Schild aufhängen: „Wegen Geschäftsaufgabe geschlossen".

Der Schuldige: EU-Umwelt-Kommissar Janez Potocnik.

Während die führenden europäischen Politiker über den Vorrang für Wachstum und Arbeitsplätze schwafeln, haben wir eine Klimarettungspolitik, die die Energiekosten massiv erhöht und ganze Industrien, Firmen, Arbeitsplätze und Investitionen aus der EU hinausteibt. Im Namen des Umweltschutzes zwingen wir sie ins Ausland, in Rechtsräume mit geringeren Umweltstandards.

Das betrifft ein ganzes Spektrum von energieintensiven Industrien: Metall, Stahl und Aluminium, Zement, Chemie, Glas, Papier und Holz. Wir sprechen von einer "Neuausrichtung der Wirtschaft in der Produktion" und mit dem nächsten Atemzug schlagen wir "einen Basispreis für Kohlenstoff" vor. Dann wundern wir uns, warum die Industrie im Abendrot verschwindet.

Ich habe jahrelang darüber geschrieben, aber so richtig deutlich wurde es mir gestern abend bei EUROFER anläßlich einer Abendveranstaltung in Brüssel. EUROFER ist der europäische Verband der Stahlproduzenten. Normalerweise folgen auf die Reden/Informationen/Darstellungen bei derartigen Veranstaltungen rege Diskussionen und Zwischenfragen aus dem Auditorium.  Diesmal wandte sich die Aufmerksamkeit nach den paar Ansprachen dem Abendessen zu, keine Debatte mehr. Meine sorgfältig vorbereitete Frage blieb ungefragt, deshalb möchte ich sie nun hier stellen.:

"Herr Vorsitzender, der Sprecher der Kommission hat richtigerweise gesagt, dass es die EU derzeit mit einer Wachstumskrise zu tun hat, niedriger Produktivität und Wettbewerbsfähigkeit, dazu hoher Arbeitslosigkeit. Und dies am Ende des Jahrzehnts des Lissabon-Prozesses, wo mit Überheblichkeit gehofft worden war, in Europa die ‚wettbewerbsfähigste wissensbasierte Wirtschaft der Welt zu schaffen‘. Bedeutet dieses massive Versagen nicht, dass da etwas grundlegend falsch ist im EU-Modell der ökonomischen Integration, ganz so, wie die derzeitige EURO-Krise bedeutet, dass da etwas grundlegend daneben geht in der Architektur der Einheitswährung?

Stimmt es ewa nicht, dass unsere Klimaschutzpolitik die Kosten erhöht und energieintensive Industrien wie die Stahlindustrie aus Europa vertreibt?"

Es bedurfte doch nur einer übertriebenen Regulierung und Besteuerung, um die EU zu einer unattraktiven Geschäftsregion zu machen. Zusätzlich haben in der jetzigen Rezession die westlichen Wirtschaften noch einen Klotz am Bein namens „SCHULDEN”. Und bei diesem dreifachem Pech haben wir in der EU uns vorsätzlich und freiwillig einen neuen Klotz ans andere Bein gebunden: Der heißt ‚Führungsrolle im Kampf gegen den Klimawandel’".

Über "Führungsrollen" wird in der EU sehr gerne gesprochen, in der Klimapolitik und wo sonst auch immer. Man merkt leider nicht, dass niemand sonst mitmacht. Der Klima-Alarmismus findet in der übrigen Welt keine Sympathie. Obama hat den Zertifikatehandel über Bord geworfen – und seine Kritiker von den Linksgrünen beschuldigen ihn, das Interesse an der Umwelt gänzlich verloren zu haben.
Wir hören, dass China in der Entwicklung Grüner Technologie führend wäre, aber dennoch bauen die Chinesen wöchentlich ein neues Kohlekraftwerk, während ihre Solarplatinen-Fabriken wegen Nachfragemangel pleite gehen.

Es bringt keinen Vorteil, der erste Lemming zu sein, der über die Klippe stürzt, aber das ist genau die Position, in der sich die EU befindet.

Ich sprach von "Rechtsräumen mit geringeren Umweltstandards". Gestern abend wurde das mit einer Zahl belegt. Ein höherer EUROFER-Offizieller sagte mir, dass in Europa die Produktion einer Tonne Stahl mit ein-einhalb Tonnen CO2-Emissionen verbunden ist. Die Herstellung der gleichen Tonne Stahl in China setzt vier Tonnen CO2 frei. Mehr als das Doppelte.

Halten wir uns ganz klar vor Augen: Wir haben eine Politik, die Wachstum, Arbeitsplätze, Investitionen und Wohlstand zerstört und gleichzeitig möglicherweise die Emissionen verdoppelt. Das ist, wie so vieles in der EU, eine Politik, bei der man nur verlieren kann.

Ich habe oft erlebt, dass einzelne Sprecher ihre privaten Zweifel aussprechen, während Organisationen und Firmen ständig Kniefälle vor der herrschenden Klima-Lehre machen. Das war gestern Abend nicht anders. Die konventionelle Sicht wird aber allmählich von innen ausgehöhlt: die Skeptiker sind auf dem Wege, die Hirne und Herzen zu gewinnen.

Mein EUROFER-Gesprächspartner (dessen Namen ich aus verständlichen Gründen nicht nenne) sagte: "Wir bei EUROFER sind zum Kampf gegen den Klimawandel verpflichtet. Aber ich persönlich halte das für Unfug".

Da haben wir es. Wir de-industrialisieren Europa im Namen des Klimawandels, einer bizarren, kollektiven Wahnidee, die so wieder vergehen wird, wie sie sich verbreitet hat.

Dieser Artikel erschien zuerst auf ConservativeHome und bei Roger Helmer.

Übersetzung: Helmut Jäger, EIKE




Pflichtlektüre für Kandidaten

Anthony Watts, Betreiber von WATTSUPWITHTHAT, schreibt:

Wieder einmal etwas Aufsehen Erregendes! Sechzehn Wissenschaftler, darunter Richard Lindzen, William Kininmonth, Wil Happer, Nir Shaviv, dazu der Ingenieur Burt Rutan, der Apollo-17-Astronaut Dr. Harrison Schmidt, haben ans Wall Street Journal einen geradezu häretischen Aufsatz geschrieben mit dem Thema, dass der Klimawandel völlig übertrieben sei, dass die Erwärmung im letzten Jahrzehnt aufgehört hat, und dass nun im Schwarzer-Peter-Spiel auf der Suche nach der Erwärmung die Wettererereignisse herhalten müssen. Zusätzlich erhalten wir eine Lektion in Wissenschaftsgeschichte. Die Wissenschaftler verweisen auf den Lyssenkoismus und zeigen, was dieser mit dem heutigen Alarmismus wegen des Klimawandels zu tun hat.

 Die Wissenschaftler schreiben:

„Nur keine Panik wegen Klimawandel!“

Wer sich als Kandidat für ein öffentliches Amt in heutigen Demokratien bewirbt, muss sich eine Meinung zur Frage bilden, ob und was gegen den „Klimawandel“ zu unternehmen ist. Die Kandidaten sollten aber wissen, dass die stetig wiederholte Aufforderung von seiten nahezu aller Wissenschaftler, etwas Dramatisches gegen den Klimawandel zu tun, eine Unwahrheit birgt: Tatsächlich hält nämlich eine immer größere Zahl von herausragenden Wissenschaftlern und Ingenieuren ein drastisches Handeln gegen die Erwärmung für unnötig.

Im September hat der Physiker und Nobelpreisträger Ivar Giaever, während der letzten Wahl ein Anhänger von Präsident Obama, öffentlich seinen Austritt aus der American Physical Society (APS) erklärt mit einem Schreiben, das wie folgt beginnt:

"Ich habe [meine Mitgliedschaft] nicht erneuert, weil ich diese Aussage [zur Position der American Physical Society] überhaupt nicht teile:
‚Die Beweislage ist unumstößlich: Der Klimawandel ist im Gange. Ohne Abschwächungsmaßnahmen werden wahrscheinlich deutliche Einschnitte bei den physikalischen und ökologischen Systemen, den Sozialsystemen, der Sicherheit und der menschlichen Gesundheit erfolgen. Wir müssen sofort mit der Verminderung der Treibhausgasemissionen beginnen.‘

Trotz einer jahrzehntelangen internationalen Kampagne zur Verbreitung der Botschaft von der Zerstörung der Zivilisation durch den zunehmenden Anteil des „umweltverschmutzenden“ Kohlendioxids in der Atmosphäre, teilt eine große Zahl von Wissenschaftlern, darunter viele herausragende, die Ansichten von Dr. Giaever. Auch steigt die Zahl der wissenschaftlichen "Häretiker" mit jedem Jahr. Der Grund liegt in der Ansammlung von harten wissenschaftlichen Fakten.

Die vielleicht unangenehmste Tatsache [für die Klima-Alarmisten] ist das Ausbleiben der globalen Erwärmung seit mehr als 10 Jahren. Die Erwärmungsapostel wissen das, wie man aus der 2009er "Climategate"-E-mail des Klimatologen Kevin Trenberth ersehen kann:

"Tatsache ist, dass wir das Ausbleiben der Erwärmung nicht erklären können und das ist schlimm.“

Aber das Ausbleiben einer Erwärmung hat nur Bedeutung, wenn man an Computermodelle glaubt, wo sogenannte Rückkopplungen von Wolken und Wasserdampf die geringe Auswirkung des CO2 ungemein verstärken.

Das Ausbleiben einer Erwärmung seit mehr als einem Jahrzehnt – in der Tat: geringer als vorhergesagt in den 22 Jahren, seit das UN-Intergovernmental Panel on Climate Change (IPCC) mit seinen Vorhersagen begonnen hat – legt nahe, dass die Computermodelle grob übertrieben haben, wie viel Erwärmung von zusätzlichem CO2 verursacht wird. Angesichts dieser Blamage haben die Alarmschläger ihr Feurio-Geschrei von der Erwärmung auf die Wetter-Extrema verlegt mit dem Ziel, alles außergewöhnliche Geschehen in unserem chaotischen Klima dem CO2 anzulasten.

Tatsächlich ist CO2 kein Umweltverschmutzer. CO2 ist ein farb- und geruchloses Gas, das in hoher Konzentration von jedermann ausgeatmet wird und eine Schlüsselkomponente im Lebenszyklus der Biosphäre ist. Pflanzen geht es mit mehr CO2 besser. Die Besitzer von Treibhäusern erhöhen häufig die CO2-Konzentration um den Faktor drei oder vier, um besseres Wachstum zu erzielen. Das ist keine Überraschung, denn Pflanzen und Tiere sind entstanden, als die CO2-Konzentration etwa 10 mal höher als heute war. Höhere Pflanzenvielfalt, Kunstdünger und Ackerbaumanagement haben zum hohen Anstieg der landwirtschaftlichen Erträge im vergangenen Jahrhundert beigetragen, aber ein Teil davon geht mit Sicherheit auch auf das Konto von zusätzlichem CO2 in der Atmosphäre.

Unser blauer Planet und seine am linken Rand erkennbare Atmosphäre

Die Zahl der öffentlich widersprechenden Wissenschaftler steigt. Auch Nachwuchswissenschaftler sagen heimlich, dass sie aus Angst vor Karriereknicks oder vor noch Schlimmerem ihre Meinung nicht laut sagen könnten, obwohl sie ernsthafte Zweifel an der Botschaft von der globalen Erwärmung hätten. Sie haben allen Grund dazu. Im Jahre 2003 wagte Dr. Chris de Freitas, Herausgeber des Journal Climate Research, die Veröffentlichung eines fachbegutachteten Artikels mit der politisch inkorrekten (aber faktisch richtigen) Schlussfolgerung, dass die jüngste Erwärmung nicht ungewöhnlich im Kontext der Klimaveränderungen während der vergangenen tausend Jahre gewesen wäre. Das internationale Erwärmungs-Establishment hat rasch eine entschiedene Kampagne losgetreten, um Dr. de Freitas von seinem Herausgeberjob und aus seiner Universitätsposition zu entfernen. Glücklicherweise konnte Dr. de Freitas seinen Universitätsjob behalten.

So darf es nicht weitergehen. So etwas hat es früher schon einmal gegeben, z. B. während der schrecklichen Zeit, als Trofim Lyssenko die Biologie in der Sowjetunion beherrschte. Sowjetische Biologen, die erkennen ließen, dass sie an Gene glaubten, die Lyssenko für eine bourgeoise Phantasie erklärte, wurden aus ihren Positionen entfernt. Viele kamen in den GULAG, einige wurden sogar zum Tode verurteilt.

Warum gehen die Leidenschaften um die globale Erwärmung so hoch, warum wurde diese Angelegenheit so quälend, dass sich die American Physical Society, von der sich Dr. Giaever vor einigen Monaten verabschiedet hat, weigerte, eine anscheinend so vernünftige Forderung der Mitglieder auf Entfernung des Wortes „unumstößlich“ aus ihrer wissenschaftlichen Positionsbeschreibung zu entfernen? Es gibt mehrere Gründe, ein guter Anfang ist die alte Frage "CUI BONO?", oder in moderner Form: "Verfolge die Geldströme."

Klima-Alarmismus birgt große Vorteile für Viele, er sichert Regierungsfinanzierung für wissenschaftliche Forschung und liefert einen Grund für Bürokratiewachstum. Alarmismus liefert den Regierungen auch Begründungen für Steuererhöhungen, für Zuschüsse auf Steuerzahlerkosten zu Geschäftsmodellen, die verstehen, das politische System für ihre Zwecke zu nutzen. Er verführt zu großen Spenden an wohltätige Stiftungen, die versprechen, die Welt zu retten. Lyssenko und seine Anhänger lebten sehr gut, und sie verteidigten ihr Dogma mit Klauen und Zähnen und die damit verbundenen Privilegien.

Allen Kandidaten für öffentliche Ämter möchten wir namens vieler Wissenschaftler und Ingenieure, die sich sorgfältig und unabhängig voneinander mit der Klimawissenschaft beschäftigt haben, diese Botschaft zurufen: Es gibt kein zwingendes wissenschaftliches Argument für drastische Handlungen zur "Dekarbonisierung" der Weltwirtschaft. Selbst wenn man die aufgeblasenen Klimavorhersagen des IPCC akzeptieren würde, wäre eine aggressive Politik zur Steuerung der Treibhausgase wirtschaftlich nicht gerechtfertigt.

Eine kürzliche Studie des Yale-Wirtschaftsprofessors William Nordhaus zu einem breiten Fächer von Politik-Optionen zeigte, dass das nahezu höchste Nutzen/Kosten-Verhältnis durch eine Politik erzielt wird, die mehr als 50 Jahre ungehindertes Wachstum erlaubt, ohne Behinderungen durch Treibhausgasbegrenzungen. Eine derartige Politik wäre besonders günstig für die weniger entwickelte Welt, die gerne an den erreichten Vorteilen der voll entwickelten Welt beim materiellen Wohlstand, beim Gesundheitswesen und bei der Lebenserwartung teilhaben möchte. Viele andere politische Antworten führen zu negativen wirtschaftlichen Ergebnissen. Wahrscheinlich wäre mehr CO2 und eine damit verbundene geringe Erwärmung insgesamt eine Wohltat für die Erde.

Wenn die Amtsträger unbedingt “etwas wegen des Klimas zu unternehmen” möchten, empfehlen wir die ausgezeichneten Wissenschaftler zu fördern, die unser Verständnis vom Klima vertiefen, indem sie die gut entworfenen Mess-Instrumente an Bord von Satelliten, in den Weltmeeren und an Land benutzen und Beobachtungsdaten analysieren. Je besser wir das Klima verstehen, umso eher können wir mit seiner immerwährenden Veränderung umgehen, mit der sich der Mensch während seiner gesamten Geschichte plagen musste. Viele der riesigen privaten und regierungsseitigen Investitionen ins Klima bedürfen allerdings dringend einer kritischen Überprüfung.

Jeder Kandidat sollte vernünftige Maßnahmen zum Schutz und zur Verbesserung unserer Umwelt unterstützen, aber es ist völlig unsinnig, auf teure Programme zu setzen, die Ressourcen vom tatsächlichem Bedarf abziehen, und die auf alarmierenden aber unhaltbaren Behauptungen von “unumstößlichen” Beweisen beruhen.

Die Unterzeichner:
Claude Allegre, former director of the Institute for the Study of the Earth, University of Paris; J. Scott Armstrong, cofounder of the Journal of Forecasting and the International Journal of Forecasting; Jan Breslow, head of the Laboratory of Biochemical Genetics and Metabolism, Rockefeller University; Roger Cohen, fellow, American Physical Society; Edward David, member, National Academy of Engineering and National Academy of Sciences; William Happer, professor of physics, Princeton; Michael Kelly, professor of technology, University of Cambridge, U.K.; William Kininmonth, former head of climate research at the Australian Bureau of Meteorology; Richard Lindzen, professor of atmospheric sciences, MIT; James McGrath, professor of chemistry, Virginia Technical University; Rodney Nichols, former president and CEO of the New York Academy of Sciences; Burt Rutan, aerospace engineer, designer of Voyager and SpaceShipOne; Harrison H. Schmitt, Apollo 17 astronaut and former U.S. senator; Nir Shaviv, professor of astrophysics, Hebrew University, Jerusalem; Henk Tennekes, former director, Royal Dutch Meteorological Service; Antonio Zichichi, president of the World Federation of Scientists, Geneva.

Übersetzung: Helmut Jäger, EIKE
Hervorhebungen [fett] vom Übersetzer

Original hier




Klimawahn und Energiezukunft der Menschheit

Sinn und Sensitivität II

By Christopher Monckton of Brenchley

Joel Shore, der wie jeder gute Skeptiker meine Rechnungen zur Klimasensitivität anzweifelte, hat freundlicherweise auf meine Bitte hin eine Referenz zu einem Papier von Dr. Andrew Lacis et al. vom Goddard Institute of Space Studies (GISS) genannt, um seine Behauptung zu untermauern, dass der CO2-Anteil mit ungefähr 75% zum Strahlungsantrieb aller Treibhausgase beitrüge. Wasserdampf dagegen, wegen seiner hohen Konzentration in der Atmosphäre das wichtigste Treibhausgas, kondensiere rasch aus, während die nicht-kondensierenden Gase, wie  CO2, jahrelang in der Atmosphäre verblieben.

Dr. Lacis erläutert sein eigenes Papier: “Während die nicht-kondensierenden Treibhausgase mit 25% zum gesamten Treibhauseffekt beitragen, sind es die kondensierenden Treibhausgase, die tatsächlich die Stärke des irdischen Treibhauseffekts steuern, weil sich die Beiträge des Wasserdampfs und der Wolken-Rückkopplung nicht selbst aufrechterhalten und deshalb nur eine Verstärkung darstellen.”

Dr. Lacis’ Argument ist, dass der Strahlungsantrieb des Wasserdampfes als eine Rückkopplung behandelt werden sollte, weil, selbst wenn alle Treibhausgase aus der Atmosphäre entfernt würden, der Großteil des jetzt in the Atmosphäre befindlichen Wasserdampfes kondensieren oder innerhalb von zehn Jahren abregnen würde, und innerhalb von 50 Jahren wäre die Globaltemperatur dann um etwa 21 K kälter als heute.

Zu diesem Papier habe ich viele Einwände, da es u. a. nicht der Tatsache Rechnung trägt, dass die Verdampfung von der Erdoberfläche dreimal so stark ist, wie in den Computer-Modellen abgebildet (Wentz et al., 2007). Deshalb ist viel mehr Wasserdampf in der Atmosphäre als von den Modellen unterstellt, selbst ohne Treibhausgase.

Im Papier wird auch behauptet, die Verweildauer von CO2 in der Atmosphäre wäre “nach Tausenden von Jahren zu bemessen”. Selbst das zur Übertreibung neigende IPCC setzt die Verweildauer nur auf 50 – 200 Jahre. Auf Anforderung kann ich drei Dutzend Papiere nennen, die bis auf Revelle in den 1950ern zurückgehen, welche die CO2-Verweildauer mit gerade mal sieben Jahren angeben, auch wenn Professor Lindzen sagt, dass aus vielerlei Gründen 40 Jahre eine gute Schätzung wäre.

Darüberhinaus ist fraglich, ob der rein politische Schlussabsatz des Papiers in einer angeblich unparteiischen wissenschaftlichen Analyse stehen sollte. Zu behaupten und keine Beweise anzuführen, dass jenseits einer CO2-Konzentration von über 300-350 ppmv “eine gefährliche anthropogene Beeinflussung des Klimasystems durch Überschreitung der 25% Risiko-Toleranz-Grenze einträte mit einer damit verbundenen Verschlechterung der Land- und Meeres-Ökosysteme, einem Meereshöhenanstieg [derzeit gerade mal knapp 5 cm pro Jahrhundert im Verlauf der letzten 8 Jahre, gemäß Envisat], einer unvermeidbaren Störung der sozioökonomischen und nahrungsmittelerzeugenden Infrastruktur” ist überhaupt nicht belegt und daher unwissenschaftlich: Das ist widerlich politisch.

Man merkt, dass viele Wissenschaftler am GISS einer gewissen politischen Strömung angehören, und dass mindestens einer von ihnen regelmäßige substanzielle Zuwendungen für Al Gores Wiederwahl-Kampagnen machte, wissenschaftliche Zeitschriften sind aber nicht der Ort für politische Linksausleger.

Mein Haupteinwand ist, dass das zentrale Argument im Papier eigentlich eine petitio principii ist, ein Zirkelschluss und daher ein ungültiges Argument: eine der Prämissen ist auch die Schlussfolgerung: eine starke netto-positive Rückkopplungswirkung verstärkt die vom Strahlungsantrieb hervorgerufene Erwärmung.

Das Papier beruht nicht auf Messungen, Beobachtungen und der Anwendung bewährter Theorie. Es kommt zu dem Ergebnis, – man ahnt es schon –, dass es mit einem berüchtigten Computer-Klima-Modell herumspielt: dem GISS ModelE. Dieses Modell unterstellt in der Tat sehr starke netto-positive Rückkopplungen, für welche es ziemlich wenig verläßliche empirische oder theoretische Indizien gibt.

Als Dr. Lacis’ Papier geschrieben wurde, enthielt das ModelE “flux adjustments” (auf gut Deutsch: Schummelfaktoren), die bis zu 50 Watt/Quadratmeter betrugen, ein Mehrfaches der Größenordnung des ziemlich kleinen Antriebs, den wir auf das Klima ausüben können.

Dr. Lacis sagt, das ModelE beruhe auf gut verstandenen physikalischen Prozessen. Wenn das wahr wäre, wären keine so großen Schummelfaktoren notwendig (wie im Betriebshandbuch des Modells erwähnt und quantifiziert).

Auch würde man bei der Vorhersagefähigkeit dieses und anderer Modelle eine viel größere Treffsicherheit erwarten, als sich gezeigt hat. Wie der große Dr. John Christy von der NASA kürzlich schrieb: Im Zeitalter der Satelliten (es fällt zum größten Teil mit der von der Pacific Decadal Oscillation herrührenden natürlichen Erwärmungsphase zusammen) sind die Temperaturen nur um ein Viertel bis zur Hälfte angestiegen, verglichen mit der von Modellen wie dem ModelE vorhergesagten Temperaturerhöhung.

An dieser Stelle kann ein wenig grundlegende Klimaphysik helfen. Es ist nicht besonders schwierig (sonst würde ich es nicht verstehen). Ich möchte die IPCC/GISS-Schätzungen des Antriebs, der Rückkopplungen und Erwärmung auf das anwenden, was seit 1750 tatsächlich beobachtet oder daraus abgeleitet worden ist.

Beginnen wir mit den Antrieben. Dr. Blasing und seine Kollegen vom Carbon Dioxide Information and Analysis Center haben kürzlich den Anteil der gesamten Treibhausgas-Antriebe seit 1750 mit 3,1 Watt/Quadratmeter bestimmt.

Bei Anwendung der Antriebstabelle des IPCC müssen wir davon 35%, oder 1,1 Watt/Quadratmeter abziehen, um negative anthropogene Antriebe zu berücksichtigen, besonders die Rußpartikel, die wie kleine Schirme gegen die Sonne wirken. Die netto-anthropogenen Antriebe seit 1750 betragen daher 2 Watt/Quadratmeter.

Wir multiplizieren 2 Watt/Quadratmeter mit dem Klima-Sensitivitäts-Parameter (vor der Rückkopplung) von 0.313 Kelvin pro Watt/Quadratmeter. Wir erhalten eine Erwärmung von 0,6 K, bevor irgendwelche Rückkopplungen wirken.

Dann wenden wir den impliziten, auf einen Jahrhundertmaßstab bezogenen IPCC-Rückkopplungsfaktor von 1,6 an (nicht den Gleichgewichtsfaktor von 2,8, weil das Gleichgewicht Tausende von Jahre entfernt ist: Solomon et al., 2009).

Nachdem alle Rückkopplungen über die gesamte Zeitspanne gewirkt haben, beträgt demnach die vom ModelE und anderen vom IPCC bevorzugten Modellen vorhergesagte Schätzung der Erwärmung 1,0 K.

We verfizieren, dass der (IPCC-implizite) jahrhundert-maßstäbliche Rückkopplungsfaktor von 1,6 richtig ist, weil wir sehen, dass 1 K Erwärmung geteilt durch 2 Watt/Quadratmeter des ursprünglichen Antriebs nun 0,5 Kelvin per Watt/Quadratmeter ergibt. Das ist tatsächlich der implizite transiente Sensitivitätsparameter für jahrhundert-maßstäbliche Analysen, der in allen sechs CO2-Emissionsszenarien des IPCC steckt, und auch in dessen Mittelwertbildung. (Der Faktor wird nicht explizit genannt: Es hat den Anschein, als ob man nicht möchte, dass wir die Dinge überprüfen.)

Dr. Lacis Papier sagt tatsächlich, dass 80% der Antriebe von allen Treibhausgasen dem CO2 zugerechnet werden müssen. Die jetzige implizite zentrale IPCC-Schätzung in allen sechs Szenarien und deren Durchschnitt ist von gleicher Größenordnung, um die 70%.

Beim Ansatz der IPCC-eigenen Antriebsfunktion für CO2: 5,35 * natürlicher Logarithmus von (390 ppmv / 280 ppmv) unter Berücksichtigung der gestörten und ungestörten Konzentrationen von CO2 über die Betrachtungsperiode, ergeben sich 1,8 Watt/Quadratmeter.

Bei dessen Multiplikation mit dem transienten Sensitivitätsfaktor des IPCC von 0,5 erhält man 0,9 K – das aber ist die gesamte jetzige Erwärmung seit 1750. Wo bleiben die ungefähr 20-30% Erwärmung, die von den anderen Treibhausgasen stammen? Das ist ein Anzeichen dafür, dass der CO2-Antrieb doch ziemlich übertrieben worden ist.

Das IPCC sagt in seinem 2007er Bericht nur, dass seit 1950 die gesamte Erwärmung zur Hälfte bis zum Gesamtbetrag beobachtet wurde (also seit 1750), und dass dies dem Menschen zugerechnet werden müsste. Daher wären 0,45 – 0,9 K der beobachteten Erwärmung auf uns zurückzuführen. Selbst bei Annahme des höheren Wertes und unter Annahme der IPCC/GISS-Parameterwerte und Methoden gingen auf das Konto des CO2 nicht 70-80% der beobachteten Erwärmung für den Zeitraum, sondern die gesamte Erwärmung.

Als Antwort auf Argumente wie dieses, erhebt der schon müde DEUS EX MACHINA der vielleicht allzu gutgläubigen IPPC-Anhänger mühsam sein Haupt und sagt, dass die fehlende Erwärmung mit uns Versteck spiele, heimlich auf dem Meeresgrund lauere bis sie zuschlüge.
Elementare Betrachtungen der Thermodynamik belegen aber, dass solche Vorstellungen Unsinn sind.

Nichts kann uns sagen, wie groß die Rückkopplungen wirklich sind – vor allem nicht, wie sie in der Einbildung des IPCC bestehen. Ohne die Unterstellung einer hohen netto-positive Rückkopplung kann man kein Klimaproblem erschaffen. Doch selbst mit der vom IPCC angenommenen, unrealistisch hohen Rückkopplung gibt es überhaupt kein Klimaproblem, wie ich jetzt zeigen werde.

Obwohl das IPCC seine Schätzung des Gleichgewichts-Parameters für die Klimasensitivität explizit nennt (wenn auch nur in der konfusen Fußnote 631 des 2007er Berichts), macht es den transienten Sensitivitäts-Parameter nicht explizit – es ist der Letztere, nicht der Vorhergehende, der für die nächsten paar Jahrhunderte politisch relevant ist.

Während wir also genügend Verdachtsgründe finden für eine nicht unbeträchtliche Übertreibung der vorhergesagten Erwärmung in den IPCC-Vorhersagen (oder “Projektionen”, wie sie vorsichtigerweise genannt werden) und für eine noch größere Übertreibung im GISS ModelE, wollen wir die zentralen Schätzungen erst einmal anwenden, ohne gleich auf das  einzugehen, was uns angeblich in diesem Jahrhundert erwartet.

Dem IPCC zufolge besitzen alle sechs Emissionsszenarien gleiche Gültigkeit. Daraus folgt, dass wir sie mitteln können. Das machen wir. Danach soll die CO2-Konzentration im Jahre 2100 bei 712 ppmv liegen im Vergleich zur den 392 ppmv von heute. Der CO2-Antrieb wird demzufolge 5,35 ln(712/392) betragen, oder 3,2 Watt/Quadratmeter. Wir teilen durch 0,75 (Durchschnitt der GISS- und IPCC-Schätzungen vom CO2-Anteil an den gesamten Treibhausgas-Antrieben), um die anderen Treibhausgase zu berücksichtigen. Wir erhalten 4,25 Watt/Quadratmeter.

Diesen Wert vermindern wir um 35%, um die negativen Antriebe aus unseren Ruß-Abschirmungen usw. zu berücksichtigen. Wir erhalten 2,75 Watt/Quadratmeter netto-anthropogenen Antrieb zwischen heute und 2100.

Jetzt folgt die Multiplikation mit dem jahrhundert-maßstäblichen transienten Sensitivitätsparameter 0,5 Kelvin pro Watt/Quadratmeter. Damit erhalten wir eine vernünftige zentrale Schätzung der bis 2100 zu erwartenden Erwärmung, wenn wir die IPCC- und GISS-Methoden und Werte durchgängig anwenden. Wie hoch ist nun die in diesem Jahrhundert zu erwartende Erwärmung, wenn wir alles so gemacht haben? Aha, es sind nicht ganz 1,4 K.

Nun kommen wir auf die zuvor bemerkte Diskrepanz zurück. Das IPCC sagt, dass zwischen der Hälfte bis zur Gänze der gesamten Erwärmung seit 1950 auf uns zurückginge, und nun scheinen die IPCC-eigenen Methoden und Parameterwerte eine Übertreibung um die 20-30% zu zeigen, selbst wenn wir annehmen, dass die gesamte Erwärmung seit 1950 auf uns zurückginge. Die Übertreibung wäre noch viel größer, wenn nur die Hälfte der Erwärmung von uns gekommen wäre.

Wenn man diese Übertreibung berücksichtigt, wird die anthropogene Erwärmung in diesem Jahrhundert auf kaum mehr als 1 K zurückgeschoben – das ist ein Drittel der 3-4 K, von denen wir so oft hören.

Man beachte, wie geschickt diese Verdreifachung der wahren Erwärmungsrate erzeugt wurde: Durch eine Reihe von kleinen Übertreibungen, die sich alle zusammengenommen zu einem Knaller auswirken. Es ist sehr schwierig, diese Übertreibungen ausfindig zu machen, nicht nur weil die meisten von ihnen gar nicht groß sind, sondern auch, weil nur so wenige der notwendigen Parameterwerte explizit in den IPCC-Berichten genannt werden, so dass jedermann bemerken könnte, was da vorgeht.

Der Stern-Bericht von 2006 übernahm die zentrale IPCC-Schätzung von 3 K Erwärmung im 20.  Jahrhundert und meinte, dass die Kosten der Nicht-Vermeidung dieser Erwärmung 3% des Bruttosozialprodukts des 21. Jahrhunderts betrügen. Das GDP tendiert aber zu einer Zunahme von 3% pro Jahr; also, selbst wenn das IPCC mit 3 K Erwärmung recht hätte, wäre alles, was wir im gesamten Jahrhundert verlören, sogar angesichts der von Stern stark übertriebenen Kostenschätzungen (dafür wurde Stern in der Zeitschrift World Economics kritisiert; er ist dort selbst Mitglied des Beraterstabs), wäre das Äquivalent eines Bruttosozialprodukt-Wachstums nur das im vielleicht einzigen Jahr 2100 zu erwartende. Mehr nicht.

Um die Dinge noch schlimmer zu machen, hat Stern einen künstlich niedrigen Abzinsungssatz für den Vergleich der Kosten zwischen den Generationen angenommen, sein Büro teilte ihn mir mit: 0,1%. Als er wegen dieses zu niedrigen Abzinsungssatzes im fachbegutachteten Wirschaftsjournal World Economics auseinandergenommen wurde, sagte er, die ihn kritisierenden Wirtschaftswissenschaftler wären "konfus", er hätte tatsächlich 1.4% angesetzt. William Nordhaus, der viele fachbegutachtete kritische Artikel zu Stern geschrieben hat, meint, dass es ganz unmöglich wäre, auch nur ein Stück von Sterns Arbeit zu verifizieren oder zu replizieren, weil kaum etwas von seiner Methode explizit und zugänglich wäre.

Wie oft wir das schon gehört haben! Anscheinend will man nicht, dass die Dinge nachgeprüft werden.

Der absolute minimale wirtschaftlich vernünftige Abzinsungssatz ist mindestens so hoch wie das reale Ergebnis auf das Kapital, d.h. 5%. Tun wir Stern den Gefallen und nehmen wir an, dass er einen Abzinsungssatz von 1,4% benutzte und nicht die 0,1% von denen sein Büro sprach.

Selbst wenn das IPCC recht hätte mit seiner Behauptung – entgegen der obigen Analyse von nur 1 K menschengemachter Erwärmung in diesem Jahrhundert –, dass die Menschheit 3 K Erwärmung um 2100 erleben würde (Zunahme im ersten Neuntel des Jahrhunderts: 0 K), würden sich die Kosten des Nichtstuns, abgezinst mit 5%, auf nur 0,5% des globalen Bruttosozialprodukts im 21. Jahrhundert belaufen, anstelle von Sterns 3%.

Nicht überraschend ergibt sich daher, dass die Kosten einer Vermeidung der
3 K – Erwärmung um mindestens eine Größenordnung höher wären, als die Kosten der klimabezogenen Schäden, die aus dem Nichtstun entstehen könnten, wenn wir uns nur anpassen würden, was unsere Spezies so gut kann.

Wenn aber die von uns verursachte Erwärmung im Jahre 2100 sich nur als 1 K herausstellt, dann wird in den meisten Analysen diese sanfte Erwärmung nicht nur als harmlos, sondern sogar als günstig angesehen. Es werden überhaupt keine Netto-Kosten entstehen. Ganz im Gegenteil: ein wirtschaftlicher Nutzen wird daraus folgen.

Deswegen und auf den Punkt gebracht, sollten die Regierungen das UNFCCC und das IPCC auflösen, die Klimazuwendungen mindestens um neun Zehntel vermindern, nur noch zwei bis drei Klima-Computer-Modelle bezahlen und sich um die wirklichen Probleme der Welt kümmern – wie z. B. um die heraufziehende Energieknappheit in England und Amerika, weil die Klima-Extremisten und ihr künstlich erzeugter Unsinn fatalerweise den Neubau von kohle- und atomar befeuerten Kraftwerken verhindert haben, die nun dringend gebraucht werden.

Wir müssen wieder Boden unter die Füße bekommen und unsere fossilen Brennstoffe nutzen, Schiefergas und so, um den Milliarden von Menschen Elektrizität zu geben, die noch keine haben: das nämlich ist der schnellste Weg, sie aus der Armut zu befreien und schmerzlos die Weltbevölkerung zu stabilisieren. Das würde echte Vorteile für die Umwelt bringen.

Sie wissen nun auch, warum der Zubau von vielen neuen Kraftwerken dem Klima nicht weh tut, und weil, selbst wenn ein reales Risiko einer 3 K Erwärmung in diesem Jahrhundert existieren würde, es um ein Vielfaches kosteneffektiver wäre, sich anzupassen, als zu versuchen, die Erwärmung aufzuhalten.

Wie man bei Lloyds in London zu sagen pflegt, “Wenn der Preis der Prämie die Kosten des Risikos übersteigt, versichere dich nicht.” – Selbst wenn dieser Merkspruch unterstellt, dass es ein Risiko gibt – welches in unserem Falle gar nicht existiert.

Viscount Monckton of Brenchley

Original hier

Übersetzung: Helmut Jäger, EIKE




Grundmodell der Erde als Schwarzkörper – Ein ganz schweres Problem

Grundmodell der Erde als Schwarzkörper – Ein ganz schweres Problem

Robert G. Brown, Duke University

Die Erde hat nur eine Absorptionsfläche, die einer zweidimensionalen Scheibe gleicht, nicht einer Kugeloberfläche.

Eine halbe Nacht lang habe ich im Lern-Halbschlaf über dem Buch von Caballero zum Thema des Strahlungstransfers gebrütet und bin zu zwei Einsichten gekommen:

Erstens: das Grundmodell des Schwarzkörpers (es führt zu T_b = 255K) ist physikalisch ein schreckliches Grundmodell. Es behandelt den Planeten wie einen nicht rotierenden Wärme-Supraleiter ohne Wärmekapazität. Warum das so schrecklich ist? Weil es absolut falsch ist, 33K als Treibhauserwärmung in Bezug auf den Ausgangswert zu setzen. Dieser Ausgangswert ist ein völlig unphysikalischer Ausgangswert.
Zweitens, die 33K bedeuten nichts. Sie werfen Erwärmungs- und Abkühlungseffekte zusammen, absolut nichts mit dem Treibhauseffekt zu tun haben. Mehr dazu später.

Jetzt verstehe ich den Treibhauseffekt viel besser. Ich möchte das jetzt mit meinen eigenen Worten schreiben, weil mir einige von Caballeros Aussagen nicht gefallen, und weil ich denke, dass meine Darstellung einfacher und einleuchtender ist. Ich denke auch daran, sie vielleicht später für einen Modellbausatz zu verwenden, von der Art, wie man sie als Lernspielzeuge kaufen kann.

Fangen wir mit einer nicht rotierenden supraleitenden Kugel an, null Albedo, einheitliche Emissivität, vollständige Schwarzkörper-Strahlung von jedem Punkt der Kugel. Wie hoch ist die Durchschnittstemperatur?

Jetzt behandeln wir die nicht rotierende Kugel als vollständigen Nicht-Leiter, dergestalt, dass sich ein Teil der Oberfläche im Strahlungsgleichgewicht befindet. Wie hoch ist die Durchschnittstemperatur jetzt? Das ist für den Mond ein besseres Modell als das vorhergehende, aber immer noch nicht gut genug. Verbessern wir es!

Wir geben der Oberfläche nun einige thermische Wärme-Kapazität – wir machen sie Wärme-supraleitend, aber nur in vertikaler Richtung und wir nehmen noch eine Masseschale von einiger Dicke an, die eine vernünftige spezifische Wärme hat. Das ändert am vorherigen Ergebnis nichts, solange wir die Kugel nicht rotieren lassen. Oho, nun erhalten wir doch eine andere durchschnittliche (Oberflächen-) Temperatur, diesmal ist es der sphärische Durchschnitt einer Verteilung, die von der sphärischen Breite abhängig ist. Dabei liegt die höchste Temperatur auf der Tagseite nahe beim Äquator kurz nach dem „Mittag“ (verzögert, weil es Zeit braucht, um die Temperatur jedes Blockes zu erhöhen, weil die Einstahlung den Schwarzkörper-Verlust übersteigt, und weil es Zeit zur Abkühlung braucht, weil der Schwarzkörper-Verlust die Strahlung übersteigt, und die Oberfläche hat niemals und nirgends eine konstante Temperatur außer an den Polen (ohne axiale Kippung). Das ist wahrscheinlich ein recht passendes Modell für den Mond, wenn man rückschreitend eine Albedo hinzufügt (damit wird der Anteil der hereinkommenden Energie vermindert, der thermisch ausbalanciert werden muss).

Man kann für jede dieser Veränderungen tatsächlich die exakte parametrische Temperatur-Verteilung errechnen als Funktion des sphärischen Winkels und des Radius, und (durch Integration) die Veränderung berechnen in z. B. der durchschnittlichen Temperatur aufgrund der Annahme eines vollständigen Schwarzkörpers. Beim Übergang von einem supraleitenden, aber im Übrigen perfekt isolierenden (nicht rotierenden), Planeten zu einer lokal detaillierten Balance fällt die nachtseitige Temperatur einfach von ½ der Kugel Ihrer Wahl von 3 K, oder von null K nach sehr langer Zeit (das ist leichter zu idealisieren). Das ist die untere Grenze, unabhängig von Sonneneinstrahlung oder Albedo (in diesem Sinne hier: der Emissivität). Die tagseitige Temperatur hat eine polare Verteilung, wobei ein Pol auf die Sonne blickt, sie variiert nicht-linear mit der Einstrahlung, Albedo, und (wenn Sie sie verändern wollen) mit der Emissivität.

Das vermaledeite T^4 verkompliziert alles! Ich möchte noch nicht einmal das Vorzeichen der Veränderung der Durchschnittstemperatur zuweisen, wenn ich vom ersten Modell zum zweiten übergehe! Jedesmal, wenn ich meine, ein gutes heuristisches Argument für die Aussage von einer niedrigeren Durchschnittstemperatur zu haben, sagt eine innere Stimme – T^4 – bilde lieber das verflixte Integral, weil die Temperatur im Übergangsbereich von der Tagseite her allmählich auf Null gehen muss. und da gibt es eine ganze Menge von geringer Einstrahlung in einem Gebiet (und daher mit niedriger Temperatur), wo die Sonne auf fünf Uhr steht, sogar mit null Albedo und der Emissivität von einer Einheit! Leicht ist nur, den sphärischen Durchschnitt zu erhalten: Wir nehmen einfach den sphärischen Tagseiten-Durchschnitt und teilen durch zwei.

Mit dem Vorzeichen für die rotierende Kugel bin ich auch nicht glücklich, weil es auf vom Zusammenspiel zwischen der erforderlichen Zeit zur Erwärmung der thermischen Last (engl: „thermal ballast“) abhängt, bei gegebener Differenz zwischen Einstrahlung und ausgehender Strahlung und der Rotationsrate. Wenn man mit unendlicher Geschwindigkeit rotieren lässt, ist man wieder bei der supraleitenden Kugel. Wenn man dazwischen rotieren lässt, und – verdammt noch mal – indem man nur die Größe der thermischen Last verändert (die thermische Last bestimmt die Thermisierungszeit), kann man es sogar so einrichten, dass sich eine rasch rotierende Kugel wie die statische nicht-leitende Kugel verhält, oder wie eine langsam rotierende (jeweils zwischen null Wärme-Kapazität und sehr hoher Wärme-Kapazität).

Schlimmer noch, wenn man die Geometrie der axialen Pole verändert (die noch in Bezug auf die Ekliptik als ungekippt angenommen werden). Während zuvor die Tag/Nacht Grenze sich allmählich an T = 0 von der Tagseite annäherte, gilt das nun nur noch an den Polen! Das Integral des polaren Gebietes (bei einem gegebenen Polarwinkel dtheta) ist viel kleiner als das Integral des Äquator-Winkels, und zudem hat man nun auch noch einen darüber verschmierten Satz von festen Temperaturen, die alle Funktionen des Azimut-Winkels phi und des Pol-Winkels theta sind, der verändert sich nicht-linear, wenn man einen der folgenden Parameter ändert: Einstrahlung, Albedo, Emissivität, omega (Winkelgeschwindigkeit der Rotation) und Wärmekapazität der Oberfläche.

Und dabei ist noch nicht einmal eine Atmospäre berücksichtigt! Oder Wasser. Aber wenigstens bis zu diesem Punkt kann man die Temperaturverteilungsrechnung T (theta,phi,alpha,S,epsilon,c) exakt lösen, denke ich.

Darüberhinaus kann man tatsächlich so etwas wie das Wasser recht gut modellieren. Wenn wir uns nun die Erde als mit einer Schicht von Wasser bedeckt anstelle von Luft vorstellen, mit einem Schwarzkörper auf dem Grund und einer dünnen Schicht einer völlig transparenten Frischhaltefolie drauf, um die vermaledeite Verdampfung zu verhindern, dann wird das Wasser zu einem Teil des thermischen Ballasts. Nun braucht es viel viel länger, um die Temperatur einer ein-Meter-dicken Wasserschicht (bei gegebenem Ungleichgewicht zwischen der einfallenden Strahlung) zu erhöhen oder zu vermindern, als die Temperatur im vielleicht oberen Zentimeter eines Felsens, von Dreck oder von Sand. Es dauert viel länger.

Wenn man das alles einigermaßen im Griff zu haben meint, könnte man das Modell mit Meeren und Landmassen füllen (aber immer noch den lateralen Energie-Transfer verbieten, und einen unmittelbaren vertikalen Ausgleich unterstellen). Man könnte dem Wasser die richtige Albedo zuschreiben und es beim Erreichen der richtigen Temperatur gefrieren lassen.

Danach wird es aber wirklich schwer.

Jetzt muss nämlich eine Atmosphäre dazukommen. Auch das noch!
Die Meere müssen Konvektionsfähigkeit erhalten, Dichte und unterschiedliche Tiefen. Und das alles auf einer rotierenden Kugel, wo alles was nach oben geht (Luftmassen) gegen die Erddrehung (relativ zur Oberfläche) abgelenkt wird, wo alles, was herunterkommt, in Richtung der Erddrehung angelenkt wird, was nach Norden geht auf der Nordhalbkugel in Drehrichtung abgelenkt wird (es wird schneller), was nach Süden geht, gegen die Drehrichtung abgelenkt wird, als Funktion von Winkel, Geschwindigkeit und Drehgeschwindigkeit. Verdammte Coriolis-Kraft, sie lenkt die Küstenartillerie ab, usw. Und jetzt erwärmen wir mal dieses verdammte Ding differentiell so, dass überall und über alle Entfernungen Turbulenzen vorkommen, für die wir kaum noch die einfachste Symmetrie für das differentielle Erwärmen haben. So ungefähr, wenn wir ein fünfjähriges Kind Farbe auf die Kugel spritzen lassen, um anzuzeigen, wo Landmassen und Ozeane sind, oder wir hätten ihm auch Spielzeuglastwagen geben und es im sphärischen Sandkasten spielen lassen können, bis eine schöne unregelmäßige Oberfläche entstanden wäre. Und diese Oberfläche hätten wir mit Wasser auffüllen können, bis die Oberfläche ungefähr zu 70 % unter Wasser gestanden hätte.

O weh! Mein armer Kopf raucht!
Wohlgemerkt – Wir haben immer noch keinen Treibhauseffekt dabei! Nur eine Heuristik für die Abkühlung durch Abstrahlung in einem idealen Zustand, der ist ganz wörtlich genommen destilliert; in Temperatur und Höhe aufgebrochen, noch ohne die Präsenz von CO2. Wolken. Luft verteilt sich mit nicht-trivialer kurzer Wellenlänge über den Querschnitt. Energietransfer satt!

Bevor wir uns nun mit dem CO2 auseinandersetzen, müssen wir die Quantenmechanik und das Inzidenzspektrum berücksichtigen, dazu auf die bislang ignorierten Details des Erdbodens, der Luft und des Wassers blicken. Für die Luft brauchen wir einen Temperatur-Gradienten, der sich mit der Feuchtigkeit, der Albedo, der Bodentemperatur verändert, usw. … Die Luftmoleküle üben einen Rückstoß aus, wenn sie die einfallenden Photonen verteilen, und wenn es eine Kollision mit einem anderen Luftmolekül im rechten Zeitintervall gibt, werden sie beide einen Teil oder die gesamte Energie absorbieren und die Luft erwärmen, anstatt sie elastisch zu verteilen. Ein Molekül kann auch eine Wellenlänge absorbieren und eine Kaskade von Photonen mit einer anderen Wellenlänge emittieren (abhängig von seinem Spektrum).

Und zum Schluss müssen die Treibhausgase dazukommen, vor allem CO2, (Wasser ist schon drin). Sie bewirken eine Zunahme der ausgehenden Strahlung von der (wärmeren) Oberfläche in einigen Bändern und transferieren etwas davon auf das CO2, wo sie eingefangen bleibt, bis sie zur Spitze der CO2-Säule diffundiert ist, von wo sie mit kühlerer Temperatur emittiert wird. Die gesamte hinausgehende Kraft wird auf diese Weise aufgespalten, dabei wird das vermaledeite Schwarzkörperspektrum so moduliert, dass verschiedene Frequenzen verschiedene Wirktemperaturen haben, lokal moduliert – von nahezu allem. Temperaturgradient, Feuchtigkeitsgehalt. Wolken. Massentransport von Wärme nach oben oder unten qua Konvektion! Massentransport von Wärme nach oben oder unten qua eingefangener Strahlung in Teilen des Spektrums. Und bitte nicht die Umgehungen vergessen! Alles fließt jetzt, Wind und Verdampfung sind gekoppelt, die Zeitdauer für den Temperaturausgleich des Meeres erstreckt sich nun von „im gleichen Maß wie die Rotationsperiode“ für flache Meere bis zu tausend oder mehr Jahren. Der Ozean ist niemals im ausgeglichenen Zustand, er zieht immer an den Oberflächentemperaturen in die eine oder andere Richtung mit nennenswerter thermischer Last, die Wärme wird nicht für einen Tag, sondern für eine Woche, einen Monat, ein Jahr, eine Dekade, ein Jahrhundert, ein Jahrtausend gespeichert.

Jawohl, eine verdammt harte Nuß! Wer auch immer so etwas „gesichertes Wissen“ (settled science) nennt, muss wirklich nicht mehr ganz bei Trost sein.

Wohlgemerkt: ich habe noch nicht den solaren Magnetismus oder ernsthaftere Modulationen der Sonneneinstrahlung einbezogen, noch nicht die Neigung der Erdachse, die noch einmal alles verändert, weil damit die Zeitskalen an den Polen jährliche werden, Nord- und Südpol sind überhaupt nicht gleich. Man beachte die enormen Unterschiede ihrer thermischen Last und den ozeanischen und atmosphärischen Wärmetransport!

Eine harte Nuß. Vielleicht nehme ich sie mir einmal zum Knacken vor, wenn ich Zeit habe, wenigstens für die ersten wenigen Schritte zu Anfang. Ich möchte zumindest eine bessere Vorstellung von der Richtung der ersten kleinen Schritte gewinnen zum Bau eines Spielzeug-Modells für die Durchschnittstemperatur. (Der Begriff „Durchschnittstemperatur“ meint hier etwas Bestimmtes, nämlich bevor das System chaotisch gemacht wird).

Dr. Robert Brown

Der Aufsatz führte auf WUWT zu einer Diskussion mit derzeit über 430 Beiträgen, die wegen des Umfangs leider nicht mehr übersetzt werden können. Wer sich für die Diskussion interessiert, möge die Beiträge und das Original hier lesen.

Übersetzung: Helmut Jäger, EIKE




Keine Indizien für positive Rückkopplung, keine Klimakipppunkte in Sicht

Auf WATTSUPWITHTHAT hatte der amerikanische Physiker und Dozent an der Duke Universität von North Carolina, Dr. Robert Brown, den Beitrag "Was wir über den Energiefluss der Erde nicht wissen" veröffentlicht, der eine rege Diskussion auslöste. Auf viele Einwände jener Diskussion schrieb Dr. Robert Brown einen längeren Aufsatz. Anthony Watts hält Dr. Browns Ausführungen zur angeblich vom CO2 bedrohten Klimastabilität für so kenntnisreich, dass er den gesamten Beitrag auf WATTSUPWITHTHAT gesondert veröffentlichte.

Im einleitenden Satz zitiert Dr. Brown eine Behauptung aus einem der vielen Kommentare zu "Was wir über den Energiefluss der Erde nicht wissen".

Keine neuen „strange attractors“: Aussagekräftige Indizien gegen die positive Rückkoppelung und die Katastrophe

von Dr. Robert Brown

Man muss schon feststellen, dass beide Systeme innerhalb der gleichen Parameter oszillieren, aber die Wahrscheinlichkeit der Synchronisation zwischen ihnen ist nil?

Leider nein, nicht über lange Zeiträume. Systeme können so verschieden sein, wie ein magnetisierter Ferromagnet, der in einer Richtung magnetisiert ist, sich von einem identischen Ferromagneten unterscheidet, der in umgekehrter Richtung magnetisiert ist. Oder im Falle der Erde, die als eiszeitliche Erde völlig unterschiedlich sein kann von einer zwischeneiszeitlichen Erde. Der Punkt ist, dass beide Zustände “stabil” sein können, bei genau der gleichen Einstrahlung, weil die Rückkoppelung im globalen System sie zu einem stabilen Zustand rekonfigurieren kann.

Wenn Sie in dem hier angegebenen Link to chaos theory die beiden Figuren mit den geschlossenen Linienbündeln anschauen, sehen Sie ein heuristisches Bild der Art von Möglichkeiten, die ein gekoppeltes nichtlineares Differential-System hat.

Eine Darstellung der Lorenz-Attractoren für Werte r = 28, σ = 10, b = 8/3 (aus Wikipedia

Mitten in jeder Schleife ist ein sogenannter “strange attractor“, der typischerweise ein „limit point“ ist. Die x und y – Achsen sind Koordinaten in einem generalisierten (Phasen-) Raum, der den Zustand des Systems zu jedem gegebenen Zeitpunkt repräsentiert: x(t), y(t). Die Linien selbst sind der Bahnverlauf des Systems über die Zeit, wie es sich unter der Einwirkung der zugrundeliegenden Dynamiken entwickelt. Mit der Figur soll illustriert werden, dass es keinen einzigartigen Umlauf gibt, mit dem die Erde einen regulären Attractor wie die Sonne umkreist: Das System oszilliert eine Zeitlang um einen Attractor, dann um den anderen, dann um beide. Anstelle von schönen geschlossenen Bahnverläufen haben wir Verläufe, die fast niemals gleich sind.

Zwei Bahnverläufe, die in kurzem Abstand hintereinander gestartet wurden, werden normalerweise die Attractoren anfänglich auf diese generelle Art umkreisen. Aber allmählich, oft schon bemerkenswert rasch, werden beide Bahnverläufe voneinander abweichen. Eine Bahn wird auf den anderen Attractor überspringen, eine andere nicht. Nach erstaunlich kurzer Zeit werden die beiden Bahnverläufe fast völlig de-korreliert sein, dergestalt, dass das Wissen um die Lage der einen Bahn (im allgemein zugänglichen Raum der Phase) überhaupt keine Hinweise zur Lage der anderen gibt.

Nur in diesem Sinne trifft die eingangs zitierte Behauptung zu. Jedes der Systeme muss im Raum der physikalisch konsistenten Zustände durch Differenzierung vom Startpunkt aus aufgefunden werden. Es gibt keine Garantie, dass die Bahnen den “Phasenraum füllen” werden. Nur in diesem Sinne können beide in dem von den Ausgangspunkten aus zugänglichen Phasenraum gefunden werden. Wenn die beiden Startpunkte dicht genug beieinander liegen, werden sie vermutlich zu sehr ähnlichen Phasenräumen führen, aber es gibt keine Garantie, dass diese identisch sein werden – besonders, wenn es (viel) mehr als zwei Attractoren gibt und irgendeinen einfachen Parameter. In der Statistischen Mechanik gibt es ein Theorem hierzu, aber meines Wissens nicht für den allgemeinen Fall der offenen Systemdynamik eines chaotischen Systems.

Wen es interessiert – das Herumspielen damit kann ganz spaßig sein – sollte mal bei den “predator-prey differential equations” vorbeischauen.

Wenn ich mich recht erinnere, befindet sich dort eines der einfachsten Systeme mit einem Attractor und begrenztem Durchlauf und es zeigt viele der Eigenschaften von komplizierteren dynamischen Systemen. Der Attractor/fixed point in diesem Falle ist die Population von z. B. Füchsen und Kaninchen, die von Jahr zu Jahr in perfektem Gleichgewicht bleibt. Man beachte wohl, dass diese Gleichung deterministisch ist. In einer echten Population – selbst wenn sie modelliert ist – gibt es natürlich immer zufällige (oder zumindest “unvorhersehbare”) Variationen – das ist ein gewisser Anteil von Rauschen -, der in diskreten, nicht in stetigen Werten angegeben wird, weil es z.B. keinen Geparden geben kann, der pi Paviane frißt.

Eine bessere stetige “Form”  einer Differentialgleichung zur Beschreibung von Systemen mit Rauschen ist die Langevin-Gleichung in der Physik – ein System mit “schnellen” mikroskopisch kleinen Freiheitsgraden, auf das man sich verlässt bei der Durchschnittsbildung mit einem stochastischen Term und langsameren Freiheitsgraden, die man herausintegriert wie bei der „predator prey“- Gleichung. In der Physik gibt es den speziellen limitierenden Fall von etwas, was dann die verallgemeinerte „Master-Gleichung“ genannt wird. Das ist die vollständige integro-differentiale Beschreibung eines „many body open quantum systems”; Sie ist wirklich sehr sehr schwierig. Der allgemeinere Ansatz ist hier aber gangbar – vermutlich ist er Teil der meisten vereinfachten Klimamodelle. Wenn man die Temperaturverläufe “glättet”, z. B. mit Hilfe eines laufenden Durchschnitts, verliert man Information (die Variationen über kurze Zeitspannen) und man reduziert die Komplexität des Systems durch die Konzentration auf eine langsamere Dynamik auf der Zeitskala.

Das ist zulässig, wenn das System wirklich einfach ist: d.h. es gibt nur einen einzigen Attractor und das System oszilliert um ihn, das Ausglätten des “Rauschens” ist irrelevant und fügt dem einzigen Bahnverlauf nur kleine Variationen zu. Wenn aber das System multistabil mit vielen örtlichen Stabilitätspunkten ist; oder noch schlimmer, wenn einige der Freiheitsgrade Dinge wie die Sonne sind, deren zeitliche Entwicklung völlig außerhalb “des Systems” liegt, dessen Zukunft unversagbar ist, und dessen Auswirkung man nicht genau kennt, dergestalt, dass sich die Attractoren selbst umherbewegen, wenn sich das System lokal entwickelt, – dann ist das wahrscheinlich nicht zulässig.

Das Symptom eines multistabilen Systems der letzteren unzulässigen Art ist eine Folge von durchbrochenen Gleichgewichten, sichtbar in den geglätteten Daten. Die 30-jährigen Satellitendaten und die Meeresoberflächendaten (Sea Surface Temperatures) zeigen dieses Bild ziemlich klar.

Und hier ein sehr wichtiger Punkt: oszillierende Systeme haben fast immer negative Rückkoppelung. Das ist die grundlegende Eigenschaft, die ein oszillierendes System bestimmt: es besitzt selbst eigene Attractoren. Die eigenen Attractoren sind Stabilitäts-(Gleichgewichts-)Punkte dergestalt, dass das System immer wieder zurück in den Gleichgewichtszustand gezogen wird und nicht weg davon, wenn es von ihnen gestört wird.

Im allgemeinen Falle von Attractoren in hochdimensionalen Räumen führt das zu (Poincare-) Zyklen um die Attractoren herum, wie sie in den  “predator-prey”-Gleichungen sichtbar werden, oder in der Chaos-Figur mit zwei „strange attractors“, mit der Ausnahme, dass diese in 3+ dimensionalen Räumen sehr, sehr kompliziert werden können (nur schwierig zu veranschaulichen). Mit dimensionalen Räumen sind keine physikalischen Räume gemeint, sondern parametrische “Phasen”-Räume (Zustandsräume).

In der Nachbarschaft eines Attractors gibt es im Allgemeinen viel lokale Stabilität – Bahnverläufe in solcher Nachbarschaft schwingen eng angelehnt um den Attractor und springen relativ selten auf andere Attractoren um. Deshalb tendieren eiszeitliche und zwischeneiszeitliche Perioden zu recht langen Zeiträumen (im Vergleich zu all den vielen kürzeren Zeitspannen, die im System verfügbar sind).

Das Bewegen eines zugrundeliegenden externen Parameters – z. B. der anthropogenen CO2-Konzentration, des Zustands der Sonne, des geomagnetischen Zustands – kann als Verschiebung der Festpunkte des multistabilen Systems gedacht werden. Wenn wir das linearisieren, können wir oft wenigstens die Richtung der ersten Ordnung der Bewegung abschätzen. Mehr CO2 z. B., sollte unter der Annahme des Treibhauseffekts zum Einfangen von mehr Wärme führen und damit die globale Temperatur erhöhen. Der stabile Festpunkt sollte sich daher ein wenig in Richtung „wärmer“ verschieben.

Fast das gesamte Argument bewegt sich um zwei einfache Probleme herum (und das in mehr als einer Weise). Beachten Sie, dass ich diese Probleme ganz anders als gewohnt darstelle:

a) Ist die Vermutung eines linearen Verhaltens gültig?

Das ist keine triviale Frage. Erhöhtes CO2 in einem multistabilen System bewegt nicht nur den lokalen Attractor, es bewegt alle Attractoren, und das nicht notwendigerweise auf simple lineare Art in einem wirklich komplizierten System mit vielen negativen Rückkoppelungen (die Hypothese erfordert eine Bewegung über den gesamten Ort, weil das System von Attractoren bestimmt wird). In vielen Systemen befinden sich bewahrende Prinzipien (nicht notwendigerweise bekannte), die als Beschränkungen derart wirken, dass durch die Aufwärtsbewegung eines Attractors ein anderer nach unten bewegt wird. Oder die “Schwellenhöhe” zwischen zwei Attractoren wird erhöht und damit alle begrenzenden Zyklen deformiert.

b) Liegt die Systemreaktion in der Größenordnung der mittleren Differenz zwischen den Attractoren, die vorwiegend schon vom System „gesampled“ sind?

Falls sie größer ist, wird das System wahrscheinlich nicht den wirkenden Attractor bewegen, sondern auf einen anderen Attractor überkippen. Das muss nicht der erwartete Attractor auf der wärmeren Seite des vorhergehenden sein. Mehr Erwärmung – wie die Warmisten in eher heuristischen Termini sagen – kann das System zu mehr unkontrolliertem Schwingen bringen und dabei wärmer als der wärmste Teil der Schwingung sein und kälter als der kälteste. Falls der neue Ausschlag der Schwingung groß genug ist, kann er das System auf beiden Seiten zum Schwingen um einen neuen Attractor stoßen.

Man beachte, dass die letzte Behauptung noch zu einfach ist, weil sie danach klingt, als ob es nur zwei Richtungen gäbe: wärmer oder kälter. Das ist nicht der Fall. Es gibt wärmer mit mehr Wasserdampf  in the Atmosphäre, wärmer mit weniger Wasserdampf  in the Atmosphäre, wärmer mit aktiver Sonne, wärmer mit nicht aktiver Sonne, wärmer mit zunehmendem Meereis, wärmer mit abnehmendem Meereis, wärmer mit mehr Wolken, wärmer mit weniger Wolken, und die Wolken können Tages- oder Nachtwolken sein, arktische or antarktische Wolken, im Sommer, Herbst, Winter oder Frühling, monats- oder tageweise, überall mit Rückkoppelungen – das Herumfingern an jedem beliebigen Aspekt des Zyklus wirkt auf alles Andere. Das war erst der Anfang einer Auflistung der gesamten wichtigen Dimensionen. Beachten Sie auch, dass es wirklich wichtige zeitliche Skalen mit fast periodischen  Oszillationen von vielen dieser Treiber gibt, und auch, dass die zu Grunde liegende Dynamik auf einem rotierenden Globus  stattfindet, der im ständigen Verlauf Luftwirbel erzeugt, deren Beständigkeit von Tagen bis zu Jahrzehnten reicht.

Ich habe in früheren Beitragen argumentiert, dass das in der Klimahistorie erkennbare durchbrochene Quasi-Equilibrium es sehr wahrscheinlich macht, dass die Antwort auf b) JA ist. Das anthropogene CO2 verschiebt das System um die Größenordnung des Abstands von einem oder mehr Attractoren, weil das System um die Attractoren herumspringt, sogar zu Zeiten, als es noch kein anthropogenes CO2 gab. Und weiter, die Ausreißer des Systems bei seinem Wechsel zwischen den Attractoren waren ebenso groß wie heute und qualitativ nicht anders.

Dies ist ein starkes Indiz, dass der Effekt geringer, und nicht größer ist als die natürliche Schwingungsbreite. Die negativen Rückkoppelungsfaktoren, die die multistabilen Attractoren (lokal) zur Wirkung bringen, wirken auch als negative Rückkoppelung auf die CO2-induzierte Verschiebung! Diese Aussage steht, ob nun die Annahme der Gültigkeit der Existenz einer linearen Antwort (pro Attractor) in a) zutrifft oder nicht, und die zusätzlich noch mit dem riesigen Problem der Beweisführung behaftet ist.

Das letztere ist das Fluktuations-Dissipations-Theorem, wie ich schon in dem einen oder anderen Beitrag gesagt habe. In einem offenen System in lokal stabiler Phase koppeln sich die Oszillationen (fluctuations) mit der Dissipation dergestalt, dass erhöhte Fluktuation zu mehr Dissipation führt – das ist negative Rückkoppelung. Falls das nicht zuträfe, wäre die lokal stabile Phase nicht stabil.

Das ist ein starkes Argument gegen die Katastrophe! Wenn es unter der Annahme, dass CO2 nur kleine, langsame, lokale Verschiebungen der Attractoren untereinander bewirkt im Vergleich zu den großen Schwüngen des Systems; wenn es einen Punkt gäbe, wo das System wahrscheinlich auf einen viel wärmeren stabilen Punkt überspringen würde (die von den Warmisten angedrohte “Katastrophe”), dann hätte das fast mit Sicherheit bereits geschehen müssen. Denn die Phasenschwingungen der vergangenen zehntausend Jahre haben schon viele Male zur gleichen Wärme geführt wie heute.

Die Tatsache, dass es nicht geschehen ist, ist wirklich ein ganz starker Beleg gegen die Behauptung einer positiven Rückkoppelung und einer Katastrophe. Ja. anthropogenes CO2 könnte die Attractor-Temperaturen ein wenig nach oben geschoben haben, es könnte auch kleinere Anpassungen in der Anordnung der Attractoren verursacht haben, aber es gibt kein Indiz dafür, dass es wahrscheinlich und plötzlich einen neuen Attractor außerhalb der normalen, von der Klimahistorie gezeigten Variationsbreite, erzeugen würde. Wäre es unmöglich? Natürlich nicht, aber nicht wahrscheinlich.

Ich möchte eine kleine Analogie anschließen

Als die Physiker sich auf den Test der ersten Atombombe vorbereiteten, wurden damals von weniger begabten Physikern Bedenken geäußert, dass die  Erdatmosphäre „in Brand gesetzt”, oder die Erde in eine Sonne verwandelt werden könnte (Das war, bevor die Kernfusion verstanden war – auch der Energie-Zyklus der Sonne war noch unbekannt). Jüngst habe ich von Befürchtungen gelesen, das Kollisionen im Großen Hadronen-Speicherring den gleichen Effekt haben könnten – nämlich die Erzeugung eines Mini-Schwarzen Lochs oder so ähnlich, das die Erde verschlingen würde.

Das sind törichte Ängste (obgleich sie von wirklichen Wissenschaftlern geäußert werden, weil sie Derartiges für möglich und vorstellbar halten).

Warum sind solche Ängste töricht

Die von einer Atombombe erzeugten Temperaturen und Drücke sind nicht einzigartig! Wenn auch selten, so fallen doch Asteroiden auf die Erde und erzeugen dabei viel höhere Drücke und Temperaturen als Atombomben. Ein kleinerer Asteroid kann in wenigen Millisekunden mehr Energie freisetzen als das Zehntausendfache der gesamten Sprengkraft aller menschengemachten Explosivmittel auf der Erde, einschließlich der Kernwaffen. Kurz gesagt: wenn etwas mit einer gewissen vernünftigen Wahrscheinlichkeit passieren könnte, wäre es schon passiert.

Das gleiche gilt für die Furcht vor dem Großen Hadronen-Speicherring, oder anderen “Super-” Teilchenbeschleunigern. Ja, sie erzeugen Kollisionen in der Größenordnung von Elektronen-Teravolt, aber diese Art von Energie bei nuklearen Kollisionen ist nicht einzigartig! Die Erde wird ständig von hochenergetischen Partikeln bombardiert, die von energetischen Extrem-Ereignissen hervorgerufen wurden, wie den Supernovae, die sich vor langer Zeit ereigneten. Die Energien dieser kosmischen Strahlen sind viel höher  als alles, was wir jemals in Labors produzieren können, es sei denn, wir könnten eine Supernova machen. Das bislang höchstenergetische beobachtete kosmische Teilchen war (vermutlich) ein Proton mit der kinetischen Energie eines wuchtig geschlagenen Baseballs, der rund 150 Km/h erreicht. Weil wir eins davon während mehrerer Beobachtungs-Jahrzehnte entdeckt haben, müssen wir annehmen, dass sie ständig kommen – buchstäblich trifft jede Sekunde ein kosmischer Strahl mit dieser Energie die Erde irgenwo (Die Erde ist ein RIESIGES Ziel. Wenn solch eine Kollision mit einer gewissen Wahrscheinlichkeit ein Schwarzes Loch mit der Kraft zur Planetenzerstörung erzeugen könnte, dann wären wir schon vor langer Zeit zu Staub geworden.

Es bleibt daher töricht, den Großen Hadronen-Speicherring oder nukleare Brandstiftung zu fürchten. Falls dies wahrscheinlich wäre, gäbe es uns nicht, die wir einen Großen Hadronen-Speicherring oder Atombomben bauen.

Die Furcht vor dem Klimawandel ist nicht ganz so töricht

Es ist aber nicht ganz so töricht den CO2-anthropogenen Klimawandel zu fürchten. Es stimmt: Wir haben noch nicht lange genug das Klimasystem erforscht, um zu wissen, welche Arten von Rückkoppelungen und Faktoren die multistabilen Klima-Attractoren strukturieren. Deshalb kann man sich seine Weltuntergangsszenarien basteln – Erwärmung bis auf einen kritischen Punkt, der massive Mengen von Methan freisetzt, was zu einer schlagartigen Erderwärmung führt. Das Meer wird sein gesamtes CO2 freisetzen, die Eiskappen werden schmelzen und die Meere kochen. Plötzlich wäre unsere Erde wie die Venus mit einer mittleren Außentemperatur von 200 oC.

Wenn wir uns so etwas ausdenken und niederschreiben können, dann muss es möglich sein, nicht wahr? Science-Fiction Romane in Massen beschäftigen sich genau damit. Oder Filme mit dem Gegenteil: dem Auftauchen von Attractoren, die irgendwie und sofort die gesamte Erde zum Einfrieren bringen und eine Eiszeit verursachen. Schaut, es kann passieren!

Aber ist es wahrscheinlich?

Das oben Gesagte sollte uns ruhig schlafen lassen. Es gibt kaum etwas in der Klimahistorie das auf einen anderen großen stabilen Zustand hindeutet, auf einen anderen Haupt-Attractor, der weit über dem derzeitigen Warmphasen-Attractor läge. Ganz im Gegenteil: die Klima-Geschichte der vergangenen zig Millionen Jahre deutet darauf hin, dass wir uns mitten in einer verlängerten Abkühlungsphase des Planeten befinden, wie sie sich wiederholt während geologischer Zeiträume ereignete, und wir befinden uns im Haupt-Attractor der warmen Phase. Darüber gibt es nichts mehr. Wenn da noch etwas wäre, hätten wir es schon erlebt.
Stattdessen: Die lokalen Variationen und die Oszillation um sie herum hat den vielen kleinen Warmphasen-Attractoren erlaubt, wiederholt Bedingungen zu zeigen, die einen Sprung hätten hervorrufen können, wenn ein solcher überhaupt wahrscheinlich gewesen wäre.

Zumindest müsste es eine Spur von so etwas in der Temperaturhistorie der vergangenen Millionen Jahre geben, aber sie gibt es nicht. Wir sind in einer der längsten und wärmsten der uns bekannten fünf Zwischeneiszeiten. Wir befinden uns nicht am wärmsten Punkt der gegenwärtigen Zwischeneiszeit, dem Holozän. Wenn es wirklich einen wärmeren Attractor gäbe, hätte er sich wahrscheinlich bereits am wärmsten Punkt des Holozäns gezeigt.

Weil das nun wirklich nicht geschehen ist, können wir davon ausgehen, dass die gesamte Rückkoppelung sicher negativ ist, und dass alle “Katastrophe-Hypothesen“ relativ unwahrscheinlich sind.

Wir sollten uns stattdessen eher wegen einer katastrophalen globalen Abkühlung Sorgen machen. Wir wissen, dass es einen Kaltphasen-Hauptattractor von etwa 5-10 oC kühler als heute gibt. Die menschliche Zivilisation ist im Holozän entstanden, und wir sind noch nicht so weit, dass wir einen Umschwung zu eiszeitlichen Konditionen überleben könnten, jedenfalls nicht ohne den Tod von 5 Mrd Menschen und einem wahrscheinlichen Fast-Kollaps der Zivilisation. Wir wissen, dass dieser Übergang nicht nur vorkommen kann, sondern dass dies geschehen wird. Wann, wissen wir nicht, auch nicht, warum, oder wie wir seine generelle Wahrscheinlichkeit abschätzen könnten. Wir wissen ganz bestimmt, dass die Kleine Eiszeit – nurmehr 400-500 Jahre her – die kälteste Periode im gesamten Holozän nach dem jüngeren Trias-Ausreißer war. Ganz allgemein sieht es so aus, dass sich das Holozän von seiner wärmsten Periode her abzukühlen scheint, und das 20. Jh. hat  ein Großes Solares Maximum mit der aktivsten Sonne seit 11.000 Jahren erlebt. Dieses Maximum ist nun vorbei.

Eher Kälte als Wärme

Ich fürchte, wir befinden uns in einer Instabilität, in welcher ein vollständiger Umschwung zu einer kalten Phase wahrscheinlicher ist als uns lieb sein kann, als dass wir uns einer superwarmen Phase näherten, für die es keine Anzeichen in der Klimageschichte gibt. Die Wahrscheinlichkeit für Kälte ist aus zwei Gründen höher:

(1) Anders als für eine superwarme Phase wissen wir: die Kaltphase existiert tatsächlich, und sie ist viel stabiler als die Warmphase. Die “Größe” der quasistabilen Poincare-Zyklus-Schwingungen um den Hauptattractor der Kaltphase ist viel größer als die um die Warmphasen-Attractoren, und kurze Erwärmungsphasen werden oft zequetscht, bevor sie sich in tatsächliche Zwischeneiszeiten wandeln können – daran kann man erkennen, wie stabil sie sind.

(2) Wir haben 90% unserer Zeit in einer eiszeitlichen Phase verbracht, nur 10% in einer Zwischeneiszeit. Das Holozän ist eine der längeren Zwischeneiszeiten! Wir verstehen die über lange Zeitskalen wirkenden Dynamiken noch nicht. Wir haben gerade mal eine erste unklare Idee, was den (im Wesentlichen chaotischen) Übergang von einer warmen in eine kalte Phase oder umgekehrt bewirkt – es gibt sehr vorläufige Ideen über Kombinationen von Milankovich-Zyklen, Neigungen der Ekliptik, Polwanderung, Erdumlauf-Resonanzen, usw. Aber es gibt eine deutliche starke Rückkoppelung innerhalb des Klimazyklus, die das „Umkippen“ in eine Kaltphase bewirken kann, vermutlich hat das etwas mit der Albedo zu tun.

Das könnte etwas so Einfaches wie eine stille Sonne sein; das Maunder-Minimum der Kleinen Eiszeit legt nahe, dass wir eine stille Sonne wirklich fürchten sollten, weil irgend etwas im nicht-linearen Differential-System kältere Attractoren während eines Maunder-artigen Minimums zu bevorzugen scheint (während man sich noch in der Phase des warmen Attractors befindet). Man muss sich vergegenwärtigen, dass der Übergang zur Vereisungszeit wahrscheinlicher am Tiefpunkt von z. B. einer Kleinen Eiszeit liegt, als zu irgend einem anderen Zeitpunkt. Das Holozän lebt vermutlich mit "geborgter" Zeit an einem Punkt, wo es ein Intervall von der Art einer verlängerten Kleinen Eiszeit umkippen könnte.

Eine neue KLEINE EISZEIT wäre schlimmer als eine Erwärmung

Auch nur eine KLEINE EISZEIT wäre eine weit größeres Unglück als alle Katastrophenvorstellungen der Warmisten. Die Weltbevölkerung ist enorm gewachsen seit der letzten Eiszeit. Eine riesiger Anteil lebt in gemäßigten Breiten und kultiviert dort das Land. Frühe Winter mit spätem Frühlingsanfang könnten das verfügbare kultivierbare Land vermindern und die Anzahl der Ernten halbieren, und das bereits vor der totalen Vereisung. Kalte (Warme) Phasen sind oft auch verbunden mit hitzebedingten und tropischen Dürren, zumindest in gewissen Weltteilen. Meines Erachtens könnte der “rasche” Beginn einer KLEINEN EISZEIT eine Milliarde Menschen umbringen, weil es Miss-Ernten in Sibirien, China, Canada und den nördlichen Vereinigten Staaten gäbe. Dies könnte leicht die angespannte politische Weltlage destabilisieren. Ein Weltkrieg würde unsere großen Übel noch mehr verschlimmern.

Wir könnten dann vielleicht wirklich erkennen, dass ein menschengemachter Klimawandel unsere Rettung wäre. Das durch unseren Zivilisationssprung emittierte CO2 könnte die nächste KLEINE EISZEIT abmildern oder verschieben, es könnte den Ausreißer in die Kalt-Phase verhindern und den Beginn der nächsten jahrzehnte- oder jahrhundertelangen WIRKLICHEN Eiszeit verhindern. Inzwischen könnten wir vielleicht zusammenarbeiten und uns Gedanken darüber machen, wie wir in einer zivilisierten Welt zusammenleben könnten, nicht nur in einigen zivilisierten Ländern mit Menschen im Wohlstand und den übrigen Ländern, wo die Menschen arm sind und von einer Handvoll Tyrannen oder religiösen Oligarchen versklavt werden.

Wohlgemerkt, letzteres ist “spekulative Fiktion”. Auch ich verstehe die Klimazyklen nicht völlig (Sie sind ein großes Problem). Aber zumindest kann ich Indizien für eine in der tatsächlichen Klimaaufzeichnung lauernde Katastrophe liefern, sie ist viel weniger “fiktiv” als ein CO2-verursachter Klimawandel.

Dr. Robert Brown; Universität von North Carolina,

Originalbeitrag hier  

Übersetzung: Helmut Jäger, EIKE




Frau Luna ist eine kühle Dame

Welche Auswirkungen haben Temperaturwechsel auf die Durchschnittstemperatur eines Planeten? Warum ist der Mond so viel kälter als erwartet? Die Albedo (Reflektivität) des Mondes ist geringer als die der Erde. Man kann den Unterschied in der Albedo in Fig. 1 sehen. Auf der Erde gibt es viele Stellen, die von Wolken, Schnee oder Eis weiß sind. Der Mond aber ist vorwiegend grau. Daher  beträgt die irdische Albedo ungefähr 0,30, die des Mondes nur 0,11. Der Mond müsste also mehr Energie absorbieren als die Erde, und die Temperatur der Mondoberfläche müsste knapp unter dem Gefrierpunkt von Wasser liegen. So ist es aber nicht. Der Mond ist viel kälter.

Fig. 1. Beobachtungen Oberflächentemperatur des Mondes von der Apollo15-Mission. Die roten und gelb-grünen kurzen waagerechten Linien links zeigen die theoretischen (rot) und die tatsächlichen (gelb-grün) durchschnittlichen Mondtemperaturen. Die violetten und blauen horizontalen LInien rechts zeigen die theoretische Stefan-Boltzmann-Temperatur der Erde ohne Atmosphäre (violett), und (in hellblau) eine Näherung, um wieviel die Erdtemperatur durch einem ± 50°C Temperaturwechsel vermindert würde infolge der Erdumdrehung. Die Sonnenuntergangstemperatur-Fluktuationen sind aus Gründen der Klarheit der Darstellung ausgelassen. (Daten-Quelle hier)

Wie die Erde empfängt die Mondoberfläche gemittelt etwa 342 Watt/Quadratmeter (W/m2) Sonnenenergie. Wie befinden uns ja im gleichen Abstand von der Sonne. Die Erde reflektiert 30% davon zurück in den Weltraum (Albedo 0,30) und behält etwa 240 W/m2. Der Mond mit seiner geringeren Albedo reflektiert weniger und absorbiert mehr Energie, etwa 304 W/m2.

Und weil der Mond im thermalen Gleichgewicht ist, muss er den gleichen Betrag abstrahlen, wie er von der Sonne erhält, ~ 304 W/m2.

Da gibt es die “Stefan-Boltzmann-Gleichung” (kurz S-B Gleichung, oder einfach S-B), die die Temperatur (in Kelvin) zur thermalen Abstrahlung in Beziehung setzt (in Watt/Quadratmeter). Sie besagt, dass die Abstrahlung proportional zur vierten Potenz der Temperatur ist.

Unter der Voraussetzung, dass der Mond etwa 304 W/m2 Energie in den Weltraum abstrahlt, um die hereinkommende Energie auszubalancieren, beträgt die der S-B Gleichung entsprechende Schwarzkörper-Mondtemperatur etwa 0,5 °C. Das wird auf Fig. 1 durch die kurze horizontale rote Linie dargestellt. Daraus ergäbe sich, dass die Mondtemperatur theoretisch knapp unter dem Gefrierpunkt läge.

Aber die gemessene tatsächliche Durchschnittstemperatur der Mondoberfläche wie in Fig. 1 gezeigt, beträgt minus 77 °C, weit unter dem Gefrierpunkt, wie die kurze waagerechte gelb-grüne Linie zeigt.
Was ist da los? Heißt das, dass die S-B Gleichung falsch ist, oder dass sie auf dem Mond nicht gilt?

Die Lösung des Rätsels ist, dass die Durchschnittstemperatur keine Rolle spielt. Was zählt, ist die Durchschnittsabstrahlung von 304 W/m2. Das ist ein absolutes Muss, das von der Thermodynamik gefordert wird – die durchschnittliche Abstrahlung des Mondes muss gleich der von der Sonne empfangenen Einstrahlung sein: 304 W/m2.

Strahlung ist proportional zur vierten Potenz der Temperatur.  Das bedeutet: Wenn die Temperatur hoch ist, gibt es viel mehr Strahlung, bei Temperaturverminderung ist die Strahlungsverminderung nicht genau so groß. Wenn es also Temperaturwechsel gibt, führen sie zu höherer Energieabstrahlung an der Oberfläche. Als Ergebnis der höheren Energieabstrahlung kühlt sich die Oberflächentemperatur ab. In einer Gleichgewichtssituation wie auf dem Mond, wo der Betrag der abgestrahlten Energie fest ist, reduzieren Temperaturwechsel immer die durchschnittliche Oberflächentemperatur.

Wenn man, wie in Fig. 1 oben, zuerst die nacheinander gemessenen Mondoberflächentemperaturen in die entsprechenden Mengen von Strahlung umrechnet und für diese dann den Durchschnitt bildet, beträgt dieser Durchschnitt 313 W/m2. Das ist nur ein kleiner Unterschied zu den 304 W/m2, die wir aus der ursprünglichen Kalkulation zum einfallenden Sonnenlicht und zur Mond-Albedo haben. Und während diese präzise Berechnung einigermaßen stimmig ist (unter der Voraussetzung, dass unsere Daten von einer einzigen Stelle auf dem Mond stammen), erklärt sie auch die große Differenz zwischen der vereinfachenden Theorie und den tatsächlichen Beobachtungen.

Es besteht also kein Widerspruch zwischen der lunaren Temperatur und der S-B-Kalkulation. Die durchschnittliche Temperatur wird von den Temperaturwechseln vermindert, während die durchschnittliche Strahlung gleichbleibt. Das tatsächliche lunare Temperaturmuster ist eines von vielen möglichen Temperaturveränderungen, die zur selben durchschnittlichen Variation von 304 W/m2 führen können.

Eines ist aber merkwürdig. Die niedrige lunare Durchschnittstemperatur ist die Folge des Ausmaßes der Temperaturwechsel. Je größer der Temperaturumschwung ist, desto niedriger ist die durchschnittliche Temperatur. Wenn der Mond sich schneller drehen würde, wären die Umschwünge kleiner und die Durchschnittstemperatur wärmer. Wenn es keine Temperaturwechsel gäbe und die Mondoberfläche überall gleichmäßig erwärmt würde, läge die Mondtemperatur kaum unter dem Gefrierpunkt. Alles, was die Temperaturveränderungen vermindert, würde die Durchschnittstemperatur auf dem Mond erhöhen.

Die Umschwünge wären kleiner, wenn der Mond eine Atmosphäre hätte, selbst wenn diese Atmosphäre keine Treibhausgase enthielte und für Infrarot völlig durchlässig wäre. Ein Effekt einer  völlig durchlässigen Atmosphäre ist, dass sie Energie von warm nach kalt transportiert. Das würde natürlich die Temperaturwechsel und Differenzen vermindern und schließlich den Mond leicht erwärmen.

Auf eine weitere Art und Weise würde eine sogar völlig durchlässige und treibhausgasfreie Atmosphäre den Mond erwärmen, indem sie dem System thermische Masse zufügte. Weil die Atmosphäre erwärmt und gekühlt werden muss, wie auch die Oberfläche, wird das auch die Temperaturwechsel vermindern und wiederum die Oberfläche leicht erwärmen. Es wäre keine große thermische Masse, und nur der geringste Teil hätte eine signifikante tägliche Temperaturfluktuation. Schließlich beträgt die spezifische Wärme der Atmosphäre nur etwa ein Viertel im Vergleich zu Wasser. Aus dieser Kombination von Faktoren würde nur ein nur ganz geringer Effekt folgen.

Hier möchte ich nun aufhören zugunsten eines wichtigen Arguments: Diese letzten beiden Phänomene bedeuten, dass ein Mond mit einer perfekt transparenten treibhausgasfreien Atmosphäre wärmer wäre als ein Mond ohne eine derartige Atmosphäre. Eine transparente Atmosphäre könnte die Mondtemperatur niemals über die S-B-Schwarzkörpertemperatur von einem halben Grad Celsius heben.

Der Beweis ist trivial einfach und kann durch die Behauptung des Gegenteils erbracht werden:
Die Behauptung würde lauten: Eine perfekt transparente Atmosphäre könnte die durchschnittliche Temperatur des Mondes über die Schwarzkörpertemperatur heben, das ist die Temperatur, bei welcher 304 W/m2 emittiert würden.
Doch nur die Mondoberfläche könnte in diesem System Energie emittieren, weil die Atmosphäre transparent wäre und keine Treibhausgase enthielte. Wenn also die Oberfläche wärmer als die theoretische S-B-Temperatur wäre, würde die Oberfläche mehr als 304 W/m2 in den Weltraum emittieren und nur 304 W/m2 aufnehmen.
Das wäre dann ein „perpetuum mobile“.  Q.E.D. (Quod Erat Demonstrandum – Was zu beweisen war)

Während also eine perfekt transparente Atmosphäre ohne Treibhausgase das Ausmaß der Abkühlung vermindern kann, die von Temperaturwechseln herrühren, kann sie nur die Abkühlung abschwächen. Es gibt eine physikalische Grenze, um wieviel sie den Planeten erwärmen kann. Im äußersten Falle, wenn alle Temperaturwechsel völlig ausgeglichen würden, können wir nur die S-B-Temperatur bekommen, nicht mehr. Das bedeutet, dass zum Beispiel eine transparente Atmosphäre nicht für die derzeitige Erdtemperatur ursächlich sein kann, weil die Erdtemperatur deutlich über der theoretischen S-B-Temperatur von ~ -18 °C liegt.

An diesem Punkt angelangt frage ich mich, wie die Temperaturwechsel der Erde ohne Atmosphäre aussähen. Unter Beachtung der derzeitigen Albedo zeigen grundlegende Kalkulationen, dass eine Erde ohne Atmosphäre eine Schwarzkörpertemperatur von 240 W/m2 ≈ -18°C hätte. Um wieviel würde aber die Erdumdrehung den Planeten abkühlen?

Unglücklicherweise rotiert der Mond so langsam, dass er kein gutes Analogon zur Erde darstellt. Aber es gibt ein Stück lunarer Information, das wir benutzen können. Das ist, wie rasch der Mond nach Sonnenuntergang auskühlt. Für diesen Fall wären Mond und Erde ohne Atmosphäre grob gleichsetzbar, beide würden ganz einfach in den Weltraum abstrahlen. Beim lunaren Sonnenuntergang beträgt die Mondoberflächentemperatur etwa -60° C (Fig. 1). Über die folgenden 30 Stunden fällt sie stetig mit einer Rate von etwa 4° C pro Stunde bis auf etwa –180 °C. Von da an kühlt sie sich leicht während der nächsten zwei Wochen ab, weil die Abstrahlung so gering ist. So beträgt die kälteste Temperatur der Mondoberfläche etwa –191 °C, und dabei strahlt sie sage und schreibe zweieinhalb Watt pro Quadratmeter ab … daher ist die Strahlungsabkühlung sehr, sehr langsam.

Also … machen wir diese Rechnung für die Erde! Wir können grob abschätzen, dass sich die Erde etwa mit der lunaren Rate von 4 °C pro Stunde über die Dauer von 12 Stunden abkühlt. Dabei würde die Temperatur um etwa 50 °C fallen. Tagsüber würde sich sich durchschnittlich auch so erwärmen. Wir könnten uns also vorstellen, dass die Temperaturwechsel auf einer Erde ohne Atmosphäre eine Größenordnung von ± 50°C hätten. (Aber die tatsächlichen Temperaturwechsel auf der Erde sind viel kleiner, im maximum etwa ± 20-25 °C, und das in Wüstengebieten.)

Wie stark würde ein ±50 °C Umschwung eine Erde ohne Atmosphäre abkühlen?

Dank eines Stückchens schöner Mathematik von Dr. Robert Brown (http://wattsupwiththat.com/2012/01/06/what-we-dont-know-etwa-Energie-flow/) wissen wir, dass die Strahlung um 1 + 6 * (dT/T)^2 variiert, unter der Voraussetzung, dass dT die Größe des Temperaturwechsels um den Durchschnitt nach oben und unten ist, wobei T die Mitteltemperatur des Temperaturwechsels ist. Mit ein bisschen mehr Mathematik (im Appendix) würde dies bedeuten, dass die durchschnittliche Temperatur bei – 33 °C läge, wenn der Betrag der eingestrahlten Sonnenenergie 240 W/m2 (≈ -18°C) wäre und die Temperaturwechsel ± 50°C betrügen. Einiges der Erwärmung von dieser kühlen Temperatur käme aus der Atmosphäre selbst und Einiges aus dem Treibhaus-Effekt.

Dabei zeigt sich wieder etwas Interessantes. Ich hatte immer angenommen, dass die Erwärmung von den Treibhausgasen nur auf die direkten Erwärmungseffekte der Strahlung zurückzuführen wären.  Aber ein Charakteristikum der Treibhausgasstrahlung (niedergehende Langwellenstrahlung, auch DLR genannt) ist, dass sie sowohl tagsüber wie nachts wirkt, vom Äquator bis zu den Polen. Aber es gibt sicher Unterschiede in der Strahlung in Abhängigkeit vom Ort und von der Zeit. Insgesamt aber ist einer der großen Effekte der Treibhausgasstrahlung, dass sie die Temperaturwechsel stark reduziert, weil sie zusätzliche Energie zu Zeiten und an Orten bereitstellt, wo die Sonnenenergie nicht da oder stark vermindert ist.

Das bedeutet, dass der Treibhauseffekt die Erde auf zwei Wegen erwärmt – direkt, und indirekt durch die Verminderung der Temperaturwechsel. Das ist neu für mich und es erinnert mich daran, dass das Beste beim Studium des Klimas ist, dass man immer noch etwas dazulernen kann.

Zum Schluss:  Jedes weitere Grad Erwärmung kostet immer mehr Energie im Zuge der Erwärmung der irdischen Systemerwärmung.
Ein Teil dieses Effekts ist darauf zurückzuführen, dass die kühlende Abstrahlung mit der vierten Potenz der Temperatur steigt. Ein Teil des Effekts ist aber auch darauf zurückzuführen, dass Murphys Gesetz immer gilt, dergestalt, dass wie bei Ihrem Automotor parasitäre Verluste (Verluste von fühlbarer und latenter Wärme von der Oberfläche) rascher zunehmen als die Antriebsenergie. Und schließlich gibt es einen Anzahl von homöostatischen Mechanismen im natürlichen Klimasystem, die die Erde vor Überhitzung schützen.

Derartige thermostatische Mechanismen sind z. B.:

• Der zeitliche Verlauf und die Anzahl der Tropengewitter.
• Die Tatsache, dass Wolken die Erde im Winter wärmen und im Sommer abkühlen.
• Der Energieübertragungmechanismus der Ozeane durch El Niño/La Niña.

Diese Mechanismen wirken mit weiteren zusammen, um das Gesamtsystem um etwa ein halbes Grad pro Jahrhundert stabil zu halten. Das bedeutet eine Temperaturvariation von weniger als 0.2%. Man beachte, da steht nicht: weniger als zwei Prozent. Die globale Durchschnittstemperatur hat sich im Verlauf eines Jahrhunderts weniger als um zwei Zehntel eines Prozents verändert, das ist eine erstaunliche Stabilität in einem so unglaublich komplexen System, das von so flüchtigen Ingredienzen wie den Wolken und dem Wasserdampf gesteuert wird. Ich kann diese Temperaturstabilität nur der Existenz von solchen multiplen, einander sich überschneidenden und redundanten thermostatischen Mechanismen zuschreiben.

Als Ergebnis, nachdem der Treibhaus-Effekt die schwere Arbeit des Anhebens der Erdtemperatur auf die gegenwärtige Höhe geleistet hat, werden die Auswirkungen der Veränderungen der Antriebe bei der gegenwärtigen Gleichgewichtslage durch Veränderungen der Albedo und der Wolkenzusammensetzung und die Umschwünge im Energiedurchsatz ausbalanciert mit sehr geringen Veränderungen der Temperatur.

Doch am schönsten ist der Vollmond heute abend, jung und kristallklar. Ich gehe jetzt hinaus und schaue ihn an.

Oh schöner voller Mond,
der du nachts den Teich umkreist,
immerdar und ewig gleich.
Matsuo Basho, 1644-1694

w.

Original mit Anhang auf WUWT

Übersetzung: Helmut Jäger, EIKE




Die Finanzierung des IPCC sofort stoppen

Willis Eschenbach schreibt in WATTSUPWITHTHAT:

Heute früh bin ich von schlechten Nachrichten überrascht worden.
Der (U.S.) Rechnungshof teilte mit, dass die US-Regierung die Finanzierung des IPCC während des vergangenen Jahrzehnts verheimlichte.
Die Regierung ist schon früher gewarnt worden, so etwas nicht mehr zu tun. Im Rechnungshof-Bericht von 2005 stand die Warnung unter dem vielsagenden Titel “Die Berichte über die Finanzierung des Klimawandels sollten klarer und vollständiger sein“.
Die hinterhältigen Bürokraten hielten sich aber überhaupt nicht daran.

Der jüngste 2011er Rechnungshof-Bericht stellt fest, dass die US-Regierung überhaupt nichts geändert hat. Heimlich wurde etwa die Hälfte der Betriebskosten des IPCC während der vergangenen Dekade bezahlt. In anderen Worten: die Finanzierungsvereinbarung mit dem IPCC gehört wie aus einem Stück zu dessen „wissenschaftlichen“ Behauptungen und dessen weiteren Aktionen: Die sind heimlichtuerisch, schäbig, mit einer verborgenen Zielsetzung und voll von Desinformation.

Laut Bericht hat das US-Außenministerium dem IPCC $19 Mio gezahlt. Herzlichen Dank dafür! Mir Narr war diese Bezahlung für die Parties in Cancun und Durban nicht aufgefallen und mir ist neu, dass dies Teil der Aufgaben des amerikanischen Außenministeriums war.

Auch habe ich nun gemerkt, dass das IPCC aus dem Forschungsprogramm (US Global Change Research Program) $12,1 Mio erhalten hat. Das bringt mich wirklich zur Weißglut. Das IPCC gibt geradeheraus selbst zu, dass man nicht ein einziges Stück wissenschaftlicher Forschung betreibt … Weshalb also zahlt das US Global Change Research Program dafür rund 12 Mio, die eigentlich für Forschung ausgegeben werden sollen?
Ich könnte das zum Beispiel sehr gut für meine Forschungen gebrauchen.

Zur Geheimfinanzierung der Klima-Gewinnler bemerkt der 2011er Bericht. Wir lesen: „Der Kongress und die Öffentlichkeit können die Bundeszuschüsse oder Ausgaben für den Klimawandel über einen längeren Zeitraum nicht nachvollziehen“,
Halt – nein, das hatte der Rechnungshof ja schon 2005 geschrieben.
Unglücklicherweise hat der Rechnungshof keine Machtbefugnisse. Diesmal konnte er nur feststellen, dass die Finanzierungen:
„ … in den Haushaltsplänen oder auf den Webseiten der betroffenen Bundesbehörden nicht verfügbar sind. Die Behörden sind generell nicht verpflichtet, dem Kongress diese Informationen zur Verfügung zu stellen.“

Mit anderen Worten: Wie gehabt seit 2005 !

Hallo Abgeordnete! Ihr passt nicht auf. Diese Menschen beantragen Geld für Forschungen und geben es für Parties in Durban und anderen schönen Plätzen rund um die Welt aus. Die USA bezahlen das seit einem Jahrzehnt.

Kann mir irgendjemand auch nur eine einzige werthaltige Sache nennen, die vom IPCC kam? Kann mir irgendjemand eine Leistung des IPCC nennen, die dessen Existenz rechtfertigen würde? Ich kann es nicht! Die feiern feine Feste, das ist sicher, zu ihrer letzten globalen Sause kamen 10. 000 Gäste … doch für das Voranbringen der Klimadiskussion haben sie nichts getan, außer zu einem Rückschritt beigetragen.

Und der kommende Auswertebericht Nr. 5 (AR5) wird noch bedeutungsloser sein als der letzte. Dieses Mal wird man erleben, wie das IPCC sich weigern wird, Erklärungen von seinen Autoren über Interessenkonflikte abzufordern. Dieses Mal wird man erleben, wie bekannte Wiederholungstäter wissenschaftlichen Fehlverhaltens in einflussreiche Positionen zum Schreiben des Berichts gehievt werden. Dieses Mal wird man die kleinkarierten Machenschaften des Eisenbahningenieurs erleben, der die Veranstaltung leitet, trotz der Rücktritts-Aufforderung aus den Reihen seiner Helfer.

Der AR5-Bericht des IPCC ist bereits vorab diskreditiert. Er wird zweifelsohne mit lauten Fanfarenstößen verkündet werden und dann wie ein Stein im Wasser versinken, heruntergezogen von der politisierten, schlecht zusammengefassten Pseudowissenschaft und den wiederaufgewärmten NGO-Sprechblasen, die vom IPCC verbreitet werden, als wären sie Wissenschaft.

Leute, können wir nicht dieser IPCC-Parade von nutzlosen und sogar anti-wissenschaftlichen Aktionen ein Halt! zurufen? Können wir nicht die endlosen Parties zu Lasten der Steuerzahler stoppen? Können wir die Strolche nicht zum Teufel jagen und zur echten Klimawissenschaft zurückkehren?

Ich meine: Dem IPCC muss jetzt der Geldhahn zugedreht werden!

Willis Eschenbach

PS – der Rechnungshofbericht (GAO report) ist hier.

Noch ist nicht alles verloren. Über FoxNews erfahren wir, dass wenigstens ein US-Abgeordneter sich bemüht, dem IPCC den Geldhahn abzudrehen: 

Verpackt in den vielen Ergänzungen, die kürzlich den Kongress passiert haben, und die einen Sparumfang von $60 Mio haben, ist ein Streichvorschlag über $13Mio für das IPCC, der vom Republikanischen Kongressabgeordneten von Missouri, Blaine Luetkemeyer kommt.

Ein Kongress-Mitarbeiter Luetkemeyers teilte in FoxNews.com mit, dass dieser ein Gesetz vorlegen möchte, unabhängig davon, ob es im umfangreicheren Haushaltsplan der Republikaner enthalten ist oder nicht:
“Der Abgeordnete beabsichtigt, weiter in seinem Bemühen fortzufahren, die IPCC-Finanzierung zu streichen und er ist vorsichtig optimistisch, dass der Senat die Vorlage annimmt,“ sagte Keith Beardslee, Sprecher für den Abgeordneten. “Für den Fall des Scheiterns, wird eine davon unabhängige Gesetzesvorlage zum Stopp der Finanzierung des IPCC aus dem 111. Kongress erneut vorgelegt.”

Willis Eschenbach

Übersetzung: Helmut Jäger, EIKE

Wie recht Eschenbach mit seiner Forderung hat beweist einaml mehr die kanadische Journalistin Donna Laframboise. Lesen Sie dazu den Beitrag der Zürcher Weltwoche 

Propaganda statt Wissenschaft

Nachtrag:

Der schwedische Meteorologe und Klimaforscher Hans Jelbring* geht noch weiter. Er fordert die sofortige Auflösung des IPCC wegen Mißbrauchs der Wissenschaft. Details dazu hier

Einer seiner Tutoren war Bert Bolin. Mitbegründer und 1. Chairman des IPCC. Jelbring bezeichnet ihn wie folgt: 

"My tutor when writing my exam paper in meteorology was Bert Bolin, the founder of IPCC. He was for sure a screwed influential politician and a dishonest and ordinary scientist."




Der Klimawandel hat natürliche Ursachen

Einleitung des Übersetzers

Der Autor J.R. Jensen leitet seinen Beitrag mit einer Bemerkungen zu einem Email-Verkehr zwischen Kevin Trenberth, Phil Jones u. a. aus 2004 ein. Trenberth zeigte darin eine atemberaubende Intoleranz gegenüber einem Wissenschaftler, der dem Konsensdenken nicht folgte und keinen Zusammenhang zwischen tropischer Hurrikan-Häufigkeit und dem behaupteten Klimawandel erkennen konnte. Da Trenberth’ Worte eine unwissenschaftliche ideologische Verhärtung zeigen, kann die Vorbemerkung und Hoffnung auf einen offenen Diskurs nur ironisch gemeint sein.

Abrupte Änderungen in den Temperaturaufzeichnungen der Wetterstationen im Global Historical Climatology Network (GHCN) widersprechen den Behauptungen von einer anthropogenen Erwärmung

von Jens Raunsø Jensen

Vorbemerkung

Angesichts der Worte von Dr. Kevin Trenberth in der Climategate 2.0-Email #3946 (siehe hier) möchte man hoffen, dass die Klimatologen offen sind für eine Überlegung, derzufolge die globale Erwärmung im 20. Jh. sich hauptsächlich als abrupte Änderungen der gemittelten Temperaturen in Verbindung mit natürlichen Ereignissen entpuppen könnte. Beobachtungsdaten stützen diese Vermutung, die im Gegensatz zum „Konsensdenken“ von der Anthropogenen Erwärmung (AGW) steht.

Zusammenfassung

Abrupte oder sprunghafte Veränderungen im Temperaturverlauf sind Gegenstand vieler Diskussionen hier und in anderen Blogs und in der fachbegutachteten Literatur. Die Frage ist nicht nur eine statistische. Viel erheblicher ist, dass das Vorhandensein von sprunghaften Veränderungen in gemittelten Temperaturverläufen den Behauptungen und Modellen der Klimawandel-Theorie widerspricht, also den Behauptungen einer zunehmend sich beschleunigenden Temperaturerhöhung, verursacht hauptsächlich durch anthropogene Emissionen von Treibhausgasen in der zweiten Hälfte des 20. Jh.

In diesem Beitrag werden 232 vollständige nicht-adjustierte GHCN-Stationsaufzeichnungen auf sprunghafte Veränderungen im Zeitraum von 1960-2010 untersucht. Daraus lassen sich folgende Behauptungen ableiten:

  • • Abrupte Veränderungen der Temperaturen könnten großenteils für die “globale Erwärmung“ während der zweiten Hälfte des 20. Jh. ursächlich sein.
  • • 50% der Stationen aus der Stichprobe zeigen keine Zunahme der mittleren Temperaturen (“Erwärmung”) seit über 18 Jahren.
  • • 70% der Stationen in Europa zeigen seit über 20 Jahren keine Erwärmung.
  • • Die entsprechende Rolle natürlicher Vorgänge bei der globalen Erwärmung wird sehr wahrscheinlich vom IPCC unterschätzt.
  • • Die Globalen Temperaturverläufe sind Vergleiche von ”Äpfeln und Birnen” und sie werden großenteils fehlinterpretiert, indem lineare Trend- und Glättungstechniken angewendet werden, die das Muster einer weitverbreiteten gleichförmig zunehmenden Temperatur vortäuschen.

Ziel und Methode.

Dieser Beitrag setzt einen früheren Beitrag zu diesem Thema fort. Diesmal ist eine Stationsanalyse auf fast globaler Ebene einbezogen. Der Beitrag beruht auf einer Powerpoint-Präsentation mit zusätzlichen Details aus einem Arbeitstreffen von Forschern an der Universität von Kopenhagen am 15. November 2011.

Das Ziel der Analyse ist (I) die Auswertung der Temperaturaufzeichnungen der Landstationen im Bodennähe und größeren Höhen hinsichtlich sprunghafter Veränderungen während des Zeitraums 1960-2010, und (II) die Beurteilung der Bedeutung hinsichtlich der globalen Erwärmung in jenem Zeitraum. Man beachte, dass es kein Ziel ist, (wahrscheinliche) anthropogene Erwärmungssignale zu verwerfen oder ein Klimamodell zu formen oder Vorhersagen für die Zukunft zu machen. Das Thema sind sprunghafte Veränderungen in den beobachteten Daten von 1960-2010.

Zur Erkennung von der Umschwünge in einem vorherschenden System (Regime Shift Detection Tool) wurde das dokumentierte Rodionov-Werkzeug (2004, 2006 www.beringclimate.noaa.gov/) benutzt. Die Ergebnisse können als statistisch gesichert betrachtet werden. (Verweis auf die Powerpoint-Präsentation wegen Einzelheiten zu den Parameter-Einstellungen und der Verifizierung der Annahmen konstanter Varianz und einem wahrscheinlich negierbaren Einfluss von Auto-Korrelation).

Die Daten der Beobachtungsstationen stammen vom GHCN (“after combine”, http://data.giss.nasa.gov/gistemp/station_data/ ) und sie enthalten ALLE Stationen mit vollständigen Temperaturaufzeichnungen im Zeitraum von 1960-2010 in weit definierten Auswahlbereichen (sampling regions).
(ref. Fig. 1)

Insgesamt 232 Stationen wurden bestimmt, 54% davon in Europa und Russland. Die Auswahlkriterien für die Stichprobe ergaben große Unterschiede zwischen den „Regionen“ in Bezug auf Stationsanzahl, Stationsdichte und Verteilung. Die „Regionen“ sind mehr oder weniger klimatologisch homogen. Das hat aber keine substanzielle Bedeutung für die folgenden Darstellungen und Schlussfolgerungen.

Fig. 1. Verteilung der Stationsauswahl in Bezug auf die Auswahlkriterien.

Ergebnisse

Deutliche Sprungveränderungen sind sehr häufig in den Temperaturaufzeichnungen zu finden und in repräsentativen Beispielen für 3 “Regionen” werden in Fig. 2a-c gezeigt. Der Temperaturanstieg an den Sprungstellen hat typischerweise eine Größe, die mit der oft zitierten globalen Erwärmung im 20. Jh. vergleichbar ist.

Fig. 2a. Alaska-Temperaturanomalie (n=9). Sprung, 1977; T-Änderung = 1.5 oC; Signifikanz 0.000001

Fig. 2b. Fichtelberg, Europe. Sprung 1988; T-Änderung = 1.0 oC; Signifikanz 0.0000

Fig. 2c. Malakka, Südost-Asien. Sprünge: 1978, 1990 and 1998; T-Änderung = 0.4+0.3+0.4 = 1.1 oC; Signifikanz 0.0004, 0.0007 und 0.003.

Auf der Ebene der Stationen war die Erwärmung von 1960-2010 ganz klar einnicht-linearer Prozess. Das Sprungmuster war unterschiedlich von “Region” zu „Region“. Die globale Temperaturdurchschnitts-Anomaliekurve, gebildet durch Durchschnittsbildung über die Temperatur-Anomaliekurve der Stationen, täuscht daher stark fast-linear ansteigende Temperaturen vor, was im Gegensatz zu den Vorgängen an den einzelnen Stationen steht. Deshalb werden bei der globalen Kurve der Temperatur-Anomalie „Äpfel mit Birnen“ verglichen. Sie darf nicht dazu benutzt werden, einen bedeutungsvollen globalen Erwärmungstrend herauszulesen, wenn die sprunghaften Veränderungen unberücksichtigt bleiben. Des weiteren stellt der augenscheinliche Erwärmungstrend in Wirklichkeit den aggregierten Effekt plötzlicher Sprünge dar. (So z. B. Foster and Rahmstorf, 2011).

Die Sprünge sind auf kurze Perioden konzentriert. Unter Ausschluss von 39 Sprüngen nach 2005 (die höchst ungewiss und noch “im Gange” sind; 2/3 nach oben, 1/3 nach unten) kann gezeigt werden:

  • Die Sprünge fanden vorwiegend (58%) während dreier 3-Jahres-Perioden statt: 1977/79, 1987/89 und 1997/99 (Fig. 3).72% aller Stationen und über 50% der Stationen in jeder “Region” (außer Arktis) zeigen einen oder mehrere Sprünge während dieser Perioden (z.B. 89%, 56% und 93% aller Stationen in Europa, Russland , Südost-Asien; Fig. 4).78% der europäischen Stationen zeigen einen Sprung 1987/89, während dieser Zeitspanne fand augenscheinlich der größte Teil der gesamten Erwärmung in der 2. Hälfte des 20. Jh. statt.
  • 2 oder 3 Sprünge fanden zugleich auch in Südost-Asien statt (besonders 1987/89 und 1997/99), aber nur ein Sprung zeigt sich in allen Aufzeichnungen aus Alaska (1977/79), Europa (1987/89) und Russland (1987/89).

Fig. 3. Verteilung der Sprungveränderungen nach Ereignisjahr.

Fig. 4. Prozent der Stationen mit einem oder mehr Sprüngen in den angezeigten 3 Perioden.

Ähnliche Sprungveränderungen können in nationalen Aufzeichnungen von Durchschnitten aufgefunden werden (siehe die oben zitierte Präsentation): USA-Festland für 48 Staaten (GISS): 1986 and 1998; Australien (BOM): 1979 and 2002; Dänemark (DMI): 1988. Die Sprünge in den globalen Temperaturaufzeichnungen finden sich in: Crutem3gl: 1977, 1987 und 1998; GISS L/O: 1977, 1987 und 1998; Hadcrut3: 1977, 1990 und 1997.

Die Sprünge sind statistisch hoch-signifikant. Gibt es aber dafür eine physikalische Ursache? Die Antwort muss JA für die Mehrzahl der Sprünge sein. Die Sprünge finden in einem zeitlichen und räumlichen Muster statt, das mit wohl-dokumentierten Ereignissen und Verlaufsänderungen im Meeres-Atmosphären-System zusammenfällt:

  1. • 1976/77: großer pazifischer Wechsel von einem “kalten” zu einem “warmen” Modus (z.B. Trenberth, 1990; Hartmann und Wendler, 2005).1987/89 und 1997/99: mit den beiden deutlich intensivsten El Niños der Zeit,
  • • 1986/88 und 1997/98, mit einer Intensität, die hier als Ereignis-akkumulierte Nino3.4 Anomalien definiert ist (NOAA’s ONI index); es hat zwei weniger intensive Ereignisse 1982 und 1991 gegeben, deren Auswirkung vermutlich von den großen Vulkanausbrüchen El Chichon und Mt. Pinatubo überdeckt wurde und eine große Änderung in der Meeresoberflächentemperatur auf der Nordhalbkugel (NH SST) 1988/89 (Yasunaka and Hanawa, 2005).
  • • ein Umschwung im vorherrschenden System konstanter Temperatur nach dem 1997/98er El Niño, d.h. das inzwischen weithin akzeptierte „Pausieren“ der globalen Erwärmung.

    • Dokumentierte Sprungveränderungen und die großen Veränderungen in Meeres-Ökosystemen, z.B. in den späten 1980ern in Europa and im Japanischen Meer.

    • Der kurzzeitige und regional unterschiedliche globale Einfluss der ENSO-Ereignisse sind wohlbekannt. (ENSO = El Nino Southern Oscillation)

Die empirischen Befunde aus dieser Analyse der Daten der Beobachtungsstationen und aus anderen Quellen sind eindeutig: Die sprunghaften Veränderungen der mittleren Temperaturen fanden wirklich statt und sind an natürliche Ereignisse gekoppelt.  Die physikalischen Mechanismen müssen noch geklärt werden und es soll keinesfalls behauptet werden, dass ENSO-Ereignisse die einzigen Elemente einer natürlichen Ursache-Wirkungskette seien.

Man kann daher schließen, dass der größere Teil der Temperaturveränderung (globale Erwärmung) in der 2. Hälfte des 20. Jh. durch abrupte Änderungen bei den gemittelten Temperaturen in der Folge von natürlichen Ereignissen im Meeres-atmosphärischen System stattfand. Dennoch könnte ein (wenn auch im Vergleich mit den großen Sprüngen) geringer Erwärmungs- oder Abkühlungstrend in diesem Modell der Umschwünge des vorherrschenden Systems (regime shifts) verborgen sein. Unvorstellbar erscheint aber, dass ein stetig steigender CO2-Spiegel ursächlich für die plötzlichen und großen Veränderungen sein könnte, wie sie z.B. in Alaska 1977, in Europe 1988 und in Südost-Asien 1998 beobachtet wurden. Prinzipiell könnten die von natürlichen Ereignissen hervorgerufenen Sprünge durch menschlich verursachte Erwärmung verstärkt worden sein, aber das ist derzeit reine Spekulation.

In der Existenz der „Sprünge“ liegende Implikationen

(1) Generalisierende Behauptungen wie:

“Zunehmende Temperatur und sich verstärkende Erwärmung” werden durch diese Studie nicht bestätigt. Der Großteil der “globalen Erwärmung” fand wahrscheinlich in abrupten Sprüngen statt. 50% der analysierten Stationen melden überhaupt keine signifikante Erwärmung seit über 18 Jahren (Fig. 5). In Europa melden 70% der Stationen keine signifikante Veränderungen der mittleren Temperaturen seit über 20 Jahren.

In Südost-Asien beträgt der mittlere Durchschnittswert 13 Jahre, da viele Stationen ebenfalls eine sprunghafte Veränderung 1997/98 erlebten

(Fig. 4).

Jahre Fig. 5. konstanter Temperaturmittelwerte vor 2010. Box-Whisker plot, 1st and 3rd quartiles. (Anm.: die ungesicherten Rauf- und Runter-Sprünge von 2006-2010 sind ausgelassen).

(2) Infragestellen des IPCC-Konsenses,

so z. B. : “Der Großteil der beobachteten Zunahme der globalen Durchschnittstemperatur seit der Mitte der 20. Jh. geht sehr wahrscheinlich auf die beobachtete Zunahme der anthropogenen Treibhausgas-Konzentrationen zurück”.

Die oben beschriebenen Ergebnisse (Die mit natürlichen Prozessen einhergehenden abrupten Änderungen sind wahrscheinlich ursächlich für den Großteil der Erwärmung von 1960-2010) widersprechen der IPCC-Behauptung von der relativen Wirkung natürlicher und anthropogener Ursachen. Wenn also das IPCC (AR4) die Temperaturkurve nur erzeugen kann, indem Treibhausgas-Wirkungen einbezogen werden, muss logischerweise gefolgert werden:

  • Entweder bilden die IPCC GCM Modelle die natürlichen Prozesse mit hoher Auswirkung auf die Temperaturänderungen nicht richtig ab (man traut der Projektion der Veränderungen in der ENSO-Variabilität und der Häufigkeit der El Niños immer noch nicht so recht, siehe den jüngsten SREX-SPM IPCC report),
  • und/oder das IPCC überschätzt die Klimasensitivität der CO2-Veränderung, so z. B. werden zur Erklärung natürlicher Temperaturanstiege CO2-induzierte Feed-back Prozesse herangezogen.

    In jedem Falle wird die relative Bedeutung natürlicher Prozesses für die Temperaturänderungen vom IPCC wahrscheinlich unterschätzt.

Gesamtergebnisse

Die Studie hat festgestellt, dass Sprungveränderungen in allen Temperaturaufzeichnungen der landgestützten Stationen von 1960-2010 anzutreffen sind, dass diese wirklich stattfanden und mit natürlichen Klimaereignissen verbunden sind. Die Sprungveränderungen sind statistisch hoch-signifikant, sie zeigen ein systematisches, aber regional unterschiedliches Muster des Vorkommens, das mit größeren Klimaereignissen und Umschwüngen im vorherrschenden System (regime shifts) verbunden ist. Dieses Ergebnis hat weitreichende Konsequenzen für unsere Analysen der Klimaaufzeichnungen und für die Erklärung der globalen Erwärmung.

Obgleich vielerlei statistische Modelle zur Erkennung des Musters der Temperaturänderung benutzt werden können, disqualifiziert die Existenz von sprunghaften Veränderungen die weithin benutzten statistischen Techniken linearer Trendbildung und Glättung als Werkzeuge zur Erkennung des Musters der Temperaturänderung von 1960 – 2010.

Die sprunghaften Veränderungen sind ursächlich für den größten Teil der Temperaturänderungen in der 2. Hälfte des 20. Jh. Die logische Konsequenz ist, dass natürliche Vorgänge die Hauptursache für die Temperaturänderung in jener Periode sind, andere Ursachen, wie z. B. ein anthropogener Treibhauseffekt, spielen nur eine untergeordnete Rolle.

Jens Raunsø Jensen Associate Professor, Ph. D. Faculty of Life Sciences, University of Copenhagen, Department of Basic Sciences and Environment, Agrohydrology

Übersetzung: Helmut Jäger, EIKE

Den Originalbeitrag finden Sie hier




Erklärt sich der „Weltklimarat“ IPCC für sakrosankt?

Richard Tol ist Professor für „Wirtschaft des Klimawandels“ an der Vrije Universiteit Amsterdam und Mitarbeiter im IPCC. Er ist eher der skeptischen Seite zuzurechnen. Verschiedentlich hat er seine Zweifel an der Alarmschlägerei und an der Haltbarkeit der Hypothese vom CO2-verursachten Klimawandel geäußert.
Richard Tols Bericht vom Treffen in San Francisco wird auf der Webseite Bishop Hill am 14. 12. zitiert:

… Die Mitgliedstaaten des IPCC wollen sich über die U.S.-Gesetzgebung zur Informationsfreiheit hinwegsetzen. Man legt die Gesetze so aus, dass sie nicht für das IPCC gelten würden. Das ist ein Irrtum. Die Informationsfreiheitsgesetze [Freedom of Information Act – FoIA] sind amerikanisches Recht. Amerikanische Gesetze können nur von den zuständigen Gerichten ausgelegt und nur von den jeweiligen Parlamenten geändert werden. Amtsträger, die für ihre jeweiligen Länder [im IPCC] sprechen, haben kein Recht, die Informationsfreiheitsgesetzgebung zu usurpieren. Dem IPCC steht keine Meinung in dieser Angelegenheit zu.“

Dieser Bericht liegt auf der gleichen Linie, wie eine vorhergehende Veröffentlichung vom
17. 10. von Christopher Horner vom amerikanischen Competitive Enterprise Institute. Angeblich strebt die UNO an, ein vertrauliches und in den jeweiligen Ländern nicht-regierungsamtliches Kommunikations-Netzwerk einzurichten, um die im IPCC mitarbeitenden nationalen Wissenschaftler davor zu bewahren, dass ihre Arbeitsergebnisse und Meinungen an die Öffentlichkeit gelangen. Weil die nationalen Mitglieder des IPCC meist von ihren nationalen Standorten aus arbeiten und in der Regel steuermittelfinanziert sind, unterliegt ihre Arbeit den jeweiligen nationalen Datenschutz- und Datenzugangsgesetzen

Offensichtlich sieht das IPCC in der immer lauter werdenden Forderung auf Transparenz und Öffentlichkeit seiner Arbeit eine Gefahr! Ein stärkerer Kontrast zu der vom IPCC-Vorsitzenden Pachauri wiederholt verkündeten Behauptung von der völligen Transparenz der IPCC-Arbeit lässt sich kaum denken.

Christopher Horner vom CEI.org schrieb:

Eine IPCC-Backchannel “Cloud” ist offensichtlich eingerichtet worden, um die IPCC-Angelegenheiten vor dem Informationsfreiheitsgesetz zu verbergen.
[Anm. d. Ü.: Gemeint ist damit die Einrichtung einer Art von geschlossenem „sozialen Netzwerk“ des IPCC, eines Internet-Dienstes zum Austausch von Informationen. Dabei werden eigens für diesen Zweck spezielle Nutzerkonten eingerichtet. Diese Nutzerkonten sollen die Zugehörigkeit amerikanischer Regierungsangestellten zu Regierungsämtern verbergen. Die Brisanz dieser Angelegenheit ist Thema des Beitrags von Chris Horner.]

Das Competitive Enterprise Institut hat von einem UNO-Plan erfahren, die offizielle Korrespondenz von Angestellten [im amerikanischen Öffentlichen Dienst] so auf Nutzerkonten zu verstecken, als ob sie keine US-Regierungsangestellten wären. Ein U.S. General-Bundesinspektor hat bereits bestätigt, dass ein derartiger Informationsaustausch der FoIA unterliegen würde. Eine solche „Cloud“ wäre so etwas wie ein toter Briefkasten für die Diskussionen von U.S.-Regierungsangestellten über den nächsten IPCC-Bericht. Das skandalgeplagte IPCC ist gerade dabei, den nächsten Bericht fertigzustellen, der mit Millionen von amerikanischen Steuerzahler-Dollars bezahlt wird.
[Anm. d. Ü.: im amerikanischen parlamentarischen System gibt es die Institution von „Inspectors General“. Sie sind unabhängige Beauftragte zur Überwachung der Legalität des Regierungshandelns und der zweckdienlichen Verwendung der Steuergelder.]

Chris Horner schreibt weiter: Eine zwielichtige und ungesetzliche Sache ist das, auch vom Zeitpunkt her schlecht gewählt. Man könnte aber auch sagen, gut gewählt. Es hängt vom jeweiligen Standort ab:
Genau jetzt sind [von der investigativen kanadische Journalistin Donna Laframboise] in einem neuen Buch die betrügerischen Machenschaften des IPCC aufgedeckt worden. Über den IPCC-Betrug hat auch der Verfasser Chris Horner geschrieben. Darüber, wie die Obama-Regierung mit dem IPCC kooperiert hat, um die amerikanischen Gesetze für Transparenz zu unterlaufen. Bekannt ist auch ein Memorandum aus dem Jahre 2005 mit der Offenlegung von Präsident Obamas Umweltpolitik, die von seinem eifernden „Wissenschaftszaren“ John Holdren stammt.

Das CEI hat zur Klärung eine FoIA-Anfrage gestartet. Danach muss … wegen der „Backchannel Cloud“ ausführlich Auskunft erteilt werden: ob und wie sie eingerichtet wurde, um den IPCC-Informationsaustausch von Anfragen auszuschließen, die sich auf FoIA berufen.

Man erinnere sich: das IPCC hat zusammen mit Al Gore den Friedensnobelpreis 2007 erhalten. Das IPCC war der Ort vieler Skandale. Es ging um gefälschte und manipulierte Daten, Abkupfereien von Doktorarbeiten, Magazin-Artikeln und Pressemitteilungen von grünen Gruppen. Zu erwähnen ist auch das berüchtigte „hide the decline“ bei der Temperaturgeschichte.

Das CEI wird seine FoIA-Anfrage bald veröffentlichen.
Vorab nur soviel aus der Erläuterung der Anfrage:

Der neue UNO-Plan, von dem das CEI Kenntnis hat, verfolgt die Absicht, die offizielle Korrespondenz auf Konten von Nicht-Regierungskonten zu verstecken, die, wie ein General-Bundesinspektor schon bestätigt hat, der FoIA unterliegen würde. Eine solche „Cloud“ wäre so etwas wie ein toter Briefkasten für Diskussionen von U.S.-Regierungsangestellten über den nächsten IPCC-Bericht.

Die UNO hat ihre IPCC-Teilnehmer informiert, dass sie wegen belastenden Veröffentlichungen aus früherern Diskussionen (darunter vor allem Climategate) dazu veranlasst würde, und dass sie das Problem durch Umgehen der nationalen Transparenzgesetzgebungen umschiffen wollte.

CEI erinnert das Büro für Wissenschaft und Technologie im Weißen Haus (OSTP) daran, dass diese Praxis … als „Einrichtung von nicht regierungsamtlichen Teilnehmerkonten für den offiziellen Geschäftsgang und deren Nutzung zum Zwecke der Vermeidung der Aufzeichnung des Verkehrs“ bezeichnet wurde. CEI erwartet nun einen Aufschrei aus dem Kongress und von den Medien über eine derartige Praxis, die dazu dient, gültiges Recht zur Datenaufzeichnung zu umgehen.

CEI erinnert OSTP weiter an einen vergleichbaren Versuch der Regierung, die auf U.S.-Regierungscomputern geschriebenen Berichte zum Eigentum des IPCC zu erklären und damit der FoIA zu entziehen. Diese Praxis ist zu Anfang diesen Jahres in einem Bericht aus der Abteilung des Generalinspekteurs des Department of Commerce  bestätigt worden.

Diese Sache ist augenscheinlich mit Beteiligung und direkter Unterstützung aus Obamas Weißem Haus ins Werk gesetzt worden. Der Präsidenten-Stab hatte sich ja sofort nach Obamas Amtsantritt die Führungsrolle bei der IPCC-Arbeit aus dem Wirtschaftsministerium für Holdrens Büro geholt. Der Plan zur heimlichen Schaffung einer FoIA-freien Zone wurde anschließend ins Werk gesetzt.

Das bedeutet eine politische Unterstützung für das IPCC, für die UNO, die EU, die U.S.-Bürokraten und poltischen Berater bei deren Bemühen, offizielle Email-Kanäle bei der Wahrnehmung der poltischen Arbeit mit hohem öffentlichen Interesse zu vermeiden. Die dienstliche Arbeit auf Regierungscomputern soll geschützt vor den neugierigen Augen der immer skeptischer werdenden Steuerzahlern geleistet werden.

Wenn die Gespräche zur Fortsetzung des gescheiterten Kyoto-Protokolls wieder aufgenommen werden, erwartet CEI vom OSTP, dass diese illegalen Tätigkeiten beendet werden und rascher Zugang zu den angeforderten Aufzeichnungen ermöglicht wird, damit der Steuerzahler weiß, was die U.S.-Vertreter und das IPCC vorhaben. …

Möglicherweise wird ein republikanischer Präsidentschaftskandidat die fällige Debatte eröffnen mit der Forderung zur Einstellung der U.S.-Finanzierung des IPCC, das, wie nun bekannt geworden ist, aktiv (mit Unterstützung aus Obamas Weißem Haus) US-Gesetze umgeht.
Genug ist genug! …

Chris Horner CEI

—————————————

Übersetzung und Bearbeitung: Helmut Jäger, EIKE
(Der Beitrag von Christopher Horner wurde um die für deutschsprachige Leser nicht auf Anhieb verstehbaren Teile bereinigt, die mit dem sich abzeichnenden US-Präsidentschaftswahlkampf zu tun haben.)




Welt-Erdölreserven reichen stets 40 Jahre

Das R/P-Verhältnis

In der Ölindustrie wie auch in anderen Industrien gibt es das ”R/P-Verhältnis”. Dabei bedeutet R die Reserven jeglicher Art und P die Produktionsrate, das ist die Rate, mit der die Reserven gefördert und verbraucht werden.

Abb. 1. Jährliche Welt-Erdölförderung in Mrd. Barrels (blaue Linie) und die noch verbleibenden Jahre bei der angegebenen Produktionsrate R/P (rote Linie). Die rechte Skala zeigt die nachgewiesenen Ölreserven für jedes Jahr in Mrd. Barrel (grüne Punktelinie). Quelle: BP Statistical Review of World Energy 2011. Das ist eine faszinierende Excel-Tabelle. FOTO: Spindletop Hill Gusher, 1901

Teilt man die Reservemenge durch die Produktionsrate, erhält man die Anzahl der noch für die Förderung verbleibenden Jahre. Demgemäss ist das R/P-Verhältnis als ”verbleibende Jahre” (Years Left) eingefügt.

Hier ist anzumerken:
Erstens, die ”verbleibenden Jahre”, das R/P-Verhältnis, beträgt derzeit mehr als 40 Jahre, und das schon seit einem Vierteljahrhundert. Vor 30 Jahren hatten wir nur 30 Jahre nachgewiesene Ölreserven. Die damaligen Schätzungen sagten voraus, dass wir zum jetzigen Zeitpunkt kein Öl mehr hätten.
Vor 25 Jahren hatten wir 40 verbleibende Jahre, vor 10 Jahren immer noch 40. Nun sind es über 40 Jahre. Ich bin sicher, Sie erkennen das Muster.

Zweitens: hier geht es nur um die ”nachgewiesenen Reserven” (Wiki). Die ”nicht nachgewiesenen Reserven” sind darin nicht enthalten. Viele davon bestehen aus unkonventionellen Reserven, wie z. B. Schieferöl und Ölsände. Selbst wenn man die ”nicht nachgewiesenen” Reserven außer Acht lässt, haben sich die nachgewiesenen Reserven mit der Förderrate in etwa gleichem Maße erhöht. Das R/P-Verhältnis, die verbleibenden 40 Jahre bei heutiger Produktionsrate, ist also seit einem Vierteljahrhundert stabil geblieben.

Allerdings muss das irgendwann einmal langsamer vonstatten gehen, nichts währt ewig. Aber den Daten zufolge hat es keine Eile mit dem Ersatz des Öls durch Sonnenenergie, Windenergie, Grüner Energie … im Laufe der kommenden Jahrzehnte. Die Märkte haben noch viel Zeit, Ersatz zu finden.

Man möge mich nicht falsch verstehen: Ich würde es sehr begrüßen, wenn wir eine bessere Energiequelle fänden als das Öl. Tatsächlich werden die riesigen neuen Reserven an Schiefergas viele Jahre lang das Heizöl ersetzen. Schiefergas verbrennt sauberer. Und man kann überzeugt sein, dass die Menschen neue Energiequellen finden. Die Menschheit ist grenzenlos erfinderisch.

Willis Eschenbach

Ich melde hiermit meinen Protest gegen das Standard-Mantra an: ”Oh Gott, wir haben bald kein Öl mehr, deshalb müssen wir gleich morgen unsere Energiequellen wechseln!!” Das ist einfach nicht wahr. Wir haben noch viel Zeit, noch Jahrzehnte. Wir müssen nicht gleich Milliarden von Dollars für Photovoltaik, Windenergie und Biotreibstoffe verbrennen. Es gibt noch lange genug Öl auf der Welt, lang genug für die Märkte, neue Energiequellen zu finden.

Anmerkung: Die angegebenen Zahlen für das Öl, besonders für die Reserven sind Schätzwerte. Ölfirmen sind bekanntlich schweigsam über ihre Entdeckungen und das Ausmaß ihrer Förder-Berechtigungen. Der Vorteil der BP-Zahlen ist, dass sie einzelne kohärente Zeitserien sind. Andere Daten zeigen etwas andere Resultate. So weit mir bekannt, ist allen Schätzungen gemeinsam die Zunahme der nachgewiesenen Reserven trotz der ansteigenden Förderung.

Original hier.

Übersetzung: Helmut Jäger, EIKE




Klima-Wahrheiten von A-Z – Der Klima Realitäts-Check

A-Z Climate Reality Check

Viele Propagandisten des menschengemachten Klimawandels meinen heute, dass alles schlimmer sei, als je vorhergesagt. Einem Artikel in Daily Climate vom 18. 10. zufolge, behaupten Klimawandel-Propagandisten, dass es “Beweise für ein Herunterspielen der Klimawandelfolgen durch Wissenschaftler gäbe …”, und weiter, “… wenn etwas wahr ist, dann dieses: Der Zusammenbruch des Klimas wird wahrscheinlich schlimmer als befürchtet.“

Wird er nicht! Der hier vorgelegte ausführliche Bericht „Special Report: A–Z Climate Reality Check“ zerstört jegliche Illusionen, dass es mit dem Klima “schlimmer stünde, als gedacht.” In dem Maße, wie die Beweise aus der wirklichen Welt für die Falschheit der Behauptungen vom Klimawandel stärker werden, übertreiben auf der Gegenseite die Klima-Aktivisten die Vorhersagen vom bevorstehenden Klimawandel und erklären, dass „es schlimmer als gedacht käme.“ Doch Vorhersagen oder Projektionen von 50 – 100 Jahren in die Zukunft sind keine „Beweise“. Jüngste wissenschaftliche Daten und Entwicklungen enthüllen, dass Mutter Natur den Klimawandel-Angsttrompetern einen grausamen Streich spielt. 

Wissenschaftliche Wahrheit ist, dass nahezu jede Behauptung von A-Z der Klimawandelpropagandisten falsch ist und die Falschheit oft noch weiter übertrieben wird. Die Klimawandel-Bewegung erleidet derzeit ihren wissenschaftlichen Tod durch Tausende zugefügte Wunden.
Der vorgelegte Sonderbericht auf Climate Depot ist eine alphabetische und handliche Zusammenstellung der Ergebnisse zum Thema „Klima“. Dargestellt werden die wichtigsten Fakten, fachbegutachtete Studien, jüngste Daten und Entwicklungen in der Forschung, die  gegen die Behauptungen vom menschengemachten Klimawandel sprechen. Links zu weiterer ausführlicher Lektüre sind enthalten.

Die Ausdehnung des Antarktischen Meereises hat rekordverdächtige Größe in den vergangen beiden Sommern erreicht, das Eis dehnt sich weiter aus, in der Arktis hat es in den vergangenen Jahren wieder zugenommen seit dem Niedrigstand 2007, den Eisbären geht es gut, der Meeresspiegel zeigt keine Beschleunigung im Anstieg, der Anstieg geht sogar derzeit zurück, Cholera und Malaria verweigern den Prognostikern des Klimawandels den Gehorsam, die Furcht vor der Schneeschmelze am Kilimandscharo ist inzwischen zu einem Witz geworden angesichts der Zunahme der Schneedecke, die globalen Temperaturen sind seit mehr als einem Jahrzehnt stabil, viele Wissenschaftler prognostizieren eine bevorstehende Abkühlung, Extremwetter haben weniger Tote verursacht, die globale tropische Sturmaktivität ist nahe eines historischen Tiefpunkts, die Häufigkeit von starken amerikanischen Hurrikanen hat abgenommen, die Ozeane zeigen nicht die vorhergesagte Erwärmung, starke Tornados haben dramatisch abgenommen seit den 1970ern, Dürren zeigen keine historischen Auffälligkeiten und keine Anzeichen einer anthropogenen Verursachung, es gibt keine Beweise für die Zunahme von ungewöhnlichen Wetterlagen, aber Skandale erschüttern die Klimaangst-Bewegung, das UNO-IPCC wurde als eine Brutstätte von Umweltaktivisten entlarvt, dem ehemaligen US-Vizepräsident Al Gore wird nun von seinen Kameraden von der Klimawandel-Alarmisten-Fraktion vorgeworfen, jedes Schlechtwetterereignis mit dem Klimawandel zu verbinden, und immer mehr Wissenschaftler aus aller Welt verabschieden sich immer rascher von der Klimawandel-Angstmacherei.

Der Bericht auf Climate Depot enthüllt, dass die vorhergesagte große Katastrophe vom Klimawandel abgesagt ist

Genauso atemberaubend wie der Kollaps der Angst der Wissenschaftler vor dem anthropogenen Klimawandel ist der politische Kollaps. Präsident Obama wurde vom ehemaligen Vize Präsidenten Al Gore kritisiert wegen seines zögerlichen Vorgehens bei der Klimawandel-Gesetzgebung. Das “wissenschaftlich bedeutungslose” und auf Eis gelegte Kongress-Klimaschutzgesetz ist gescheitert, weil die Demokraten merkten, dass es für sie einem politischen Selbstmord gleichkäme. In Washington ist der Skeptizismus zum Klimawandel politisch schick geworden. Der globale Klimawandel-Vertrags-Prozess der UNO liegt in Trümmern. Hierzu mehr bei: Der Demokrat Walter Russell Mead analisiert Gore: Gore hat der Grünen Bewegung einen ’Tsunami der Niederlage verpasst und darin liegt eine der größten Niederlagen der zivilisierten Gesellschaft aller Zeiten verborgen’.

Die Propagandisten des Anthropogenen Klimawandels machen haarsträubende Behauptungen von einem mythischen 97% oder 98% Konsens. Hierzu: Global Warming: A 98% Consensus Of Nothing: Only shameless activists or statistically ignorant claim that survey of 77 anonymous scientists is proof of 98% consensus. Einstmals hochangesehene wissenschaftliche Vereinigungen wie die U.S. National Academy of Sciences (NAS) wurden korrumpiert und haben Steuergeld für die Lobby ausgegeben, um die Klimaschutzgesetze durchzubringen. Hierzu siehe: Ralph Cicerone’s Shame: NAS Urges Carbon Tax, Becomes Advocacy Group — political appointees heading politicized scientific institutions that are virtually 100% dependent on gov’t funding & NAS Pres. Ralph Cicerone Turns Science Org. into political advocacy group: $6 million NAS study is used to lobby for global warming bill & MIT’s Richard Lindzen: Cicerone of NAS is saying that regardless of evidence the answer is predetermined. If gov’t wants carbon control, that is the answer that the NAS will provide.

Es musste schief gehen

Eine Bewegung mit Al Gore als Aushängeschild, einer der am meisten umstrittenen politischen Figuren, musste scheitern. Eine Bewegung, die das skandalumwitterte UNO-IPCC als einen Hort der Wissenschaftlichkeit betrachtete ist dem Untergang geweiht; das amerikanische Volk ist gegenüber der UNO höchst misstrauisch. Gore und das IPCC sind inzwischen in ihrer Bedeutung so gering geworden, dass sie jeden Sturm, jede Überschwemmung, jeden Hurrikan oder Tornado als Beweis für einen menschengemachten Klimawandel ansehen. Die UNO verkommt bis auf die Stufe der Prostitution mit dem Abladen der Verantwortung für den Klimawandel auf den Menschen. Hierzu: Climate Astrology — ‘It Has Been Foretold’ of Extreme Weather: ‘UN IPCC science has a status similar to interpretations of Nostradamus and the Mayan calendars’ & Climate Astrology borrows from the past: ‘Before That Witch Moved Into The Neighborhood, We Never Had Bad Weather Or Disease’.

Nun ist es Zeit für wissenschaftliche Klarheit: Nicht die UNO und auch nicht der U.S.-Kongress können das Wetter mit Gesetzen und mit Steuern regulieren. Hierzu: Princeton University Physicist Dr. Will Happer: ‘The idea that Congress can stop climate change is just hilarious’ – Warns of ‘climate change cult’ – July 8, 2009 – Führende Wissenschaftler verweigern sich dem behaupteten “Konsens.” Siehe: Nobel Prize-Winning Physicist Who Endorsed Obama Dissents! Dr. Ivar Giaever Resigns from American Physical Society Over Group’s Promotion of Man-Made Global Warming.

Der Klimawandel wird von Hunderten von Faktoren und Variablen gesteuert

Die These vom CO2 als dem Haupttreiber für den Klimawandel wird immer mehr von fachbegutachteten Studien, Daten und Wissenschaftlern aus aller Welt in Frage gestellt. CO2 ist ein Spurengas in der Atmosphäre und wird auch vom Menschen bei der Atmung ausgeschieden. Es gibt kein simples Entweder–Oder: Sonne oder CO2, wenn es um die globale Temperatur geht: Sonne, Vulkane, Neigung der Erdachse, Wasserdampf, Methan, Wolken, die Meeresströmungen, Plattentektonik, Albedo, Staub in der Atmosphäre, zyklische Phänomene in der Atmosphäre, kosmische Strahlung, Rußpartikel, Land- und Waldnutzung usw. Der Klimawandel wird von Hunderten von Faktoren und Variablen gesteuert, nicht einfach nur vom CO2.

Professor em. der Biogeographie Philip Stott, University of London, verdeutlichte das ganze Dilemma in der Klimawandel-Debatte, als er die Vorstellung vom CO2 als dem Hauptklima-Treiber verwarf:
Stott schrieb: “Wie immer und immer wieder betont ist der Hauptgesichtspunkt: Der Klimawandel wird von Hunderten von Faktoren und Variablen gesteuert, und genau diese Idee, dass wir es fertig bringen könnten, den Klimawandel vorhersagbar zu steuern, indem wir einen politisch ausgewählten Faktor (CO2) manipulieren, liegt so sehr daneben, wie es nur sein kann.”

Sogar die Aktivisten von RealClimate.org mussten sich dieser Wahrheit über das Klima beugen. Siehe hierzu den Beitrag vom 20. September 2008. Dort ist zu lesen: “Der derzeitige Temperaturanstieg ist Ausfluss aus Interaktionen von Hunderten von Faktoren…”

Die Klimawandel-Bewegung verliert weiterhin ihre Wissenschaftler, viele davon waren früher beim IPCC. Hierzu: More Than 1000 International Scientists Dissent Over Man-Made Global Warming Claims – Challenge UN IPCC & Gore.

Die Zukunft sieht gar nicht glänzend für die Klimawandel-Aktivisten aus, weil immer mehr Skandale an der Bewegung rütteln. Hierzu: Climate Depot’s Exclusive Round Up of Climategate 2.0 – Read about the most comprehensive report on the latest global warming scandal – Sogar die Wärme-Alarmisten beklagen, dass Climate 2.0 “vernichtend” sein könnte: ‘Jene [E-Mails] klingen schlimmer, als ich zunächst angenommen habe – sie werden einen vernichtenden Eindruck hinterlassen.’

Und Dr. Richard Lindzen, Klimawissenschaftler am Massachusetts Institute for Technology (MIT) merkte an: “Der normale Mensch auf der Straße durchschaut die Sache mit der menschengemachten Klima-Angst – aber gebildete Menschen können sehr verunsichert werden.”

Der Original-Bericht kann hier heruntergeladen werden. Anmerkung des Herausgebers: Der A-Z-Bericht wird regelmäßig aktualisiert und kann als handlicher Wegweiser durch die Behauptungen vom menschengemachten Klimawandel dienen.

Original dieses Beitrags auf www.ClimateDepot.com
Übersetzung: Helmut Jäger, EIKE