Klimamodelle des Glaubens! Oder warum 2+2=5 sein könnte!

Mindestens seit dem 1995 erschienenen Zweiten Zustandsbericht hat das IPCC immer sicherer klingend festgestellt, dass anthropogenes Kohlendioxid (CO2) das Klima beeinflusst, und dass dies der Hauptgrund für den nachgewiesenen Erwärmungstrend seit 1900 ist. Der gegenwärtige Anteil des atmosphärischen CO2 beträgt 390 parts per million (ppm) oder 0,039% des Gasgemisches der Atmosphäre. Im Jahre 1900 waren es etwa 295 ppm. Falls sich der Trend des 20. Jahrhunderts unvermindert fortsetzt, wird sich der Anteil von CO2 in der Atmosphäre etwa verdoppelt haben bis 600 ppm. Dies ist die Basis für das gewöhnlich „CO2–Verdoppelung“ genannte Szenario.

Die CO2–Verdoppelung ist eine Wegmarke der Klimawissenschaftler für die Abschätzung des Treibhauseffektes. Die Erde empfängt etwa 342 Watt pro Quadratmeter (W/m2) einkommender Strahlung von der Sonne, und alle diese Strahlung wird letztendlich wieder in den Weltraum abgestrahlt. Allerdings absorbieren CO2 und andere Treibhausgase, am meisten Wasserdampf, einiges dieser ausgestrahlten Energie und wärmen so die Atmosphäre. Dies nennt man den Treibhauseffekt. Ohne diesen Effekt läge die mittlere Temperatur der Erde bei frostigen -19°C. Der Treibhauseffekt erwärmt die Erde bis etwa 14°C und macht sie so überhaupt erst bewohnbar9. 

Mit steigendem CO2 wird noch mehr der ausgestrahlten Energie absorbiert, was die Thermodynamik der Atmosphäre verändert. Alle zusätzlichen Treibhausgase einschließlich CO2, die seit 1900 in die Atmosphäre gelangt sind, kommen einer zusätzlichen Absorption von etwa 2,7 W/m2 in der Atmosphäre gleich10. Dies ist der besorgliche Treibhauseffekt.

Am 2. Februar 2007 veröffentlichte die Arbeitsgruppe 1 (WG1) des IPCC die „Zusammenfassung für Politiker (Summary for Policymakers SPM)  über den Zustand des Erdklimas“11. Er enthält eine umfassende Zusammenfassung der Wissenschaft, die die oben gemachte Vorhersage stützt. Der ganze „Vierte Sachstandsbericht“ (Fourth Assessment Report, 4AR) wurde 2007 nach und nach veröffentlicht.

Abbildung 1 zeigt eine Schwarz-weiß-Version des „Sonderberichtes für Emissionsszenarien“ (Special Report on Emission Scenarios SRES) in SPM-5 der WG1 des IPCC, der die Zukunft der globalen Mitteltemperatur projiziert. Diese Projektionen11 wurden mit Hilfe von generellen Zirkulationsmodellen (General Circulation Models GCMs) durchgeführt. GCMs, das sind Computerprogramme, die die physikalischen Auswirkungen des Klimas berechnen; Auswirkungen u. A. auf die Ozeane, die polaren Eiskappen und die dynamische Antwort der Atmosphäre zu verschiedenen Antriebskräften. Antriebe und Feedbacks sind diejenigen Elemente, die den Energiefluss im Klimasystem steuern. Sie schließen das Sonnenlicht, Meeresströme, Stürme und Wolken, die Albedo (die Reflektivität der Erde) sowie die Treibhausgase Wasserdampf, CO2, Methan, Nitrooxide und Fluorchlorkohlenstoffe ein.

In der Abbildung 1 nimmt das B1–Szenario einen CO2–Anstieg auf 600 ppm, A1B bis 850 ppm und A2 einen solchen auf pessimistische 1250 ppm an. Das „Jahr 2000 Szenario“ bildet den optimistischen Fall ab, den CO2–Gehalt stabil bei 390 ppm zu halten.

Die Bildunterschrift unter der Abbildung SPM-5 lautet (in Auszügen): „Durchgezogenen Linien zeigen die Erwärmung der Erdoberfläche im globalen Mittel (im Vergleich zum Zeitraum 1980 – 1999) für die Szenarien A2, A1B und B1, dargestellt als Fortsetzung der Simulationen des 20. Jahrhunderts. Die Schattierungen zeigen die Standartabweichung der individuellen Modelle“.

Gut und schön! Wir schauen uns die Projektionen an und sehen, dass die Fehlergrenzen nicht sehr unterschiedlich sind. Egal was passiert, es wird angenommen, dass die globale Temperatur im 21. Jahrhundert signifikant steigen wird. Eine kleine Woge der Verzweiflung taucht auf, dass es unter keinen Umständen gelingen wird, den CO2–Gehalt auf dem heutigen Stand zu halten. Das Jahr 2000 Szenario wird nur als Kontrast gezeigt. Die Wissenschaft ist hier in Ordnung, und wir können uns gefasst machen auf eine anthropogen verursachte Erwärmung im 21 Jahrhundert, mit all den daraus resultierenden Gefahren. Fühlen Sie sich schon schuldig?

Aber vielleicht ist ja das alles nicht so eindeutig! Im Jahre 2001 wurden in der Zeitschrift Climate Research13 offen die Unsicherheiten der Physik diskutiert, die in die GCMs einfließen. Dieses Papier war sehr kontrovers und verursachte eine [intensive] Debatte14. Aber über alle Kontroversen hinweg wurde nicht über die grundlegenden physikalischen Unsicherheiten gesprochen. Es stellte sich heraus, dass die Unsicherheiten der energetischen Reaktion des Klimasystems der Erde über 10 mal größer sind als der gesamte Effekt zunehmenden CO2–Gehaltes15. Wenn die Unsicherheit größer ist als die [angenommene] Auswirkung, wird die Auswirkung selbst irrelevant. Wenn aber die Auswirkung selbst strittig ist, über was hat das IPCC dann geredet? Und woher nimmt es die Gewissheit des großen Einflusses des CO2 auf die Atmosphäre?

Mit diesen Fragen im Hinterkopf schaue man noch einmal auf die Legende der Abbildung SPM-5. Dort heißt es „Die Schattierungen zeigen die Standardabweichung der individuellen Modelle“. Die Linien in der Abbildung repräsentieren die vom GCM projizierte jährliche Mitteltemperatur. Die Legende besagt, dass während 68% der Zeit (eine Standardabweichung) die Modellprojektionen in den schattierten Bereichen liegen werden. Sie sagt nicht, dass die schattierten Bereiche die physikalische Verlässlichkeit der Projektionen angeben. Die schattierten Bereiche zeigen nichts über die physikalische Ungewissheit der Temperaturprojektionen. Sie zeigen die numerische Instabilität der Modelle. Die Botschaft der Legende lautet, dass Klimamodelle nicht zweimal den gleichen Trend ergeben werden. Sie garantieren nur, dass dies in den schattierten 68% der Zeit der Fall ist16.

Dieser Punkt ist so wichtig, dass er mit einem einfachen Beispiel verdeutlicht werden soll. Nehmen wir an, ich hätte ein Computermodell allgemeiner Arithmetik, das behauptet,

2 + 2 = 5 ± 0,1.

Jedes Mal, wenn ich das Modell rechne, gibt es eine Chance von 68%, dass das Ergebnis innerhalb des Bereiches 0,1 Einheiten um die 5 liegen wird. Meine schattierte Region wäre 0,1 Einheiten breit. Wenn 40 verschiedene Forschergruppen 40 leicht unterschiedliche arithmetische Modelle hätten, die ähnliche Ergebnisse bringen würden, könnten wir uns alle zu einem Konsens gratulieren. Nehmen wir jetzt weiter an, wir könnten die Modelle soweit verbessern, dass das Ergebnis jetzt lauten würde: 2 + 2 = 5 ± 0,01. Dann könnten wir behaupten, wir hätten unsere Modelle so weit verbessert, dass sie jetzt 10 Mal genauer wären als zuvor. Aber natürlich wären sie alle genauso falsch wie vorher, weil die exakte Arithmetik nun einmal ergibt, das 2 + 2 = 4. Dieses Beispiel zeigt den kritischen Unterschied zwischen Präzision und Genauigkeit.

In der Abbildung 1 sind die schattierten Bereiche die rechnerischen Ungenauigkeiten der Computermodelle. Sie zeigen nicht die physikalische Genauigkeit der Projektionen. Sie sagen uns gar nichts über die physikalische Genauigkeit. Aber physikalische Genauigkeit – Verlässlichkeit – war immer das, wonach wir in den Vorhersage über künftige Ereignisse in der realen Welt gesucht haben. Es ist dieser Punkt – die physikalische Genauigkeit von globalen Zirkulationsmodellen GCM – mit dem sich dieser Artikel befassen wird.

Die erste Annäherung an physikalische Präzision in den GCMs ist es, zu ermitteln, was sie projizieren. Der am meisten propagierte Trend – den, den wir immer sehen – ist die globale mittlere Temperatur. 

Abbildung 2a zeigt die Trends der Temperatur von 10 GCMs, die in dem Projekt „Coupled Model Intercomparison Project“ (GMIP) [etwa: gekoppeltes Modellvergleichsprojekt] im „Lawrence Livermore National Laboratory“17 berechnet wurden. Sie zeigen, was passieren würde, wenn das atmosphärische CO2 stetig um 1% pro Jahr (etwa doppelt so viel wie gegenwärtig) innerhalb  der  nächsten  80  Jahre steigen würde. Die Klimamodelle schlossen andere „äußere Antriebe“ aus, wie z. B. Vulkanausbrüche, anthropogenes Aerosol sowie Änderungen der Solarstrahlung. Andererseits berücksichtigten sie interne Feedbacks wie beispielsweise den Wärmeaustausch zwischen Ozean und Atmosphäre, Änderungen des Schneefalls, Schmelzen der Eiskappen und so weiter. Diese GCMs sind entweder identisch oder sehr ähnlich den GCMs, die das IPCC für die Vorhersage der künftigen Temperatur des Erdklimas in Abbildung 1 (SPM-5) zeigt.

Zusammen mit den GCM–Projektionen zeigt Abbildung 2a den Trend eines sehr einfachen Modells, in dem alles, was passiert, nur in einer passiven Erwärmung durch Treibhausgase mit keinerlei Klimafeedbacks besteht. Trotz dieser ihm innewohnenden Einfachheit geht der Graph der passiven Erwärmung genau durch die Mitte der Trendlinien des GCM.

Dieses Resultat bedeutet, dass sich irgendwie die Quintillionen Watt an Feedback von den Ozeanen, der Atmosphäre, der Albedo und den Wolken in den generellen Zirkulationsmodellen zusammen zu null mitteln. Neben den geringen Spielräumen der Intensität simulieren alle GCMs wenig mehr als passive globale Erwärmung.

Alle Berechnungen, die die hier gezeigten Schlussfolgerungen stützen, werden in der unterstützenden Information (Supporting Information SI) präsentiert, die man auf der Site www.skeptic.com einsehen kann. Hier folgt das vereinfachte Treibhausmodell insgesamt:

Global Warming=0,36x(33°C)x[(Total Forcing ÷ (Base Forcing)]

Sehr kompliziert! “33°C” ist die Basis-Treibhaustemperatur der Erde, wie sie im Jahre 1900 definiert wurde19. „0,36“ ist der Teil der Treibhauserwärmung, von dem gesagt wird, dass es durch das CO2 plus „das erweiterte Wasserdampf-Feedback“ geliefert wird20. Die erweiterte Idee dahinter ist, wenn CO2 die Atmosphäre erwärmt, wird auch mehr Wasserdampf produziert. Dieser zusätzliche Wasserdampf beschleunigt die Erwärmung durch das CO221. All dies wird detailliert zur kritischen Durchsicht in Sektion 1 bei der SI ersichtlich.

Die vom IPCC anerkannten Gleichungen10 wurden zur Berechnung der Auswirkungen der Treibhausgase CO2, Methan und Stickstoffoxide [nitrous oxide] benutzt – die hauptsächlichen Treibhausgase derzeit. Das ist alles. Nichts, was komplizierter ist als Algebra, wurde hinzugezogen.

Die Mittellinie des GCM in Abbildung 2a (die schwarze Linie mit der weißen Mitte) ist das „Ensemble Mittel“ aller 10 GCM–Projektionen; das heißt ihre Summe geteilt durch 10. Ensembles werden typischerweise als genauer angesehen als jede einzelne individuelle GCM–Projektion22. Unter diesem Kriterium ist das Modell der passiven Erwärmung physikalisch akkurater als irgendeines der multimillionen teuren GCMs, weil es näher am Ensemblemittel liegt als jedes der 10 Klimamodelle (SI Sektion 2). Abbildung 2b zeigt einen ähnlichen Vergleich mit Projektionen von zwei hochauflösenden GCMs vom Geophysical Fluid Dynamics Laboratory der NOAA18, die Feedbacks von allen bekannten Klimaprozessen auf der Erde enthalten. Das einfache Modell zeigt die Temperaturprojektion näher [am Mittelwert] als viele der anderen komplexen GCMs zusammen.

Abbildung 2a zeigt, dass das physikalische Modell des Erdklimas in den GCMs im Falle einer Zunahme von CO2 simuliert, dass die Temperatur kaum etwas anderes macht außer einer passiven Reaktion in linearer Weise auf den Antrieb der Treibhausgase. Die gleiche Schlussfolgerung ergibt sich beim Betrachten von Kontrollläufen der GCMs, die die Temperaturentwicklung bei konstantem CO2–Gehalt simulieren. Eine davon zeigt Abbildung 1 – das „Jahr-2000-Szenario“. Die Kurve ist beinahe eben.

Besonders seit der Ära der Satelliten konnten spezielle Aspekte des Klimas, wie Bewölkung oder die Oberflächentemperatur um den ganzen Globus aufgezeichnet werden. Man kann GCM mit der Rückwärtsmethode testen, indem man sie das bekannte Klimageschehen der Vergangenheit simulieren lässt anstelle der erwarteten Entwicklung in der Zukunft. Physikalische Fehler in den GCMs bzgl. der simulierten Vergangenheit können dann mit der realen Vergangenheit verglichen werden.

Abbildung 3 zeigt die vom Satelliten beobachtete Bewölkung im Zeitraum Dezember – Januar – Februar, gemittelt über die Jahre 1983 bis 1990. Sie zeigt auch die globale mittlere Bewölkung über die ähnliche Periode von 1979 bis 198823 durch 10 begutachtete GCMs24. Die GCMs wurden benutzt, um zu versuchen, die beobachtete  Bewölkung  zu reproduzieren und wurden dann überarbeitet und erneut getestet. Diese Studie wurde 1999 veröffentlicht, aber die Genauigkeit zwischen den Rekonstruktionen der GCMs und den Beobachtungen hat sich während der letzten 9 Jahre kaum verbessert25.

Betrachtet man Abbildung 3, zeigen die GCMs ziemlich genau die Form eines W bei der Bewölkung der Erde, aber es zeigen sich signifikante Verluste durch alle Modelle in allen Breiten einschließlich der Tropen, wo die Wolken einen großen Einfluss auf das Klima haben26. Also, wie falsch sind die GCMs?

Eine Methode, den Fehler abzuschätzen, besteht darin, dass man über die Gesamtbewölkung, die von jedem Modell in der Rückschau simuliert wurde, integriert und dies mit der tatsächlich beobachteten Gesamtbewölkung vergleicht (SI Sektion 3). Den Fehler auf diese Weise zu ermitteln ist ein wenig vereinfachend, weil eine positive Abweichung in einer Breite durch eine negative Abweichung in einer anderen Breite kompensiert werden kann. Dieses Verfahren ergab eine mittlere Fehlerquote der Bewölkung von ±10,1%. Dieser Wert ist etwa halb so groß wie die offiziell festgelegte Fehlerquote bei den GCMs. Nennen wir diese ±10,1% den minimalen Fehler bzgl. der Bewölkung bei den GCMs.

Die mittlere Energiezufuhr der Wolken zum Erdklima lässt sich mit einem Wert von etwa -27,6 W/m2  27 beziffern.  Das  bedeutet, dass ein Fehler von ±10,1% eine Unsicherheit von ±2,8 W/m2 in den GCM–Projektionen hat. Diese Unsicherheit liegt bei etwa 100% des gegenwärtigen Treibhausantriebs durch alle anthropogen erzeugten Treibhausgase, die sich gegenwärtig in der Atmosphäre befinden10. Wenn man dies berücksichtigt, ergibt sich eine wahre, jedoch unvollständige Abschätzung der physikalischen Verlässlichkeit eines GCM–Temperaturtrends.

Was passiert also, wenn man diese ±2,8 W/m2 durch die SRES Temperaturtrends laufen lässt, die vom IPCC in Abbildung 1 angeboten werden? Bei der Berechnung einer Temperaturprojektion von Jahr zu Jahr wird jeder neue Temperaturwert plus dessen physikalischer Fehlergrenze in die Berechnung der Temperatur plus dessen Fehlergrenze eingegeben. Diese Art der Unsicherheit akkumuliert sich in jedem Jahr, weil jede vorhergesagte Temperatur die gesamte ±(physikalische Unsicherheit) enthält (SI Sektion 4).

Abbildung 4 zeigt die A2 SRES–Projektion, wie sie ausgesehen haben könnte, wenn das IPCC sich entschieden hätte, den Minimalfehler ±10,1% bzgl. der Wolken als ein Maß der Genauigkeit ihrer Temperaturprojektionen für das 21. Jahrhundert einzuführen. Dieses Resultat ist etwas ärgerlich. Die physikalische Ungewissheit akkumuliert rapide und ist in 100 Jahren so groß, dass sie bei einer Anpassung die steile SRES A2–Projektion in Abbildung 1 beinahe eingeebnet hätte. Die Ungewissheit von ±4,4°C im 4. Jahr übersteigt sogar schon die gesamte Temperaturzunahme von 3,7°C in 100 Jahren. In 50 Jahren liegt die simulierte Unsicherheit schon bei ±55°C. In 100 Jahren liegt dieser Wert bei ±111°C. Man erinnere sich, diese riesige Unsicherheit ergibt sich aus einem minimalen Fehler bei der Abschätzung der Bewölkung!

Hinsichtlich der aktuellen Entwicklung der Erdklimas besagt diese Unsicherheit nicht, dass die GCMs simulieren, in 100 Jahren sei es möglicherweise 100 K wärmer oder kälter als heute. Sie besagt, dass die Grenzen der Auflösung der GCMs – ihre Pixelgröße – gewaltig ist verglichen mit dem, was sie projizieren sollen. In jedem neuen Projektionsjahr einer Berechnung in der Größenordnung eines Jahrhunderts wird die Ungewissheit darüber, wie sehr die Wolken das Klima beeinflussen, größer und das Betrachten eines GCM zunehmend verwirrender.

Es ist, als ob man jedes Mal, wenn man sich umdreht, eine stärker und stärker streuende Linse vor unsere Augen hält. Erst verschwinden die Blumen, dann die Leute, dann die Autos die Häuser und schließlich sogar große Wolkenkratzer. Alles verwischt sich und lässt nur unbestimmte Farbkleckse zurück, und sogar großräumige Bewegungen können nicht mehr erkannt werden. Die Behauptung, dass die GCMs ein verlässliches Bild des zukünftigen Klimas liefern, ist etwa so stimmig wie wenn man beim Sichten eines undefinierbaren Farbkleckses darauf besteht, dass es sich um ein Haus mit einer Katze im Fenster handelt.

Die starke Schattierung in Abbildung 4 zeigt den Fehler, der sich aus den Unsicherheiten des Einflusses der Treibhausgase selbst (~1% für CO2, ~10% für Methan, ~5% für Nitrooxide)10, und wie sehr sich diese kleinen Unsicherheiten über einen Vorhersagezeitraum von 100 Jahren aufschaukeln. Nach einem Jahrhundert beträgt die Unsicherheit der vorhergesagten globalen Mitteltemperatur ±17 K, nur aus der Akkumulation des kleinsten Fehlers beim Antrieb allein.

Die Schwierigkeit ist sogar über kurze Zeiträume ernst. Das kleine Bild in der Abbildung 4 zeigt, dass nach nur 20 Jahren die Unsicherheit bzgl. der Wolken schon ±22 K beträgt und ±3 K bzgl. des Antriebs durch die Gase. Der Effekt der ±1%–Unsicherheit allein zeigt, dass zu 99% akkurate GCMs nicht erkennen können, ob wir in nicht einmal 20 Jahren eine neue Eiszeit oder aber eine tropische Warmzeit haben werden. Diese physikalischen Unsicherheiten sind nicht nur erheblich größer als vom IPCC in Abbildung 1 zugelassenen, sondern die tatsächlich zugelassenen Fehlergrenzen des IPCC sind nicht einmal physikalisch16.

Wenn man eine Akkumulation der Unsicherheiten bzgl. der Wolken und es Antriebs der Gase zusammen zulässt, ergibt sich nach dem A2–Szenario nach 5 Jahren eine um 0,34 K wärmere Erde mit einer Fehlergrenze von ±8,8 K. In 10 Jahren wird daraus 0,44 ± 15 K und in 20 Jahren 0,6 ± 27,7 K. Im Jahre 2100 läge diese Projektion bei 3,7 ± 130 K. Nur aus der Unsicherheit der Bewölkungsmenge ergibt sich, dass die Fehlergrenze sehr viel größer ist als die simulierte Temperaturzunahme. Was ist glaubwürdig an einer Vorhersage, deren Fehlergrenze 20 bis 40 mal größer ist als die Vorhersage selbst? Nach nur wenigen Jahren ist die Simulation der globalen Temperatur durch ein GCM nicht verlässlicher als bloßes raten. Dies bedeutet, dass die Wirkung der Treibhausgase auf die Erdatmosphäre nicht vorhersagbar und damit nicht bestimmbar ist. Und damit irrelevant.

Das rasante Anwachsen der Fehlergrenzen bedeutet, dass die GCMs nach 5 Jahren nicht mehr unterscheiden könne, ob wir eine Eiszeit oder eine Hitzehölle haben werden; geschweige denn nach 100 Jahren. So weit es die GCMs betrifft, kann die Erde im Jahre 2100 ein Winterwunderland sein oder ein tropisches Paradies. Niemand weiß das.Direkte Tests von Klimamodellen zeigen das Gleiche. Im Jahre 2002 hat Matthew Collins vom UK Hadley Centre das GCM HadCM3 benutzt, um ein künstliches Klima zu erschaffen, und hat dann berechnet, wie sich das gleiche Klima entwickelt, dass er selbst erschaffen hat. Es verhielt sich ärmlich, obwohl es sich um das perfekte Modell handelte. Das Problem lag darin, dass kleine Unsicherheiten bei den Eingaben – den Startbedingungen – rapide zunahmen und das GCM sehr schnell in die Belanglosigkeit trieb. Sogar mit dem perfekten Modell, berichtet Collins, „scheint es so, dass die jährliche globale Mitteltemperatur potentiell 1 Jahr im voraus  vorhergesagt  werden  kann, und eine Vorhersage für 5 oder 10 Jahre allenfalls marginal möglich ist.“ Also, mit einem perfekten Klimamodell und fast perfekten Anfangsbedingungen könnte man eines Tages potentiell oder marginal vorhersagen, aber man kann noch nicht 1 Jahr im Voraus Vorhersagen machen. Und mit diesen mangelhaften Modellen macht das IPCC Vorhersagen für 100 Jahre im Voraus!

In einem ähnlichen Test auf Zuverlässigkeit hat William Merryfield 2006 15 GCMs rechnen lassen, um künftige El-Niño Southern Oscillations (ENSO) in einem treibhausgewärmten Klima zu simulieren29. Er fand: „Bei einer Verdoppelung des CO2–Gehaltes zeigen 8 der 15 Modelle Änderungen mit einer signifikant (p<0,1) größeren Streuung als die Änderung der Amplitude selbst. Jedoch nimmt die Amplitude der ENSO in 5 dieser Modelle ab, während sie in 3 zunimmt. Fazit: Es gibt keinen Konsens über Art und Umfang der Änderung.“ Also, von 15 GCMs nahmen sieben keine signifikanten Änderungen an, 5 simulierten einen schwächeren, 3 einen stärkeren ENSO. Dieses Resultat ist gleichbedeutend mit ‚wir wissen es nicht’. Die 15 GCMs, die Merryfield benutzt hat, sind die gleichen, die dem Vierten Assessment Report des IPCC zugrunde lagen.

Wenn man all dies betrachtet, warum ist das IPCC so sicher, dass anthropogen erzeugtes CO2 für die jüngste globale Erwärmung verantwortlich ist? Wie kommt die US National Academy of Science (NAS) in einer kürzlich veröffentlichten Broschüre zu der Aussage, dass „…die Erwärmung der Erde in den letzten Dekaden primär von menschlichen Aktivitäten verursacht wurde, die den Anteil der Treibhausgase in der Atmosphäre haben zunehmen lassen“30? Diese Broschüre zeigt eine sehr aussagekräftige Abbildung 4 (SI Sektion 5), die die Inputs zu einer Projektion der globalen Temperatur aus einem GCM darlegt. Nur wenn die Auswirkungen der anthropogenen Treibhausgase in die normale Temperaturvariation mit einbezogen werden, sagt man uns, passt der Trend des GCM zu dem tatsächlich beobachteten Trend.

Aber ihre Abbildung 4 zeigt noch eine andere Charakteristik, die fast allgegenwärtig in Temperaturprojektionen von GCMs ist. Sie zeigen keinerlei physikalische Fehlergrenzen. Uns wird ein simulierter Temperaturtrend als perfekt genau präsentiert. Die Abbildung 4 der NAS wäre wesentlich glaubwürdiger, wenn die Akademie es zusammen mit der ±100 K Fehlergrenze gezeigt hätte. Dann würde offensichtlich werden, dass der Gleichlauf zwischen der beobachteten und der simulierten Trendlinie nichts als Zufall ist. Oder das GCM wurde künstlich so getrimmt, dass der Temperaturverlauf passt. Es würde auch offensichtlich werden, dass es vollkommen bedeutungslos ist zu behaupten, dass dieser erklärte Gleichlauf ohne die Zufuhr von CO2 nicht möglich ist, wenn tatsächlich ein erklärter Gleichlauf unmöglich ist. Punkt.

Unter Klimatologen ist gut bekannt, dass große Bereiche der Physik in den GCMs nicht gut verstanden werden31. Wo die Unsicherheit signifikant ist, haben die GCMs „Parameter“, die am besten darüber urteilen, wie sicher Klimaprozesse ablaufen. GCMs haben Dutzende von Parametern und eventuell Millionen Variable32, und alle davon haben einige Arten des Irrtums oder der Ungewissheit.

Eine saubere Darstellung ihrer physikalischen Zuverlässigkeit würde die Darstellung aller Unsicherheiten sämtlicher Parameter durch die GCMs einschließen und daraus resultierend eine Darstellung der gesamten Unsicherheit33. Ich habe vergeblich nach einer solchen Studie gesucht. Es scheint, dass niemand jemals die gesamte physikalische Unsicherheit eines GCM betrachtet hat. In der physikalischen Wissenschaft ist eine solche Überprüfung in der Praxis aber unabdingbar und routinemäßig erforderlich. Aber offensichtlich nicht in der Wissenschaft der GCMs. Ergo: Die gleichen Leute, die den Alarm über die künftige Erderwärmung hinaus posaunen, missachten ihre eigene ausgeprägte Unwissenheit.

Unter dem Strich ergibt sich also Folgendes: Wenn es um das zukünftige Klima geht, weiß niemand, wovon überhaupt die Rede ist. Niemand. Nicht das IPCC noch deren Wissenschaftler, nicht der US–Kongress, weder Sie noch ich und schon gar nicht Herr Al Gore. Das Erdklima erwärmt sich, und kein Mensch weiß, warum. Aber es gibt keine belastbare wissenschaftliche Basis, dass diese Erwärmung durch anthropogene Treibhausgase verursacht wird, weil die gegenwärtig zur Verfügung stehenden physikalischen Theorien gänzlich ungeeignet sind, überhaupt irgendeinen Grund zu finden.

Nichtsdestotrotz, jene, die extreme politische Maßnahmen ergreifen, um die
CO2–Emissionen zu reduzieren, beziehen sich ausschließlich auf die Ergebnisse der GCMs, die irgendwie zu realen Vorhersagen in der Öffentlichkeit werden. Aber selbst wenn diese Politiker die Unsicherheit der Modellergebnisse einräumen, werden sie immer noch das Vorsorgeprinzip bemühen und nach extremer Reduzierung rufen, „um auf der sicheren Seite“ zu sein. Dieses Prinzip besagt: „Wenn es Bedrohungen durch ernste oder irreversible Gefahren gibt, sollte das Fehlen genauer wissenschaftlicher Erkenntnisse nicht als Begründung dienen, kostenintensive Maßnahmen zu verschieben, um Umweltschäden zu verhindern“34. Dies bedeutet, selbst wenn wir nicht vollständig wissen, dass das CO2 das Erdklima gefährlich erwärmt, sollten wir doch dessen Emissionen kappen, für alle Fälle. Jedoch, wenn die gegenwärtige Fehlergrenze in den GCMs mindestens bei ±100 K pro Jahrhundert liegt, werden wir in totaler Unkenntnis über die Effekte des CO2 auf die Temperatur gelassen. Es ist nicht „… das Fehlen genauer wissenschaftlicher Erkenntnisse“, sondern es müsste heißen: „…es gibt überhaupt keine wissenschaftlichen Erkenntnisse“. Wir wissen buchstäblich gar nichts darüber, ob eine Verdoppelung des CO2–Gehaltes überhaupt irgendeinen signifikanten Effekt auf das Klima hat.

Solange unser Wissen über das künftige Klima gegen Null tendiert, kann es also sein, dass [in der Vorhersage] sowohl eine Reduzierung als auch eine Zunahme des CO2 das Klima verbessert, verschlechtert oder gar nicht verändert. Die Alternativen sind unangemessen, aber in unserem Stadium der Unwissenheit hat jede Wahl zwei von drei Chancen, den geringsten Schaden anzurichten35. Komplette Unwissenheit macht das Vorsorgeprinzip komplett unbrauchbar. Es gibt gute Gründe, den Verbrauch fossiler Energieträger zu reduzieren, aber die Klimaerwärmung ist dafür kein Grund.

Einige könnten nun beschließen, trotzdem daran zu glauben. „Wir können es nicht beweisen“, könnten sie sagen, „aber die Korrelation zwischen CO2 und der Temperatur ist real (sie nehmen beide zu)36 und so ist die Notwendigkeit da, auch wenn wir es nicht beweisen können“. Aber Korrelation bedeutet nicht Ursache37, und ein Grund kann nicht bei kompletter Unwissenheit herhalten. Die richtige Antwort auf den hartnäckigen Anspruch auf Gewissheit bei kompletter Unwissenheit ist gesunder Skeptizismus. Und ist es nicht viel besser für uns, Ressourcen für dringende aktuelle Dinge zu nutzen, anstatt diese Ressourcen für ungewisse Gefahren aufzuheben?

Also, was hat es denn nun mit schmelzenden Eiskappen, dem Anstieg des Meeresspiegels, dem Aussterben der Eisbären und anderen Wetterextremen auf sich? Was ist, wenn ungewöhnlich intensive Hurrikansaisons wirklich verbreitete Katastrophen auslösen? Es ist kritisch, den Finger auf Gründe und Rationalität zu legen, besonders wenn soziale Einladungen zum gesellschaftlichen Durchdrehen so allgegenwärtig sind. GCMs sind so schrecklich unzuverlässig, dass es keinen objektiven, belastbaren Grund gibt für die Annahme, dass der gegenwärtige Erwärmungstrend durch anthropogenes CO2 erfolgt, oder dass dieses CO2 das Klima überhaupt messbar erwärmt. Daher, selbst falls extreme Ereignisse wegen des sich erwärmenden Klimas vorkommen, gibt es keinen wissenschaftlichen Grund, die Ursache für diese Ereignisse im anthropogenen CO2 zu suchen.  Im chaotischen Erdklima könnte es gar keinen Grund für eine Erwärmung geben39. Viele hervorragende Wissenschaftler haben all das in grundlegenden Arbeiten immer wieder geschrieben, um die CO2–Panik zu dämpfen40, aber der Chor singt verführerisch, und einige rechtschaffene Gläubige scheinen sich an Widerlegungen zu weiden.

Patrick Frank,

Die Übersetzung erledigte dankenswerterweise Chris Frey EIKE

Im Original folgen noch Danksagungen

Literatur

1. McCarthy, J. 2005. “The Sustainability of Human Progress.” www.formal.stanford.edu/jmc/progress/ Last accessed on: 14 September 2007.
2. Anon. 2006. “Consequences of Global Warming” National Resources Defense Council. www.nrdc.org/globalWarming/fcons.asp Last accessed on: 14 September 2007.
3. Anon. 2007. “The Hard Facts of Global Warming.” The Sierra Club www.sierraclub.org/globalwarming/overview/overview4.asp Last accessed on: 14 September 2007.
4. Anon. 2007. “Learning About the Science of Climate Change.” Greenpeace. www.greenpeace.org/international/campaigns/climatechange/science Last accessed on: 14 September 2007.
5. Appenzeller, T. and D. R. Dimick. 2007. “Signs from Earth” National Geographic. http://magma.nationalgeographic.com/ngm/0409/feature1/ Last accessed on: 14 September 2007.
6. Cicerone, R., E. J. Barron, R. E. Dickenson, I. Y. Fung, J. E. Hansen, et al. 2006. “Climate Change Science: An Analysis of Some Key Questions” The National Academy of Sciences, Washington, D.C. See also the 2006 report downloadable here: http://dels.nas.edu/basc/. Last accessed on: 14 September 2007.
7. Pelosi, N. 2007. “We Will Work Together to Tackle Global Warming, One of Humanity’s Greatest Challenges.” www.speaker.gov/newsroom/speeches?id=0013 Last accessed on: 14 September 2007.
8. Shermer. M. 2006. “The Flipping Point.” Scientific American 294, 28.
9. Anon. Report FS-1999-06-025-GSFC: Earth’s Energy Balance, NASA: Goddard Space Flight Center Greenbelt, MD.
10. Myhre, G., E. J. Highwood, K. P. Shine and F. Stordal. 1998. “New Estimates of Radiative Forcing Due to Well Mixed Greenhouse Gases.” Geophysical Research Letters 25, 2715–2718.
11. Alley, R., T. Berntsen, N. L. Bindoff, Z. Chen, A. Chidthaisong, et al. “IPCC 2007: Summary for Policymakers.” In: Climate Change 2007: The Physical Science Basis. Cambridge University. http://ipcc-wg1.ucar.edu/wg1/wg1-report.html Last accessed on: 14 September, 2007. See under “WG1 Release”.
12. The IPCC is careful to use “projection” rather than “prediction” to describe what GCMs produce. I.e., the words “predict” or “prediction” do not appear in the SPM of the 4AR. However, “projection” appears 20 times, “scenario” appears 50 times, and the peculiarly apt “storyline” is used 7 times. “Prediction” seems to be the default message for most readers, however.
13. Soon, W., S. Baliunas, S. B. Idso, K. Y. Kondratyev, and E. S. Posmentier. 2001. “Modeling Climatic Effects of Anthropogenic Carbon Dioxide Emissions: Unknowns and Uncertainties” Climate Resear ch. 18, 259–275.
14. Risbey, J. 2002. “Comment on Soon et al. (2001)” Climate Research 22, 185–186; W. Soon, S. Baliunas, S. B. Idso, K. Y. Kondratyev and E. S. Posmentier (2002). Reply to Risbey (2002) Climate Research 22, 187–188; D. J. Karoly, J. f. B. Mitchell, M. Allen, G. Hegerl, J. Marengo, et al. (2003) Comment on Soon et al. (2001) Climate Research 24, 91–92; W. Soon, S. Baliunas, S. B. Idso, K. Y. Kondratyev and E. S. Posmentier (2003). Reply to Karoly et al. (2003) Climate Research. 24, 93–94.
15. One must go into Chapter 8 and especially Ch 8 Supplementary Material in the recently released IPCC 4AR to find GCM errors graphically displayed in W m-2. Figure S8.5, for example, shows that GCM errors in “mean shortwave radiation reflected to space” range across 25 W m-2. The errors in outgoing longwave radiation, Figure S8.7, are similarly large, and the ocean surface heat flux errors, Figure S8.14, minimally range across 10 W m-2. Such forthright displays do not appear in the SPM or in the Technical Summary; i.e., where public bodies are more likely to see them.
16. The Legend of “The Physical Science Basis, Global Climate Projections” WGI analogous Figure 10.4 more cautiously advises that, “uncertainty across scenarios should not be interpreted from this figure (see Section 10.5.4.6 for uncertainty estimates).” However, in 10.5.4.6, it is not reassuring to read that, “*Uncertainty in future temperatures+ results from an expert judgement of the multiple lines of evidence presented in Figure 10.29, and assumes that the models approximately capture the range of uncertainties in
the carbon cycle.” And in WGI Chapter 8 Section 8.1.2.2: “What does the accuracy of a climate model’s simulation of past or contemporary climate say about the accuracy of its projections of climate change? This question is just beginning to be addressed … [T]he development of robust metrics is still at an early stage, [so] the model evaluations presented in this chapter are based primarily on experience and physical reasoning, as has been the norm in the past. (italics added)” That is, there is no validly calculated physical uncertainty limit available for any projection of future global climate.
17. Covey, C., K. M. AchutaRao, U. Cubasch, P. Jones, S. J. Lambert, et al. 2003. “An overview of results from the Coupled Model Intercomparison Project” Global and Planetary Change, 37, 103–133; C. Covey, K. M. AchutaRao, S. J. Lambert and K. E. Taylor. “Intercomparison of Present and Future Climates Simulated by Coupled Ocean-Atmosphere GCMs” PCMDI Report No. 66 Lawrence Livermore National Laboratory 2001 http://www-pcmdi.llnl.gov/publications/pdf/report66/ Last accessed on: 14 September 2007.
18. Dixon, K. R., T. L. Delworth, T. R. Knutson, M. J. Spelman and R. J. Stouffer. 2003. “A Comparison of Climate Change Simulations Produced by Two GFDL Coupled Climate Models.” Global and Planetary Change, 37, 81–102.
19. Houghton, J. T., Y. Ding, D. J. Griggs, M. Noguer, P. J. van der Linden, et al. Climate Change 2001: The Scientific Basis. Chapter 1. The Climate System: An Overview. Section 1.2 Natural Climate Systems, Subsection 1.2.1 Natural Forcing of the Climate System: The Sun and the global energy balance. 2001 http://www.grida.no/climate/ipcc_tar/wg1/041.htm Last accessed on: 14 September 2007 “For the Earth to radiate 235 W m-2, it should radiate at an effective emission temperature of -19° C with typical wavelengths in the infrared part of the spectrum. This is 33° C lower than the average temperature of 14° C at the Earth’s surface.”
20. Inamdar, A. K. and V. Ramanathan. 1998. “Tropical and Global Scale Interactions Among Water Vapor, Atmospheric Greenhouse Effect, and Surface Temperature.” Journal of Geophysical Research 103, 32,177–32,194.
21. Manabe, S. and R. T. Wetherald. 1967. “Thermal Equilibrium of the Atmosphere with a given Distribution of Relative Humidity.” Journal of the Atmospheric Sciences 24, 241–259.
22. Lambert, S. J. and G. J. Boer. 2001. “CMIP1 Evaluation and Intercomparison of Coupled Climate Models.” Climate Dynamics 17, 83–106.
23. Rossow, W. B. and R. A. Schiffer. 1991. “ISCCP Cloud Data Products.” Bulletin of the American Meteorological Society 72, 2–20. Global average cloudiness does not change much from year-toyear. I.e., “Table 3 and Fig. 12 also illustrate how small the interannual variations of global mean values are. … All *the+ complex regional variability appears to nearly cancel in global averages and produces slightly different seasonal cycles in different years.”
24. Gates, W. L., J. S. Boyle, C. Covey, C. G. Dease, C. M. Doutriaux, et al. 1999. “An Overview of the Results of the Atmospheric Model Intercomparison Project.” (AMIP I) Bulletin of the American Meteorological Society 80, 29–55.
25. AchutaRao, K., C. Covey, C. Doutriaux, M. Fiorino, P. Gleckler, et al. 2005. “Report UCRL-TR-202550. An Appraisal of Coupled Climate Model Simulations Lawrence Livermore
National Laboratory.” See Figures 4.11 and 4.12. Especially compare Figure 4.11 with text Figure 3; M. H. Zhang, W. Y. Lin, S. A. Klein, J. T. Bacmeister, S. Bony, et al. 2005. “Comparing Clouds and Their Seasonal Variations in 10 Atmospheric General Circulation Models with Satellite Measurements.” Journal of Geophysical Research 110, D15S02 11–18.
26. Hartmann, D. L. 2002. “Tropical Surprises.” Science, 295, 811–812.
27. Hartmann, D. L., M. E. Ockert-Bell and M. L. Michelsen. 1992. “The Effect of Cloud Type on Earth’s Energy Balance: Global Analysis.” Journal of Climate 5, 1281–1304.
28. Collins, M. 2002. “Climate Predictability on Interannual to Decadal Time Scales: The Initial Value Problem.” Climate Dynamics 19, 671–692.
29. Merryfield, W. J. 2006. “Changes to ENSO under CO2 Doubling in a Multimodel Ensemble.” Journal of Climate 19, 4009–4027.
30. Staudt, A., N. Huddleston and S. Rudenstein. 2006. “Understanding and Responding to Climate Change.” The National Academy of Sciences. http://dels.nas.edu/basc/ Last accessed on: 14 September 2007. The “low-res pdf” is a convenient download.
31. Phillips, T. J., G. L. Potter, D. L. Williamson, R. T. Cederwall, J. S. Boyle, et al. 2004. “Evaluating Parameterizations in General Circulation Models.” Bulletin of the American Meteorological Society 85, 1903–1915.
32. Allen M. R. and D. A. Stainforth. 2002. “Towards Objective Probabilistic Climate Forecasting.” Nature 419, 228; L. A. Smith. 2002. “What Might We Learn from Climate Forecasts?” Proceedings of the National Academy of Science, 99, 2487–2492.
33. This is not the same as a sensitivity analysis in which the effects that variations in GCM parameters or inputs have on climate predictions are compared to observations. In contrast to this, propagating the errors through a GCM means the known or estimated errors and uncertainties in the parameters themselves are totaled up in a manner that quantitatively reflects their transmission through the mathematical structure of the physical theory expressed in the GCM. The total error would then represent the physical uncertainty in each and every prediction made by a GCM.
34. Kriebel, D. J. Tickner, P. Epstein, J. Lemons, R. Levins, et al. 2001. “The Precautionary Principle in Environmental Science.” Environmental Health Perspectives 109, 871–876.
35. Of course, reducing CO2 would likely stop the global greening that has been in progress since at least 1980. The Amazon rainforest alone accounted for 42% of the net global increase in vegetation: R. R. Nemani, C. D. Keeling, H. Hashimoto, W. M. Jolly, S. C. Piper, et al. 2003. “Climate-Driven Increases in Global Terrestrial Net Primary Production from 1982 to 1999.” Science 300, 1560–1563; S. Piao, P. Friedlingstein, C. P., L. Zhou and A. Chen. 2006. “Effect of Climate and CO2 Changes on the Greening of the Northern Hemisphere Over the Past Two Decades.” Geophysical Research Letters 33, L23402 23401–23406.
36. Rising CO2 correlates strongly (r2=0.71) with the greening of the Sahel since 1980, too. SI Section 6.
37. Aldrich, J. 1995. “Correlations Genuine and Spurious in Pearson and Yule.” Statistical Science 10, 364–376. In 1926 G. Udny Yule famously reported a 0.95 correlation between mortality rates and Church of England marriages.
38. On the other hand, the history of Earth includes atmospheric CO2 lagging both glaciations and deglaciations, and large rapid spontaneous jumps in global temperatures without any important changes in atmospheric CO2 and without tipping Earth off into runaway catastrophes. See references for the Dansgaard-Oeschger events, for example: Adams, J. M. Maslin and E. Thomas. 1999. “Sudden Climate Transitions During the Quaternary.” Progress in Physical Geography 23, 1–36; G. G. Bianchi and I. N. McCave. 1999. “Holocene Periodicity in North Atlantic Climate and Deep Ocean Flow South of Iceland.” Nature 397, 515–517; M. McCaffrey, D. Anderson, B. Bauer, M. Eakin, E. Gille, et al. 2003. “Variability During the Last Ice Age: Dansgaard-Oeschger Events.” NOAA Satellites and Information. http://www.ncdc.noaa.gov/paleo/abrupt/data_glacial2.html Last accessed on: 14 September 2007; L. C. Gerhard. 2004. “Climate change: Conflict of Observational Science, Theory, and Politics.” AAPC Bulletin 88, 1211–1220.
39. J. M. Mitchell Jr. 1976 “An overview of climatic variability and its causal mechanisms” Quaternary Research 6, 481–493. Shao, Y. 2002. C. Wunsch 2003 “The spectral description of climate change including the 100 ky energy” Climate Dynamics 20, 253–263. “Chaos of a Simple Coupled System Generated by Interaction and External Forcing.” Meteorology and Atmospheric Physics 81, 191–205; J. A. Rial 2004. “Abrupt Climate Change: Chaos and Order at Orbital and Millennial Scales.” Global and Planetary Change 41, 95–109.
40. Lindzen, R. S. 1997. “Can Increasing Carbon Dioxide Cause Climate Change?” Proceedings of the National Academy of Science, 94, 8335–8342; W. Soon, S. L. Baliunas, A. B. Robinson and Z. W. Robinson. 1999. “Environmental Effects of Increased Carbon Dioxide.” Climate Research 13, 149–164; C. R. de Freitas. 2002. “Are Observed Changes in the Concentration of Carbon Dioxide in the Atmosphere Really Dangerous?” Bulletin of Canadian Petroleum Geology 50, 297–327; C. Essex and R. McKitrick. 2003. “Taken by Storm: The Troubled Science, Policy, and Politics of Global Warming” Key Porter Books: Toronto; W. Kininmonth. 2003. “Climate Change: A Natural Hazard.” Energy & Environment 14, 215–232; M. Leroux. 2005. “Global Warming — Myth or Reality?: The Erring Ways of Climatology”. Springer: Berlin; R. S. Lindzen. 2006. “Is There a Basis for Global Warming Alarm?” In Global Warming: Looking Beyond Kyoto Ed. Yale University: New Haven, in press. The full text is available at: http://www.ycsg.yale.edu/climate/forms/LindzenYaleMtg.pdf Last accessed: 14 September 2007.
Quelle: http://www.skeptic.com/the_magazine/featured_articles/v14n01_climate_of_belief.html


Related Files




Fünf Gründe, die Windkraft noch einmal zu überdenken!

Windturbinen benötigen Kapazitäten als Backup

Der Wind ist unvorhersagbar, niemand kann wissen, wann er bläst oder wann es zur Windstille kommt. Aber weil das moderne Leben eine verlässliche Energiequelle braucht, benötigt jede Windturbine Kapazitäten als Backup. In [der kanadischen Provinz] Ontario wird dieses Backup durch Gasturbinen, die 60% der Kapazität liefern, egal ob sie Strom ins Netz einspeisen oder nicht. In fast allen Fällen ist es viel effizienter, Gasgeneratoren zu betreiben und sich nicht die zusätzlichen Kosten und den Kohlenstoff–Fußabdruck der Windfarm aufzuhalsen.

Kohlenstoffanfall beim Bau der Windturbinen

Windturbinen sind komplexe Maschinen, für deren Herstellung man große Mengen von Stahl und Beton für den Turm und das Fundament braucht, zusätzlich zu Materialien wie Kupfer, Aluminium und Kohlenstoffverbindungen für die Rotorblätter und das Generatorsystem. Es heißt, dass Beton für 5% bis 10% aller anthropogenen Kohlenstoffemissionen verantwortlich ist, emittiert es doch annähernd 1,25 Tonnen Kohlendioxid pro Tonne
Beton
. Für Windturbinen an den Küsten benötigt man zwischen 500 und 1000 Tonnen Beton für ein solides Fundament, was der Umwelt einen hohen Preis abverlangt, bevor überhaupt das erste Kilowatt erzeugt wird.

Flora und Fauna

Windkraft hat einen großen negativen Effekt auf wild lebende Tiere, vor allem Vögel. Die grüne Berechtigung von Windturbinen wird besonders am Altamont – Pass in Kalifornien herausgefordert, die jedes Jahr für den Tod Tausender Vögel verantwortlich sind, bei denen es sich vielfach um geschützte Arten handelt. Windparks auf See können zusätzlich Delphine und Seelöwen gefährden.

Landschaftsvernichtung

Großräumige Windparks werden immer unpopulärer, weil sie das natürliche Landschaftsbild verderben. Der ältere Sen. Kennedy, gewöhnlich ein Umweltschützer, opponierte gegen das ‘Cape Wind’ Projekt in der Bucht von Nantucket, vor allem wegen des Potentials, die natürliche Schönheit der Gegend zu verschandeln. Geplante Windparks in Großbritannien stehen ähnlichen Problemen gegenüber, wenn sie in oder nahe bei ausgewiesenen geschützten Landschaften voll natürlicher Schönheit errichtet werden sollen. 

Gesundheit

Es gibt Befürchtungen, dass durch Windturbinen bei Ortschaften Gesundheitsprobleme bei den Anwohnern hervorgerufen werden. Berichtet wurde unter anderem über Schwindelgefühle, Übelkeit und Kopfschmerzen. Eine allgemeine Beschwerde gibt es über das zischende Geräusch der Rotorblätter, das den Schlaf unterbrechen und die Konzentration schwächen kann. Die Auswirkungen auf die menschliche Gesundheit werden immer noch untersucht, aber es ist ein wichtiger Faktor, der bei der Bewertung der Windkraft erwägt werden muss

Windfarmen sieht man in zunehmender Anzahl überall auf der Welt, egal wo man wohnt, aber während es die Planer von Windparks und Generatoren im Allgemeinen gut meinen, gibt es einige ernste Probleme und unerwartete Konsequenzen bei der erneuerbaren Option.

Paul Wornham*

Link zum Originalartikel hier

Übersetzt von Chris Frey

*Paul Wornham is a blogger, freelance writer and author living in Southern Ontario. He earned an MBA at the University of Alberta in Edmonton, Alberta. Paul founded the blog dailybayonet.com in 2006 and writes about environmental and green issues applying a skeptical view with a dash of humor. He can be reached at paul@dailybayonet.com




ARD Politmagazin Panorama: Klimawandel ist ein Verliererthema!

Im Ankündungstext wurde noch tapfer geschrieben:

"An immer größeren Katastrophen mangelt es in diesem Jahr nicht. In Pakistan sind 1400 Menschen im Hochwasser ertrunken, am Nordpol ist ein riesiges Gletscherstück abgebrochen, in Russland brennen nach einer enormen Hitzewelle riesige Waldflächen und Moskau liegt unter einer dicken Rauchwolke. Und dann noch diese Meldung: 2010 ist das heißeste Jahr seit Beginn der Wetteraufzeichnung vor 130 Jahren – weltweit! 

"Und jetzt holt sie uns wieder ein, die Klimakatastrophe!" behauptete dann, ungetrübt von jeder Sachkenntnis, Moderatorin Anja Reschke*.

Und weiter im Text:

"Worüber hätten wir jetzt normalerweise diskutiert? So wie in all den anderen Jahren? Über die Klimakatastrophe! Doch das Thema ist ziemlich out, die Deutschen sind offenbar klimamüde."

Aber es kam noch schlimmer: "Kiimawandel ist ein Verliererthema!" befand treffend Dagmar Dehmer, ebenso klimaangstbesessene Redakteurin beim linksliberalen Berliner "Tagesspiegel". Die Öffentlichkeit hätte nach dem Scheitern des Klimagipfels in Kopenhagen die "Nase so was von voll", dass sie keine Beiträge zum Thema mehr auf die Vorderseiten brächte. Und von Klimakanzlerin Merkel glaubt sie, dass diese nicht mit dem Klimathema "untergehen" wolle. Das wäre aus unserer Sicht verständlich! 

Und der sonst um keine Aussage zu den schlimmen Folgen eines von seinen Modellen herbeigerechneten Klimawandels verlegene Chef des Potsdam Institutes für Klimafolgenforschung Schellnhuber befand resignierend, Klimawandel sei in der veröffentlichten Meinung gar "ein Tabuthema" geworden. Doch der im Beitrag ebenfalls zu Worte kommende junge Mann aus dem Volke sagt es drastischer: "Es interessiert doch eh´ keinen". 

Nur Umweltminister Röttgen gab sich tapfer, die Kanzlerin -lt. Kommentator- immer  noch "an seiner Seite wähnend" und befand: "Der Kimapolitk ist ein zentrales Zukunftsthema" Wessen Zukunft meinte der Minister? Evtl. seine?

Hier finden Sie den Originalbeitrag bis zum 20.8.10 ARD Mediathek

Ähnlich frustriert ist wohl der Oberpriester der Alarmisten –  Al Gore:

‚Der Krieg ist verloren!‘ declares confused, angry, trembly-handed Al Gore in bunker conference call

So beschreibt der Journalist James Dellingpole vom Telegraph die resignierende Rede des Gurus.

* Anja Reschke: Studium der Politikwissenschaft, Geschichte und Sozialpsychologie in München. 1993 freie Reporterin bei Antenne Bayern. 1998 Volontariat beim NDR. Seit 2000 freie Autorin bei Panorama, seit Juli 2001 Moderatorin bei Panorama.

Michael Limburg EIKE




Ölkatastrophe Golf von Mexico: Nichtstun ist besser!

"Ganz anders ist  die Einschätzung einer Gruppe führender britischer Meeresforscher: Die Ölpest habe zwar kurzfristig  gravierende Folgen für Natur und Menschen, die langfristigen Schäden seien aber wahrscheinlich  gering. Die Forscher widersprechen auch der Anweisung des Weissen Hauses an BP, das Öl stärker zu  bekämpfen – denn: «Nichtstun ist manchmal die beste Lösung.» Der wirtschaftliche Schaden des Öllecks sei zwar gross, meinte Martin Preston, Experte für  Meeresverschmutzung an der Universität Liverpool. «Die Bewertung des Umweltschadens steht aber  noch aus.» Die Ölpest sei nicht vergleichbar mit früheren Lecks, weil das Öl fernab der Küste und in  grosser Tiefe austrete. Wegen der Wärme werde ein Teil des Öls von Bakterien zersetzt, ein anderer  Teil verdunste. In arktischen Gewässern wäre eine ähnliche Ölpest viel schlimmer, sagte Preston: «Das Szenario von Öl unter Eis ist furchterregend.» ….

….Schon hat die Stigmatisierung von Wissenschaftlern und Politikern, die die Ölpest relativieren, eingesetzt. Die Süddeutsche Zeitung mahnte: «Quer durch Amerika melden sich Skeptiker, die  nachweisen wollen, dass die Ölpest gar nicht das schlimmste von Menschen gemachte Umweltdesaster in der Geschichte des Landes ist.» Gemeint war etwa Haley Barbour, Gouverneur des US-Bundesstaats  Mississippi, der bestreitet, dass es sich überhaupt um eine Katastrophe handelt. Die Strände  Mississippis seien sauber, sagte Barbour, doch die vielen Meldungen über die Ölpest würden die Touristen fernhalten. Zwar würden einige Teerklumpen angespült, das sei im Golf von Mexiko, wo auch sehr viel Öl aus natürlichen Quellen ins Wasser gelange, schon in der Vergangenheit immer wieder vorgekommen. Die Süddeutsche Zeitung bezeichnete Barbour als «Verleugner»

Axel Reichmuth; Weltwoche. Lesen Sie hier den ganzen Artikel (gebührenpflichtig)

Lesen Sie zum Thema auch den interessanten Artikel in der WSJ vom 2.7.10 von Paul H. Rubin

Why Is the Gulf Cleanup So Slow?

und von Lawrence Salomon in der Financial Post vom 26.6.10

Avertible catastrophe




Die australische Temperaturgeschichte – ein Gesamtüberblick!

Mit diesem Ruf steht er nicht allein! In einem empfehlenswerten Versuch zur Verbesserung des Datenzustands hat der australische Wetterdienst (BOM) das australische Hochqualitäts-Klima-Netzwerk geschaffen. Der Ergebnis war aber, dass dabei eine vorurteilsverzerrte Wärmeverschiebung von 41,67 % eingeführt worden ist. Und die darauf beruhenden Klimaanalysen scheinen noch einmal etwa 66,67 % draufgepackt zu haben.

Dieser Beitrag hier ist die Zusammenfassung der meines Erachtens ersten unabhängigen Überprüfung des amtlichen Klimaberichts von Australien. Es ist damit auch die erste unabhängige Überprüfung eines amtlichen Klimaberichts für einen ganzen Kontinent. Ich werde mich um Einfachheit bemühen.

Hier ist die amtliche Version der “Klimatrends und Veränderungen in der australischen Messdatenaufzeichnung“ zu finden, die für die australische Öffentlichkeit, die Regierung und die ganze Welt herausgegeben wird. http://www.bom.gov.au/climate/change/aus_cvac.shtml

Trendkarte, 1910-2009:

Zeitreihengrafik über die Zeit, erzeugt mit deren handlichem Trendwerkzeug:

0,1 Grad C / Dekade, oder 1 Grad für ein Jahrhundert.

Auf der Webseite des australischen Wetterdienstes BOM steht diese Erklärung:

 Die Temperaturhistorien sind aus homogenen oder „hoch-qualitativen“ Temperaturdaten errechnet. Letztere wurden für die Überwachung langzeitlicher Temperaturtrends und Veränderungen entwickelt … Wo immer möglich, wurde jede Messstationshistorie um Daten-“Sprünge“ oder künstliche Unstetigkeiten korrigiert, herrührend aus Veränderungen der Stationsposition, Aufstellung, Instrumentierung oder Beobachtungsverfahren. Darin eingeschlossen sind die Erkennung und die Korrektur von Datenproblemen mit statistischen Techniken, Sichtprüfungen, historischen Informationen über die Stationen oder „Metadaten“.

und

Die australische Klimadaten „Hoher Qualität“ wurden entwickelt, bei denen Homogenitätsprobleme reduziert oder beseitigt wurden.

Über dieses Verfahren habe ich eine kurze Zusammenfassung veröffentlicht in:
http://kenskingdom.wordpress.com/2010/05/12/the-australian-temperature-record-part-1-queensland/

(Ich muss erwähnen, dass dieses Verfahren um einiges von Della-Marta et al. (2004) verändert worden ist, die auch eine Entfernungsgewichtungsmethode benutzten und einige Stadtstationen und Stationen mit viel kürzeren Messdatenhistorien benutzten.)

Torok und Nicholls (1996), Autoren der ersten (veröffentlichten) Homogenisierung bemerken völlig richtig:

“Ein hoch-qualitativer, langzeitlicher Datensatz mit Bodentemperaturen ist wesentlich für die verlässliche Untersuchung des Klimawandels und der Veränderlichkeit. 

Hier ist die Karte mit den 100 derzeit benutzten Stationen hoher Qualität, die vermutlich diese Forderung erfüllen:

Vor meinem ersten Beitrag hatte ich den Wetterdienst gebeten, mir einige merkwürdige Dinge zu erklären, die ich bei den Daten aus Queensland bemerkt hatte. Unter anderen fiel mir in einer E-Mail vom 25. 4. 2010 diese Aussage von Dr. David Jones, Leiter der Climate Monitoring and Prediction, National Climate Centre, Bureau of Meteorology, auf:

“Zur Frage der Anpassungen wird man feststellen, dass diese nahezu null Einfluss auf alle australischen Temperaturen haben, weil diese gleichermaßen negativ wie positiv im gesamtaustralischen Netzwerk tendieren (wie auch zu erwarten ist, weil es Anpassungen für zufällige Stationsänderungen sind). 

Diese Aussage ist die Messlatte für meine Studie.

Der Normalbürger wird die veröffentlichten Resultate so nehmen, wie sie sind, weil er keinen Zugang zur Stationsliste, den Metadaten, der benutzen Software oder zur Expertise des Wetterdienstes hat. Ich aber wollte mal genauer hinschauen. Die Resultate jeglicher Anpassungen sollten leicht mit der vorhergehenden Aufzeichnung vergleichbar sein. 

Ich habe jährliche mittlere Maxima und Minima für jede Station aus „BOM Climate Data Online“ heruntergeladen, die jährlichen Mittelwerte berechnet und geplottet.  Häufig wurden zwei oder drei Stationen (einige bereits geschlossen) für die gesamte Historie von 1910-2009 gebraucht, und sogar dann gab es Lücken, z. B. von 1957 bis 1964 wurden viele Stationsdaten nicht digitalisiert. (8 Jahre fehlende Daten ist noch gar nichts, viele Stationen zeigen für viele Jahre Schätzdaten, die „nachgetragen“ wurden, um die hoch-qualitative Datenhistorie zu erzeugen.) Ich habe auch die jährlichen Mittelwerte von der Hochqualitätsseite heruntergeladen und geplottet. Dann habe ich lineare Trends für jede hinzugefügt. 

Ich habe die Daten und die Berechnungen für alle 100 Stationen ausgiebig überprüft bevor ich diese Zusammenfassung gemacht habe. Nur bei einer, Bowen, habe ich mich für Verbesserungen entschieden, indem ich einige frühe Daten reduziert und  einige weggelassen habe, so dass der Trend mit HQ übereinstimmt. Das geschah nach dem Grundsatz der Nicht-Überlappung und führte dazu, dass der Plot grob übereinstimmt. Das ist ungenügend, Bowen sollte man auslassen. Die Netto-Auswirkung auf Queensland und die australischen Trends kann vernachlässigt werden. (0,01 C.) 

Jetzt schauen wir uns Dr. Jones‘ Behauptung für ganz Australien an.

“… null Einfluss auf alle australischen Temperaturen …”

Falsch.

Wir können uns die Aufzeichnung auf verschiedene Art anschauen – hier ist die Grafik mit den durchschnittlichen Rohdaten und mit den angepassten Daten für alle 100 Stationen. Der Unterschied sticht ins Auge. 

Er beträgt 0.6 Grad C / 100 Jahre bei den Rohdaten. Bei den angepassten beträgt der Trend 0.85 Grad.

Bevor nun jemand sich beschwert, dass die Abweichungen ein genaueres Bild bei den Trends für eine große Region ergäben, habe ich auch die Abweichungen für den Zeitraum von 1961 – 1990 für alle australischen Mittelwerte berechnet ( 0,6 bei den Rohdaten bis 0,85 HQ Zunahme)

und für alle 100 Stationen (leicht abweichendes Ergebnis : 0,6 bei den Rohdaten bis 0,9- 50%)

Aber die vom BOM veröffentlichte Zahl ist 1.0 C. Das sind zwei Drittel mehr!

Wir können uns auch die durchschnittliche Anpassung für jede Station anschauen:
+ 0.23 Grad C. (Die Tabelle mit allen 100 Stations ist zu groß zum Einfügen).

Oder wir können uns die mittlere Anpassung (+ 0.275 C) ansehen, und das Ausmaß der Anpassungen.

So viel zum Gerede vom “weil diese gleichermaßen negativ wie positiv im gesamtaustralischen Netzwerk tendieren”.

Wir können uns auch “Qualität” der Stationen anschauen.

"Urban" im Vergleich zu "nicht-urban":

“Bitte beachten: Stationen mit der Einordnung als "urban" sind aus der australischen jährlichen Temperaturreihe und den Trendkarten-Analysen ausgeschlossen. Urbane Stationen haben einen gewissen urbanen Einfluss auf einen Teil oder auf den gesamten Verlauf ihrer Datenreihe. (http://www.bom.gov.au/cgi-bin/climate/hqsites/site_networks.cgi?variable=meanT&period=annual&state=aus)

Im vorhergehenden Teil 1 habe ich gezeigt, wie 3 Stationen aus Queensland von Torok and Nicholls (1996) als urban eingestuft worden sind, die nun nicht-urban sind. Della-Marta et al haben einige weitere in anderen australischen Bundesstaaten wiederauferstehen lassen.
Hier ist die volle Liste: Cairns AMO, Rockhampton AMO, Gladstone MO, Port Hedland AMO, Roebourne, Geraldton AMO, Albany AMO, Alice Springs AMO, Strathalbyn, Mount Gambier AMO, Richmond AMO, Mildura AMO, East Sale AMO, Cashmore Airport, Launceston Airport.

15% des Netzwerks besteht aus Stationen, wo BOM Schwierigkeiten hat, uns zu versichern, dass diese nicht für die Klimahistorie benutzt würden.

Langzeithistorien

“… die Anzahl der Stationen ist viel kleiner wenn man nur Stationen betrachtet, die derzeit in Betrieb sind und mit wenigstens 80jähriger Datenhistorie. Um die Gesamtzahl der Langzeitstationen zu vergrößern wurden vorher unbenutzte Daten digitalisiert und eine Anzahl von Stationen wurde zusammengeworfen, um zusammengefasste Historien zu erzeugen … alle Stationen in der Historie (waren) in Betrieb im Jahre 1915.” (Torok and Nicholls)

Torok wollte Daten für 80 Jahre: Della-Marta et al und BOM geben sich mit viel weniger zufrieden Bei sechs Stationen gibt es vor 1930 (das ist 80 Jahre her) keine Daten, dennoch hat BOM diese Stationen drin.  Einige wieder sind wirklich schrecklich: Woomera- 1950; Giles- 1957; Newman- 1966.

Auch haben viel Stationen große Lücken durch fehlende Daten, da zeigt die HQ Historie einfach “Schätzwerte”, um die fehlenden Jahre zu füllen.

Hier ist eine Grafik mit der Anzahl von Stationen mit vollständiger Datenhistorie.

Man beachte: Nur 70% Rohdaten sind verfügbar bis 1910; 90% bis 1930; ein Abfall von 1945 to 1960; und dann der große Abfall bei den HQ data in diesem Jahrzehnt!

Datenvergleich:

“Im Allgemeinen haben Vergleichsbetrachtungen über mehr als fünf Jahre ausgezeichnete Vergleichsstatistiken zwischen den alten und den neuen Stationen geliefert, … Vergleiche über Zeiträume größer 2 Jahre und manchmal zwischen einem und zwei Jahren haben sich auch als nützlich erwiesen, wenn sie vollständig und von guter Qualität waren … Vergleiche schlechter Qualität über Zeiträume kleiner 2 Jahre haben sich im allgemeinen als nur begrenzt nützlich erwiesen.” (Della-Marta et al, 2004)

Würde man nicht “hervorragende Vergleichsstatistiken” für ganz wesentlich zu solch wichtigem Zweck halten? Anscheinend nicht. Da gibt es viele Stationen mit weniger als 5jähriger Datenüberlappung von nahegelegenen Stationen (bis zu 20 km entfernt). Eine Anzahl von Stationen hat überhaupt keine Überlappung.

Daher gibt es riesige Lücken in der Temperaturhistorie. Hier ist die Karte mit dem Hochqualitäts-Netzwerk, wo diejenigen Stationen gelöscht worden sind, die
(a) im Jahre 1996 als urban klassifiziert wurden,
(b) weniger als eine 80jährige Beobachtungshistorie hatten,
(c) weniger als eine 5jährige Überlappung mit vergleichbaren Daten hatten, manchmal trafen auch alle der genannten Kriterien zu. 

Die verbliebenen Stationen sind auf Ost- und Südwest-Australien konzentriert. In der Mitte klafft eine riesige Lücke. (Beachten Sie bitte den zugegebenermaßen sehr grob angenäherten Maßstab).

Und zum Schluss:…

Behauptungen aus dem Klimazustandsbericht (State of the Climate) von BOM und CSIRO vom März 2010.

Seit 1960 hat sich die Durchschnittstemperatur in Australien um etwa 0.7 °C erhöht. Der Langzeittrend bei der Temperatur ist klar…

WAHR. Aber die Rohdaten zeigen, dass sich die Durchschnittstemperatur seit 1910 nur um 0,6 Grad C erhöht hat.

Für die australischen Durchschnittstemperaturen wird ein Anstieg um 0,6 bis 1,5 º C bis 2030 vorhergesagt.

WIRKLICH? Dazu wäre eine 5 bis 12fache höhere Erwärmungsrate notwendig, als bei den Rohdaten sichtbar, oder eine zwischen 3 bis 7,5 mal so hohe im Vergleich zu den veröffentlichten Zahlen von BOM.

Große Teile Australiens werden trockener in den kommenden Jahrzehnten sein.

VIELLEICHT AUCH NICHT. Schauen Sie hier nach: http://kenskingdom.wordpress.com/2010/03/20/political-science-101/

Unsere Beobachtungen zeigen klar, dass der Klimawandel real ist. 

WAHR- so ist halt das Klima.

CSIRO und das Bureau of Meteorology werden fortfahren und die Beobachtungen und Forschungen veröffentlichen, so dass Australiens Reaktionen durch wissenschaftliche Erkenntnisse höchster Güte untermauert werden.

“Von höchster Güte”? WIRKLICH ?

Ergebnisse

Diese Studie zeigt eine Anzahl von Problemen beim australischen Netzwerk der Hochqualitäts-Temperaturmessstationen, auf dem die amtlichen Temperaturanalysen beruhen. Die Probleme bei den Hochqualitätsdaten schließen ein:

  • subjektive und manuelle Anpassungen.

Diese Verfahrensweise wird nicht gleichmäßig befolgt, manchmal ist sie auch anders als beschrieben.

Urbane Stationen, Stationen mit schlechten Vergleichsdaten, Stationen mit kurzzeitigen Historien wurden eingeschlossen.

Große Mengen von Daten sind nicht verfügbar, stattdessen sind Schätzdaten eingespeist worden. 

Die Anpassungen heben sich nicht positiv gegen negativ auf, sie haben eine große Auswirkung auf die australische Temperaturhistorie.

Die Anpassungen erzeugen einen um rund ein Viertelgrad höheren Durchschnittstemperaturtrend im Vergleich zu dem aus den Rohdaten.

Die Vorurteilsverzerrung beim Erwärmungstrend beträgt 41.67% beim Anomalietrend 50%.

Der vom BOM veröffentlichte Trend ist 66.67% größer als der aus den Rohdaten.

Die Hochqualitätsdaten zeigen NICHT die richtige australische Temperaturhistorie der vergangenen 100 Jahre.

BOM hat einen Klimabericht produziert, der bestenfalls eine „Einschätzung“ genannt werden kann.

Das Beste, was wir über die australischen Temperaturtrends der vergangenen 100 Jahre sagen können, ist: “Da, wo wir genug gute Historien haben, ist die Temperatur rauf und runter gegangen, aber wir wissen noch zu wenig.”

Warum die Übertreibung, wenn die anthropogene Klimawandel so sicher ist?

Es ist äußerst dringlich und wichtig, dass eine vollständige wissenschaftliche Überprüfung des amtlichen australischen Klimaberichts durchgeführt wird, völlig unabhängig vom BOM, CSIRO oder dem Klimawandelministerium (Department of Climate Change).

Mal sehen, was Dr David Jones [vom BOM] darauf antwortet.

(Mein Dank an Lance für die Hilfen beim Herunterladen der Daten und an janama für seine Arbeit zu NSW. Auch an Jo Nova, die mich ermutigt hat)

Gastbeitrag von Ken Stewart, July 2010 bei Watts Up With That

 * Der unter der Abkürzung Harry (mit bürgerlichem Namen  Ian "Harry" Harris) bekannt gewordene Programmierer arbeit(ete?) bei der CRU als Klimatologe und CRU Programmierer

Zusammenfassung der vorhergehenden Teile 1-7. Zu finden hier:
http://kenskingdom.wordpress.com/