Krisen der Klimatologie

1. Einführung

Viele Klimatologen haben uns gesagt, dass die Umwelt der Erde ernsthaft in Gefahr ist, sich zu überhitzen, und zwar infolge der menschlichen Erzeugung von Treibhausgasen seit der industriellen Revolution. Kohlendioxid (CO2) sei der Hauptschuldige, aber Methan (CH4), Stickstoffoxid (N2O) und bestimmte Fluorchlorkohlenwasserstoffe tragen ebenfalls dazu bei.

„Wie erwartet ist die Botschaft immer die Gleiche: Die Beweise sind sehr eindeutig, dass die Welt sich erwärmt und das menschliche Aktivitäten der Hauptgrund dafür sind. Natürliche Änderungen und Fluktuationen gibt es zwar auch, doch sind diese relativ klein“– John Shepard in UK die die Royal Society am 27. September 2013.

„Wir können die Fakten nicht länger ignorieren: die Globale Erwärmung ist eindeutig, sie wird von uns verursacht und deren Konsequenzen werden erheblich sein. Das heißt aber nicht, dass wir dieses Problem lösen können“. – Andrew Weaver in Kanada in der Globe and Mail am 28. September 2013.

„Wir wissen ohne Zweifel, dass die von uns in die Luft geblasenen Treibhausgase zu einem globalen Energie-Ungleichgewicht geführt haben, und die globale Erwärmung beträgt seit vorindustriellen Zeiten schon 0,8°C. Diese Erwärmung führt zu einer Zunahme von Extremwetter in Gestalt von Hitzewellen, Dürren, Buschbränden und stärkeren Stürmen…“ – James Hansen in den USA am 6. Dezember 2013 in einer Sendung von CNN News.

Sind diese Ansichten gerechtfertigt? In der Vergangenheit lagen schon bedeutende Wissenschaftler falsch. Lord Kelvin, der noch nichts von Kernfusion wusste, hat die Schlussfolgerung gezogen, dass die Gravitationsenergie der Sonne diese nur noch 10↑7 Jahre lang scheinen lassen kann. Sir Arthur Eddington hat korrekt von einer nuklearen Quelle der Sonne gesprochen, hat aber Subrahmanyan Chandrasekhars Theorie degenerierter Materie zur Erklärung Weißer Zwerge abgelehnt. Im Jahre 1983 erhielt Chandrasekhar den Nobelpreis für Physik für seine Entdeckung.

Ich selbst habe Ausbildung in Physik und Astrophysik mit Erfahrung im Strahlungstransport, nicht Klimatologie, aber gerade dieser Blich von außerhalb auf diese Disziplin lässt mich einige ernste Probleme erkennen. Ich vermute, dass den meisten Klimawissenschaftlern diese Inkonsistenzen bewusst sind, aber diese verbleiben dennoch in den Berichten des IPCC einschließlich des jüngsten, am 27. September 2013 veröffentlichten Bericht. Politiker und Funktionäre der Regierung [und natürlich die Main Stream Medien in D! A. d. Übers.] richten sich nach diesen Berichten und bewerten sie als zuverlässig.

2. Theorie, Modelle und Beobachtungen/Messungen

Ein notwendiger Test jedweder Theorie oder jedweden Modells besteht darin zu schauen, wie gut es die Ergebnisse neuer Experimente oder Beobachtungen vorhersagt, die bei seiner Entwicklung nicht verwendet worden sind. Es ist nicht ausreichend, lediglich die Daten zur Entwicklung der Theorie oder des Modells zu präsentieren. Das gilt besonders im Falle der Klimamodelle, wo viele physikalische Prozesse zu kompliziert sind, um sie explizit mit regelbaren Parametern abbilden zu können. John von Neumann hat einmal gesagt: „Mit vier Parametern kann ich einen Elefanten beschreiben, und mit fünf kann ich ihn dazu bringen, mit seinem Rüssel zu wackeln“. Vier Parameter werden natürlich nicht alle Details eines Elefanten beschreiben können, aber das Prinzip ist klar. Die Modelle müssen unabhängigen Tests unterzogen werden!

Abbildung 1: Globale mittlere Temperaturanomalie (°C, oben) und CO2-Konzentration (ppm, unten; Quelle Daten der NOAA. Die Ausdehnung von CO2-Daten auf frühere Jahre stammt aus Daten von Eisbohrkernen des Antarctic Law Dome hier.

Der obere Plot in Abbildung 1 zeigt die Variation der Temperatur seit 1880 mit einer Abnahme bis 1910, einer Zunahme bis 1945, einem Plateau bis 1977, einem Anstieg um 0,6°C bis 1998, um dann während der nächsten 16 Jahre konstant zu verlaufen. Gleichzeitig hat die CO2-Anreicherung in unserer Atmosphäre stetig zugenommen. Abbildung 2 aus dem 5. Zustandsbericht (2013) zeigt, dass die gemessenen Temperaturen am unteren Ende der von den Klimamodellen vorhergesagten Bandbreite liegen.

Abbildung 2: Modellvorhersagen und Temperaturmessungen aus dem IPCC-Bericht 2013. Die Bezeichnung RCP4.5 (Representative Concentration Pathway 4.5) kennzeichnet einen Satz von Modellen mit einem moderaten Anstieg anthropogener Treibhausgase, was einer Zunahme der Gesamt-Sonneneinstrahlung von 4,5 W/m² (1,3%) gleichkommt.

Bereits im Jahre 2009 machten sich die Klimatologen Gedanken über die Änderung der Steigung der Temperaturkurve. Zu jener Zeit warfen Knight et al. (2009) die rhetorische Frage auf: „falsifizieren die globalen Temperaturtrends des vergangenen Jahrzehnts die Klimavorhersagen?“ Die Antwort lautete: „Trends nahe Null oder sogar negative Trends sind üblich für Intervalle von einem Jahrzehnt oder weniger in den Simulationen, und zwar infolge der modellinternen Klimavariabilität. Die Simulationen schließen aber (mit einer Wahrscheinlichkeit von 95%) aus, dass Null-Trends 15 Jahre oder länger vorherrschen. Das zeigt, dass das Fehlen einer Erwärmung dieser Dauer erforderlich ist, um zu einer Diskrepanz mit der erwarteten Erwärmungsrate bis zum aktuellen Tag zu kommen“.

Jetzt sagen einige Klimawissenschaftler, dass ein Zeitraum von 16 Jahren ein zu kurzer Zeitraum ist, um eine Klimaänderung abzuschätzen. Dann jedoch könnte auch der dem anthropogenen CO2 zugeordnete Anstieg von 1978 bis 1998 unecht sein. Andere Forscher untersuchen aktiv aus den Modellen stammende Phänomene, um die Diskrepanz zu erklären. Darunter sind:

1) eine starke Erwärmung durch ein El Nin͂o-Ereignis im Jahre 1998, so dass das Plateau nicht vor dem Jahr 2001 begonnen hat,

2) eine Überschätzung des Treibhauseffektes in manchen Modellen,

3) unangemessene Behandlung der Wolken und anderer Aerosole in den Modellen und

4) ein Reservoir in der Tiefsee für die fehlende Wärme.

Eine zusätzliche Erwärmung durch den El Nin͂o von 1998 scheint plausibel, aber es gab auch noch andere, die als Ursache für eine frühere Erwärmung in Frage kommen; und dann sind da auch noch die kühlenden La Nin͂a-Ereignisse. Alle vorgeschlagenen Gründe für das Plateau müssen mit ihren Auswirkungen auf die Erwärmung ebenfalls in die Modelle eingehen, die dann während des folgenden Jahrzehnts oder deren zwei mit der tatsächlichen Temperaturentwicklung verglichen werden können.

3. Der Rückkopplungs-Parameter

Es gibt keine Kontroverse in der Grundlagenphysik darüber, dass die Zuführung von CO2 in die Atmosphäre Sonnenenergie absorbiert, was zu einer geringen Erwärmung zusätzlich zu dem dominanten Faktor des Wasserdampfes führt. Die spektrale CO2-Absorption ist gesättigt und damit proportional dem Logarithmus der Konzentration. Der geschätzte Effekt kommt lediglich für die Hälfte des Temperaturanstiegs von 0,8°C seit der industriellen Revolution in Frage. Ohne jede Rechtfertigung haben die Modellbauer mögliche natürliche Gründe ignoriert und angenommen, dass der Anstieg hauptsächlich dem anthropogenen CO2 geschuldet ist, wobei Reflektionen durch Wolken und andere Aerosole die Absorption durch die anderen oben genannten Gase weitgehend neutralisieren. Folgerichtig postulierten sie eine positive Rückkopplung, weil wärmere Luft mehr Wasserdampf aufnehmen kann, was die Strahlungsabsorption und die damit einher gehende Rückerwärmung erhöht. Die Computersimulationen repräsentierten diesen Prozess sowie viele andere Effekte durch veränderbare Parameter, die gewählt worden sind, um zu den Beobachtungen zu passen. Im Abschnitt 9-9 im IPCC-Bericht 2013 heißt es: „Die Komplexität jeder Prozess-Repräsentation wird durch Beobachtungen herausgefordert, durch rechenintensive Ressourcen und gegenwärtiges Wissen“. Modelle, die keinen Temperaturanstieg zeigen, wären von jedem Ensemble ausgeschlossen worden, so dass der beobachtete Anstieg effektiv den Rückkopplungs-Parameter bestimmt.

Mit dem Stillstand des Temperaturanstiegs sehen wir jetzt, dass dieser Parameter nicht gilt. Er kann sogar negativ sein [worauf Herr Dr. Stehlik immer wieder hinweist! A. d. Übers.] Die CO2-Absorbtion ohne die vermeintliche Rückkopplung wird es zwar geben, aber die Auswirkungen davon werden nicht alarmierend sein. Die moderate Erwärmung ist möglicherweise insgesamt von Vorteil mit zunehmenden Erntemengen und weniger Kältetoten.

4. Die Sonne

Die Gesamtsolarstrahlung, also der Fluss integriert über alle Wellenlängen, ist ein grundlegender, in die Klimamodelle eingehender Faktor. Glücklicherweise ist unsere Sonne ein recht stabiler Stern mit nur minimalen Schwankungen seiner Strahlung. Seit dem Beginn von Satellitenmessungen des gesamten Spektrums im Jahre 1978 betrug die Schwankung über den 11-jährigen Aktivitäts-Zyklus im Mittel 0,1% mit gelegentlichen Spitzen bis 0,3%. Die damit verbundene Änderung der troposphärischen Temperatur beläuft sich auf etwa 0,1°C.

Stärkere Variationen könnten historische Warm- und Kaltzeiten erklären, wie die Mittelalterliche Warmzeit (etwa 950 bis 1250) und die Kleine Eiszeit (etwa 1430 bis 1850), aber das bleibt Spekulation. Die Sonne ist ein Gasball im hydrostatischen Gleichgewicht. Jedwede Reduktion der nuklearen Energiequelle würde durch eine Schwerkraft-Kontraktion in einer Zeitspanne von wenigen Minuten kompensiert werden. Komplizierter wird dieses Grundbild durch variable magnetische Felder und die Massenbewegungen, die dieses erzeugen. Li et al. (2003) haben diese Effekte in ein einfaches Modell eingegeben und fanden Variationen der Helligkeit um 0,1%, was mit den Messungen übereinstimmt.

Allerdings kann die Sonne die Erde in vielfältiger anderer Weise beeinflussen, die in den IPCC-Berichten nicht in Betracht gezogen werden, teilweise weil diese Mechanismen noch gar nicht verstanden sind. Die ultraviolette Strahlung ändert sich viel stärker mit der Sonnenaktivität, ~10% im 200 nm-Band, die das Ozon in der Stratosphäre bildet und zwischen 5% und 2% in den Absorptionsbändern zwischen 240 nm und 320 nm (DeLand & Cebula 2012). Die Graphiken dieser Autoren zeigen auch, dass die Flüsse während des jüngsten solaren Minimums niedriger sind als während der vorangegangenen zwei Minima, was zu geringerer Ozonbildung in der Stratosphäre und zu einer geringeren Absorption von Strahlung im nahen UV führt. Wie diese Absorption sich in untere Schichten der Atmosphäre ausbreiten kann, wird gegenwärtig untersucht, z. B. von Haigh et al. (2010).

Abbildung 3: Monatliche Mittelwerte des 10,7 cm-Strahlungsflusses der Sonne, gemessen vom National Research Council of Canada und berechnet für die mittlere Distanz zwischen Sonne und Erde. Eine Einheit der Sonnenstrahlung = *. Das gerade vorüber gegangene Maximum ist ungewöhnlich schwach und das voran gegangene Minimum ungewöhnlich ausgedehnt. Graphik nach Dr. Ken Tapping vom NRC.

[Besser ließ sich das mit der Hochstellung nicht darstellen. A. d. Übers.]

Abnehmende Sonnenaktivität erniedrigt auch die Stärke des solaren Magnetfeldes, wodurch mehr galaktische Strahlung den Weg zur Erde findet. Experimente von Kirkby et al. (2011) und Svensmark et al. (2013) haben gezeigt, dass diese kosmischen Strahlen die Wolkenbildung begünstigen, die in der Folge mehr Sonnenlicht reflektieren und die Temperatur reduzieren, obwohl die Größenordnung dieses Effektes unsicher bleibt. Morton (2014) hat beschrieben, wie oft die Isotope 10Be und 14C in Eisbohrkernen und Baumringen vorkommen und damit Hinweise auf die Sonnenaktivität in der Vergangenheit geben sowie deren Antikorrelation mit der Temperatur [?]

Von besonderem Interesse ist die gegenwärtig abnehmende Sonnenaktivität. Abbildung 3 zeigt den Strahlungsfluss bei 10,7 cm, gemessen von dem National Research Council of Canada seit 1947 (Tapping 2013), und Abbildung 4 die damit korrespondierende Sonnenfleckenzahl. Eine sorgfältige Kalibrierung des Strahlenflusses erlaubt zuverlässige Vergleiche von sechs Sonnenzyklen, selbst wenn es gar keine Sonnenflecken gab. Das letzte Minimum war ungewöhnlich ausgedehnt und das gegenwärtige Maximum außerordentlich schwach. Die Sonne ist in eine Phase geringer Aktivität eingetreten. Abbildung 5 zeigt, dass vorangegangene Zeiten sehr geringer Aktivität zum Dalton-Minimum von 1800 bis 1820 und das Maunder Minimum von 1645 bis 1715 aufgetreten waren.

Abbildung 4: Monatliche Sonnenfleckenzahlen der letzten 60 Jahre vom Royal Observatory of Belgium. Quelle.

Da diese Minima während der Kleinen Eiszeit aufgetreten waren, als sich die Gletscher in beiden Hemisphären ausdehnten, ist es möglich, dass wir derzeit in eine weitere Abkühlungsperiode eintreten. Ohne das physikalische Verständnis der Gründe derartiger Perioden können wir nicht spezifischer sein. Temperaturen wie in der Kleinen Eiszeit mögen vielleicht nicht auftreten, aber es muss eine gewisse Abkühlung geben, um die Erwärmung durch die zunehmende CO2-Konzentration zu kompensieren.

Bedauerlicherweise werden diese solaren Effekte und die Unsicherheiten, die sie für jedwede Prognose bedeutet, in den IPCC-Berichten fast nie erwähnt.

5. Die mittlere globale Temperatur

Langzeitliche Temperaturmessungen an einer bestimmten Stelle bieten einen offensichtlichen Test bzgl. Klimaänderung. Derartige Daten gibt es von vielen Stellen seit über einhundert Jahren, für einige Stellen sogar noch länger. Mit diesen Daten berechnen die Klimatologen Temperaturanomalien – die Abweichung von einem vieljährigen Mittel wie z. B. von 1961 bis 1990, und zwar für jeden Tag des Jahres zu der Zeit, zu der die Messung erfolgt. Dann mitteln sie über Tage, Nächte, Jahreszeiten, Kontinente und Ozeane, um die mittlere globale Temperaturanomalie für jeden Monat bzw. jedes Jahr zu erhalten, wie in Abbildung 1 dargestellt.

Unglücklicherweise gibt es aus vielen Gebieten der Welt kaum Messungen, und von den Ozeanen, die 71% der Erdoberfläche bedecken, schon gar nicht. Folglich müssen viele Messungen extrapoliert werden, um größere Gebiete mit unterschiedlichem Klima zu erfassen. Korrekturen sind erforderlich, wenn die Messungen an einer Stelle Lücken aufweisen oder Stationen an eine andere Stelle verlegt werden; oder um den städtischen Wärmeinseleffekt auszugleichen, falls die meteorologische Station signifikant höher liegt als der Meeresspiegel.

Abbildung 5: Sie stammt von der U. S. National Oceanic and Atmospheric Administration (NOAA) und zeigt die Sonnenfleckenzahlen seit deren erster Beobachtung mittels Teleskopen im Jahre 1610. Schon bald nach der Entdeckung eines 11-jährigen Zyklus‘ im Jahre 1843 begann man systematisch zu zählen. Später wurden mittels der Untersuchung älterer Aufzeichnungen die früheren Jahre hinzugefügt.

Die IPCC-Berichte beziehen sich auf vier Datenquellen zur Berechnung der Temperaturanomalie: dem Hadley Centre for Climate Prediction and Research, dem European Centre for Medium-range Weather Forcasting (ECMWF) in UK, dem Goddard Institute for Space Science (GISS) und der National Oceanic and Atmospheric Administration (NOAA) in den USA.  In bestimmten Monaten können diese Daten um mehrere Zehntelgrad voneinander abweichen, aber alle zeigen die gleichen langzeitlichen Trends von Abbildung 1, also einen Anstieg von 1978 bis 1998 und ein Plateau seit 1998 bis heute.

Diese Verteilung stellt nach wie vor eine Herausforderung des Verständnisses der Forscher dar. Einige Klimatologen bevorzugen es, eine gerade Linie durch alle Daten seit 1978 bis heute zu ziehen. Daraus schließen sie dann, dass sich die Erde immer noch erwärmt, vielleicht lediglich etwas langsamer, aber falls diese Kurven irgendetwas mit der Realität zu tun haben, bedeutet eine Änderung der Steigung gar nichts. Sind sie Beweis für die chaotische Natur des Klimas mit abrupten Wechseln von einem Zustand in einen anderen?

Essex, McKitrick und Andresen (2007) sowie Essex und McKitrick (2007) haben in ihrem populären Buch die Verwendung dieser Mittelwerte der Temperaturdaten für die Erde kritisiert. Erstens ist die Temperatur eine intensive thermodynamische Variable, die sich an einer bestimmten Stelle im Gleichgewicht mit dem Messgerät befindet. Jede Mittelung mit den Werten anderer Stellen oder anderer Zeiten oder anderer Jahreszeiten hat keine physikalische Bedeutung. Andere Arten von Mittelwerten mögen geeigneter sein, von denen jedoch jeder Einzelne einen anderen zeitlichen Trend kann. Außerdem sind es die Temperaturunterschiede zwischen zwei Stellen, die die Dynamik treiben. Klimatologen haben nie erklärt, was eine einzelne Zahl der globalen Temperatur eigentlich bedeutet. Essex und McKitrick schreiben, dass dies „keine Temperatur ist. Es ist nicht einmal ein sinnvoller Index oder eine sinnvolle Statistik. Es ist eine Sequenz unterschiedlicher Statistiken, die zusammen gepresst wurden zusammen mit Ad-Hoc-Modellen“.

Diese fragwürdige Verwendung einer globalen Temperatur zusammen mit den Problemen, ein chaotisches System zu modellieren (siehe nächsten Abschnitt) führen zu grundlegenden Fragen hinsichtlich der Gültigkeit des Tests mit Beobachtungen in Abschnitt 2. Da die Klimatologen und das IPCC darauf bestehen, diese Temperaturzahl zu verwenden und deren Modelle für ihre Vorhersagen der globalen Erwärmung, ist es nur recht und billig, sie weiterhin mit den Beobachtungen zu vergleichen, die sie für relevant halten.

6. Chaos

Essex und McKitrick (2007) haben eine hilfreiche Einführung in dieses Problem angeboten. Dank der bahnbrechenden Untersuchungen der Gleichungen für Konvektion und der damit verbundenen Turbulenz durch den Meteorologen Edward Lorenz ist den Wissenschaftlern bewusst geworden, dass viele dynamische Systeme fundamental chaotisch sind. Die Lage wird oft als der Schmetterlings-Effekt bezeichnet, weil eine winzige Änderung der Anfangsbedingungen wie der Flügelschlag des Schmetterlings enorme Auswirkungen auf spätere Entwicklungen haben können.

Konvektion und Turbulenz in der Luft sind zentrale Phänomene bei der Berechnung des Wetters und müssen daher auch auf das Klima ihre Auswirkungen haben. Das IPCC trägt diesem Umstand auf Seite 1-25 des Berichtes aus dem Jahr 2013 Rechnung mit der Feststellung: „Es gibt fundamentale Limits, wie genau man jährliche Temperaturen projizieren kann, und zwar wegen der chaotischen Natur des Klimasystems“. Nichtsdestotrotz werden Vorhersagen mit großem Vertrauen gemacht. Die das Wetter modellierenden Meteorologen erleben, dass ihre Vorhersagen nach ein oder zwei Wochen unbrauchbar sind, und sie haben den Vorteil, ihre Vorhersagen stets mit den Beobachtungen vergleichen zu können.

Warum zeigen die Modelle des IPCC diese Instabilitäten nicht? Wurden sie selektiv darauf getrimmt, diese zu vermeiden, oder sind die chaotischen physikalischen Prozesse nicht angemessen berücksichtigt? Warum sollen wir glauben, dass langzeitliche Klimavorhersagen möglich sind, wenn das für das Wetter nicht gilt?

7. Die Beschwörung des Konsens’ und die Ruhigstellung des Skeptizismus’

Wir hören oft, dass wir akzeptieren müssen, dass sich die Erde infolge des anthropogenen CO2 mit einer alarmierenden Rate erwärmt, weil über 90% der Klimatologen das glauben. Nun ist Wissenschaft jedoch keine Konsens-Disziplin. Sie lebt von der Hinterfragung jedweder Hypothese, jedweder Theorie und jedweden Modells durch Skeptiker, bis alle rationalen Zweifel ausgeräumt sind. Jedwedes Unterfangen, das sich selbst durch Beschwörungen eines Konsens‘ oder durch die Ruhigstellung von Skeptikern beweisen muss, ist keine Wissenschaft. Warum verunglimpfen einige Befürworter des Klimaalarms Kritiker, indem sie sie mit Holocaust-Leugnern vergleichen? Vermutlich distanzieren sich die meisten Klimatologen von dieser unwissenschaftlichen Taktik, aber viel zu wenige sprechen das laut aus.

[Hervorhebung vom Übersetzer in der Hoffnung, dass er damit nicht seine Kompetenzen überschritten hat!]

8. Zusammenfassung und Schlussfolgerungen

Die im letzten IPCC-Bericht beschriebenen Vorhersagen werden mit mindestens sechs ernsten Problemen konfrontiert. Die Modelle zeigen nicht das Temperaturplateau seit 1998; sie übernehmen einen Rückkopplungs-Parameter, der auf einer ungerechtfertigten Annahme beruht, nämlich dass die Erwärmung vor 1998 hauptsächlich dem anthropogenen CO2 geschuldet ist; das IPCC ignoriert mögliche Auswirkungen reduzierter Sonnenaktivität während des vergangenen Jahrzehnts; die Temperaturanomalie hat keine physikalische Bedeutung; die Modelle versuchen, die Zukunft eines chaotischen Systems vorherzusagen; und es gibt einen Appell, dem Konsens in der Klimawissenschaft zu folgen.

Die Temperaturen könnten wieder anfangen zu steigen durch die weitere Hinzufügung von CO2 in die Atmosphäre; sie könnten aber auch sinken infolge der gegenwärtigen schwachen Sonnenaktivität. Viele Klimatologen versuchen, diesen Punkten gerecht zu werden, indem sie versuchen, uns ein besseres Verständnis der beteiligten physikalischen Prozesse und der Zuverlässigkeit der Vorhersagen zu vermitteln. Ein herausragendes Thema ist die Lokalisierung des gesamten anthropogenen CO2. Der Tabelle 6.1 im Bericht 2013 zufolge geht die Hälfte davon in die Atmosphäre, ein Viertel in die Ozeane, und das restliche Viertel wird irgendwie als Biomasse an Land gebunden.

Welche Politik sollte also ein vernünftiger Bürger befürworten? Wir riskieren ernste Konsequenzen entweder durch eine massive Klimaänderung oder durch eine ökonomische Rezession infolge der Bemühungen, den CO2-Ausstoß zu verringern. Meine persönliche Ansicht ist, dass wir das Temperaturplateau dazu nutzen sollten, alle relevanten Dinge zu überdenken. Gibt es Umweltauswirkungen, die genauso wichtig oder wichtiger noch als die globale Erwärmung sind? Sind einige Maßnahmen wie die Subventionierung von Biotreibstoffen kontraproduktiv? Sind riesige Windparks, Felder mit Solarzellen oder Spiegeln effektive Investitionen, wenn wir nicht in der Lage sind, Energie zu speichern? Wie zuverlässig ist die Behauptung, dass Extremwetterereignisse wegen der globalen Erwärmung häufiger auftreten? Ist es nicht an der Zeit einzuräumen, dass wir das Klima gar nicht ausreichend verstehen, um zu wissen, wohin es sich entwickelt?

References

DeLand, M. T., & Cebula, R. P. (2012) Solar UV variations during the decline of Cycle 23. J. Atmosph. Solar-Terrestr. Phys., 77, 225.

Essex, C., & McKitrick, R. (2007) Taken by storm: the troubled science, policy and politics of global warming, Key Porter Books. Rev. ed. Toronto, ON, Canada.

Essex, C., McKitrick, R., & Andresen, B. (2007) Does a Global temperature Exist? J. Non-Equilib. Thermodyn. 32, 1.

Haigh. J. D., et al. (2010). An influence of solar spectral variations on radiative forcing of climate. Nature 467, 696.

IPCC (2013), Climate Change 2013: The Physicsal Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change, http://www.ipcc.ch

Li, L. H., Basu, S., Sofia, S., Robinson, F.J., Demarque, P., & Guenther, D.B. (2003). Global

parameter and helioseismic tests of solar variability models. Astrophys. J., 591, 1284.

Kirkby, J. et al. (2011). Role of sulphuric acid, ammonia and galactic cosmic rays in atmospheric

aerosol nucleation. Nature, 476, 429.

Knight, J., et al. (2009). Bull. Amer. Meteor. Soc., 90 (8), Special Suppl. pp. S22, S23.

Morton, D. C. (2014). An Astronomer’s view of Climate Change. J. Roy. Astron. Soc. Canada, 108, 27. http://arXiv.org/abs/1401.8235.

Svensmark, H., Enghoff, M.B., & Pedersen, J.O.P. (2013). Response of cloud condensation nuclei (> 50 nm) to changes in ion-nucleation. Phys. Lett. A, 377, 2343.

Tapping, K.F. (2013). The 10.7 cm radio flux (F10.7). Space Weather, 11, 394.

Link: http://wattsupwiththat.com/2014/02/17/crises-in-climatology/

Übersetzt von Chris Frey EIKE




„Dummheit ist von allen nachwachsenden Energien die zuverlässigste“

Geschichte: Karl Marx hat mit seinem Appell das Rezept vorgegeben: „Die Philosophen haben die Welt bisher nur verschieden interpretiert, es kommt aber darauf an, sie verändern“. Die Weltveränderer Lenin, Stalin, Hitler und Mao haben geliefert, das Ergebnis waren Kriege, zig Millionen Tote, Verwüstungen und Zerstörungen. Die Praxis von Weltveränderern ist noch zu besichtigen – in Nordkorea.

Naturwissenschaften: Windräder produzieren angeblich sauberen ÖKO-Strom. Wüssten die Grünen, warum Ernst Heckel 1866  die Ökologie begründet hat und welche Aufgabe gemeint war, müssten sie bei Einhaltung ihrer vorgeblich naturfreundlichen Konzeption sofort den Betrieb der Windräder einstellen, denn sie verwandeln das Biotop Luft für viele dort beheimateten Tiergemeinschaften in ein Konzentrationslager, das nicht nur unzähligen Fledermäusen und Vögeln den Tod bringt. Bezeichnen wir es nicht richtigerweise als Totalitarismus, wer tötet, um seine Idee zu realisieren – und gilt unser Schutz nur für Menschen?

Technik: Wollte man mit Strom aus Windrädern und Solarpaneelen eine Industriegesellschaft versorgen, müsste man Grundgesetze der Physik besiegen, und das Weltall so ändern, dass auch nachts die Sonne scheint und immer der gleiche Wind weht. Die Grünen scheinen das für möglich zu halten, wie könnten sie sonst die Vollversorgung aus Erneuerbaren propagieren? In anderen Ländern hält man es für richtiger, sich die Grundgesetze der Physik zu Nutze zu machen und die Technik der friedlichen Nutzung der Kernenergie weiterzuentwickeln, um ihre Sicherheit zu vergrößern.

Europa: „Die Deutschen wissen nicht nur alles, sondern auch alles besser“, belächelt man uns in England. Fachleuten ist klar, wer sich schließlich als irrsinnig erweist. Vorreiter für unsere Nachbarn und klüger als der Rest der Welt werden wir auch diesmal nicht sein. Für unser praktisches Handeln sollte man sich erinnern, dass das Großdeutsche Dritte Reich  nicht der Verführer ermöglicht hat sondern der Wähler­.

Friedrich-Karl Ewert

(1) Die Grüne Aktivistin und Spitzenkandidatin für die Europawahl ist nach Angaben von Abgeordentenwatch Filmemacherin & Gärtnerin




Klimapropheten und –profiteure – Die Klima-Rede von John Kerry

Maurice wer (Siehe auch die Zitatenauswahl unten die zeigen wie Mr. Who tickt) ?

Mr. Strong, ein ehemaliger Ölfunktionär aus Kanada (er war Mitte der siebziger Jahre von Pierre Trudeau ausgewählt worden, die staatseigene Firma Petro-Canada zu leiten), war viele Jahre lang der ultimative Mandarin der UN. Er hat viele der kleinen Mega-Umwelttreffen organisiert, einschließlich der Stockholm-Konferenz 1972 und den Rio-Gipfel 1992, bevor er zu Kofi Annans rechter Hand aufstieg. Immer wieder war Mr. Strong auch Direktor des World Economic Forum, Vorsitzender des Earth Council und des World Resources Institute, Vize-Vorsitzender der Chicago Climate Exchange und Vorsitzender der China Carbon Corporation – um nur einige seiner prominenten Stationen zu nennen.

Im Jahre 2005 kam ans Tageslicht, dass Mr. Strong als Vorsitzender einer UN-Institution, die das Irak-Programm unter sich hatte, einen Scheck über fast 1 Million Dollar von einem südkoreanischen Geschäftsmann namens Tongsun Park erhalten hat, der in den siebziger Jahren verstrickt war in einen Versuch, US-Politiker zu bestechen. Mr. Strong behauptete, dass der Scheck, ausgestellt von einer jordanischen Bank, als Investition in ein Familienunternehmen gedacht war, das später pleite ging. Mr. Park (der auch Untermieter im weitläufigen Büro von Mr. Strong war), wanderte später ins Gefängnis wegen des Versuchs der Bestechung von UN-Funktionären, die das Programm ‚Öl gegen Nahrungsmittel‘ überwachten, das das Regime von Saddam Hussein in Irak stützte. Mr. Strong wurde ebenfalls verklagt, aber von allen möglichen Verfehlungen freigesprochen, und er hat dementiert, in dieses Programm involviert gewesen zu sein. Im gleichen Jahr hat er die UN verlassen und ist nach Peking gezogen.

Man ziehe seine eigenen Schlussfolgerungen, und man frage sich: Ist dies ein Mann, der es verdient, von einem US-Außenminister in den Himmel gehoben zu werden?

Wenn John Kerry spricht, fragen sich die Leute: Ist er wirklich clever oder komplett vergesslich? Tiefsinnig oder gedankenlos? Detektiv Columbo oder ‚Chance the gardener‘?

Der Minister ließ in einem großen Teil seiner Rede seine schlechte Laune an jenen aus, die er „Flacherde-Gesellschaft“ nannte, die bestreiten, dass 97% der Klimawissenschaftler an die vom Menschen verursachte globale Erwärmung glauben. „Wir sollten es einer kleinen Minderheit von Wissenschaftlern und der Wissenschaft oder extremen Ideologen nicht erlauben, mit wissenschaftlichen Fakten mithalten zu können“, sagte er. Es gab einmal eine Zeit, in der die Leute verstanden haben, dass Skeptizismus ein unabdingbarer Bestandteil der Wissenschaft war. Jetzt versucht Mr. Kerry, eine fadenscheinige Demokratie unter Wissenschaftlern zu aktivieren, die sich der demokratischen Debatte für jedermann verschließen.

Dies liegt auf einer Linie mit dem amüsanten Gedanken, dass das einzige Hindernis auf dem Weg zur Klimarettung eine schattenhafte, gierige und mächtige Verschwörung ist, in die die Koch Brothers, Richard Lindzen vom MIT, Senator Jim Inhofe aus Oklahoma und die Editorial-Seite dieser Zeitung involviert sind. Oh, diese Mächtigen!

Und doch geht Mr. Kerry hin und lobt Mr. Strong (1) in den Himmel, der in Wirklichkeit an der obskuren Kreuzung zwischen der öffentlichen Ordnung, privaten Profiten und der Klimawissenschaft steht, die den ersten beiden beigetreten ist. „Ich muss meine eigene Verbindung mit diesem Prozess in meiner früheren Rolle bei den UN-Verhandlungen einräumen, auf denen die Grundlagen für die Entwicklung dieses neuen Marktes gelegt worden sind“, sagte Mr. Strong 2007 in einer Rede, in der er über seine Rolle bei der Chicago Climate Exchange und der China Carbon Corporation sprach.

Falls George W. Bush sein Büro geräumt hätte und unmittelbar danach den Gremien zur Überwachung von Waffenlieferungen an den Irak beigetreten wäre, wären harte Fragen gestellt worden. Wenn Maurice Strong, Al Gore und andere Klima-Profiteure danach trachten, sich selbst durch eine Politik zu bereichern, die sie selbst während ihrer Amtszeit eingeführt haben, hebt sich nicht einmal eine Augenbraue.

Das sollte es aber. Die Kohlenstoff-Handelssysteme, die mit großem Trara vor einigen Jahren in Kraft gesetzt wurden, sind effektiv an zusammenbrechenden Preisen gescheitert. Der Wahn der Erneuerbaren führte zu den teuren Pleiten des Solarpaneel-Herstellers Solyndra, Fisker Automotive und Herstellern von A123-Batteriesystemen, um nur einige zu nennen. In Deutschland, das seinen Klimaänderungs-Fetisch weiter voran getragen hat als jede andere große Ökonomie, muss zunehmend mit einem umfassenden Fiasko immer höherer Energiepreise und höherer Kohlenstoff-Emissionen zurechtkommen. Wer hätte gedacht, dass die Leute auch dann Licht anschalten wollen, wenn die Sonne nicht scheint und der Wind nicht weht?

Inzwischen ist es das Dogma der Linken, dass jeder Zweifel, wenn es um Vorhersagen des Klima-Untergangs geht, ein Beweis ist für die gierige, moralisch schändliche psychologische Abartigkeit. „Klimaleugnung“ weckt absichtlich eine Assoziation mit dem Holocaust-Leugnen.  Und doch sind das die einzigen Leute, die bislang irgendetwas richtig vorhergesagt haben, nämlich dass das Kyoto-Protokoll scheitern wird, dass das mit den Erneuerbaren nicht funktionieren würde und dass die Klimabürokraten, die niemandem Rechenschaft schuldig sind als der Sicherung ihrer Pfründe und Profite, eine Gefahr für die Allgemeinheit sind.

Je öfter ich die Rede von Mr. Kerry lese, umso mehr erscheint er mir wie ein wirklich Gläubiger. Dass er mit Zitaten von Maurice Strong beginnt, dem ultimativen Zyniker, sagt alles darüber, wohin ihn sein wirklicher Glaube führt.

(1) Anmerkung der Redaktion.

Hier eine Auswahl von Zitaten des talentierten Mr. Maurice Strong:

Mai 1990 hat ein Daniel Wood im West Magazine (Kanada) Maurice Strong interviewt. Strong war über halbstaatliche Energiefirmen zum Milliardär geworden, stand lange Zeit dem UNO-Umweltprogramm (UNEP) vor, organisierte den UNO-Earthday 1972, warnte als einer der Ersten vor der Klimaerwärmung und leitete die Umorganisation der UNO. Er musste wegen Betrügereien im Zusammenhang mit dem Food-for-Oil Progamm der UNO zur Vorbereitung der Eroberung des Irak zurücktreten. Sein Interview gipfelte in den Worten: “Der einzige Weg, um den Planeten vor der Zerstörung zu retten, ist der Kollaps der industriellen Zivilisation. Haben wir nicht die Verantwortung, dass es dazu auch kommt?“

Strong on national sovereignty at the opening session of the 1992 Earth Summit… 

"The concept of national sovereignty has been an immutable, indeed sacred, principle of international relations. It is a principle which will yield only slowly and reluctantly to the new imperatives of global environmental cooperation. It is simply not feasible for sovereignty to be exercised unilaterally by individual nation states, however powerful. The global community must be assured of environmental security." -Maurice Strong at the 1992 Earth Summit. 

Strong responding to a question by a reporter asking why he gave large donations to both political parties in the United States during the 1988 election cycle… 

"Because I wanted influence in the United States." -Maurice Strong quoted in Saturday Night magazine. 

Strong on the impending global environmental catastrophe… 

"If we don’t change, our species will not survive… Frankly, we may get to the point where the only way of saving the world will be for industrial civilization to collapse." -Maurice Strong quoted in the September 1, 1997 edition of National Review magazine. 

Strong discussing the role the Earth Summit would play in the emerging system of global governance… 

"[The Earth Summit will play an important role in] reforming and strengthening the United Nations as the centerpiece of the emerging system of democratic global governance." -Maurice Strong quoted in the September 1, 1997 edition of National Review magazine. 

Strong discussing his political inclinations… 

"[I am] a socialist in ideology, a capitalist in methodology." -Maurice Strong as quoted in Macleans Magazine. 

Hierzu gibt es noch einen weiteren Beitrag:

Warum Kerry hinsichtlich der Klimaänderung absolut falsch liegt

Richard McNider und John Christy (Original hier)

Es waren die wissenschaftlichen Skeptiker, die den ‚Konsens‘ gekippt und gesagt haben, dass die Erde rund ist.

In einer Rede vom 16. Februar griff John Kerry scharf die Klimaskeptiker an, die er als Mitglieder einer „Flache Erde-Gesellschaft“ bezeichnete, weil sie die Realität der katastrophalen Klimaänderung in Frage stellen. Er sagte: „Wir sollten es einer kleinen Minderheit von Wissenschaftlern und der Wissenschaft oder extremen Ideologen nicht erlauben, mit wissenschaftlichen Fakten mithalten zu können“.

Aber wer sind die Flache-Erde-Leute, und wer ignoriert die wissenschaftlichen Fakten? In historischen Zeiten war es Konsens, dass die Erde eine Scheibe war, und es war nur eine Minderheit, die diesen Glauben in Frage zu stellen wagte. Wir sind unter den heutigen Wissenschaftlern, die skeptisch sind hinsichtlich des sog. Konsens‘ zur Klimaänderung. Macht uns das zu modernen Flache-Erde-Leuten, wie Mr. Kerry sagt, oder sind wir unter jenen, die das vorherrschende Wissen verteidigen und erklären, dass die Welt rund ist?

Die meisten von uns, die skeptisch hinsichtlich der Gefahren der Klimaänderung sind, begrüßen viele der Fakten, von denen Menschen wie Bill Nye, der „Fernseh-Wissenschaftler“ sagen, dass wir sie ignorieren. Die beiden fundamentalen Fakten lauten, dass sich der Gehalt von Kohlendioxid in der Atmosphäre durch das verbrennen fossiler Treibstoffe erhöht hat und dass dieses Kohlendioxid in der Atmosphäre ein Treibhausgas ist, das die Wärme einfängt, bevor diese in den Weltraum entweichen kann.

Was noch nicht als Faktum bekannt ist: Wie stark wird sich die Erdatmosphäre infolge dieses zusätzlichen Kohlendioxids erwärmen? Die diesbezüglichen Zahlen wurden von Klimamodellen erzeugt, die fast ausschließlich von Wissenschaftlern konstruiert worden sind, die an die katastrophale globale Erwärmung glauben. Die von diesen Modellen vorhergesagte Erwärmungsrate hängt von vielen Annahmen ab und davon, eine komplexe Welt in handhabbare Terme zu konzentrieren. Darunter: wie werden Wasserdampf und Wolken auf das direkt zugeführte Kohlendioxid reagieren oder die Rate der Wärmeaufnahme oder –absorption in den Ozeanen?

Wir könnten diesen Modellkonstrukteuren vergeben, wenn ihre Vorhersagen nicht so konsistent und spektakulär falsch wären. Seit Beginn der Klimamodellierung in den achtziger Jahren haben diese Vorhersagen im Mittel immer den Grad der Erwärmung überschätzt verglichen mit dem, was wir im realen Klima sehen.

Zum Beispiel haben wir im Jahre 1994 einen Artikel in Nature veröffentlicht, der zeigt, dass der aktuelle globale Temperaturtrend „nur ein Viertel so groß ist wie nach den Ergebnissen der Klimamodelle zu erwarten“. Wie die Graphik zeigt, ist die Diskrepanz zwischen den Modellergebnissen und den weltweit gemessenen Beweisen nur immer größer geworden.

Wenn das Scheitern der Vorhersagen immer klarer hervortritt, kommt die Modellindustrie mit immer neuen Modellen, die ihre früheren Erwärmungsvorhersagen aufweichen und zum Beispiel behaupten, dass eine unerwartete Zunahme menschlicher Aerosole die Ergebnisse verzerrt habe. Nach diesen Änderungen sah es so aus, als passten die Modelle besser zu den eingehenden Messungen – aber die Vorhersagen der zukünftigen Temperatur waren immer noch zu warm.

Die Modellierer bestehen darauf, dass sie lediglich Pech haben, weil die natürliche Temperatur-Variabilität die wirkliche Erwärmung verschleiert. Das mag so sein oder auch nicht, aber wenn ein Batter eine Schlagfrequenz von 0 zu 10 hat*, sollte er lieber seine Art, den Bat* zu schwingen, in Frage stellen als den Schiedsrichter für die Fehlschläge verantwortlich zu machen.

[*kursiv vom Übersetzer. Hier wird auf eine Regel beim Baseball Bezug genommen, die zu erklären hier zu weit führen würde. Wer sich dafür interessiert, schaue hier bei Wikipedia].

Die von den Modellen gezeigte Erwärmung in der gesamten freien Atmosphäre – vom Boden bis in eine Höhe von 75.000 Fuß [ca. 23.000 m] – die eine der wirklichen Signale der Erwärmung durch Kohlendioxid sein soll, fehlt völlig. Hier ignoriert der Konsens die Realität von Temperaturmessungen in der freien Atmosphäre durch Satelliten und Radiosonden, die durchweg ohne Ausnahme nicht einmal halb so viel Erwärmung zeigen wie das Mittel der Modellvorhersagen.

Die Gemeinde des Klimaänderungs-Konsens’ verweist auf indirekte Beweise wie schmelzende Gletscher, ausbleichende Korallen, mehr Dürren und stärkere Stürme. Und doch zeigen die Beobachtungen, dass die Erwärmung der freien Atmosphäre (das fundamentale Anzeichen einer von Kohlendioxid verursachten Klimaänderung, die vermeintlich hinter diesen natürlichen Phänomenen steckt) nicht in alarmierender Weise vor sich geht: Instrumente an den Satelliten von NASA und NOAA zeigten in der mittleren Troposphäre eine Erwärmungsrate von 0,7°C in einhundert Jahren. Für den gleichen Zeitraum geben die Modelle eine solche von 2,1°C vor (siehe Graphik).

Die Modelle können auch das Klima der Vergangenheit nicht richtig abbilden. Zum Beispiel erfolgte der größte Anteil der beobachteten Erwärmung im vorigen Jahrhundert nachts. Die gleichen Modelle, die die zur Vorhersage künftiger Erwärmung herangezogen werden, zeigten eine Erwärmung tags und nachts mit etwa der gleichen Rate.

Die Modelle verfehlten auch die dramatische, jüngst in der Arktis beobachtete Erwärmung. Mit dieser Information im Nachhinein zeigte der jüngste Satz von Klimamodellen nach ihrer Anpassung tatsächlich eine stärkere Erwärmung in der Arktis. Aber diese Anpassung führte zu zu warmen Vorhersagen – die längst durch Beweise in der realen Welt widerlegt sind – auf dem restlichen Planeten, jedenfalls im Vergleich zu früheren Modellen.

Sollten die Modellierer nicht bescheidener und offen sein für die Aussage, dass die Ursache für die Erwärmung in der Arktis vielleicht etwas Anderes ist, das wir nicht verstehen?

Während keine dieser Inkonsistenzen die fundamentalen Sorgen über eine durch Treibhausgase verstärkte Klimaänderung mindert, ist es verstörend, dass die „Konsens-Wissenschaft“ nicht anerkennen will, dass solche Diskrepanzen massive Probleme sind. Seit Gründung des IPCC, dieses selbst ernannten Gremiums von Wissenschaftlern, hat dieses darauf bestanden, dass der Konsens bzgl. der Klimaänderung der notwendige Weg ist, Maßnahmen zu ergreifen, um die menschlichen Kohlenstoff-Emissionen auf der ganzen Welt zu reduzieren.. Die Konsens-Gemeinde gebraucht diese Aussage, um die Ansicht zu verbreiten, dass die Wissenschaft „settled“ ist und um die Skeptiker der Lächerlichkeit preiszugeben, wie es John Kerry in seiner Rede gemacht hat.

Es gab in der Vergangenheit genug Warnhinweise, was Konsenswissenschaft anrichten kann. Zum Beispiel starben im 18. Jahrhundert mehr britische Seeleute an Skorbut als in Schlachten. Bei dieser durch einen Vitamin-C-Mangel verursachten Krankheit verliert der Körper die Fähigkeit, mit Collagen umzugehen. Diese Todesfälle waren besonders tragisch, weil viele Kapitäne und einige Schiffsärzte aus Erfahrungen in früheren Jahrhunderten wussten, dass frisches Gemüse und Südfrüchte diese Krankheit heilen können.

Nichtsdestotrotz hat ein aus Wissenschaftlern und Ärzten bestehendes Gremium der britischen Admiralität (so etwas Ähnliches wie heute das IPCC) diese Beweise über 50 Jahre lang verworfen, weil sie nicht zu ihrer Konsenstheorie passten, dass Fäulnisprozesse (oder innerer Zerfall) Ursache für Skorbut waren, die ihrer Ansicht nach geheilt werden konnten durch Frischluft, sportliche Übungen und Abführmittel. „Konsenswissenschaft“, die die Realität ignoriert, kann tragische Konsequenzen haben, wenn Heilmethoden ignoriert oder vielversprechende Forschungen verhindert werden. Der Klimaänderungs-Konsens gefährdet zwar keine Menschenleben, aber die Art und Weise, wie er ökonomisches Wachstum gefährdet und die Politik der Regierung in eine gefährliche Richtung drängt, hat die Zukunft merklich düsterer gemacht. Die Ankündigung der Obama-Administration, dass es Entwicklungsländern für fossile Energie keine Hilfe zukommen lassen würde, was konsequenterweise Millionen Menschen in die Energiearmut treibt, erinnert nur zu deutlich an jenes Gremium der Admiralität, das es ablehnte, sterbenden britischen Seeleuten frisches Obst zu verabreichen.

Es sollte kein Forschungsprogramm in der Klimawissenschaft geben, das nur danach trachtet, vorherrschende Theorien zu stützen, und wir sollten führenden Regierungsmitgliedern wie Minister Kerry nicht Anerkennung zukommen lassen, wenn sie Andere wegen ihrer unbequemen, auf Fakten basierenden Ansichten angreifen.

Die Herren McNider und Christy sind Professoren der atmosphärischen Wissenschaft an der University of Huntsville in Alabama und Mitglieder der American Meteorological Society. Christy war ein Mitglied des IPCC, das sich im Jahre 2007 den Nobelpreis mit Al Gore teilte.

Beides übersetzt von Chris Frey EIKE

——————-

Soweit diese Artikel. Wie verheerend sich ein Konsens auswirken kann, zeigt beispielhaft für die heutige Zeit eine Kurzmeldung in der Frankfurter Allgemeinen Zeitung vom 19. Februar 2014, die freundlicherweise Herr Dr. Ufer zugemeldet hat:

Frankfurter Allgemeine Zeitung, 19. Februar 2014

Natur und Wissenschaft

Verbreitete Zweifel an der Evolutionstheorie

Neun von zehn Amerikanern haben ei­ner Studie zufolge Zweifel an der wis­senschaftlichen Evolutionstheorie. Nur rund 9,5 Prozent seien davon über­zeugt, dass Gott oder eine andere höhe­re Macht absolut keinen Einfluss auf die Entstehung des Universums und des menschlichen Lebens hatten, sagte Elaine Howard Ecklund von der Rice University in Texas beim Jahrestreffen der AAAS (American Association for the Advancement of Science) in Chica­go. Die anderen rund neunzig Prozent der mehr als 10.000 Befragten gaben an, dass ihrer Meinung nach Gott oder eine andere höhere Macht ganz oder zumindest teilweise für die Entstehung des Alls, der Erde und des Menschen verantwortlich seien. Bei den Evangeli­kalen sind nach der Umfrage sogar rund 97 Prozent dieser Ansicht.                                       FA.Z.

Link hierzu: http://www.handelsblatt.com/politik/international/us-aussenminister-kerry-nennt-klimawandel-massenvernichtungswaffe-seite-all/9490094-all.html




Die neuen Klimaprojektionen des IPCC sind grundfalsch

Die Anpreisung der Vorhersagefähigkeit der Klimamodelle über Zeiträume von mehreren Jahrzehnten im Annex 1 zum 2013er IPCC-WG1-Bericht hält einer wissenschaftlichen Überprüfung nicht stand

Roger A. Pielke Sr.

Einführung

In der Vergangenheit habe ich bereits dargelegt, dass die Entwicklung von Klima-Projektionen (Prognosen) über mehrere Jahrzehnte zum Zwecke der Beeinflussung von Politikern und von Zielgruppen eine riesige Geld- und Zeitverschwendung ist.

Hierzu siehe:

The Huge Waste Of Research Money In Providing Multi-Decadal Climate Projektionen For The New IPCC Report

Nun möchte ich Stellung nehmen, wie die Arbeitsgruppe 1 (Working Group I “Contribution to the IPCC Fifth Assessment Report Climate Change 2013: The Physical Science Basis”) dieses Thema behandelt.

Die Klima-Projektionen stehen im Annex 1:
und hier:
unter der Überschrift:

Annex I: Atlas of Global and Regional Climate Projections

Grundlage für diesen Atlas sind die Informationen aus Kapitel 11 des IPCC WG1-Berichts mit dem Titel:
“Near-term Climate Change: Projections and Predictability”

Klima-Projektionen über mehrere Jahrzehnte können keinesfalls besser sein als kürzer terminierte (z. B. “near-term”) Projektionen (z. B. „decadal“), weil aus den dekadalen Zeitperioden die längeren Perioden gebildet werden! Die erreichte Güte für dekadische Zeiträume muss daher die obere Grenze dessen sein, was für längere Zeitperioden erreichbar ist.

Im Kapitel 11 steht:

Klimatologen unterscheiden dekadale Vorhersagen von dekadalen Projektionen. Projektionen beruhen nur auf der Vorhersagbarkeit aus den externen Antrieben.

Also sind “Projektionen” nur Simulationen der Modell-Sensitivitäten. Indem die interne Klima-Dynamik vernachlässigt wird, ist die auf die Zielgruppen gerichtete Darstellung in Form von Szenarien eine grobe Übertreibung dessen, was wirklich damit aussagbar ist. Sie verhelfen nur zu einem besseren Verständnis einer Teilmenge des Klimageschehens. Es ist unaufrichtig, Ergebnisse aus dem IPCC-Zustandsbericht zu präsentieren, ohne besonders zu betonen, dass es eine wichtige Einschränkung gibt.

Das Problem, wie die Ergebnisse der Klimamodellierung dargestellt werden, sollte bei jedermann Besorgnis erzeugen, ganz gleich, wie man zur Bedeutung der Treibhausgase in der Atmosphäre steht.

Kapitel 11 ist glücklicherweise im Gegensatz zum Annex 1 ein informatives Kapitel im 2013er IPCC WG1-Bericht. Das Kapitel bringt eine wissenschaftliche Zusammenfassung zum Thema der Vorhersagbarkeit. Die Darstellung der Güte und Ungewissheiten über die “externen Klima-Antriebe” ist allerdings unvollständig
(siehe hierzu http://pielkeclimatesci.files.wordpress.com/2009/12/r-354.pdf ).

Der Schwerpunkt des Kapitels ist wie folgt umrissen:
Dieses Kapitel beschreibt die aktuellen wissenschaftlichen Erwartungen für das demnächst ‘bevorstehende’ Klima (near term). Dabei bezieht sich ‘bevorstehend’ auf den Zeitraum bis zur Mitte des Jahrhunderts, für welches die Reaktion des Klimas auf verschiedene Emissions-Szenarien generell ähnlich aussieht. Größter Wert in diesem Kapitel wird auf die Periode 2016–2035 gelegt, wenn auch einige Informationen über projizierte Veränderungen vor und nach dieser Periode (bis zur Mitte des Jahrhunderts) beurteilt werden.

“Qualitativ geeignete” („skillful“) mehrjährige bis dekadale Klimavorhersagen werden präsentiert, obwohl noch technische Probleme existieren, die gelöst werden müssen, um die Qualität zu verbessern. (Das Attribut “skillful” wird wie in Ziffer 11.2.3.2 und FAQ 11.1 verstanden).
[Der Übersetzer benutzt für das Attribut „skillful“ das deutsche Wort „geeignet“ und für „skills“ in diesem Zusammenhang „Güte, Qualität, Eignung“.]

Ausgewählte wichtige Auszüge aus diesem Kapitel sind [Auszeichnung vom Verfasser]:

Kurzzeit Vorhersage-Systeme haben eine deutliche Vorhersage-Qualität für größere Regionen (Figure 11.4), besonders über den Meeren (Smith et al., 2010; Doblas-Reyes et al., 2011; Kim et al., 2012; Matei et al., 2012b; van Oldenborgh et al., 2012; Hanlon et al., 2013). Gezeigt wurde, dass eine großer Teil der Qualität mit der korrekten Darstellung des Langzeit-Trends übereinstimmt (high confidence), während die Qualität deutlich vermindert ist, wenn eine Abschätzung des Langzeittrends sowohl aus den Vorhersagen wie auch aus den Beobachtungen entfernt wird. (e.g., Corti et al., 2012; van Old­enborgh et al., 2012; MacLeod et al., 2013).

Die Qualität des „hindcasting“ des Niederschlags über Land (Figure 11.6) ist viel geringer als die Qualität der nachträglichen Vorhersage der Temperatur über Land.

Die Güte der extremen Temperaturen und Niederschläge über mehrjährige Zeiträume ist ebenfalls beurteilt worden (Eade et al., 2012; Hanlon et al., 2013). Es gibt da nur wenig Qualitäts-Verbesserungen vom ersten Jahr an. Das bedeutet, dass die Güte stark ansteigt mit den veränderlichen externen Antriebe. Die Güte der Vorhersage der Extrema ist generell ähnlich, aber etwas geringer als für den Durchschnitt.

[Anmerkung des Übersetzers zum Folgenden: Den englischen Fachterminus „hindcasting“ scheint das deutsche Wort „Hinterhersage“ zu treffen, weil es am besten den englischen Begriff des „hindcasting“ umschreibt: von einem Zeitpunkt in der Vergangenheit aus eine Vorhersage zu machen und anhand der verfügbaren späteren tatsächlichen Beobachtungsdaten zu prüfen, ob die Vorhersage die später eingetretene Realität abgebildet hätte. Anders gesagt: Wenn Modellergebnisse im „hindcasting“ die später tatsächlich eingetretenen Beobachtungsdaten vorhersagten, ist die Vermutung berechtigt, dass das Modell eine hohe Güte aufweist, es wird dann im Englischen als „skilfull“ qualifiziert.
Auch das englische Verbum "to hindcast" ist ein Kunstwort für diesen Zweck].

Ein Teil von Kapitel 11 ist ein Abschnitt “Frequently Asked Questions“. Zu Frage 11.1 habe ich Auszüge gemacht. Der Titel lautet:

Wenn man das Wetter nicht für den kommenden Monat vorhersagen kann, wie kann man dann das Klima für das nächste Jahrzehnt vorhersagen?

Hier sind Exzerpte aus der Antwort mit Hervorhebungen im Text:

“Klimatologen versuchen nicht und geben auch nicht vor, detaillierte zukünftige Wetterentwicklungen über kommende Jahreszeiten, Jahre oder Jahrzehnte zu erstellen.” Die Wetterdienste und andere Stellen … haben Vorhersagesysteme für Jahreszeiten und Jahresverläufe entwickelt, aufgrund derer sie ständig jahreszeitliche Klima-Anomalien mit deutlicher Vorhersage-Güte machen können. Die Güte ist unterschiedlich für unterschiedliche Orte und unterschiedliche Variablen. Die Güte tendiert zur Verringerung, je länger die Vorhersage in die Zukunft reicht, für einige Orte existiert überhaupt keine Güte. ‘Güte’ wird hier im technischen Sinne gebraucht: sie ist ein Maß dafür, um wieviel größer die Genauigkeit einer Vorhersage ist im Vergleich mit der Genauigkeit einiger typischer einfacher Vorhersagemethoden, wie z. B. die Annahme, dass eine gegenwärtige Anomalie in der Vorhersageperiode weiterbesteht. Wettervorhersage-Systeme – auf Jahreszeiten, Jahre, oder Jahrzehnte bezogen – gleichen sich in vielerlei Hinsicht (Z. B. enthalten sie alle die gleichen mathematischen Gleichungen für die Atmosphäre. Sie alle brauchen Anfangs-Bedingungen um Vorhersagen anzustoßen und sie sind alle abhängig von Grenzen der Vorhersagegenauigkeit, die auf dem Schmetterlingseffekt beruhen). Trotzdem steckt die Vorhersagefähigkeit über Jahrzehnte-Zeiträume noch immer in den Kinderschuhen, anders als die Wetter- und unterjährige Jahreszeiten-Vorhersage. Die dekadischen Vorhersagesysteme zeigen nichtsdestoweniger ihre Güte bei der nachträglichen Vorhersage der oberflächennahen Erdtemperaturen über den gesamten Globus über einen Zeitraum von  wenigstens neun Jahren. Eine ‘Hinterhersage’ (hindcast) ist eine Vorhersage in der Vergangenheit, in welche nur die Beobachtungen bis zum jeweiligen Zeitpunkt ins Vorhersagesystem eingehen, um die Vorhersage zu erzeugen. Man meint, dass der Großteil der Vorhersage-Güte aus dem externen Antrieb herrührt. ‘Externer Antrieb’ ist ein Begriff, der von Klimatologen gebraucht wird, um eine Wirkkraft von außerhalb des Klimasystems zu benennen, die eine Änderung im Klimasystem erzeugt. Damit gemeint ist auch der Anstieg der Konzentrationen der langlebigen Treibhausgase. Die Theorie läßt erwarten, dass die Güte bei der Vorhersage dekadischer Niederschläge geringer sein sollte als bei der Vorhersage von dekadischen Erdoberflächen-Temperaturen. Die Qualität der Hinterhersage stimmt mit dieser Erwartung überein. Schließlich sollte beachtet werden, dass dekadische Vorhersagesysteme zu dem Zwecke entworfen sind, sowohl die extern bewirkten wie auch die intern erzeugten Quellen der Vorhersagbarkeit auszunutzen. Klimatologen unterscheiden zwischen dekadischen Vorhersagen und dekadischen Projektionen. Projektionen beruhen nur auf der Prognosefähigkeit, die von externem Antrieb bewirkt wird. Während vorhergehende IPCC Zustandsberichte sich nur mit Projektionen beschäftigten, beurteilt dieser Bericht auch die Forschung zu dekadischen Vorhersagen und deren wissenschaflticher Grundlage.

Erstaunlich an diesem Kapitel ist, dass nun wenigstens erkannt wird, dass gute dekadische Vorhersagen überaus schwierig sind. Nur die Güte der Hinterhersage der erdoberflächennahen globalen Temperaturen über wenigstens neun Jahre wird betont. Gute multi-dekadale Projektionen stellen aber weit höhere Ansprüche.

Der Annex 1 zeigt dennoch detaillierte regionale Projektionen über Jahrzehnte. Hier sind sie:

Annex I: Atlas of Global and Regional Climate Projections

Ich habe Text aus diesem Annex herausgezogen, der erklärt, worum es geht (um detaillierte regionale multi-dekadische Klima-Projektionen).

Annex I: Atlas of Global and Regional Climate Projections ist integraler Teil des Beitrags der Working Group I zum fünften IPCC Zustandsbericht, Climate Change 2013: The Physical Science Basis. Der Annex enthält umfassende Informationen über eine Bandbreite ausgewählter Variablen (z. B. Temperatur und Niederschlag) für einige Zeithorizonte (z. B.  2020, 2050, 2100) für alle Regionen und, soweit möglich, für die vier Basis-RCP Szenarien.

Aber es gibt einen grundlegenden Fehler im Annex 1 und damit auch in allen Papieren und Studien über die zukünftigen Klima-Auswirkungen, die darauf beruhen. Trotz der weitverbreiteten Benutzung der Modell-Ergebnisse ist dies von Anfang an grundlegend falsch.

Um als belastbarer Ansatz für Klima-Auswirkungs-Studien bestehen zu können, müssen die Modelle (beim Testen in der Hinterhersage) nicht nur ihre Güte bei der Darstellung des aktuellen Klimas zeigen (das wird ausgetestet mit Hilfe von Vergleichen von Re-Analysen wobei das Klimamodell NICHT in seitliche Grenzen und Anschüben aus Re-Analysen eingezwungen wird), es muss auch Güte zeigen bei der Vorhersage von Veränderungen in den regionalen Klimastatistiken. Dieses letztere Erfordernis ist nötig, wenn man die Modelle als belastbare Vorhersage-Werkzeuge akzeptieren will.

Um diesen Ansatz für die Auswirkungsstudien robust zu machen, müssen die Modelle (beim Test mit Hinterhersagen) ihre Eignung nachweisen, nicht nur bei der Abbildung des aktuellen Klimas (das wird getestet durch Vergleich mit Re-Analysen, bei denen das Klimamodell NICHT in Seitenbegrenzungen eingezwungen ist und mit leichten heimlichen Anschüben aus Re-Analysen), sondern sie müssen auch ihre Eignung zeigen bei der Vorhersage von VERÄNDERUNGEN in den regionalen Klimastatistiken. Dieses letztere Erfordernis muss erfüllt sein, wenn die Modelle als robuste Projektions- (Vorhersage-) Werkzeuge gelten sollen.

Notwendige und hinreichende Tests auf die Qualität der Modell-Vorhersagen (Projektionen) sind:

In Zusammenfassun

· Die Fähigkeit des Modells, qualitativ geeignete regionale Klimastatistiken zu reproduzieren aus dem Klimamodell (GCM oder in kleinerem Maßstab mit einem höher auflösenden Regional-Modell) ist eine NOTWENDIGE erste Bedingung.

· Die HINREICHENDE Bedingung ist, dass die Modelle in Hinterhersage-Läufen ihre Qualität bei der Vorhersage von VERÄNDERUNGEN in den regionalen Klimastatistiken zeigen.

Es ist ein häufiger Fehler, anzunehmen, dass man Re-Analysen nutzen könnte, um die Vorhersage-Qualität für die Zukunft zu beurteilen.

Hierzu siehe folgendes Papier:

Pielke Sr., R.A., and R.L. Wilby, 2012: Regional climate downscaling – what’s the point? Eos Forum, 93, No. 5, 52-53, doi:10.1029/2012EO050008

Wenn Re-Analysen für den Lauf eines Modells benutzt werden, gibt es eine reale Einschränkung auf die Ergebnisse, die nicht existiert, wenn die multi-dekadalen Klimamodelle für zukünftige Dekaden zum Laufen gebracht werden (und tatsächliche seitliche Grenzbedingungen und Anschübe aus den Re-Anllysen dürfen nicht benutzt werden beim echten Hinterhersage-Test auf die Modell-Güte). Diese Frage wird in folgendem Papier besprochen:

Pielke Sr., R.A. 2013: Comments on “The North American Regional Climate Change Assessment Program: Overview of Phase I Results.” Bull. Amer. Meteor. Soc., 94, 1075-1077, doi: 10.1175/BAMS-D-12-00205.1.

Es sei denn, wie schon oben dargelegt: Für das globale Klimamodell (dynamisch und/oder statistisch auf kleineren Maßstab gebracht) kann gezeigt werden, dass es qualtitativ geeignete Klimavorhersage auf regionaler Basis machen kann (Wenn es über multi-dekadische Zeiträume im Hinterhersage-Modus läuft, kann es nicht als zuverlässige Abbildung des echten Klimas akzeptiert werden).

Beispiele für Modell-Mängel beim IPCC

Multi-dekadische globale Modell-Vorhersagen haben bei Hinterhersage-Läufen große Mängel sogar in Bezug auf das echte derzeitige Klima! Fachbegutachtete Beispiele dieser Mängel sind in der nachfolgend zitierten Einführung zusammengefaßt:

Pielke Sr, R.A., Editor in Chief., 2013: Climate Vulnerability, Understanding and Addressing Threats to Essential Resources, 1st Edition. J. Adegoke, F. Hossain, G. Kallos, D. Niyoki, T. Seastedt, K. Suding, C. Wright, Eds., Academic Press, 1570 pp. [http://pielkeclimatesci.files.wordpress.com/2013/05/b-18preface.pdf]

Auch hier:

Taylor et al, 2012: Afternoon rain more likely over drier soils. Nature. doi:10.1038/nature11377. Received 19 March 2012 Accepted 29 June 2012 Published online 12 September 2012

“… die fehlerhafte Sensitivität der Konvektionsschemata, die hier dargestellt werden, trägt wahrscheinlich bei großmaßstäblichen Modellen zu einer Tendenz bei, trockene Bedinungen „hineinzuzwängen“, wobei die Trockenperioden unrealistisch ausgedehnt werden und möglicherweise wird die Rolle des Feedbacks der Bodenfeuchte im Klimasytem übertrieben.“

Driscoll, S., A. Bozzo, L. J. Gray, A. Robock, and G. Stenchikov (2012), Coupled Model Intercomparison Project 5 (CMIP5) simulations of climate following volcanic eruptions, J. Geophys. Res., 117, D17105, doi:10.1029/2012JD017607. published 6 September 2012.

“Die Studie bestätigt vorhergehende ähnliche Auswertungen und weckt Zweifel an der Eignung der gegenwärtigen Klimamodelle zur Simulation der Rückwirkung eines größeren Modus von globaler Zirkulationsvariabilität auf externe Antriebe.”

Fyfe, J. C., W. J. Merryfield, V. Kharin, G. J. Boer, W.-S. Lee, and K. von Salzen (2011), Skillful predictions of decadal trends in global mean surface temperature, Geophys. Res. Lett.,38, L22801, doi:10.1029/2011GL049508

”… für längerfristige dekadische Hinterhersagen kann eine lineare Trendkorrektur nötig werden, wenn das Modell die Langfristtrends nicht reproduziert. Zu diesem Zweck korrigieren wir unter Berücksichtigung der systematischen langzeitlichen Trend-Verfälschungen.”

Xu, Zhongfeng and Zong-Liang Yang, 2012: An improved dynamical downscaling method with GCM bias corrections and its validation with 30 years of climate simulations. Journal of Climate 2012 doi: http://dx.doi.org/10.1175/JCLI-D-12-00005.1

”… das herkömmliche Maßstabsvermindern (TDD) [i.e. ohne Anpassungen) überschätzt die Niederschläge um 0,5-1,5 mm d-1….. Die Wiedergabe des 2-Jahres-Pegels der Maximum-Sommer-Tages-Temperatur, wie vom TDD simuliert, ergibt eine Unterschätzung von 2 – 6°C über die U.S.-Kanada-Zentralregion.

Anagnostopoulos, G. G., Koutsoyiannis, D., Christofides, A., Efstratiadis, A. & Mamassis, N. (2010) A comparison of local and aggregated climate model outputs with observed data. Hydrol. Sci. J. 55(7), 1094–1110

"…. lokale Projektionen korrelieren kaum mit Mess-Beobachtungen. Auch haben wir gefunden, dass die Korrelation über größere Räume , z. B. Kontinental USA, schlechter ist als für lokale Maßstäbe."

Stephens, G. L., T. L’Ecuyer, R. Forbes, A. Gettlemen, J. /C. Golaz, A. Bodas/Salcedo, K. Suzuki, P. Gabriel, and J. Haynes (2010), Dreary state of precipitation in global models, J. Geophys. Res., 115, D24211, doi:10.1029/2010JD014532.

"… die Modelle erzeugen Niederschlag etwa zweimal so häufig, wie beobachtet wird, und sie machen den Regen viel zu gering. … Der Unterschied in der Art der Modell-Niederschläge ist systemisch und darin liegt eine Menge von wichtigen Implikationen für die Modellierung des gekoppelten Erd-Systems … … nur geringe Qualität bei der Kalkulation des Niederschlags an einzelnen Gitternetzpunkten, daher gibt es keine Begründung – und es hat auch keine Bedeutung für das reale Erd-System – für die weitere Maßstabsverkleinerung der Niederschlags an den Gitternetzpunkten oder für noch höhere Auflösung.“

Sun, Z., J. Liu, X. Zeng, and H. Liang (2012), Parameterization of instantaneous global horizontal irradiance at the surface. Part II: Cloudy-sky component, J. Geophys. Res., doi:10.1029/2012JD017557, in press.

“Berechnungen der Strahlung in globalen numerischen Wetter-Vorhersagen (NWP) und in Klimamodellen werden normalerweise in dreistündigen Zeitintervallen durchgeführt, um die Rechnerkosten zu vermindern. Dies kann zur falschen … Behandlung der Globalen Horizontalen Einstrahlung (GHI) an  an der Erdoberfläche führen, was wiederum eine Fehlerquelle bei der modellierten Konvektion und des Niederschlags sein kann. … Eine wichtige Anwendung des Schemas liegt in globalen Klimamodellen. … Man hat herausgefunden, dass diese Fehler sehr groß sind, größer als 800 W m-2 bei vielen nicht strahlungsbezogenen Zeitschritten, wegen des Ignorierens der Wirkung der Wolkenwirkung ….”

Ronald van Haren, Geert Jan van Oldenborgh, Geert Lenderink, Matthew Collins and Wilco Hazeleger, 2012: SST and circulation trend biases cause an underestimation of European precipitation trends Climate Dynamics 2012, DOI: 10.1007/s00382-012-1401-5

“In Zusammenfassung: die modellierten Trends der atmosphärischen Luftströmungen und der bodennahen Temperaturen unterscheiden sich deutlich von den Beobachtungen. Diese Nicht-Übereinstimmungen sind zum großen Teil ursächlich für die Falschdarstellung der Niederschlags-Trends in den Klimamodellen. Die Ursachen der großen Trends der atmosphärischen Luftströmungen und der bodennahen Temperaturen im Sommer sind unbekannt.”

Ich könnte noch mehr Beispiele bringen. Aber es ist schon klar geworden, dass die Klimamodelle, die in dem Manuskript herangezogen werden, keine robusten Werkzeuge sind, um die Klimabedingungen der Zukunft vorherzusagen.

Annex 1 des 2013 IPCC WG1 Berichts ist daher von Grund aus falsch, weil er sich auf multi-dekadale Klimamodellierungs-Ergebnisse beruft, die keine Güte bei der zuverlässigen Vorhersage der meisten VERÄNDERUNGEN bei den grundlegenden Klima-Dynamiken zeigen, wie z. B. bei den Hauptluftströmungen, selbst für das gegenwärtige Klima. Sie haben auch überhaupt keine Güte gezeigt bei der Vorhersage mit der nötigen Genauigkeit der VERÄNDERUNGEN der regionalen Klimastatistiken, wie sie für die Wirkungsstudien erforderlich ist.

Ansichten Dritter:

Zum Schluß habe ich Text aus unterschiedlichen Emails von zwei wohlbekannten Protagonisten der Klimatologie herausgezogen. Beide nehmen an, dass CO2 der hauptsächliche Klimaantrieb ist und dass der Mensch verantwortlich ist und dass wir dringend etwas unternehmen müssten. Die Zitate stammen aus Emails in meinem Besitz. Sie zeigen, dass trotz anderer Punkte, in denen wir nicht übereinstimmen, beide mit mir einer Meinung sein könnten hinsichtlich der groben Unstimmigkeiten im Annex 1 des IPCC WG1 Berichts.

Der entsprechende Teil aus der ersten Email lautet:

“Man sollte auch sehen, dass weder initialisierte dekadische Vorhersagen noch RCMs alles sind, was über regionale Klimawandel in den kommenden Dekaden ausgesagt werden kann – und man kann in der Tat darüber diskutieren, ob sie viel dazu beitragen können. ;-)”“

Aus der zweiten Email:

“Die Klimawirkung besteht zum großen Teil aus Erwärmung, ich kann nicht sagen, dass die heutigen Klimamodelle mit Gewißheit noch etwas darüberhinaus aussagen können. Ich füge hinzu, dass es wahrscheinlich polwärts und auf den Kontinenten eine Verstärkung der Erwärmung geben wird. Ein weiteres gesichertes Charakteristikum scheint die Bewegung der Sturmgürtel hin zu den Polen in beiden Hemisphären zu sein. Das hat Auswirkungen auf die allgemeine Zirkulation und insbesondere auf die Klimatologie der Niederschlagsstärke und Veränderlichkeit (z. B. Trockenheiten und Überschwemmungen). Diese polwärts gerichtete Bewegung kann man aus den Daten ablesen. Es gibt in den Modellen Hinweise, dass während des kommenden Jahrhunderts die Verstärkung des Ozons einiges von der polwärtigen Verschiebung auf der Südhalbkugel neutralisieren könnte, aber wahrscheinlich nicht auf der Nordhalbkugel. Ich denke, weiter können wir nicht gehen bei der Vorhersage des Klimas für die nächsten 50-100 Jahre. Natürlich folgt der Meeresspiegel der thermischen Ausdehnung des Wassers wie auch dem Abschmelzen des Landeises. Ich meine, es gibt da sehr wenig Informationen (vom Rauschen abgesehen) über das oben Gesagte hinaus in Bezug auf die Anwendung von globalen Klimamodellen auf Regionen, eingeschlossen das Vermindern auf kleinere Maßstäbe.”

Since, these individuals have been silent in discussing the issue of the value of multi-decadal model regional climate predictions, I feel compelled to communicate that my flagging the failure of this approach for the impacts and policymakers communities is shared by even some in the IPCC community.

Weil diese Herren zu dem Problem geschwiegen haben, was multi-dekadale regionale Klimamodell-Vorhersagen wirklich wert sind, sehe ich mich wegen der Wirkung auf die Zielgruppen und Politiker gezwungen, die Falschheit dieses Ansatzes herauszustellen und zu zeigen, dass noch einige weitere Mitglieder der IPCC-Gemeinde diese Meinung teilen. 

Wie sollte man mit diesem IPCC-Fehler umgehen

Meine Empfehlung ist: wann immer man über multi-dekadale Klimaprojektionen hört oder liest, sollte man fragen:

Worin besteht die Güte der Modelle, die zur Projektion der VERÄNDERUNGEN benutzt wurden? Anders gefragt: worin besteht die Qualität der Vorhersage in Bezug auf die Klima-Metriken, die für eine bestimmte Wirkung wichtig sind?

Wenn keine handfesten Beweise für die Güte präsentiert werden, sind die darauf beruhenden Studien nicht in Ordnung. Annex 1 des 2013er IPCC WG1 – Berichtes, muss deswegen einen ehrlichen Beleg für die Güte der Projektionen liefern (wenn dies überhaupt geht) als Bestandteil eines vollständigen und umfassenden Berichts über den Sachstand der Klimawissenschaft.

Original hier

Übersetzung: Helmut Jäger, EIKE




Neue Fakten zu Fukushima-Zweite Begutachtung durch IAEA

Einordnung des Berichts

In der Folge des Reaktorunglücks am 11. März 2011 hat der Betreiber TEPCO einen Aktionsplan zur Beseitigung der Schäden vorgelegt. Dieser Plan wurde von den einschlägigen japanischen Verwaltungen geprüft. Diese "Roadmap" enthält detaillierte Beschreibungen und Zeitpläne der durchzuführenden Arbeiten. Jeweils im July 2012 und Juni 2013 wurde eine grundlegend neu überarbeitete Fassung erstellt. Die japanische Regierung, vertreten durch das METI (Ministry of Economy, Trade and Industry), hat die IAEA um eine Begutachtung dieser "Roadmap" gebeten.

Inzwischen trägt die japanische Offenheit Früchte. Das Spielfeld für Betroffenheitsunternehmen vom Schlage Greenpeace, ist bemerkenswert eng geworden. Es gelingt den einschlägigen "Atomexperten" kaum noch, ihre tumbe Propaganda in den Medien unter zu bringen. Sie können nur noch ihre tiefgläubige Klientel bedienen. Wenn man sich an die Geheimniskrämerei der Sowjets nach Tschernobyl erinnert, ein bemerkenswerter Fortschritt. Mangels frei zugänglicher und überprüfbarer Informationen selbst für Fachkreise, war jeglicher Spekulation und Verschwörungstheorie Tür und Tor geöffnet.

Japan hat viele grundsätzliche und vermeidbare Fehler im Umgang mit der Kernenergie gemacht. Sie haben aber ihre Konsequenzen gezogen und ohne jede Rücksicht auf Kosten und Organisationsstrukturen radikale Veränderungen durchgeführt. Veränderungen, die der Verbesserung und weiteren Entwicklung dienen und nicht dem politischen Tagesgeschäft geschuldet sind.

Entfernung der Brennelemente

Die vorhandenen Lagerbehälter auf dem Gelände wurden überprüft, mit neuen Dichtungen versehen und auf einen sicheren Platz umgesetzt. An einer langfristigen Lösung wird gearbeitet.

Der Block 4 wurde vollständig neu eingehaust und inzwischen von allem Schutt geräumt. Es ist jetzt wieder eine, einem Kernkraftwerk entsprechende Arbeitsumgebung geschaffen worden. In den letzten fünf Monaten sind bereits 659 Brennelemente aus dem Lagerbecken entfernt worden, in 14 trockenen Lagerbehältern (Anmerkung: ähnlich "Castoren") verpackt und auf dem Zwischenlagerplatz transportiert worden. Alle größeren Trümmer sind aus dem Lagerbecken geräumt, kleinteilige Trümmer zu über 70 % entfernt und fast 20% der Lagergestelle bereits ausgesaugt worden.

Es ist geplant, alle Brennelemente aus den Lagerbecken bis 2017 zu entfernen und in trockene Lagerbehälter zu verpacken. Es wird ein Verfahren ausgearbeitet, alle Brennelemente auch innen so zu reinigen und zu waschen, daß sie "normalen" Ladungen aus Kernkraftwerken entsprechen, um sie den normalen Wiederaufbereitungsanlagen problemlos zuführen zu können. Alle Brennelemente werden in fünf Kategorien eingeteilt: In Ordnung und vollständig bestrahlt, in Ordnung und teilweise bestrahlt, in Ordnung und nicht bestrahlt, beschädigt (im Sinne von, der Austritt radioaktiver Stoffe ist möglich), leicht beschädigt (lediglich mechanisch; vom Originalzustand abweichend).

Weit aus schwieriger und langwieriger, gestaltet sich die Entfernung des "radioaktiven Bruches". Gemeint ist damit geschmolzener Brennstoff, der teilweise sogar Legierungen mit anderen Materialien des Reaktorkerns eingegangen sein wird. Hier ist nur ein schrittweises Vorgehen möglich. Man muß erst allen Schutt — verursacht durch die Wasserstoffexplosionen — wegräumen, um an die Druckgefäße zu gelangen. Dies muß wegen der erhöhten Strahlung fernbedient und durch Roboter geschehen. Ein Entwicklungsprozess, der ständig neu durchdacht und angepaßt werden muß. Die Vorarbeiten werden mehre Jahre in Anspruch nehmen.

Umgang mit dem verseuchten Wasser

Die Lagerung von radioaktivem Wasser in Tankanlagen auf dem Gelände, war in den letzten Monaten ein ständiges Ärgernis. Auftretende Leckagen fanden ein breites Echo in der weltweiten Öffentlichkeit. Es wurden drei Prinzipien zur Vorgehensweise definiert:

1.     Beseitigung der Quellen. Dies ist der schwierigste Teil, da es kurzfristig eine Abdichtung der zerstörten Sicherheitsbehälter erfordert und langfristig eine Beräumung des "radioaktiven Schutts".

2.     Trennung von Grundwasserströmen auf dem Gelände von kontaminiertem Wasser im Bereich der zerstörten Anlage. Maßnahmen sind eingeleitet: Umleiten der Grundwasserströme oberhalb des Standortes, bevor sie die Ruine erreichen können. Errichtung von unterirdischen Sperren vor den Blöcken und gegenüber der Hafenseite.

3.     Sicherung der gelagerten Wassermassen (Verhinderung von Undichtigkeiten, Auffanganlagen für Leckagen etc.). Beschleunigter Bau von Reinigungsanlagen. Momentan liegt der Schwerpunkt auf einer sehr erfolgreichen Entfernung des Cäsiums (Anmerkung: Cäsium ist ein γ-Strahler und maßgeblich an der Strahlenbelastung im Tanklager verantwortlich; α- und β-Strahler sind in diesem Sinne unerheblich — niemand muß das Wasser trinken.). Ferner wird inzwischen das ursprünglich zur Kühlung verwendete Meerwasser entsalzt und wieder verwendet. Inzwischen wurden über 800 000 m3 sehr erfolgreich behandelt.

Inzwischen haben sich mehr als 500 000 m3 kontaminiertes Wasser auf dem Gelände angesammelt. Davon ungefähr 400 000 m3 in 900 oberirdischen Tanks! Der Rest befindet sich noch in den Kellern, Kabelkanälen usw. Man geht davon aus, daß man das Tanklager noch einmal verdoppeln muß. Dies hängt jedoch letztendlich von den Gegenmaßnahmen und dem Tempo bei der Wasseraufbereitung ab. Es wird z. B. auch erprobt, das Wasser nicht mehr ständig aus den Kellern und Kanälen abzupumpen, sondern mobile Reinigungsanlagen einzusetzen. Rund 300 000 m3 in den Tanks besteht inzwischen aus dem Abwasserstrom der Meerwasserentsalzung (Salzlake) und Cäsium-Entfernung. Es "strahlt" daher nur noch relativ gering, besitzt aber einen erhöhten Anteil an Sr-90 und Y-90. Andere Radionuklide sind nur in geringem Umfang vorhanden. TEPCO setzt nun auf das Advanced Multi-Nuclide Removal System (ALPS) zur Beseitigung der radioaktiven Abwässer. Es ist bereits eine Versuchsanlage mit drei parallelen Strängen zu je 250 m3 / Tag in Betrieb. Mit ihr wurden bereits 30 000 m3 erfolgreich gereinigt. Es gelingt praktisch alle Radionuklide — bis auf Tritium — unter die Nachweisgrenze zu entfernen. (Anmerkung: Tritium bildet "titriertes Wasser", welches chemisch praktisch nicht von normalem H2O unterscheidbar ist. Es ist aber relativ harmlos, da es sich nicht im Körper anreichert und wie jegliches andere Wasser auch, eine sehr geringe biologische Halbwertszeit besitzt). Inzwischen laufen in Japan Diskussionen, ob man nicht wenigstens dieses Wasser, in "Trinkwasserqualität" in das Meer abgeben könnte. In der japanische Kultur, ist diese Frage keinesfalls mit einem einfachen "Ja" zu beantworten.

Unmittelbar nach dem Unglück, in einer durch den Tsunami völlig zerstörten Infrastruktur, war es richtig, möglichst schnell ein Tanklager zur Rückhaltung von radioaktivem Wasser aufzustellen. Es wurde deshalb auf zusammengeschraubte Tanks zurückgegriffen. Solche Tanks, mit ihren zahlreichen Dichtungen, sind nicht für einen dauerhaften Betrieb geeignet. Es wird deshalb ein umfangreiches Programm gestartet, welches sich mit einer dringend notwendigen Ertüchtigung beschäftigt. Neue Tanks, sollen nur noch in geschweißter Ausführung erstellt werden. Wenn das Tanklager noch sehr lange nötig wird, will man sogar die vorhandenen Behälter ersetzen.

Feste Abfälle

Bei der Reinigung der gewaltigen Wassermengen darf nicht vergessen werden, daß man damit nicht die Radioaktivität beseitigt, sondern lediglich umlagert. Nach der Reinigung bleiben Zeolite, an die die Radionuklide gebunden sind und Schlämme mit Radionukliden übrig. Diese müssen vor der endgültigen Lagerung in eine feste Form überführt werden, damit sie nicht in die Umwelt freigesetzt werden. Es werden einige tausend Kubikmeter solcher niedrig und mittelaktiven Materialien übrig bleiben.

Der (kontaminierte) Schutt infolge des Tsunami ist für sich genommen, ein gewaltiges Problem. Bisher wurden von dem Gelände 65 000 m3 Schutt und allein 51 000 m3 Abfallholz beiseite geräumt und in zehn Zwischenlagern gesammelt. Da die gefällten Bäume "leicht verstrahlt" sind, dürfen sie nicht einfach verbrannt werden. Sie werden deshalb in Fässer verpackt, die für eine Lagerung von 25 Jahren vorgesehen sind. Für 23 000 dieser "Altholzfässer" wird gerade ein eigenes Lagergebäude errichtet. Kann sich noch jemand an die Bilder von Tschernobyl erinnern, wo ganze LKW und Busse einfach in ausgehobene Gräben versenkt wurden?

Bei einem normalen Abriss eines Reaktors, geht man von etwa 10 000 m3 "Atommüll" aus, der endgelagert werden muß. Der Rest kann nach Reinigung und Freimessung in den normalen Wertstoffkreislauf gegeben werden. In Fukushima rechnet man mit über 800 000 m3. Es ist deshalb ein umfangreiches Programm zur völligen Neuentwicklung eines Recycling auf der Unglücksstelle gestartet worden. Man möchte möglichst viel des unbelasteten Abfalls (nach einer Reinigung) auf der Baustelle wieder verwenden. Beispielsweise kann man das Volumen von Metallschrott durch Einschmelzen um 70 bis 80 % verringern. Ein bereits bei der Beseitigung von alten Dampferzeugern angewendetes Verfahren. Es wird nun untersucht, wie man das auf der Baustelle (kostengünstig) durchführen kann und dieses "leicht radioaktive" Material gleich zum Bau der "Atommülldeponien" wieder verwenden kann.

Nach heutiger Planung, geht man erst in 20 bis 25 Jahren von einem Abtransport radioaktiver Abfälle von der Unglücksstelle (in ein Endlager) aus. Bis dahin muß man deshalb für einen ausreichenden Strahlenschutz auf der Baustelle sorgen. Es müssen deshalb jede Menge provisorischer Abschirmungen gebaut werden.

Maßnahmen gegen das Eindringen von Grundwasser

Im Nachhinein kann man sagen, daß der Bau der Anlage im Grundwasser, ein weiterer schwerwiegender Konstruktionsfehler war. Das Kraftwerk mit seiner kompakten Bauweise aus vier Blöcken, besitzt zahlreiche Keller und unterirdische Verbindungskanäle. Diese lagen alle unterhalb des natürlichen Grundwasserspiegels. Um ein aufschwimmen zu verhindern, war deshalb eine permanente Grundwasserabsenkung erforderlich. Die erforderlichen Leitungen und Pumpen wurden durch den Tsunami zerstört. Infolgedessen kam es zu einem schnellen Wiederanstieg des Grundwassers, was zu zahlreichen Bauschäden führte. Heute dringen immer noch ungefähr 400 m3 täglich ein.

Es wurde bereits ein ganzes Bündel Maßnahmen ergriffen, um dieses Problem in den Griff zu bekommen. Durch Grundwasserabsenkung, -umleitung und Abdichtung bestimmter Bodenschichten, konnte bereits das Weiterfließen ins Meer aufgehalten werden. Das Eindringen in die Gebäude kann aber erst verhindert werden, wenn um das gesamte Kraftwerk eine Barriere aus Eis erzeugt worden ist. Man arbeitet bereits daran. Diese Methode ist z. B. im Tunnelbau Stand der Technik.

Strahlenbelastung in unmittelbarer Umgebung

Die Grundstücksgrenze, ist die (juristische) Grenze zwischen zwei Welten: Innerhalb des Zaunes gilt der Arbeitsschutz, außerhalb die allgemeinen Regeln für die Bevölkerung. Die japanische Regierung hat die zulässige zusätzliche Belastung für die Bevölkerung auf 1 mSv pro Jahr festgelegt. Dieser — absurd niedrige Wert — hat auch unmittelbar am Bauzaun zu gelten. Die aktuelle Belastung durch Gase ist praktisch nicht mehr vorhanden, weil praktisch keine Gase mehr austreten. Der "cloudshine" (Anmerkung: Strahlung, die Richtung Himmel abgegeben wird, wird teilweise durch die Luft zurückgestreut) beträgt ungefähr 1,8 x 10^{-8} mSv/a, die direkte Strahlung ungefähr 2,8 x 10^{-2} mSv/a und die Belastung durch Atmung und Nahrungsaufnahme ungefähr 1,8 x 10^{-4} mSv/a. Wohlgemerkt, 0,0282 mSv für jemanden, der das ganze Jahr unmittelbar am Bauzaun steht! In etwa, die Strahlenbelastung eines einzigen Transatlantikfluges nach USA.

Allerdings ist seit etwa April an manchen Stellen die jährliche Strahlenbelastung "dramatisch" auf 0,4 bis 7.8 mSv angestiegen. Dies ist in der Nähe der Tanks der Fall, in denen die Lake aus der Aufbereitung der "ersten Kühlwässer" eingelagert wurde. Sie wurde ursprünglich in unterirdischen Behältern gelagert, aber aus Angst vor unentdeckten Undichtigkeiten, in besser kontrollierbare oberirdische Tanks, umgepumpt.

Die IAEA-Kommission empfiehlt daher, für die "Strahlenbelastung der Öffentlichkeit" eine Person mit realistischen Lebens- und Aufenthaltsbedingungen zu definieren.

Robotereinsatz

Deutlicher, kann man den Unterschied zweier Gesellschaftssysteme nicht aufzeigen, wenn man die Aufräumarbeiten in Tschernobyl und Fukushima vergleicht. Welchen Wert ein Mensch im real existierenden Sozialismus hatte, kann man ermessen, wenn man die Bilder der Soldaten betrachtet, die mit bloßen Händen den Kernbrennstoff zurück in den Schlund des Reaktors warfen. In Fukushima schickt man auch nach drei Jahren nicht einmal einen Arbeiter in die Nähe der verunglückten Sicherheitsbehälter! Alle Erkundungen oder Reinigung- und Aufräumarbeiten werden maschinell aus sicherer Entfernung durchgeführt. Wenn man in des Wortes Bedeutung nicht weiter kommt, wird erst ein Roboter oder eine Vorrichtung entwickelt und gebaut. Wenn Geräte aus dem Ausland besser geeignet sind als eigene Entwicklungen, werden sie gekauft. Man denkt asiatisch langfristig und gibt sich selbst eine Zeitvorgabe von 30 bis 40 Jahren. Es wird schön zu beobachten sein, welchen Quantensprung die Automatisierung in der japanischen Industrie allgemein, in einigen Jahrzehnten erreicht haben wird. Hier in Fukushima, ist die Keimzelle für eine Revolution in der Industrie und Bautechnik. Japan scheint wieder einmal die restliche Welt verblüffen zu wollen — diesmal allerdings auf einem friedlichen Gebiet.

Kontrolle des Meeres

Zur Überwachung des Meeres wurden 180 Kontrollstellen für Wasser und Sedimente eingerichtet. Die laufenden Messungen haben ergeben, daß die Einleitungen seit dem Unglück um mehr als fünf Größenordnungen kleiner geworden sind. Die Messungen werden von TEPCO und sechs verschiedenen japanischen Behörden unabhängig und redundant vorgenommen. Hinzu kommen noch zahlreiche Universitäten und Forschungseinrichtungen.

Die Ergebnisse sind allen interessierten Organisationen international zugänglich. Fast alle Daten werden kontinuierlich auf verschiedenen Web-Sites veröffentlicht. Leitgröße ist Cs-137 wegen seiner langen Halbwertszeit von 30 Jahren. Seine Konzentration beträgt in der Nähe des Kraftwerks zwischen 1 und 2 Bq/Liter. Wegen der starken Verdünnung durch die Meeresströmungen sinkt es im Küstenverlauf unter 100 mBq/Liter. An entfernteren Küsten sinkt sie unter 1 bis 3 mBq/Liter.

Japan hat 2012 einen zulässigen Grenzwert von 100 Bq/kg für Fisch als Summe aller Cäsium Isotope festgelegt. In Fukushima wurden von 2011 bis 2013, 15144 Proben Meeresfrüchte untersucht, von denen 2016 diesen Grenzwert überschritten haben. Ein Zeichen der positiven Entwicklung ist dabei, daß die Quote von 57,7 % (Mittelwert der Periode April bis Juni 2011) auf 1,7 % im Dezember 2013 gesunken ist. In den anderen Küstenregionen wurden weitere 21 606 Proben im gleichen Zeitraum untersucht. Von denen 174 den Grenzwert überschritten haben. Dort sank die Quote von 4,7 % auf 0,1 %. Die schnelle und örtliche Abnahme zeigt, wie unbegründet die Tatarenmeldungen über eine weltweite Gefährdung gewesen sind. Nur mal so zur Orientierung: Eine einzelne Banane soll etwa 20 Bq in der Form von "natürlichem" Kalium haben.

Hier wird aber auch deutlich, daß es dem Laien wenig hilft, wenn er mit einem Zahlenfriedhof allein gelassen wird. Die IAEA empfiehlt daher den japanischen Behörden, noch enger mit interessierten Gruppen (Fischer, Händler, Verbraucherschutz, usw.) zusammenzuarbeiten und allgemein verständliche Interpretationen zu entwickeln. Ferner wird empfohlen automatische Meßstationen mit simultaner Übertragung ins Internet einzurichten, um das Vertrauen bei der Bevölkerung zu erhöhen. Außerdem ist die Qualität der Messungen über Ringversuche abzusichern. Inzwischen sind allein mehr als zehn verschiedene japanische Institutionen an den Messungen beteiligt. Meßfehler einzelner Organisationen, könnten von der Öffentlichkeit falsch interpretiert werden.