Kommentare zum UKMO-Bericht über „die gegenwärtige Pause bei der globalen Erwärmung“

Das UKMO wiederholt hier immer die gleichen ausgelatschten Entschuldigungen. Als Folge spricht dieser Bericht Themen an und präsentiert Daten, um die es schon in früheren Beiträgen gegangen war. Mit anderen Worten, Teile des Folgenden sind einfach wiedergekäute Themen, über die wir früher schon gesprochen haben. Und wie ich es in meinen Beiträgen immer mache, habe ich mir das Beste zum Schluss aufgehoben: Ich glaube nicht, dass das UKMO eine Verlangsamung des ozeanischen Wärmegehaltes während des letzten Jahrzehnts oder so zeigen wollte, oder seit Anfang dieses Jahrhunderts, aber genau das haben sie getan.
Die Executive Summary lautet (Fettdruck von mir):
Eine große Zahl beobachteter Klima-Indikatoren zeigt unverändert Änderungen, die mit einer sich global erwärmenden Welt und mit unserem Verständnis, wie das Klimasystem funktioniert, konsistent sind
Die globale Temperatur ist seit den siebziger Jahren rapide gestiegen, seit den letzten 15 Jahren bis zum Jahr 2013 aber relativ flach verlaufen. Dies hat zu Spekulationen geführt, dass die vom Menschen verursachte globale Erwärmung nicht mehr im Gange ist, oder dass der menschliche Einfluss zumindest geringer ist als vorhergesagt. Andere halten dies für einen vorübergehenden Stillstand und glauben, dass die Temperatur erneut mit den zuvor beobachteten Raten steigen wird.
Diese Studie ist der erste in einer Reihe von drei Berichten des Met. Office Hadley Centre, der auf den jüngsten Stillstand hinsichtlich der globalen Erwärmung eingeht und danach trachtet, die folgenden Fragen zu beantworten. Wie lagen die Trends anderer Indikatoren des Klimas während dieser Periode; was verursacht zum größten Teil den gegenwärtigen Stillstand, und in welchem Umfang beeinflusst der gegenwärtige Stillstand unsere Projektionen des zukünftigen Klimas?
Die Wetter- und Klimawissenschaft gründet sich auf das Beobachten und Verstehen unserer komplexen und sich entwickelnden Umwelt. Die fundamentalen physikalischen Gesetze des Systems Erde bilden die Basis für die Entwicklung numerischer Modelle, welche unser Verständnis des Gesamt-Klimasystems einschließen (d. h. Atomsphäre, Ozean, Land und Cryosphäre). Sie gestatten uns, Projektionen seiner Entwicklung anzufertigen.
Es ist daher eine inhärente Notwendigkeit, dass die Klimawissenschaftler über die bestmöglichen Informationen des gegenwärtigen Klimastatus’ und über den historischen Zusammenhang verfügen. Dies erfordert sehr genaue, global verteilte Beobachtungen, Monitoring-Systeme und Netzwerke. Erforderlich sind auch eine belastbare Datenverarbeitung und Analysen, um riesige Datenmengen zu erfassen. Außerdem muss man Beobachtungs-Unsicherheiten berücksichtigen, sowohl durch Grenzen der Messbarkeit als auch durch Lücken in den Beobachtungen, sowohl räumlich als auch zeitlich. Nur mit angemessener Sorgfalt und dem Anbringen rigoroser, unverzerrter wissenschaftlicher Hypothesen können Klimawissenschaftler das vollständigste Bild des Zustands zeigen, ebenso wie Trends sowie die Variabilität der vielen Variablen des Klimasystems. Dies bildet die Basis, auf der die Beweise und die von den Verbrauchern geforderte Beratung beruhen.
Dieses Dokument präsentiert eine kurze Synthese dieses globalen Bildes, wie es heute aussieht. Ein umfangreicheres Briefing wird in Zusammenarbeit mit einer großen Zahl von Wissenschaftlern jedes Jahr erstellt und in einem Special Supplement im Bulletin of the American Meteorological Society (BAMS) (Blunden and Arndt, 2013) veröffentlicht.
Die Beobachtungen zeigen:
Eine große Anzahl von Klimafaktoren zeigt weiterhin Änderungen. Zum Beispiel gibt es einen beobachteten fortgesetzten Rückgang des arktischen Meereises und einen Anstieg des globalen Meeresspiegels. Diese Änderungen sind mit unserem Verständnis konsistent, wie das Klimasystem auf den zunehmenden atmosphärischen Gehalt von Treibhausgasen reagiert.
Die globalen Temperaturen bleiben hoch, wobei das letzte Jahrzehnt das wärmste jemals war.
Zwar sieht es so aus, als ob sich die Rate der Erwärmung während dieses Jahrzehnts merklich verlangsamt hat, doch gab es derartige Phasen auch schon für ein Jahrzehnt oder so in der Vergangenheit in den Beobachtungen. Sie werden in den Klimamodellen simuliert, in denen es vorübergehende Ereignisse sind.
Soweit UKMO. Wir werden im Folgenden jeden fett gedruckten Punkt ansprechen.
DER STILLSTAND IST UNGEWÖHNLICH IN EINER WELT, VON DER MAN GLAUBT, DASS EINE ERWÄRMUNG DURCH TREIBHAUSGASE SEIT MITTE DER SIEBZIGER JAHRE DOMINIEREND WAR.
Beginnen wir mit dem letzten Absatz der Executive Summary:
„Zwar sieht es so aus, als ob sich die Rate der Erwärmung während dieses Jahrzehnts merklich verlangsamt hat, doch gab es derartige Phasen auch schon für ein Jahrzehnt oder so in der Vergangenheit in den Beobachtungen. Sie wird in den Klimamodellen simuliert, in denen es vorübergehende Ereignisse sind“.
Es scheint, dass das UKMO eine ganze Reihe von Punkten übersehen hat. Erstens hat das IPCC etwas präsentiert, von dem es behauptet, dass es auf Klimamodellen basierende Beweise sind, dass nur vom Menschen emittierte Treibhausgase die Erwärmung der letzten 30 Jahre hervorgerufen haben können. Man schaue in die Präsentation und die Diskussion der Abbildung 9.5 im 4. Zustandsbericht. Sie wird hier als Abbildung 1 reproduziert. Sie stammt aus Kapitel 9: Understanding and Attributing Climate Change, und zwar im Abschnitt mit der Überschrift „9.4.1.2 Simulations of the 20th Century”.

Der begleitende Text der IPCC-Abbildung 9.5 lautet:
„Abbildung 9.5 zeigt, dass Simulationen, die den anthropogenen Antrieb einbeziehen einschließlich zunehmender Treibhausgas-Konzentrationen und der Auswirkungen von Aerosolen sowie auch natürlicher externer Antriebe eine konsistente Erklärung für die beobachtete Temperaturaufzeichnung bieten, während Simulationen, die ausschließlich die natürlichen Antriebe betrachten, die beobachtete Erwärmung der letzten drei Jahrzehnte nicht zeigen.“
Das IPCC wollte die Völker der Welt – und noch wichtiger, die Gesetzgeber – glauben machen, dass nur anthropogene Treibhausgase die Erwärmung seit Mitte der siebziger Jahre erklären können.
Dann zeigten sie den vorhergesagten Anstieg der globalen Temperatur basierend auf Projektionen des zukünftigen Antriebs durch Treibhausgase. Dies haben sie illustriert in Abbildung 10.4 im AR4, die hier als Abbildung 2 reproduziert wird:

Jetzt sagt das UKMO, dass „solche Verlangsamungen für ein Jahrzehnt oder so bereits in vergangenen Beobachtungen aufgetaucht waren und in den Klimamodellen simuliert werden, wo sie vorübergehende Ereignisse sind“. Es gibt in Abbildung 2 keine Jahrzehnte langen Pausen der projizierten globalen Temperatur für die Szenarien A2, A1B oder B2. Die globalen Temperaturen reagieren jedoch ähnlich auf das „Constant Composition Commitment“ [?], welches dem IPCC zufolge bedeutet, dass „Treibhausgas-Konzentrationen auf dem Niveau des Jahres 2000 festgeschrieben werden“. Und doch steigen die Treibhausgas-Konzentrationen unvermindert weiter.
Und die Aufzeichnungen der Temperatur zeigen nicht nur, dass „eine solche Verlangsamung seit einem Jahrzehnt oder so nicht nur in Beobachtungen der Vergangenheit erkennbar war“, sondern auch, dass ein solcher Stillstand viele Jahrzehnte andauern kann. Man betrachte die Beobachtungsdaten (schwarze Kurven) in Abbildung 1. Sie zeigen einen Stillstand oder einen Rückgang von Anfang der vierziger Jahre bis Mitte der siebziger Jahre.
Glaubt das UK Met Office, dass wir uns nur so kurz erinnern oder dass wir Graphen des zeitlichen Verlaufes nicht lesen können?
Zweitens, die öffentliche Aufmerksamkeit für den Stillstand der Erwärmung schoss in die Höhe mit dem Artikel von David Rose in der Daily Mail mit dem Titel “Global warming stopped 16 years ago, reveals Met Office report quietly released… and here is the chart to prove it” [etwa: die globale Erwärmung hat vor 16 Jahren angehalten, enthüllt ein stillschweigend veröffentlichter Bericht des Met. Office … und hier ist die Graphik, die das beweist]. Ich habe die Graphik von David Rose in meiner Antwort auf den Artikel von Kevin Trenberth von der Royal Meteorological Society aktualisiert. Darin zeige ich, dass die Temperaturen im April 2013 im Wesentlichen die gleichen waren wie im Juni 1997. Seitdem habe ich den Juni 1997 als Startmonat für Graphen benutzt, die gleitende 16-Jahres-Trends zeigen, und die ständig aktualisiert und jeden Monat ausgeweitet werden. Der Zeitraum ist jetzt 192 Monate lang. Man betrachte die folgende Graphik eines gleitenden 192-Monate-Trends von Januar 1880 bis Mai 2013 in Abbildung 3, in der die Anomalien der globalen Temperatur nach HADCRUT4 verwendet werden. Die Graphik zeigt Trends der globalen Temperaturanomalien – nicht die Temperaturanomalien. Der letzte Datenpunkt in dieser Graphik ist der lineare Trend von Juni 1997 bis zum Mai 2013 (in Grad Celsius pro Jahrzehnt). Er ist leicht positiv, was einen Erwärmungstrend von etwa 0,03°C pro Jahrzehnt bedeutet. Und das zeigt natürlich, dass sich die globale Temperatur viel langsamer erwärmt hat als von den Klimamodellen während des jüngsten 192-Monate-Zeitraumes vorhergesagt. Geht man zeitlich zurück, repräsentiert der vorletzte Datenpunkt den linearen Trend für den 192-Monate-Zeitraum von Mai 1997 bis April 2013, und der Datenpunkt davor den Trend von April 1997 bis März 2013, und so fort. Das letzte Mal hat sich die Temperatur mit der minimalen Rate von 0,03°C pro Jahrzehnt in einem 192-Monate-Zeitraum um das Jahr 1980 erwärmt.

Wie ich in meinem Beitrag Open Letter to the Royal Meteorological Society Regarding Dr. Trenberth’s Article “Has Global Warming Stalled?” geschrieben habe, hat Kevin Trenberth von der NCAR über 10 Jahre gemittelte Temperaturen präsentiert, und zwar in seinem Artikel für die Royal Meteorological Society. Er hat versucht zu zeigen, dass der derzeitige Stillstand der globalen Erwärmung seit 2001 nicht ungewöhnlich sei. Bequemerweise hat er die Tatsache übersehen, dass der Stillstand, basierend auf seinem Startzeitpunkt, dem Jahr 2001, bereits über 12 Jahre andauert, nicht 10.
Der Zeitraum von Januar 2001 bis Mai 2013 ist inzwischen 149 Monate lang. Man betrachte Abbildung 4, also den Verlauf eines gleitenden 149-Monate-Trends von Januar 1880 bis Mai 2013, wieder mit den HADCRUT4-Daten der Temperaturanomalien. Sie wurden in gleicher Weise aufbereitet wie in der Abbildung zuvor, nur das jetzt eine Sequenz von 149  Monaten gewählt worden ist. Die höchste, auf deren linearem Trend basierende Erwärmungsrate in letzter Zeit ereignete sich während des 149-Monate-Zeitraumes, der Ende 2003 zu Ende gegangen war. Seitdem jedoch sind die Erwärmungstrends drastisch gefallen. Man beachte auch, dass Ende der siebziger Jahre zum letzten Mal ein 149-Monate-Zeitraum ohne jede Erwärmung aufgetreten war – bis jetzt.

Abbildungen 3 und 4 stammen aus dem Blogbeitrag June 2013 Global Surface (Land+Ocean) Temperature Anomaly Update.
Fazit: Der gegenwärtige Stillstand der Erwärmung ist ungewöhnlich. So etwas gab es seit Ende der siebziger Jahre oder dem Jahr 1980 nicht mehr. Und den IPCC-Klimamodellen zufolge, gezeigt in ihrer Abbildung 10.4 (meine Abbildung 2) war kein Stillstand vorhergesagt worden.
Glaubt das UKMO, dass sich die globale Temperatur wie von Zauberhand abkühlen wird?
In der von mir fett gedruckt dargestellten Passage der UKMO-Executive Summary schrieben sie:
Die globale mittlere Temperatur bleibt hoch, wobei die letzte Dekade die wärmste jemals gewesen ist.
Natürlich, „die globale Temperatur bleibt hoch…” Wo hat das UKMO festgestellt, dass die globale Temperatur während der Stillstandsperiode gesunken wäre? Es scheint, als greife das UKMO nach Strohhalmen.
Und natürlich war das vergangene Jahrzehnt das wärmste jemals. Wie ich in meinem offenen Brief an die Royal Meteorological Society zu Kevin Trenberths Artikel „Has Global Warming Stalled?“ geschrieben habe, gab es drei natürliche Ereignisse, die die achtziger Jahre wärmer werden ließen als die siebziger Jahre, die neunziger Jahre wärmer als die achtziger Jahre und das Erste Jahrzehnt dieses Jahrhunderts wärmer als die neunziger Jahre.
Die Pazifische Klimaverschiebung des Jahres 1976 verursachte im Ostpazifik einen Temperaturanstieg von 0,22°C. Siehe Abbildung 5! Es gibt zahlreiche begutachtete Studien über diese Verschiebung, aber keine allgemeine Übereinstimmung über deren Gründe. Die globale Temperatur rund um die Welt reagiert auf diese Verschiebung mit atmosphärischen Sattelpunkten und Fernauswirkungen.

Die Wassertemperaturen des Atlantik, Indik und Westpazifik  (90S-90N, 80W-180) zeigten ebenfalls Verschiebungen mit einem Anstieg. Für diese jedoch verstehen wir die Gründe. Siehe Abbildung 6! Basierend auf den gemittelten Temperaturanomalien über die Zeitperiode verursachte der El Niño von 1986/87/88 einen Anstieg der Wassertemperatur in den genannten Meeresgebieten um 0,09°C. Die Wassertemperatur in diesen Regionen stieg nochmals um etwa 0,18°C im Gefolge des El Niño von 1997/1998. Der El Niño von 2009/2010 scheint einen geringen Anstieg um etwa 0,05°C verursacht zu haben.

Die Gemeinschaft der Klimawissenschaft hat sich entschlossen, diese von El Niño verursachten Anstiege zu ignorieren, und zwar aus zwei Gründen: Erstens, weil hier dokumentiert wird, dass die Wassertemperatur der globalen Ozeane aufgrund natürlicher Ereignisse steigt. Und zweitens, weil es den Klimamodellierern selbst nach Jahrzehnten intensivster Bemühungen bislang nicht gelungen ist, die Ereignisse El Niño und La Niña angemessen zu simulieren.
Und auch aus Abbildung 6 gehen zwei Punkte eindeutig hervor: Erstens, die Erwärmung des Wassers in den vorgenannten Meeresgebieten (oder in 67% der Weltozeane) hängt von starken El Niño-Ereignissen ab. Oder anders ausgedrückt, ohne diese El Niño-Ereignisse würden die Wassertemperaturen im Atlantischen, Indischen und Westpazifischen Ozean nur eine geringe oder gar keine Erwärmung zeigen. Dies zeigt natürlich, dass sich der Stillstand der globalen Erwärmung bis zum nächsten starken El Niño fortsetzen wird. Zweitens: Die La Niña-Ereignisse, die den El Niños von 1986/87/88, 1997/98 und 2009/10 folgten, hatten keine verhältnismäßige Auswirkung auf die Wassertemperatur in diesen Ozeanen. Lediglich die Wassertemperatur im Ostpazifik sank proportional während dieser La Niñas, Abbildung 7, aber die Wassertemperaturen dort über 31 Jahre lang nicht gestiegen.

Wie ich im oben verlinkten Beitrag über Trenberths Artikel für die Royal Meteorological Society geschrieben habe – falls diese auf natürliche Weise stattfindenden, von El Niños verursachten Anstiege der Wassertemperatur für Sie neu sind, schauen Sie in mein bebildertes Essay „The Manmade Global Warming Challenge” [42MB]. Darin stelle ich eine als Einführung gedachte Diskussion der natürlichen Prozesse vor, die solche Sprünge verursachen. Im Prinzip werden diese Sprünge durch warmes Wasser verursacht, das nach starken El Niño-Ereignissen zurückbleibt – das von den El Niños erwärmte Wasser verschwindet nach deren Abklingen nicht sogleich. Der Essay enthält auch Links zu animierten Karten mit den Daten. Darin kann man das Auftreten dieser Verschiebungen erkennen und sich klar machen, woher wir von diesem übrig gebliebenen Warmwasser wissen. Am wichtigsten aber, man kann erkennen, warum man La Niña und El Niño-Ereignisse betrachten sollte, nämlich nicht als Rauschen in den Instrumenten-Temperaturaufzeichnungen, sondern als einen natürlich stattfindenden chaotischen Oszillator. Das Sonnenlicht und nicht infrarote Strahlung nimmt im tropischen Pazifik während eines La Niña zu. Das heißt, die Daten zeigen, dass die steigenden Wassertemperaturen durch die El Niños durch Sonnenlicht angetrieben wurden, nicht durch Treibhausgase. Wir besprechen dies noch detaillierter bei der Diskussion über den ozeanischen Wärmegehalt in einem späteren Beitrag.
In jenem Beitrag über den Trenberth-Artikel an die RMS habe ich auch eine Graphik gezeigt, die ich die Alternierende Präsentation von Dr. Trenberths „großen Sprüngen“ genannt habe. Siehe Abbildung 8! Ich habe die Graphik im Jahre 1951 beginnen lassen, so dass die Reaktion auf die Klimaverschiebung im Pazifik 1976 im Ostpazifik sichtbar wird. Und ich habe auch die Zeitspannen verändert, um diese Sprünge zu isolieren von den Sprüngen im Zuge der El Niño-Ereignisse der Jahre 1986/87/88 und 1997/98. Die natürlichen Beiträge zum Anstieg der globalen Temperatur sind nur zu offensichtlich.

Jetzt wollen wir noch einmal die UKMO-Verlautbarung betrachten, die wir unter dieser Überschrift besprochen haben:
„Die globale Temperatur verharrt auf hohem Niveau, wobei die letzte Dekade die wärmste jemals war“.
Natürlich war es das. Es war das wärmste jemals, weil das Rest-Warmwasser des El Niño von 1997/98 den Auswirkungen des folgenden La Niña entgegen wirkte und zu den Anstiegen der Wassertemperatur im Atlantischen, dem Indischen und dem Westpazifischen Ozean geführt hat. Man erinnere sich, diese Meeresgebiete überdecken etwa 67% der Oberfläche der globalen Ozeane. Die Land-Temperaturen für weite Teile der Welt machen dieses Verhalten der Wassertemperatur einfach mit.
Über das arktische Meereis und den Meeresspiegel
Jetzt wollen wir uns ein anderes unsägliches Zitat aus der Executive Summary Teil 1 des UKMO vornehmen:
„Eine große Zahl beobachteter Klima-Indikatoren zeigt unverändert Änderungen, die mit einer sich global erwärmenden Welt und mit unserem Verständnis, wie das Klimasystem funktioniert, konsistent sind“.
Was das UKMO nicht sagt: Der Meeresspiegel würde weiterhin steigen, völlig unabhängig von der gegenwärtigen Temperatur. Ich möchte einen Absatz aus der Einführung meines demnächst erscheinenden Buches zitieren (Arbeitstitel Climate Models are Crap). Darin heißt es nach derzeitigem Stand:
Der Meeresspiegel ist ebenfalls von Interesse, vor allem für Küsten- und Inselbewohner. Unglücklicherweise liegen die Ergebnisse von Klimamodell-Simulationen nicht in einfach zu interpretierenden Formaten vor, daher finden sich in diesem Buch keine Vergleiche zwischen Modell und Daten. Unabhängig davon halten Viele möglicherweise steigende Meeresspiegel für eine bestätigte Tatsache. Der Meeresspiegel ist seit dem Ende der letzten Eiszeit um 100 bis 120 Meter gestiegen, und er lag weitere 4 bis 8 Meter höher als heute während der Eemian-Zwischeneiszeit (der letzten interglazialen Periode). (Siehe hierzu die Presseerklärung zu der Studie von Dahl-Jensen et al. mit dem Titel Eemian interglacial reconstructed from a Greenland folded ice core). Unabhängig von der Ursache … besser gesagt: egal ob wir die Treibhausgas-Emissionen kappen oder nicht, sollten die Temperaturen auf dem derzeitigen Niveau verharren oder weiter steigen oder selbst bei einer geringen Abkühlung während der kommenden Jahrzehnte, wird der Meeresspiegel wahrscheinlich weiter steigen. Siehe hierzu den Beitrag von Roger Pielke Jr. How Much Sea Level Rise Would be Avoided by Aggressive CO2 Reductions? Es ist sehr gut möglich, dass der Meeresspiegel zum Ende des Holozäns (des aktuellen Interglazials) das Niveau wie während der Eemian-Zeit erreicht. Nach Meinung einiger Leser könnte die Frage nicht lauten, ob, sondern wann er diese Höhe erreicht.
Roger Pielke, Jr.’s Beitrag (linked above) ist lesenswert.
Hinsichtlich des arktischen Meereises müssen wir zunächst über die Wassertemperatur reden. Wir haben seit über 4 Jahren gezeigt und erklärt, dass die Temperaturaufzeichnungen mittels Satelliten die Erwärmung als Folge von natürlich auftretenden Ereignissen aufgetreten ist und nicht durch menschliche Treibhausgase. Noch einmal der Hinweis auf den Essay „The Manmade Global Warming Challenge” [42MB], wenn diese Diskussion für Sie neu ist. Und wir haben auch gezeigt, dass sich der Pazifik als Ganzes seit fast 2 Jahrzehnten nicht mehr erwärmt hat, wie Abbildung 9 zeigt (Abbildung 9 stammt aus diesem Beitrag).

Die linke Karte in Abbildung 10 zeigt die jährlichen Trends der Wassertemperaturen im Pazifik von 1982 bis 2012. Man sieht, dass sich einige Regionen während dieser Zeit erwärmt haben, vor allem in den zentralen und westlichen mittleren Breiten des Nordpazifik. Wenn wir jedoch auf die Trends in den Quartalen mit der höchsten saisonalen arktischen Schmelzrate schauen, also Juli bis September, fallen die Erwärmungsraten in Teilen der höheren Breiten des Nordpazifik ziemlich hoch aus. Das zeigt die rechte Karte in der Abbildung.

Wir haben auch gezeigt, dass die Wassertemperaturen im Nordatlantik einen zusätzlichen Modus jahreszeitlicher Variabilität aufweisen, bekannt unter der Bezeichnung Atlantische Multidekadische Oszillation AMO. (Weiteres zur AMO bei NOAA/AOML FAQ hier, in meinem Blogbeitrag hier und in meiner Einführung zur AMO hier.) Als Folge hat sich der Nordatlantik seit Mitte der siebziger Jahre auf natürliche Weise mit einer Rate erwärmt, die höher war als in den übrigen Ozeanen, die sich ebenfalls aufgrund natürlicher Ereignisse erwärmt haben und nicht aufgrund von Treibhausgas-Emissionen.
Aber wie die Karte der jährlichen Trends im Nordatlatik zeigt (linke Karte in Abbildung 11) erfolgte die stärkste Erwärmung in hohen Breiten. Und das gilt auch und vor allem für die stärkste jährliche Abschmelzrate des arktischen Meereises von Juli bis September, was die rechte Karte zeigt.

Vergleicht man die hohen Breiten im Nordpazifik und im Nordatlantik, weist Letzterer hinsichtlich der Wassertemperatur eindeutig die höhere Erwärmungsrate als Folge der AMO auf.
Das führt uns zur Betrachtung des arktischen Meereises. Wir betrachteten die Auswirkungen der Meereis-Ausdehnung auf eine ganze Anzahl von Datensätzen, nämlich Wassertemperatur, Temperatur der unteren Troposphäre und Temperatur an Land in dem Beitrag How Much of an Impact Does the Atlantic Multidecadal Oscillation Have on Arctic Sea Ice Extent? [etwa: wie groß ist der Einfluss der AMO auf die arktische Meereis-Ausdehnung?] Von allen gezeigten Datensätzen war der Datensatz mit der größten Übereinstimmung – der höchsten Korrelation – mit der Eisausdehnung derjenige mit den Anomalien der Wassertemperatur in den hohen Breiten der Nordhemisphäre (60 N bis 90 N). Siehe Abbildung 12! Die arktische Meereis-Ausdehnung und die Wassertemperaturen in hohen Breiten der Nordhemisphäre wiesen einen Korrelations-Koeffizienten von 0,85 auf. Die Korrelationen der arktischen Meereis-Ausdehnung mit den Temperaturanomalien in der unteren Troposphäre und der Anomalien mit den Temperaturen über Land waren viel geringer (beide in hohen Breiten: 60 N bis 90 N).

Am Ende dieses Beitrags findet sich Folgendes:
Da es keine Beweise für eine vom Menschen verursachte Komponente hinsichtlich der Erwärmung der globalen Ozeane während der letzten 30 Jahre gibt, leistete die natürliche zusätzliche Erwärmung der Wassertemperaturen im Nordatlantik – höher als die natürliche Erwärmung aller anderen globalen Ozeane – einen wesentlichen Beitrag zum natürlichen Eisverlust des arktischen Meereises während der Satelliten-Ära. Man füge jetzt noch die Wetterereignisse hinzu, zu denen es alle paar Jahre kommt. Dann können wir guten Gewissens die Aufregung um den Rekord-Eisverlust in der Arktis im Jahr 2012 vergessen.
Klimamodelle
Nun zum nächsten Punkt der unwahren Behauptungen in der Executive Summary im UKMO-Bericht. Dort heißt es:
Die fundamentalen physikalischen Gesetze des Systems Erde bilden die Basis für die Entwicklung numerischer Modelle, welche unser Verständnis des Gesamt-Klimasystems einschließen (d. h. Atomsphäre, Ozean, Land und Cryosphäre). Sie gestatten uns, Projektionen seiner Entwicklung anzufertigen.
In einer ganzen Reihe von Beiträgen während der letzten Monate haben wir gezeigt, dass die Klimamodelle zur Vorbereitung des kommenden 5. Zustandsberichtes keinerlei Neigung zeigen, die folgenden Phänomene zu simulieren:
Global Land Precipitation & Global Ocean Precipitation
Global Surface Temperatures (Land+Ocean) Since 1880
Greenland and Iceland Land Surface Air Temperature Anomalies
Scandinavian Land Surface Air Temperature Anomalies
Alaska Land Surface Air Temperatures
Daily Maximum and Minimum Temperatures and the Diurnal Temperature Range
Hemispheric Sea Ice Area
Global Precipitation
Satellite-Era Sea Surface Temperatures
Und jüngst haben wir in dem Beitrag Meehl et al (2013) Are Also Looking for Trenberth’s Missing Heat [etwa: Meehl et al. (2013) suchen ebenfalls nach der von Trenberth vermissten Wärme] gezeigt, dass die in jener Studie verwendeten Klimamodelle keinen Beweis zeigen, dass sie in der Lage sein könnten zu simulieren, wie warmes Wasser aus den Tropen zu den mittleren Breiten des Pazifik transportiert werden könnte. Warum also sollten wir dann glauben, dass sie simulieren können, wie warmes Wasser in Tiefen unter 700 m transportiert werden könnte, ohne dass sich das Wasser der oberen 700 m erwärmt?
Die Gemeinde der Klimawissenschaft mag glauben, dass sie „die fundamentale Physik des Erdsystems“ versteht, aber die Performance ihrer Modelle zeigt, dass ihr Verständnis sehr begrenzt ist und dass sie noch einen langen Weg zurücklegen muss, bevor sie „Projektionen der Entwicklung“ erstellen kann. Wenn man die Vergangenheit nicht simulieren kann, gibt es keinen Grund, dem zu glauben, was ihre Projektionen für die Zukunft bereit halten.
Noch rasch etwas zum Wärmegehalt der Ozeane
Das UKMO hatte über den ozeanischen Wärmegehalt Folgendes zu sagen (Fettdruck von mir):
Seit etwas dem Jahr 2000 hat das ARGO-Bojensystem dafür gesorgt, dass wir eine fast globale Abdeckung der Wassertemperatur bis zu einer Tiefe von 700 m haben (15% bis 20% der mittleren Tiefe im offenen Ozean). Neuere Bojen messen bis zu einer Tiefe von 2000 m. Allerdings sind die eisbedeckten Gebiete und die Randmeere immer noch eine Herausforderung. Kombiniert man die Daten der ARGO-Bojen mit Messungen von Schiffen, kann man relativ langzeitliche Schätzungen der in den oberen 700 m gespeicherten Wärme vornehmen (Abbildung 18). Der Vergleich dieser Aufzeichnungen mit den Temperaturaufzeichnungen an Land zeigt trotz der Erwärmungspause seit dem Jahr 2000 einen Anstieg des Wärmegehalts im oberen Ozean.
Abbildung 18 aus dem UKMO-Bericht findet sich im oberen Kasten meiner Abbildung 13. Ich habe vieles der Temperaturdaten an Land gekennzeichnet, um die Daten des ozeanischen Wärmegehaltes zu beleuchten. Das UKMO hat den Datensatz des ozeanischen Wärmegehaltes in einer Tiefe von 0 bis 700 m nicht identifiziert; man hat lediglich in der Bildunterschrift darauf hingewiesen, dass der Datensatz der Temperaturdaten an Land der von HADCRUT4 ist. Im Text seines Berichtes bezog sich das UKMO auf Levitus et al. (2012). Aber der obere Kasten in Abbildung 13 (Abbildung 18 im UKMO-Bericht) zeigt nicht den ozeanischen Wärmegehalt von 0 bis 700 Metern. Die NODC-Daten des ozeanischen Wärmegehalts zeigen von den achtziger Jahren bis zu Beginn dieses Jahrhunderts keine Abkühlung, anders als beim UKMO dargestellt.

Der untere Kasten in meiner Abbildung 13 zeigt ebenfalls eine Graphik der Daten des ozeanischen Wärmegehaltes aus dem UKMO-Bericht. Sie war in ihrer Abbildung 1 als Kasten W eingefügt. Das UKMO merkt an, dass das aus dem Bulletin der American Meteorology „State of the Climate 2012“ von Blunden und Arndt (2013) stammt. Dieser Bericht wird gerade gedruckt, so dass wir den Quellen der Daten bzgl. des Wärmegehaltes nicht folgen können.
Wie man bemerken wird, zeigen in der unteren Graphik 3 der 4 nicht identifizierten Datensätze des ozeanischen Wärmegehaltes von 0 bis 700 m, dass sich die Erwärmung der Ozeane bis zum Schneckentempo verlangsamt hat mit Beginn Anfang des 21. Jahrhunderts. Diese drei Datensätze widersprechen der UKMO-Feststellung, dass „…trotz der Erwärmungspause seit dem Jahr 2000 der ozeanische Wärmegehalt in den oberen Schichten der Ozeane weiterhin steigt“.
Schlussbemerkung
Ich muss dem Titel des Beitrags von Bishop Hill über den UKMO-Bericht zustimmen, der da lautet: Ihr Schiff sinkt. Wird drehen helfen?
Wir werden in einigen Tagen einen Blick auf Teil 2 ihres Berichtes werfen. In der Zwischenzeit schreibe ich weiter an meinem Buch Climate Models are Crap.
Link: http://wattsupwiththat.com/2013/07/25/part-1-comments-on-the-ukmo-report-about-the-recent-pause-in-global-warming/#more-90426
Übersetzt von Chris Frey EIKE




Führender europäischer Geologe Peter A. Ziegler verstorben…

Bild rechts: Professor Dr Dr Peter A. Ziegler, 1928 – 2013. Photo credit: Ziegler family archive, GNU Free Documentation License.
Arthur Rörsch aus den Niederlanden hat folgenden Nachruf verfasst:
Dear all,
In memoriam Prof. (em.) Dr Dr (hc.) Peter A. Ziegler
die Nachricht, dass der bedeutende Wissenschaftler und liebenswerte Kollege Peter Ziegler am 19. Juli 2013 in seinem Haus in der Schweiz verstorben ist, hat uns alle sehr traurig gemacht. Kürzlich war er noch Gastherausgeber der Sonderausgabe von E&E zum Thema „AGW-Konzept: eine kritische Betrachtung“ (E&E 24 {3, 4} 2013). Bis zu seiner letzten Stunde hat er daran gearbeitet in der Hoffnung, dass seine Veröffentlichung in der wissenschaftlichen Gemeinschaft Gehör findet. Ein ganzes Jahr lang hat er praktisch jeden Tag an der Vorbereitung zu dieser Ausgabe gearbeitet. Er kritisierte alle Manuskripte sehr sorgfältig, hat aber in den Diskussionen mit den Autoren nie die Geduld verloren.
Seine Laufbahn umfasst 33 Jahre als forschender Geologe in der Petroleum-Industrie, 30 Jahre davon bei Shell und 20 Jahre Forschung und Lehre an der Universität. Er hat zahlreiche Beiträge in internationalen Journalen und thematischen Ausgaben zur Plattentektonik und zur Evolution der Lithosphäre veröffentlicht.
Im Jahre 1992 wurde er zum Honorarprofessor an der University of Basel gewählt und 1996 zum Ehrenprofessor für globale Geologie ernannt. Im Jahr 1997 hat ihm die Moscow State University, im Jahre 2001 die Technical University Delft die Ehrendoktorwürde verliehen.
Er war Mitglied der Royal Netherlands Academy of Sciences, der Polish Academy of Arts and Sciences, der Russian Academy of Natural Sciences und der Academia Europaea.
Er war auf Lebenszeit Mitglied im Büro des International Lithosphere Program und  Ehrenmitglied der Geological Society of London, der European Union of Geoscientists, der Geological Society of Poland und der American Association of Petroleum Geologists.
Er empfing Auszeichnungen von der Belgian Geological Society, der Royal Geological and Mining Society of the Netherlands, der Geological Society of London, der Geological Society of Glasgow, der Geosciences Union, der Deutschen Geologischen Gesellschaft und der Russian Academy of Natural Sciences.
Alle seine Kollegen werden sich an ihn erinnern als einen sehr begabten und kritischen Wissenschaftler mit einem umfassenden Interesse an der Naturwissenschaft. Er hat ständig Anderen selbstlos geholfen“.
Es gibt absolute keinen Zweifel daran, dass Prof. Zieglers Lebenswerk einen extrem positiven Einfluss auf die Lebensbedingungen der Menschen hat und dass dies auch noch zukünftige Generationen während der nächsten Jahre spüren werden.
Weiteres hier: notrickszone.com/sun-is-driving-climate-not-co2/.
Link: http://notrickszone.com/2013/07/29/leading-european-geologist-scientist-peter-a-ziegler-passes-away/
Übersetzt von Chris Frey EIKE




Fritz Vahrenholt am 13. August 2013 bei Podiumsdiskussion zum Klimawandel in Hamburg

Fritz Vahrenholt wird zudem im August 2013 zwei Vorträge in Hamburg halten:

19. August (10:00 Uhr)
„Storage as a prerequisite of renewable energy systems”
im Rahmen der Graduate School “Key Technologies for Sustainable Energy Systems in Smart Grids” des Instituts für Anorganische und Angewandte Chemie der Universität Hamburg, Martin-Luther King-Platz 6
22. August (18.30 Uhr)
„ Energiewende in Deutschland und Korea – was können wir voneinander lernen“
Vortrag gemeinsam mit Joo-Joung Yoon, Direktor Korean Investment agency, Großer Hörsaal des Museums für Völkerkunde, Hamburg Rothenbaumchaussee 64
Anmeldung hier.

Prof. Dr. Fritz Vahrenholt,

Prof. Dr. Fritz Vahrenholt, geb. 1949, ist Professor im Fachbereich Chemie an der Universität Hamburg. 1984 wurde er Staatsrat der Hamburger Umweltbehörde, von 1991 bis 1997 war er Umweltsenator von Hamburg, danach Vorstand der Deutschen Shell AG, verantwortlich u.a. für Erneuerbare Energien und Chemie; 2001 bis 2007 Vorstandsvorsitzender des Windkraftanlagenherstellers REpower Systems. Von 2008 bis 2012 war er Geschäftsführer der RWE Innogy, der für Erneuerbare Energien zuständige RWE Tochtergesellschaft. Seit 2012 ist er Alleinvorstand der Deutschen Wildtierstiftung. Vahrenholt war Mitglied im Rat für nachhaltige Entwicklung unter Kanzler Schröder und Kanzlerin Merkel und ist Mitglied des Senats der Fraunhofer- Gesellschaft und Mitglied der Deutschen Akademie der Technikwissenschaften Acatech in Berlin. 1978 erschien sein Bestseller Seveso ist überall, 




Die Schrift steht schon auf der Wand! Wann wird die Energiewende-Blase platzen?

Wesentlicher Grund für den Anfang vom Ende dürften zunächst die ausufernden Kosten sein. Das im Jahr 2000 in Kraft getretene Erneuerbare-Energien-Gesetz hat aus der deutschen Energieversorgung einen Selbstbedienungsladen für Besserverdienende gemacht. Jeder, der Kapital zur Verfügung hatte, durfte ohne Berücksichtigung übergeordneter Planungen oder Gegebenheiten ganz nach Gusto drauflos investieren und bekam dafür üppige Renditen auf 20 Jahre garantiert. Das Ergebnis war eine chaotisch wuchernde Investitionslawine. Hunderttausende Solar- und Windenergieanlagen wurden gebaut, ohne auch nur einen Gedanken darauf zu verschwenden, ob der dadurch ohne Rücksicht auf Standort oder Bedarfslage erzeugte Strom auch wirklich gebraucht würde oder wie er zu den Abnehmern transportiert werden konnte. Über Kosten und technische Probleme brauchten sich die Verantwortlichen keinerlei Gedanken zu machen, das wurde den Netzbetreibern einfach auf’s Auge gedrückt. Zur Rechtfertigung wurde der unsäglich dümmliche Spruch geprägt, Sonne und Wind schickten ja keine Rechnung. Eindeutig den Vogel abgeschossen hat diesbezüglich der damalige Bundesumweltminister Trittin von den Grünen, der im Jahre 2004 behauptete, dies alles werde den Verbraucher nicht mehr kosten als den Gegenwert einer Kugel Eis im Monat.
Die Realität sieht jedoch völlig anders aus. Die jährlichen EEG-Zahlungen sind seit der Einführung des Gesetzes Jahr um Jahr mit hohen Raten gestiegen und würden bei Fortsetzung dieses Trends für das Jahr 2020 bereits rund 35 Mrd. € erreichen, Bild 1.

Bild 1: An die Betreiber von EEG-Anlagen jährlich gezahlte Beiträge in Mrd. €, ab 2012 Prognosen (blau). Die Trendlinie zeigt den zu erwartenden Verlauf bis 2020 (Quellen: Wikipedia, eeg-kwk.net)
Diese Zahlen spiegeln jedoch längst noch nicht den tatsächlichen Umfang der Kosten wider. Hinter jeder Jahreszahlung versteckt lauern die damit verknüpften Langzeitverpflichtungen über einen Zeitraum von 20 Jahren, welche die Politik im EEG den Anlagenbetreibern zugesichert hat. Rechnet man diese Gesamtverpflichtungen für die nächsten Jahre einmal zusammen, so ergibt sich für Deutschland eine Kostenbelastung, die sich bis zum Jahr 2020 auf insgesamt rund 670 Mrd. € summieren dürfte, Bild 2. Für den klassischen 4-Personen-Arbeitnehmerhaushalt entspricht dies einer Gesamtbelastung von über 32.000,- €.

Bild 2. Die kumulierten Gesamtverpflichtungen an die Betreiber von EEG-Anlagen dürften bei ungebrochenem Trendverlauf bis 2020 auf rund 670 Mrd. € ansteigen. Ab 2012 Prognosen (blau), ab 2018 Trendberechnung (gelb)
Die Bilder 1 und 2 zeigen den typischen Verlauf einer aus dem Ruder laufenden wirtschaftlichen Entwicklung. Die Selbstbedienung zahlreicher EEG-Profiteure auf Kosten der Allgemeinheit, welche die Zeche über ihre Stromrechnungen zahlen muss, kann und wird nicht ewig so weitergehen. Wirtschaftsfachleute dürften keine Probleme haben, in der dargestellten Entwicklung die Anzeichen einer inzwischen stark überdehnten Blase zu erkennen, die früher oder später platzen wird.

Mit explodierenden Kosten wächst die Unruhe

Etwas unruhig wird der deutsche Bürger vermutlich im Spätherbst werden, wenn die neuen EEG-Zuschläge für das Jahr 2014 bekannt werden. Prognosen zufolge dürfte der Aufschlag von derzeit 5,27 auf dann 6,5 bis 7 €-ct. zulegen. Das ist ein Anstieg von 23 bis 33 %. Da hierzu noch etliche weitere Aufschläge wie Steuern, steigende Kosten der Netzbetreiber z.B. für Offshore-Anschlüsse sowie die seit neuestem greifenden Ausgleichszahlungen für unrentable Kraftwerke kommen, die als Reserve weiter vorgehalten werden müssen, dürfte der Bruttostrompreis für den Endverbraucher im Jahre 2014 stramm in Richtung 0,30,- € pro kWh marschieren. Gerade bei sozial schwachen Haushalten dürfte dies zu einem Stimmungsumschwung bezüglich der Bereitschaft zur weiteren Unterstützung der Energiewende führen.
Noch entscheidender aber ist die stark wachsende Unruhe in Teilen der Industrie, insbesondere in Branchen wie Hütten- und Stahlwerken, Gieβereien oder manchen Bereichen der Chemischen Industrie, deren Energiekosten teilweise mehr als 50 % der Gesamtkosten ausmachen. Im Gegensatz zu früheren Jahren, als die entsprechenden Verbände wohl noch hofften, aus den einst hochgepriesenen Wachstumsmärkten Fotovoltaik und Windkraft Aufträge zu erhalten, sehen sich immer mehr von ihnen nun von den mittlerweile uferlos wachsenden Energiekosten existenziell bedroht. Hinzu kommen erhebliche Sorgen z.B. bei Betrieben, denen mit der von der EU geforderten rückwirkenden Streichung der bisher gewährten Befreiung von der EEG-Zulage die Pleite ins Haus stehen könnte. Die Stellungnahmen der entsprechenden Verbände werden – ganz unüblich für die sonst sehr zurückhaltende Art deutscher Industrievertretungen – inzwischen immer dringlicher und unverblümter. Die Politik wird diese Entwicklung nicht mehr lange ignorieren können.
Deutlichstes Zeichen an der Wand sind neben den fast schon flächendeckenden Pleiten in der Solarbranche die inzwischen fast schon panischen anmutenden Rückzugsmanöver groβer deutscher Konzerne aus ihren Solarsparten sowie aus unsinnigen Groβprojekten wie Desertec.

Chaos in der Energiebranche

Weitere deutliche Anzeichen für einen bevorstehenden Crash zeigen sich im Energiesektor. Die bereits gebauten Nordsee-Windparks kommen nicht vom Fleck, die Hersteller haben leere Auftragsbücher, während die Hafenstädte lautstark Subventionen für den Ausbau weiterer Kapazitäten im Bereich Spezialschiffsbau und Umschlaganlagen fordern. Die groβen Energieversorger schreiben Verluste und müssen in erheblichem Umfang Personal abbauen. Immer mehr konventionelle Kraftwerke – insbesondere Gaskraftwerke – rechnen sich nicht mehr. Die eigentlich fälligen Stilllegungen werden von der Regierung unterbunden, die entsprechenden Kosten trägt ebenfalls der Stromkunde. Die Planung neuer Kraftwerke kommt immer mehr zum Stillstand. Inzwischen jammern auch immer mehr Stadtwerke, also gerade diejenigen, die vorher jahrelang als Treiber der Energiewende aufgetreten waren.
Auch bei Deutschlands Nachbarn breitet sich wegen des unkontrolliert über die Grenzen entsorgten „Ökostroms“ Unruhe aus. Polen und Tschechien errichten Sperranlagen, um ihre Netze zu schützen. In Österreich, wo man normalerweise leise Töne und feinsinnige Diplomatie bevorzugt, beschweren sich hochrangige Manager der Strombranche unverblümt über deutsche Alleingänge und warnen vor einer Destabilisierung der Versorgung. Und in der Schweiz werden inzwischen Planungen zum Ausbau von Pumpspeicherkraftwerken auf Eis gelegt.
Am gravierendsten ist dabei die Tatsache, dass gerade Pumpspeicher und die flexibel einsetzbaren Gaskraftwerke am meisten leiden. Dabei sind es doch gerade diese Kraftwerkstypen, die als Ausgleich für die schwankende Einspeisung aus Wind und Sonne am dringendsten benötigt würden. Ohne Pufferung durch flexible Gaskraftwerke und ohne Speicherung in Pumpspeicherkraftwerken ist ein weiterer Ausbau der „Erneuerbaren“ kaum noch möglich. Dabei erweisen sich die fehlenden Speichermöglichkeiten als Achillesferse. Auf diesem Gebiet gibt es keine in ausreichendem Umfang verfügbare und wirtschaftlich vertretbare Lösungen. Zurzeit ist keinerlei planvolles Vorgehen zur Behebung dieses fundamentalen Mangels zu erkennen. Stattdessen versucht die Politik mit immer hektischeren und teureren Notmaβnahmen, das Unvermeidliche zumindest über den Wahltermin hinaus zu verzögern.

Keinerlei CO2-Einsparung

Eines der für die Politik besonders fatalen Probleme eines baldigen Scheiterns der Energiewende ist, dass deren erklärtes Ziel, nämlich die Verringerung von CO2-Emissionen, bereits jetzt vollständig gescheitert ist. Mit der Abschaltung der Kernkraftwerke müssen deren Leistungsbeiträge zunehmend von Kohlekraftwerken übernommen werden, weil die „Erneuerbaren“ dazu schlicht und ergreifend auβerstande sind. Wenn der Wind im Winter wochenlang schwächelt und die Sonne in Südafrika urlaubt, muss hierzulande der gesamte konventionelle Kraftwerkspark volle Schichten fahren.
Dafür werden Millionen Tonnen Kohle benötigt. Eine Zusammenstellung der bei der deutschen Stromerzeugung entstehenden CO2-Emissionen im Verlauf der letzten 12 Jahre zeigt Bild 3. Bis zur Abschaltung des letzten Kernkraftwerks im Jahre 2022 wird sich diese Situation immer weiter verschärfen. Nach eigenen überschlägigen Berechnungen kann erwartet werden, dass die jährlichen CO2-Emissionen aus Stromproduktion im Jahr 2022 bei rund 450 Mio. t liegen, knapp 30 % mehr als im Jahr 2012.
Die politische „Lösung“ dieser verfahrenen Situation dürfte vermutlich so aussehen, dass man ab 2014 anfangen wird, den weiteren Ausbau erneuerbarer Energien mit dem Argument einer „Kostenbremse“ mehr oder weniger stark einzuschränken. Dies wäre das de facto-Ende der Energiewende. Zur Minimierung von Widerständen wird man vermutlich versuchen, ein Nebeneinander der konventionellen Stromerzeugung und des bis dahin errichteten Bestandes an ineffizienten Wind- und Solaranlagen hinzubekommen. Und inständig hoffen, dass es nicht zu einem „shitstorm“ kommt. Dem Bürger bzw. der nächsten Politikergeneration wird man es überlassen, sich um den angerichteten Scherbenhaufen und eine Gesamt-Kostenbilanz in einer Gröβenordnung zwischen 500 Mrd. und 1 Billion € zu kümmern. Und man wird versuchen, über Themen wie „Klimawandel“ und CO2-Reduzierung still und heimlich Gras wachsen zu lassen.

Bild 3. Die jährlichen CO2-Emissionen der Stromerzeugung (in Mio. t CO2) sind trotz der gestiegenen Anteile von Strom aus Sonne, Wind und Biomasse von 2000 bis 2012 Jahren faktisch unverändert geblieben

Die mittelfristige Katastrophe

Natürlich kann es dazu kommen, dass die Empörung in der Bevölkerung trotz der bekannten Gutmütigkeit des deutschen Michels so stark anwächst, dass es nicht mehr gelingt, den Deckel auf dem Topf zu halten. In diesem Fall wird man wohl versuchen, die laufenden EEG-Verträge zumindest teilweise zu annullieren. So richtig konsequent wird man dies aber wohl nicht tun können oder wollen, weil in diesem dicht verfilzten Interessengeflecht zuviele Wähler, zuviele groβe Konzerne und zuviele Stadtwerke mit verstrickt sind. Am ehesten wird es vermutlich Privatleute treffen, die damit rechnen müssen, dass zumindest ein Teil ihres eingesetzten Kapitals verloren ist.
Das Problem für Deutschland wird jedoch vor allem sein, dass sich immer mehr Hypotheken einer verfehlten Politik aufeinanderstapeln und sich zudem gegenseitig verstärken. Wir haben aktuell bereits eine alternde Gesellschaft, ungedeckte Renten- und Pensionsansprüche und die stetig wachsenden Verpflichtungen aus dem Euro. Obendrauf wurde in den letzten Jahren die ebenso sinnlose wie extrem teure „Energiewende“ gesattelt. Eine gesunde Volkswirtschaft könnte eine oder zwei solcher Lasten sicherlich schultern. Die Kombination wirkt jedoch verheerend. Die zusätzliche Belastung der bereits geschwächten Wirtschaft durch überhöhte Energiekosten könnte sich als der Tropfen erweisen, der das übervolle Rettungsboot schlieβlich zum Sinken bringt. Es ist wie in der Natur, wo ein bereits geschwächter Organismus dem Angriff von Krankheiten und Parasiten dann irgendwann nichts mehr entgegenzusetzen hat.
Jeder, der zurzeit gezwungen ist, die nahende Katastrophe sehenden Auges, aber mit gebundenen Händen durchzumachen, sollte es sich zur Aufgabe machen, die Verantwortlichen die Konsequenzen ihres Tuns spüren zu lassen. Das Internet vergisst nichts, alle ihre Lügen und dummen Sprüche sind leicht zu finden. Jeder Bürger ist aufgerufen, Herrn Trittin und Konsorten nicht nur bei dieser Wahl, sondern auch noch bei der nächsten und übernächsten mit ihren Lügen zu konfrontieren. Irgendwann muss und wird es gelingen, dass „Grüner“ zum Schimpfwort wird und man diese Scharlatane aus den Ämtern und Pöstchen, die sie sich durch Täuschung ihrer Mitmenschen ergaunert haben, wieder entfernt.
Fred F. Mueller




DIW „Studie“: Claudia Kemfert und Cie. versuchen mit fragwürdigen Zahlenspielen die „Energiewende“ zu retten.

Anliegen der DIW-Autoren ist es, einen wissenschaftlichen Nachweis dafür zu finden, dass der (ausschließliche) Einsatz alternativer Energien, speziell von Wind- und Solarenergie, ökonomisch vorteilhafter als der Einsatz von Kernenergie oder von fossilen Energieträgern mit anschließender CO2-Abscheidung, -Transport und -Speicherung (Carbon Capture, Transport, and Storage, CCTS) ist. Ohne weitere Beweisführung wird die These aufgestellt, dass Kernenergie noch nie wettbewerbsfähig gewesen sei und es auch nie sein wird. Den Alternativenergien dagegen wird ein „atemberaubender Produktivitätszuwachs“ bescheinigt – der selbstverständlich auch anhält (Interview Chr. von Hirschausen).
Die Autoren erheben den Anspruch, in ihren Berechnungen die „Gesamtkosten einschließlich sozialer Umwelt- und Transaktionskosten“ zu bewerten. Diese völlig richtige Forderung wird bedauerlicherweise von den Autoren selbst ignoriert. So wird bei unliebsamen Techniken (Kernkraftwerke) kritisiert, dass bestimmte Kostenfaktoren von der Kommission nicht einbezogen wurden, woraus vom DIW eine (dauerhaft) fehlende Wirtschaftlichkeit abgeleitet wurde. Bei den Alternativenergien dagegen werden wichtige Kostenbestandteile ignoriert, wodurch diese „schöngerechnet“ wurden.
Der Kommission wird vorgeworfen, bei den Kernkraftwerken die Versicherungskosten für potentielle Nuklearunfälle, die Kosten des Kraftwerks-Rückbaus, der nuklearen Endlagerung sowie „Fertigstellungsrisiken“ nicht berücksichtigt zu haben. Ebenfalls unberücksichtigt worden seinen die „Umweltkosten“ von fossilen Energieträgern.
Umgekehrt werfen die DIW-Mitarbeiter der Europäischen Kommission vor, die alternativen Energien, insbesondere Photovoltaik und Onshore-Windenergie, zu pessimistisch angesetzt zu haben.
Tatsächlich wird in der Studie die Einsatzweise und Verfügbarkeit der betrachteten Alternativenergien völlig außer Betracht gelassen. Es wird nicht berücksichtigt, dass fossile und nukleare Kraftwerke in der Lage sind, den täglich und jahreszeitlich schwankenden Elektroenergiebedarf voll zu befriedigen, während Photovoltaik- und Windenergieanlagen das nicht können, weil ihre Erzeugung – völlig unabhängig vom tatsächlichen Energiebedarf – sporadisch, unplanmäßig und unbeeinflussbar erfolgt. Um sie betreiben zu können, bedarf es zusätzlicher Anlagen. Dazu gehören konventionelle Kraftwerke Kernkraftwerke, Kohlekraftwerke, Gaskraftwerke), die aus dem Standby-Status jederzeit sekundenschnell einspringen, um ausfallende Leistung von Solar- und Windenergieanlagen zu ersetzen. Während in der Vergangenheit Kraftwerke in Verbraucherschwerpunkten gebaut wurden (oder sich um Kraftwerke energieintensive Industrien entwickelten – siehe Ruhrgebiet oder mitteldeutsches Chemiedreieck),  so werden nach bisherigen Vorstellungen die Entfernungen zwischen Erzeugungsanlagen und Bedarfsschwerpunkten immer größer, was den Bau zusätzlicher Freileitungen (oder Kabel) zwischen Nord- und Süddeutschland erforderlich macht. Theoretisch könnten anstelle der Standby-Kraftwerke auch Energiespeicher eingesetzt werden. Allerdings werden sie in absehbarer Zeit nicht verfügbar sein. In gleicher Richtung soll der Einsatz sog. Smart-meter wirken, mit denen Verbraucher angeregt werden sollen, genau dann Wäsche zu waschen oder Geschirr zu spülen, wenn gerade der Wind weht oder die Sonne scheint.
Praktisch bedeutet das die Installation eines zweiten, parallelen Erzeugungs- bzw. Transportsystems, das nur dann genutzt wird, wenn die Alternativenergien nicht bereitstehen. Daraus resultieren neben Investitionskosten auch zusätzliche enorme Betriebskosten (Personalkosten, Netzverluste, erhöhter Brennstoffverbrauch infolge schlechter Kraftwerks-Auslastung, Speicher-Verluste), die umso größer werden, je mehr Anlagen zur Wind- und Solarenergienutzung installiert werden. – All diese mit dem Betrieb alternativer Stromerzeugungsanlagen notwendigerweise verbundenen Kosten werden in der Studie des DIW unterschlagen.
Während immer wieder auf die Risiken der Kernenergetik verwiesen wird, werden die durch Windenergieanlagen verursachten Umwelt- und Gesundheitsschäden mit keinem Wort erwähnt. Das gilt analog auch für Risiken bei Biomasse-, Sonnenenergie- oder Geothermienutzung.
Bemerkenswert ist, dass Angaben zu Kosten und Risiken bei Bau und Betrieb von Offshore-Windenergieanlagen nicht zu finden sind. Den Autoren genügt es, in einer Fußnote zu vermerken, dass auf Offshore-Windanlagen „aufgrund noch unsicherer Kostenschätzungen hier nicht eingegangen“ wird, obwohl die mit 10.000 MW bis 2020 künftig einen großen Anteil der installierte Leistung übernehmen sollen. Aber gerade hier muss mit hohen Versicherungskosten, nicht zuletzt wegen des Risikos von maritimen Havarien, mit erheblichen Kosten für den zukünftigen Rückbau und mit „Fertigstellungsrisiken“ gerechnet werden. Es sind gegenwärtig auch keine Investitionskosten-Senkungen sichtbar.
Zu Recht wird der Aufbau der CCTS-Technik von den Autoren abgelehnt. Ihre Argumentation beruht allerdings lediglich auf Kostenrechnungen. Die mit dieser Technik verbunden lebensbedrohlichen Risiken, die zur generellen Ablehnung in Deutschland führten, werden ignoriert. Auch hier werden die „Gesamtkosten“ nicht beachtet.
Unterschlagen werden auch die Risiko-Kosten, die mit der wachsenden Unzuverlässigkeit der Elektroenergieversorgung durch zunehmende Nutzung fluktuierender Erzeugungsanlagen verbunden sind: Wie hoch sind die volkswirtschaftlichen  Kosten eines landesweiten Blackouts über einen Tag oder gar eine Woche? Im DIW-Bericht taucht eine solche Überlegung nicht auf.
Der EU wird vorgeworfen, dass in ihren Szenarien „nicht die gesellschaftlichen Kosten der Stromerzeugung, wie zum Beispiel die Risikokosten für Atomenergie oder auch die Umweltkosten von fossilen Energieträgern“ berücksichtig werden. Daher würden „die tatsächlichen Kosten dieser thermischen Stromerzeugung weit unterschätzt“ und „die Kosten der Erneuerbaren werden perspektivisch überschätzt. Das vom DIW monierte „ungleiche Bild der Stromerzeugungsperspektiven“ wird – allerdings  mit umgekehrten Vorzeichen – vom DIW selbst gezeichnet!
Ähnlich einseitig wie bei Kostenbetrachtungen gehen die Autoren mit der Bewertung der künftigen technischen und wirtschaftlichen Entwicklung um.
So unterstellen sie bei den Alternativenergien Wind und Sonne „angesichts technischer Innovationen sowie noch reichlich vorhandenem Lernpotential bis 2050 weitere Rückgänge spezifischer Produktionskosten.“ Sie begründen das mit folgenden Aussagen:
–          Photovoltaik: Es gab „sowohl steigende Wirkungsgrade als auch Kostensenkungen bei den Anlagen; dies führte zu erheblich rückläufigen Durchschnittskosten“
–          Onshore-Windkraftanlagen: Es gab „in den vergangenen Jahren erhebliche Produktionszuwächse sowie Kostenrückgänge. Die meisten Szenarien rechnen damit, dass auch in Zukunft Kostensenkungen möglich bleiben.“
Bei der (ungeliebten) Kernenergie dagegen nehmen die Autoren an, dass es dort keinen technischen Fortschritt gibt, der zur Kostendegression führt: „Entsprechend den bisherigen empirischen Erfahrungen steigender sicherheitstechnischer Anforderungen ist auch für diese Generation von Kraftwerken (die dritte – D. U.) künftig nicht mit Kostendegression zu rechnen; vielmehr werden konstante Kapitalkosten angenommen.“
Es wird zwar eingeräumt, dass Alternativenergien „heute noch mit höheren Investitionskosten verbunden“ sind „als einige konventionelle Stromerzeugungstechnologien“, jedoch wird eine „starke Kostendegression“ in den vergangenen Jahren lediglich bei den (geliebten) Alternativenergien konstatiert.
Also: Technisches Entwicklungspotential gibt es nur bei den alternativen Energien, nicht aber bei der Kernenergie!

Zusammenfassung:

Die DIW-Studie zeichnet sich insbesondere durch zwei grundlegende Fehler aus:
1. Es werden selbstgestellte – und sehr berechtigte – Forderungen nach einer Gesamtkosten-Betrachtung bei der Bewertung von Techniken zur künftigen Elektroenergieerzeugung nur sehr einseitig realisiert, nämlich nur dann, wenn eine Technik-Richtung diskriminiert werden soll (Kernenergie). Bei den politisch-ideologisch gewünschten Technologien werden entscheidende Bestandteile der Gesamtkosten völlig außer Betracht gelassen.
2. Ebenso einseitig wird einigen Techniken (Alternativenergien) ein großes technisches Entwicklungspotential unterstellt, während der Kernenergie überhaupt kein Entwicklungspotential eingeräumt wird.
Aufgrund der dilettantischen Herangehensweise an die Bearbeitung des hochwichtigen Problems der künftigen Elektroenergieversorgung in Deutschland kann die DIW-Studie „Europäische Stromerzeugung nach 2020: Beitrag erneuerbarer Energien nicht unterschätzen“ von Chr. von Hirschhausen, C. Kemfert, F. Kunz und R. Mendelevitch nicht als wissenschaftliche Arbeit bewertet werden.
Dr. Dietmar Ufer ist promovierter Energiewirtschaftler und Gründungsmitglied von EIKE
Hier ein paar links zum Hintergrund von Frau Kemfert
http://kuerzer.de/8PyVQBTdN
http://kuerzer.de/VpSsstYo8
http://kuerzer.de/3cp9OADVc
Mit Dank an Leser C. Thumulla