Statistisch gesehen, begann der leicht wärmende Klimawandel erst mit dem Ende des kalten Krieges signifikant zu werden

Man versucht, diesem Problem inzwischen mit verfeinerten statistischen Methoden wie der trendbeseitigenden Fluktuationsanalyse (DFA)[3] zu begegnen. Doch auch damit ist das wirkliche Basisproblem der ungenauen, historischen Daten nicht lösbar, schlimmer noch, gerade diese Methode ist auf genaue Vergangenheitsdaten angewiesen.



Video (leider nur in Englisch) von Pat Frank (Juli 10, 2016, Omaha, Nebraska.) als Ergänzung zu den im Beitrag behandelten immensen Unsicherheiten, die den historischen Temperaturdaten zwangsläufig und unabänderlich innewohnen. (Details dazu u. hier und hier und hier) Im Video zeigt der Vortragende unmissverständlich und unwiderlegbar auf, dass bei Anwendung der Fehlertheorie mit ihrem Fehlerforpflanzungsgesetz jegliche Klima-Modellaussage völlig bedeutungslos wird. Weil ihre berechneten Änderungen z.B. der Temperatur, z:B. allein auf Grund der ungenauen Kenntnis der Wolkenbedeckung 140 mal kleiner ist als die unvermeidbare Unsicherheit, die aufgrund des Gesetzes der Fehlerforpflanzung zwangsläufig entsteht. Und der Fehler durch die Wolkenbedeckung ist nur einer von vielen Fehlern.

Hinweis: Wer sich konkreter über diese statistische (DFA) Methode informieren möchte, findet in [6] und vor allem [4] gut erklärende Basisinformation. In [4] sind zudem zwei Temperaturmessreihen in Asien als Beispiele detailliert analysiert und dabei gezeigt, wie weit Trendaussagen abhängig von der verwendeten statistischen Methode differieren können (Anm.: dieses Beispiel aus [4] ist in der Dissertation [8] aufgegriffen und mit Zusatzinformation ergänzt) .
Trotzdem sind die Ergebnisse interessant, da sie die enormen – und wesentlich größer als bisher angenommenen – statistischen Unsicherheiten der Temperaturreihen aufzeigen.

Beispiel Messreihe von Bajtyk (Mongolei).
[4] Tab. 3; 1915-2001: Bajtyk

– Lineare Trendanalyse: 0,7°C auf 100 Jahre;

– DFA-basiertes Verfahren: 0,0 – 0,5°C auf 100 Jahre
Zusätzlich ist dort auch gezeigt, dass die zwei nur 320 km weit entfernte Temperaturstationen Karakol eine deutlich abweichende Trendaussage liefert. Dort beträgt der Trend:
Station Karakol: +1 °C +-0,2 in 100 Jahren

Nach der DFA-Trendanalyse begann der Klimawandel – wenn man ganz sicher sein will – erst nach 1990

In der Dissertation [8] wurde nach der DFA Methodik errechnet, ab wann ein von der Vergangenheit unabhängiger, neuer Temperaturtrend sicher besteht. Er beginnt mit dem Jahr 1990.

[8] In diesem Fall hat man für die näher diskutierten Rekonstruktionen Detektionsjahre id im Bereich von 1990 (Mann1999), 1993 (Briffa2000), 1994 (McIntyre2003) und 1995 (Esper2002) bis 1998 (Moberg2005) und 2002 (Jones1998).

Die Dissertation zeigt aber auch die mit der verbesserten Statistik nicht gelöste Problematik der historischen Ungenauigkeiten, denn Rekonstruktionsanalysen mit „geraden“ historischen Verläufen führen natürlich auch zum früheren „Beleg“ eines Klimawandel-Trends.

[8] Diese Analyse zeigt auch, wie wichtig es ist, über präzise Rekonstruktionen zu verfugen. Denn nur auf ihrer Basis kann die gegenwärtige Klimaerwärmung untersucht werden.

Was gerade global berechnet wurde, zeigt sich ebenfalls deutlich an den Temperaturverläufen in Deutschland (Bild 1) und auch von England (Bild 2). Erst ab dem Jahr 1990 beginnt der wirklich steile Temperaturanstieg. Dies gilt sowohl für die Globaltemperatur (Bild 1), wie auch im Detailverlauf der Station Potsdam (Bild 3), die wegen ihrer seltenen, langen Zeitreihe für Analysen gerne verwendet wird..
Um zu zeigen, über welche großen Zeitintervalle der Temperaturverlauf nicht mit dem anthropogenen CO2-Eintrag korreliert, ist auch dies anhand der Temperaturreihen von Deutschland und England dargestellt (Bild 2).


Bild 1 Bild 1 Temperaturverlauf Deutschland 1750 – 2016, Jahreswerte (blau, linke Temperaturskala), gleitender 30-Jahre Mittelwert (rot, rechte, gedehnte Temperaturskala). Vom Autor anhand der DWD Daten erstellt

Bild 2 Temperaturverlauf Deutschland (dunkelgrün) und Zentralengland (gelb) gleitende 30-Jahre Mittelwerte. Startwert Deutschland auf das Jahr 1783 mit dem Wert von England normiert. Die rechte Temperaturachse gilt für England, der Wert von Deutschland liegt um 1,33 Grad niedriger. Darüber eine Verlaufsgrafik des anthropogenen CO2-Eintrags (schwarz) kopiert. Grafik vom Autor erstellt.

Die Temperaturreihe von Potsdam

In globalen Kurven sind solche Artefakte aufgrund der vielen Mittelungen stark „verwischt“, in Einzelkurven zeigen sie sich deshalb deutlicher.
Das folgende Bild 3 zeigt den Temperaturverlauf der Station Potsdam (Anm.: Der Verlauf der Station Berlin Dahlem ist praktisch identisch). Genau mit der Wiedervereinigung 1989 zeigt sich nach einer langen, horizontalen Stagnation der Beginn eines deutlichen Trends, den auch sowohl der Verlauf von Deutschland und auch von England in Bild 2 aufweisen.


Bild 3 Temperaturverlauf Messstation Potsdam 1883 – 2015 (DWD-Stations-ID 3987) vom Autor aus den Daten erstellt.
Jahresmittel (schwarz), gleitendes Jahresmittel (gelb), gleitendes 30-Jahre Mittel (rot, Hinweis: rechte Temperaturachse),
+-0,5 °C Mittelwerttoleranz (grüner Doppelpfeil)

Um zu zeigen, wie unspektakulär sich dies ohne gedehnte Temperaturachsen darstellt, sind die gleichen Verläufe im Bild 4 bezogen auf die 0-Grad Achse gezeigt. Jeder Leser versuche einmal, die der Welt noch zugestandenen +0,6 Grad Temperaturerhöhung (sind dann +1,5 Grad seit Beginn der Industrialisierung) darin als Problem zu entdecken, wie es unserm Bundestag mit der einstimmigen Verabschiedung des Klimaschutzgesetzes am 22.09.2016 gelang.


Bild 4 Gleiche Daten wie Bild 1, aber bezogen auf 0 Grad und einheitliche Skalierung

In einer statistischen Studie [7] wurde der Fehlerbereich des Mittelwertes der Temperaturreihe Potsdam berechnet und mit +-0,5 °C angegeben.

[7] If the Potsdam anomalies were identically independently distributed data, this error would be about 0.07◦C. For AR(1) data with the given auto-correlation time, it would be about 0.2°C, for a pure long range correlated data set it would be about 0.3°C, and for the model which fits best the data it is 0.5°C.
As particular results, we found that the 95% confidence intervals for 30-year averages of the Potsdam temperatures (Darwin temperatures) are almost as large as (even larger than) the whole warming effect of the past 100 (50) years. Although the physical con sequences of increasing greenhouse gas concentrations are undebatable, this work shows that a quantitative assessment of climate change from observed data is still challenging.
The results shown for Potsdam and Darwin admit with low but finite probability both the absence of climate change as well as a warming of already much more than 1 °C, and without the past 5 years of data, the same analysis shows much less significance for warming.

[Übersetzung von Chris Frey: Falls die Anomalien von Potsdam identische unabhängig verteilte Daten wären, läge dieser Fehler bei etwa 0,07°C. Für die Daten im AR 1 mit der gegebenen Autokorrelationszeit wäre er etwa 0,2°C, für einen reinen, langfristig korrelierten Datensatz etwa 0,3°C und für das Modell, das am besten zu den Daten passt, wäre er 0,5°C.

Im Einzelnen fanden wir, dass die 95%-Vertrauensintervalle für 30-jährige Mittelwerte der Temperaturen von Potsdam (und der von Darwin) fast genauso groß (sogar noch größer) sind als der gesamte Erwärmungseffekt der letzten 100 (50) Jahre. Obwohl die physikalischen Konsequenzen zunehmender Treibhausgas-Konzentrationen nicht zur Debatte stehen, zeigt diese Arbeit, dass eine quantitative Abschätzung des Klimawandels aus Messdaten immer noch eine Herausforderung ist.

Die Ergebnisse für Potsdam und Darwin räumen mit geringer, aber eindeutiger Möglichkeit ein, dass sowohl das Fehlen eines Klimawandels als auch eine Erwärmung von schon jetzt mehr als 1°C abgeleitet werden kann, und ohne die Daten der letzten 5 Jahre würde die Analyse viel weniger Signifikanz für eine Erwärmung zeigen.]

Danach wäre der 30-Jahre Mittelwert der Station Potsdam erst in den letzten Jahren gerade eben aus dem statistischen Fehlerbereich einer horizontalen Verlaufslinie herausgekommen und die Wahrscheinlichkeit, dort wieder hineinzulaufen sehr hoch (sofern wie angenommen die jüngsten Temperaturspitzen zyklisch bedingt sind).

Fazit

Genauere statistische Trendanalysen zeigen, dass die Fehlerbänder der Temperaturkurven wesentlich größer sind als bisher (aus der Stichprobenstatistik berechnet) angenommen. Sie zeigen zudem, dass der belegbare Beginn der Warmphase erst mit den 90er Jahren des letzten Jahrhunderts wirklich begann und man kann zeigen, dass eine starke Korrelation des warmen Klimawandel-Beginns mit dem Ende des kalten Krieges besteht (sowie wie auch mit dem Steigen der US-Postgebühren). Ein gutes Beispiel, wie viel Unsinn selbst starke Korrelationen über die wirklichen Zusammenhänge aussagen können, allerdings auch eine Tatsache, die zum Grübeln über die AGW-Theorie Anlass gibt.

Wer sich schon immer gewundert hat (wie der Autor), wie zu offensichtlich mindestens ungenauen Proxi- und Temperaturverläufen extrem enge Vertrauensbereichs-Bänder hinterlegt sind (weil sie der Computer so berechnet hat, der von statistisch einwandfreien Daten ausging) mit der Wirklichkeit nicht überein stimmen können, findet sich hier bestätigt.

Anm.: Das Thema der Temperaturstufen wurde in [2] bereits mit vielen Beispielen dargestellt.

Nachtrag

Zum Verlauf von globalen Temperaturkurven ein Anhang.
Die Temperaturstationen werden laufend ausgetauscht (wie im ersten Absatz beschrieben) und verändert. Anfang der 70er Jahre des letzten Jahrhunderts begann man jedoch, die Stationszahl extrem auszudünnen und zwar vor allem in ländlichen (also kühleren!) Gebieten[10]. Die Auswirkungen auf die Temperatur korrelieren erkennbar deutlich und ist besonders um das Jahr 1990 auffallend. Dies könnte manche Erklärungen für den „sonderbaren“ Verlauf von Temperaturkurven liefern.

Bild 5 NASA GISS Globaltemperatur (Screenshot der GISS Animation) und vom Autor darüber kopiert die Grafik mit Anzahl und Art der Temperaturstationen aus [10]. Hinweis: die Verlängerungen der Stationsanzahl mit den dunkelgrün gestrichelten Linien sind vom Autor ohne Datenhintergrund rein fiktiv zugefügt.

Bild 6 NASA Giss US Landdaten (Screenshot der Giss Animation) und vom Autor darüber kopiert die Grafik mit Anzahl und Art der Temperaturstationen aus [10]. Hinweis: die Verlängerungen der Stationsanzahl mit den dunkelgrün gestrichelten Linien sind vom Autor ohne Datenhintergrund rein fiktiv zugefügt.

Quellen

[1] EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k
http://www.eike-klima-energie.eu/news-cache/die-problematik-der-temperaturrekonstruktion-eine-beispielhafte-sichtung-dazu-anhand-des-projektes-pages-2k/

[2] EIKE 06.11.2015: Langfrist-Temperaturverläufe Deutschlands: Das Phänomen der „Temperaturstufen“
http://www.eike-klima-energie.eu/news-cache/langfrist-temperaturverlaeufe-deutschlands-das-phaenomen-der-temperaturstufen/

[3] EIKE 23.09.2016:Konfidenz-Intervalle für zeitliche Mittelwerte bei langfristigen Korrelationen: eine Fallstudie zu Anomalien der Temperatur auf der Erde
http://www.eike-klima-energie.eu/news-cache/konfidenz-intervalle-fuer-zeitliche-mittelwerte-bei-langfristigen-korrelationen-eine-fallstudie-zu-anomalien-der-temperatur-auf-der-erde/

[4] Zentrum für internationale Entwicklungs- und Umweltforschung der Justus-Liebig-Universität Gießen
Discussion Paper Ivo Mossig* und Diego Rybski 2005: Die Erwärmung bodennaher Luftschichten in Zentralasien Zur Problematik der Bestimmung von Trends und Langzeitkorrelationen

[5] EIKE 09.09.2016: Hat die barbusige Dame um 1830 gegen den Klimawandel gekämpft? Eine ganz aktuelle Studie legt es nahe
http://www.eike-klima-energie.eu/news-cache/hat-die-barbusige-dame-um-1830-gegen-den-klimawandel-gekaempft-eine-ganz-aktuelle-studie-legt-es-nahe/

[6] Horst-Joachim Lüdecke 26.Feb. 2013: Klimatrends in Temperaturreihen

[7] Max Planck Institute for the Physics of complex SystemsM. Massah, H. Kantz 2016: Confidence intervals for time averages in the presence of long range correlations, a case study on earth surface temperature anomalies

[8] Institut für Theoretische Physik Gießen, Diego Rybski Dissertation 2006: Untersuchung von Korrelationen, Trends und
synchronem Verhalten in Klimazeitreihen

[9] EIKE: US Klimainstitut (GISS) verfälscht rückwirkend Temperaturdaten!
http://www.eike-klima-energie.eu/klima-anzeige/us-klimainstitut-giss-verfaelscht-rueckwirkend-temperaturdaten/
[10] WUWT 2009: How bad is the global temperature data?

How bad is the global temperature data?




Vom Klimawandel zur Energiewende – Eine umfassende Prüfung der zugrundeliegenden Annahmen“ (Autor: Klaus-Peter Dahm).

In nüchterner Sprache und in einer Art Bestandsaufnahme werden auf 257 Seiten die aktuellen Daten zum Klimawandel und zur Energiewende mit den Hypothesen, Prognosen und politischen Versprechungen verglichen. Der Vergleich fällt ernüchternd bis vernichtend zu Lasten der Hypothesen, Prognosen und politischen Versprechungen aus. So gut wie nichts von dem, was oft unter großem medialen Getöse, in der Öffentlichkeit zu den genannten Themen behauptet wird, hält einer kritischen Überprüfung stand.

Das zeigen der Autor mit seinen Ko-Autoren in vielfältiger Weise und nüchterner unaufgeregter Sprache auf. Besonders hervorzuheben ist dabei die große Anzahl belastbarer Quellen die am Ende eines jeden Kapitels angegeben sind. Damit wird das Buch schnell zu einer Art Nachschlagewerk für Leser die das eine oder andere zwar erinnern, aber nicht so recht die Einzelheiten wissen

Hier eine kurze Inhaltangabe

Der heutige Klimawandel ist eine Tatsache. Aber wird dieser Klimawandel wirklich durch uns Menschen verursacht? Das Klima ändert sich ja nicht erst heute, sondern Klimaschwankungen − z. T. deutlich stärker und auch schneller als heute − existieren schon seit mindestens 2.300 Millionen Jahren. Der Autor Dr. sc. nat. Klaus-Peter Dahm, der die Diskussion um den Klimawandel schon länger intensiv verfolgt, prüft das Modell von der menschlich verursachten globalen Erwärmung auf streng wissenschaftlicher Basis nach dem heute üblichen Verfahren der Falsifikation und kommt zu überraschenden Ergebnissen. Im zweiten Teil geht der Autor auf die Energiewende in Deutschland ein und unterzieht auch hier die zugrundeliegenden Annahmen einer intensiven wissenschaftlichen Prüfung. Das Ergebnis ist wenig schmeichelhaft für unsere Energiepolitik.

Wer sich kritisch mit der Thematik „Klima und Energie“ auseinandersetzen möchte und nach einer sachlichen und klaren Analyse dieser komplizierten Materie sucht, wird sie in diesem Buch finden. Es ist auch für den Laien verständlich, aber mit dem notwendigen wissenschaftlichen Anspruch geschrieben. Die Recherche beruht auf zahlreichen seriösen Quellen, welche nach jedem Kapitel angegeben werden. Insgesamt 69 Abbildungen, davon 30 farbig, und 7 Tabellen erleichtern das Verständnis des Textes.

Über die Autoren

Der Autor ist Geochemiker und Rohstoffexperte. Nach der Wende war er 10 Jahre als kommunaler Spitzenbeamter tätig. 2015 ist von Dr. Klaus-Peter Dahm, zusammen mit Prof. Wolfgang Merbach und Dr. Detlef Laves, erschienen: „Der heutige Klimawandel – eine kritische Analyse des Modells von der menschlich verursachten globalen Erwärmung“.

Erschienen im Verlag Dr. Köster Berlin, Preis 24,95 € zu beziehen hier

ISBN 978-3-89574-909-4




Ethik-Kommission „Windkraft-Ausstieg“ – Ergänzung

Mir erschien das als technischer Wunderglaube und unrealistisch.

Herr Fritz hat die Beweise.

Die folgenden Ausführungen im ersten Teil stützen sich stark auf seine Veröffentlichungen, die er für die Bürgerinitiative BNB Buocher Höhe (Rems-Murr-Kreis, Baden-Württemberg) erarbeitet hat (1, 2). Im Anschluss stelle ich die Frage nach dem „danach“, also nach dem Betriebsende der Windräder.

Die schlechte Bilanz der Windstromerzeugung

Mit den bekannten statistischen Wind(stärke)-Verteilungen sowie mit den öffentlich verfügbaren Windgutachten kann man die Verteilung des gesamten Stromertrags über das Jahr bestimmen.

Die Bilanz ist – gemessen an dem ungeheuren getriebenen Aufwand für die Überflutung des Landes mit Windrädern – eher deprimierend.

– Im Binnenland werden innerhalb von 245 Tagen (aufsummiert also in 8 Monaten) gerade einmal 20% des gesamten Jahresertrages erbracht. In dieser Zeit können nur wenige, bei Windstille gar keine Haushalte mit der erforderlichen Versorgungssicherheit durch Windstrom versorgt werden. Dies wird dann fast ausschließlich durch Kohle- und Kernkraftstrom; zunehmend auch durch Importe realisiert.  Dass es keine Möglichkeit gibt, Erzeugungslücken durch andere Windparks in Deutschland oder auch Mitteleuropa auszugleichen, wurde im Artikel erläutert.



Video: Dieser Film zeigt die Leistung der Wind- und Solareinspeisung in Deutschland für den Monat Oktober 2015 gegenüber dem tatsächlichen Bedarf (hellere braune Kurve). Das erste Bild zeigt die realen Daten (1/4 h Werte). Für die kommenden 9 Bilder wurde die installierte Nennleistung der Windkraftanlagen in Schritten verdoppelt, verdreifacht usw. bis verzehnfacht, während die Solarkapazität bei 50 GW gedeckelt wurde. Man sieht deutlich:

1. Dass die EE-Einspeisung im MIttel zu keinem Zeitpunkt trotz einer maßlosen Erhöhung der Kapazität auf ca. 480 GW den Bedarf decken konnte.

2. Dass die Minimaleinspeisung zu keiner Zeit auch nur den annähernde den minimalen Bedarf decken konnten. Damit ist die Behauptung, Wind wehe immer irgendwo, als falsch entlarvt.

3. Dass die Spitzenwerte der EE-Einspeisung überproportional ansteigen, und dabei den Bedarf um bis das 2,3-fache übertreffen, allerdings auch dann nie die installierte Nennleistung in Höhe von rd. 480 GW auch nur annähernd erreichen. Dieser Strom kann nicht verbraucht werden und muss entweder abgeregelt oder ins Ausland zu u.U. Negativpreisen – also per Zuzahlung – entsorgt werden.

– Der mit 80% weit überwiegende Teil des Jahresertrags wird in aufsummiert 4 Starkwindmonaten erbracht. In dieser Zeit wird jedoch von den WKA zu viel Strom erzeugt, der in Deutschland weder gespeichert noch verbraucht werden kann. Weil allein vom Wetter bedingt, ist nichts davon planbar. Dieser Strom wird „entsorgt“, indem man ihn in das benachbarte Ausland exportiert, wofür man dann allerdings gar keinen Erlös erhält, sondern im Gegenteil noch Zuzahlungen leisten muss. Dieses hauptsächlich in den Wintermonaten praktizierte skandalöse Verfahren hat die beschönigende Bezeichnung „negative Preise“. Auch diese Mehrkosten tragen  die Verbraucher. Dieser entsorgte Überschußstrom müsste im Grunde von der Jahresproduktion der deutschen WKA subtrahiert werden, was natürlich nicht geschieht.

– Berechnungen haben längst ergeben, dass selbst eine Verzehnfachung der WKA-Anzahl in Deutschland an dieser Situation nahezu nichts verändern könnte. Dennoch geht nach dem Willen der Bundesregierung der Windkraft-Ausbau unverändert weiter.

Der Referenzertrag: Die einzige aussagekräftige Vergleichsmöglichkeit

Im EEG wurde der Referenzertrag in den Kernaussagen wie folgt definiert:

Der Referenzertrag ist die für jeden Typ einer WKA…bestimmte Strommenge, die dieser Typ bei Errichtung an dem Referenzstandort rechnerisch auf Basis einer vermessenen Leistungskennlinie in 5 Betriebsjahren erbringen würde.

Der Referenzstandort ist ein Standort der bestimmt wird durch eine Rayleigh-Verteilung (d.h. die Häufigkeitsverteilung der mittleren Windgeschwindigkeiten) mit einer mittleren Windgeschwindigkeit von 5,5 Metern je Sekunde in einer Höhe von 39 m über Grund…

Dieser Referenzertrag wird für jeden WKA-Typ ermittelt und von den Herstellern angegeben – für die gängigsten Anlagen ist er im Internet abrufbar.

Somit ist auch für die o.e. Schwachwindanlagen der Referenzertrag bekannt – und er kennzeichnet deren wahre Leistung, ohne die hier irreführenden Volllaststunden zu verwenden. 

Durch den Vergleich des erwarteten und auch des tatsächlich erbrachten Ertrages mit dem Referenzertrag des betr. WKA-Typs kann die Qualität eines Standortes beurteilt werden. Entsprechend den unterschiedlichen Standortverhältnissen liegen daher die Referenzerträge errichteter Anlagen in Schleswig-Holstein über 100% und in Baden-Württemberg weit unterhalb von 100%.

Mehrfach wird eine Mindestschwelle von 60% empfohlen; Banken und Investoren – inzwischen gebrannte Kinder – verlangen jedoch 80%.

Vom Verwaltungsgericht Stuttgart wurde in einer Beschlußsache bestätigt, dass ausschließlich der Referenzertrags-Anteil das Kriterium zur Beurteilung der Standortqualität sei.

Genutzt hat es bisher nicht viel, was am immer weiter gehenden Zubau von Windrädern in den besonders windarmen südlichen Bundesländern zu beobachten ist. 

Der Referenzertrag wird  von Landesregierungen grundsätzlich als Kriterium für die Rentabilität betrachtet und betreffende Zahlen – so z.B. 60% in Baden-Württemberg – wurden bis Ende 2012 gefordert, um überhaupt eine erhöhte EEG-Vergütung zu erhalten. Aus den statistischen Daten des Landes B.-W. ergibt sich allerdings, dass es im Lande nur ganz wenige Gebiete gibt, in denen mehr als 60% des Referenzbetrages erreicht wurde. Die allermeisten dortigen WKA produzieren folglich Verluste. Dass sie trotzdem überhaupt errichtet worden sind, lag an zu optimistischen – also falschen – Windgutachten, mit denen die Investoren gewonnen wurden und an fehlenden Kontrollen der Länder bezüglich der sich daraus ergebenden Fehlentscheidungen.

Tatsächlich wurden die störenden Referenzertragsdaten nicht beachtet, um auf jeden Fall einen Zubau an Windkraftanlagen zu erreichen.

Dieses Problem war bundesweit zu beobachten.

Mit den attraktiv hohen, aber irrelevanten Volllaststunden der Schwachwindanlagen, deren Referenzertragsanteil nur unwesentlich höher als der von üblichen WKA ist, wird jetzt von den Anbietern versucht, die Zustimmung zu ihrem Bau zu bekommen.

Schwachwindanlagen – so täuscht man Investoren

Für Anlagen, die normalerweise niemand an windschwachen Standorten bauen und betreiben würde, gibt es nun Dank der Industrie Lösungen, die im Zusammenhang mit der buchstäblich schwachsinnigen besonders hohen EEG-Förderung für Schwachwindstandorte interessant werden: Die Industrie entwickelte jetzt spezielle Windturbinen, die beispielsweise der Hersteller Enercon wie folgt bewirbt:

„Die E-92 ist auch speziell für windschwächere Standorte geeignet“; „Die E-101…ist mit variablen Nabenhöhen bis 149 m auch für Standorte mit weniger intensiver Windentwicklung geeignet“ und „,,,garantiert die E-82 auch im Binnenland optimale Ertragswerte“.

Die Vergleichsrechnung von W. Fritz (s.u.) belegt allerdings etwas anderes.

So lange die Subventionierung ausreichend dimensioniert ist, steht damit Dank dieser bewunderungswürdigen deutschen Ingenieursleistung der totalen „Verspargelung“ Deutschlands zumindest technisch nichts im Wege. 

Es gibt heute Anlagen, die selbst bei einer mittleren Windgeschwindigkeit von nur 5,3 m/sec erstaunliche 2400 Volllaststunden erreichen. Da kommt selbst Schleswig-Holstein nicht mit.

Der Trick dabei: Die Leistung, die ein Windrad der Windströmung entnimmt, hängt linear von der Fläche ab, die vom Rotorkreis gebildet wird. Mit größeren Rotoren kann man dank dieser dann größeren Fläche auch bei geringerer Windstärke dennoch mehr Leistung und Ertrag erhalten, als es eine übliche WKA bei diesen Verhältnissen erbringen würde. Weil die im Binnenland vorherrschenden Windgeschwindigkeiten von unter 7 m/sec sowieso keine hohe Nennleistung der Anlage erfordern, kombiniert man also riesige Rotoren mit relativ leistungsschwachen Generatoren, die dann bei stärkerem Wind häufiger bis zu ihrer geringeren Maximalleistung in die Begrenzung hochlaufen – und damit rechnerisch eine hohe Volllaststundenzahl erreichen. Einfach ausgedrückt: Sie leisten in Bezug auf ihre Stromerzeugung nur geringfügig mehr, diese Stromerzeugung zieht sich aber über einen längeren Zeitraum im Jahr hin, wobei natürlich die vielen typischen Erzeugungslücken bleiben.

Und das führt zu höheren und werbewirksameren VLH, als es bei den normalen Anlagen der Fall ist.

Dipl-Ing. Willy Fritz hat dazu einen Vergleich zwischen einer „Normal-WKA“ und einer Schwachwindanlage berechnet:

Betrachtet werden Anlagen des gleichen Herstellers Enercon:

– Die E-101 mit 140m Nabenhöhe, 101m Rotordurchmesser und 3 MW-Generator, Kosten 5,2 Mio €;

– und die E-115, eine Weiterentwicklung der E-101 und als Schwachwindanlage bezeichnet, mit 115m Rotordurchmesser und 2,5 MW-Generator. Kosten: 5,7 Mio €.

Mit einer angenommenen Windgeschwindigkeit von 5,3 m/sec (Buocher Höhe in B.-W.) wurde  eine Ertragsberechnung durchgeführt, die folgende Komponenten enthielt:

– Jahresertrag in GWh

– Jahreserlös abzüglich 27,5% Betriebskosten

– Referenzertrags-Anteil (%)

– Volllaststunden

– Investitionskosten

– Kapitalkosten (8% von Investitionskosten)

– Unter- bzw. Überdeckung (Netto-Jahreserlös minus Kapitalkosten).

Das Ergebnis:

E-101                                   E-115

Ertrag                                5,2 GWh                             5,8 GWh

Referenzertrags-Anteil         55%                                     61%

VLH                                    1700 h                                  2340 h

Unter-/Überdeckung       – 80.470 €                            – 81.755 €

Die Schwachwindanlage E-115 erzeugt einen um 11,5% höheren Stromertrag als die E-101, erfordert dafür aber 10% höhere Investitionskosten.

Beide Anlagen erbringen die gleiche Unterdeckung; von einer Rentabilität kann nicht die Rede sein – und die hohen Volllaststunden der Schwachwindanlage, die eine starke Zunahme der Wirtschaftlichkeit suggerieren, sind irreführend.

Je geringer die Generatorleistung der Schwachwindanlage, umso höher werden rechnerisch die VLH. Es wäre nicht verwunderlich, wenn demnächst auf diese Weise Anlagen mit über 3000 Stunden VLH angepriesen werden.

Was in dieser Berechnung noch nicht berücksichtigt wurde: Die riesigen Rotoren werden bei dem klar beabsichtigten Bau dieser Anlagen in Wäldern noch mehr Platzbedarf für ihren Transport verursachen, also werden noch breitere Schneisen durch den Wald geschlagen als jetzt schon.

 

Daraus folgt eine Warnung: Der bisher stets benutzte Vergleich der in den verschiedenen Bundesländern erzielten Volllaststunden hat nur einen Sinn, wenn Anlagen der bisherigen Bauart, also WKA für höhere und mittlere Windstärken betrachtet werden. Das ist bei der  Darstellung in Abb.1 der Fall, also kann man daraus (noch) vernünftige Schlussfolgerungen ableiten.

Bei den neuerdings speziell für das windarme Binnenland entwickelten Schwachwindanlagen mit sehr großen Rotoren und eher schwächeren Generatoren ergeben sich rechnerisch erstaunlich hohe VLH, die jedoch als Maß für die tatsächliche, wegen des mageren Windangebots kaum steigerungsfähige Stromerzeugung nicht mehr zu gebrauchen sind. Diese VLH dienen dann nur der Vortäuschung von Effizienz und sollen ahnungslose Investoren beeindrucken.

Brauchbar für eine Beurteilung sämtlicher WKA ist allein deren Ertrag im Verhältnis zu einem sog. 100-Prozent-Referenzertrag – das ist ein Normertrag, den eine WKA unter genau definierten Testbedingungen erbringen muss(s.o.).

 Abb.1 zeigt die Volllaststunden (VLH) aller deutschen WKA über 26 Jahre (rechte Skala) – und ebenfalls die Stromerzeugung in TWh (Milliarden kWh) als blaue Säulen sowie die Gesamt-Maximalleistung der WKA als rote Säulen (linke Skala). Man erkennt, dass der Zubau an WKA, der sich in der steigenden Gesamtleistung zeigt, keineswegs immer mit einer Erhöhung der Stromproduktion einhergeht – wie in den „schlechten Windjahren“ 2009 und 2010. Umgekehrt gilt: In einem guten Windjahr wie 2015 steigt die Erzeugung deutlich stärker als der Zubau. Da die VLH-Kurve im Mittel konstant bleibt, gab es keine technischen Fortschritte mehr in Bezug auf die Erhöhung des Wirkungsgrades. Die Anlagen wurden nur immer größer. Dies wird sich jedoch bei einem signifikanten Anstieg des Anteils an sog. Schwachwindanlagen evtl. in den kommenden Jahren verändern. Dann werden die VLH-Mittelwerte verfälscht und jede Vergleichbarkeit über die VLH fällt weg. Quelle: BMWi , Darstellung: Rolf Schuster

In dieser Ergänzung benutze ich die Gelegenheit, noch ein Thema anzusprechen, das bisher kaum betrachtet wird:

Wie lange „leben“ Windräder – und was passiert danach ?

Windkraftanlagen sind besonders hohen dynamischen Beanspruchungen ausgesetzt. Über die Höhe und die Breite der Rotorebene bestehen bereits erhebliche Unterschiede in der Windstärke. Stoßweise Böenkräfte und Vibrationen belasten die gesamte Konstruktion; die sich von den Rotoren ablösenden Turbulenzen erschüttern den Turm (Quelle des Körperschalls – s.o.) und das Fundament. Dies betrifft vor allem das Binnenland mit seinen stark böigen Winden. Eine die Lebensdauer verlängernde Überdimensionierung aller hochbelasteten Bauteile – eine gängige Praxis im Maschinenbau – verbietet sich aus Gewichtsgründen. Ob damit die immer genannte Lebensdauer von 20 Jahren im Durchschnitt tatsächlich erreicht werden kann, werden die Betreiber sehen. 

Sehr oft werden die in der zweiten Dekade ansteigenden Reparatur- und Wartungskosten unterschätzt, wie Werner Daldorf vom Bundesverband der Deutschen Windindustrie feststellte (3). Bei den neuen Riesenwindrädern gibt es noch keine Erfahrungen über deren Reparaturanfälligkeit. Experten gehen von einer eher nur 16-jährigen Betriebszeit aus (1). 

Und was kommt danach  ?

Dafür gibt es mehrere Möglichkeiten:

  1. „Repowering“, d.h. der Ersatz der alten WKA durch eine neue am gleichen Standort. Das setzt voraus, dass sich die Investoren davon eine Rendite erhoffen – und eine Genehmigung erhalten. Das wiederum hängt aber von mehreren in der Zwischenzeit eingetretenen Veränderungen der Randbedingungen ab, so z.B. Gesetzesänderungen (andere Fördersätze – oder deren Wegfall, Naturschutzbelange, Mindestabstände), aber auch Widerstand der Anrainer.
  1. Abriss und Verschrottung. Voraussetzung ist deren Finanzierung, wozu die heute mancherorts verlangte Bankbürgschaft in vielen Fällen nicht reichen wird. Der Erlös für den Windradschrott reicht nicht für eine ordentliche Entsorgung. Was in keinem Fall entsorgt werden kann, sind die riesigen Stahlbetonfundamente, die für die Ewigkeit im Boden verbleiben müssen, weil die niemand mehr heraus bekommt. Die Hinterlassenschaften des 3. Reichs an Stahlbetonbunkern und Panzersperren, die uns und unseren Nachbarländern noch sehr lange erhalten bleiben, sind dagegen geringfügig.
  1. Abriss und Verschrottung wären eigentlich fällig, aber es ist dafür kein Geld mehr da. Die Verantwortlichen können es nicht bezahlen. Dann bleiben die Riesenwindräder einfach stehen; irgendwann fallen die Rotorblätter ab. Streit gibt es dann darüber, wer die immer noch nötige Befeuerung mit roten Warnlichtern weiterhin bezahlen muss.
  1. Sprengen und Liegenlassen wäre die optische Billigvariante von Lösung Nr.3, die zumindest die hohen Türme aus dem Landschaftsbild verschwinden lassen und auch die Befeuerungsfrage lösen würde.

Die wahrscheinlichste Variante ist wohl die Nr.4.

Es ist nicht bekannt, ob sich darüber jemand im Umweltministerium Gedanken macht.

Den Beitrag „Ethik-Kommission Windkraftausstieg“ finden Sie hier

Quellen:

1.   Willy Fritz:  „Fehleinschätzungen der Windstromerzeugung“ (BNB Info Report 22.10.2014);

http://www.bnb-buocher-hoehe.de/images/dokumente/2014-10-22-Fehleinschaetzung%20der%20Windstromerzeugung-V2.pdf

BNB = Bürgerinitiative BNB Buocher Höhe (Rems-Murr-Kreis, Baden-Württ.)

2.   Wlly Fritz: „Die Zahlenkosmetik der Schwachwindanlagen“ ,

http://www.bnb-buocher-hoehe.de/images/fachbeitraege/2016-01-2016-05-Die%20Zahlenkosmetik%20der%20Schwachwindanlagen.pdf

3.   W. Daldorf, R. Ernst, H. Feddersen, Chr. Herz, H. Visel, J. Bonorden, J. Vry:

„Ratgeber für Windpark-Anleger“, Bundesverband Windenergie, Version 18.3.2011;

http://www.energieverbraucher.de/files_db/1300471869_4207_12.pdf

www.welt.de/wirtschaft/energie/article137970641/Macht-der-Infraschall-von-windkraftanlagen-krank.html

 




Aus dem Lehrbuch zur Erzeugung von Klimaalarm Teil 1 Kapitel: Wie macht man 13,1 Millionen Amerikaner zu Klima-Betroffenen

Bild rechts: Klima-Lügendetektor auf den Klimaretter.Info verweist
Nachdem sich wohl wegen der bevor stehenden Klimakonferenz in Marokko am 18. November die medialen Einschläge des Klimakampfes häufen, nimmt dies der Autor um Anlass, anhand einer dieser typischen Zeitungsmeldungen zu zeigen, welche wirklichen Informationen hinter solchen alarmistischen Meldungen verborgen sind.

Leider kommt diese Information für unsere Berliner Abgeordneten zu spät, da diese der Ratifizierung des Klimavertrags im Parlament bereits zugestimmt haben: SPIEGEL ONLINE „Bundestag billig Weltklimavertrag“. Aber man soll die Hoffnung nie aufgeben, dass trotz Klimawahn wenigstens im Nachspann welchen dämmern könnte, für welches künftige Klimawandel-Betrugsspiel (vorwiegend auf Kosten der Deutschen Bürger) sie ihre Stimme abgegeben haben.

Die Zeitungsmeldung

Das Hamburger Abendblatt und viele andere unserer investigativen Medien brachten kürzlich einen Artikel der dpa, welcher über neue – schlimme – Auswirkungen des Klimawandels in den USA berichtete:

(Kurzer Auszug): [1][2] Klimawandel bedroht US-Küsten: Millionen Menschen betroffen (dpa)
… Steigende Meeresspiegel könnten bis Ende des Jahrhunderts Millionen US-Amerikaner zwingen, ihre Heimat an den Küsten zu verlassen. Grund: die Erderwärmung, das zeigt eine aktuelle Studie.
Washington. Überflutungen, Küstenerosion, extreme Stürme – der Klimawandel kann zu einem ernsten Problem auch für die amerikanische Bevölkerung werden.
13,1 Millionen US-Amerikaner sollen bis Ende des Jahrhunderts unmittelbar vom Anstieg des Meeresspiegels betroffen sein, prognostiziert Geograf Mathew Hauer von der Universität Georgia mit seiner Forschungsgruppe in einer aktuellen Studie. …
Das Informationsportal der Klimaberaterin C. Kemfert wusste es bereits Monate früher und berichtete damals ebenfalls, wie oft, mit zugefügten, weiteren Apokalypsen:

Klimaretter.Info 15. März 2016: [3] USA: Meeresanstieg bedroht Millionen
Der Meeresspiegelanstieg könnte in den USA zu einem wahren Exodus der Küstenbewohner führen. … Den neuen Ergebnissen zufolge dürften deshalb weitaus mehr Menschen von den steigenden Ozeanen betroffen sein als bislang gedacht – dreimal mehr.
Diese Ergebnisse legen nahe, dass das Fehlen von Schutzmaßnahmen zu einer Bevölkerungswanderung in den USA führen könnte in der Größenordnung der Great Migration der Afroamerikaner im 20. Jahrhundert", schreiben die Studien-Autoren um Mathew Hauer von der Universität von Georgia.

Hinweis: In diesem Teil wir nur die These der angeblich 13,1 Millionen betroffener Amerikaner analysiert. Die vielen, weiteren Klimawandel-Problemmeldungen in der dpa-Information werden in einem späteren, 2. Teil dargestellt.

Die 13,1 Millionen Klima-Betroffenen

Der dpa-Zeitungsartikel (und Klimaretter.Info) beziehen sich auf die folgende Präsentation:
[5] Mathew E. Hauer at al.: Population Projections and Risk of Inundation from SLR for the United States in 2100
… welche in Präsentationsform das „Summary“ einer Studie der gleichen Autoren [4] darstellt.

In der Präsentation und der Studie steht sinngemäß:
[5]… bisherige Studien zur Ermittlung der von einem aufgrund des Klimawandels möglichen Anstiegs der Küstenpegel betroffenen US-Einwohner haben versäumt, den künftigen Bevölkerungszuwachs (bis zur Überflutung!) in die Berechnungen mit ein zu beziehen, weshalb alle bisherigen Schätzungen viel zu niedrige Werte ergeben. Die Autoren gehen davon aus, dass sich in den betroffenen Küstenregionen die Bevölkerung (bis zur Überflutung) im Jahr 2100 ungefähr um den Faktor 3 vermehren wird (was bisherige Studien fälschlicher Weise nicht angenommen haben). Von diesen, neuen Zahlen ausgehend, wurden bei einem angenommenen Pegelanstieg von 0m, 0.3m (1 feed), 0.9m (3 feet), und 1.8m (6 feet) die betroffenen Personen neu berechnet.
Dabei errechneten sich bei einem Pegelanstieg von 1,8 m und Verdreifachung der Bevölkerung 13,1 Millionen betroffene Personen.
Studie: [4] We find that in the continental United States approximately 13.1 million people are at risk under the 1.8m scenario (Figure 1)

In der Studienpräsentation [5] zeigt die folgende Grafik (Bild 1) die Auswirkungen eines Küstenpegel-Anstiegs auf die Küstenpopulation. Der Autor hat darin eingezeichnet, wie die 13,1 Millionen Betroffenen zustande kommen.

Bild1 [5] Studienpräsentation Figure 1, Anstieg des US Küstenpegels und betroffene US-Bürger. Die rote Linie kennzeichnet +1,8 m Anstieg und 13,1 Millionen Betroffene (rote Einträge vom Autor ergänzt)
Anmerkung: In der Studie ist das gleiche Bild ebenfalls als Figure 1 enthalten. Dort allerdings um eine dritte Linie mit dem niedrigen IPCC-Pegelwert von ca. 0,3 m ergänzt)

Diskussion: Wie hoch wird der wahrscheinlichere Meerespegel-Anstieg

Wie weit wird der Meeresspiegel bis zum Jahr 2100 steigen? Dazu findet sich praktisch jeder Wert zwischen 0 und mindestens 2 m.
Der Grund ist, dass man einen beliebigen Anstieg simulieren kann, indem man einfach verschiedene CO2-Szenarien und verstärkende Faktoren annimmt. Für hohe Pegel ist es erforderlich, dass das innere Grönlandeis schmilzt und die Antarktisgletscher ins Meer rutschen. Das ist in der von Menschen belebten Erdgeschichte (wahrscheinlich noch weit länger) zwar immer nur in der umgekehrten Richtung zu Eiszeiten hin geschehen, aber vom Menschen programmierte Computerprogramme ermitteln, es wäre möglich, dass es in den nächsten 84 Jahren dazu kommt, weil der Mensch eine Jahrmillionen dauernde Klimafolge aus dem Takt gebracht hat.
Auf dieser Basis lässt das IPCC simulieren und kam im letzten Sachstandsbericht zu den folgenden Ergebnissen:
IPCC AR5: Meeresspiegel: Bis Ende des 21. Jahrhunderts sind Anstiege um weitere 26 bis 55 cm zu erwarten(Mittelwert. ca.
40 cm), wie es im Bild 2 dargestellt ist.

Bild 2 IPCC AR5 2013: TFE.2, Figure 2 Scenarien Meerespegel (schwarze, gestrichelte lineare Regressionslinie und gestrichelte Scenarienpegel vom Autor zugefügt)

Das Deutsche Klima-Rechenzentrum ist konservativer (oder aktueller) und gibt auf seiner Homepage die Daten von Bild 3 an. Darin ist der Wert des extremen RCP8.5 Szenarios von dem im AR5 angegebenen 0,6 m (Mittelwert) auf 0,3 m gesunken, der Wert für das „normale“ Szenario RCP2.6 von 0,4 m auf 0,1 m. Als Bandbreite gibt das DKRZ an:
DKRZ Homepage: Gegenüber dem vorindustriellen Wert wäre nach dieser Simulation bis 2100 mit einem Anstieg von etwa 20 bis 40 cm zu rechnen – je nach ausgewähltem Szenario.

was einer Anstiegsrate zwischen 2,35 … 4,7 mm pa entspricht, wobei das „normale“ RCP2.6 Szenario dort nur +0,1m Anstieg aufweist.

Bild 3 Simulierte Meerespegel-Anstiege bis zum Jahr 2300 (vom Autor ergänzt). Quelle: Deutsches Klima-Rechenzentrum DKRZ

Im folgenden Bild 4 sind Pegelangaben verschiedener Quellen gelistet. In diesem ist die 1,8 m Angabe von Herrn Prof. Rahmstorf, welche in der Studie [5] angezogen wurde nicht enthalten.

Bild 4 [6] Pegel-Zukunfts-Vermutungen zweier deutscher PIK Klimawissenschaftler und vom Rest der Welt (Bild vom Autor mit Zusatzangaben ergänzt)

In der Studie wird von einem Anstieg bis +1,8 m berechnet: [4] Sea level rise (SLR) is widely recognized as one of the most likely and socially disruptive consequences of future climate change 6. Scenarios of future SLR at the year 2100 range from a low of 0.3 meters to a high scenario of 2.0 meters associated with collapse of polar ice sheets 7.

Die Fußnote 7 verweist dabei auf ein Paper mit Prof. Rahmstorf (PIK) vom Jahr 2009, in welcher als Maximalwert die 1,8 m projiziert werden.

Langfristiger Pegelverlauf USA

Anhand von Pegelbildern wirklicher Messstationen lässt sich abschätzen, welche Spanne für die US-Küsten eine realistische Wahrscheinlichkeit hat.

Bild 5 zeigt den Verlauf des Pegels von San Franzisco, der zeitlich längsten Tidenreihe aller USA-Pegelstationen. Die Regressionsgerade weist den typischen Wert um 2 mm pa aus und läge im Jahr 2100 bei +20 cm. Damit jeder Leser abschätzen kann, ob der in der Studie angenommene Wert von +1,8 m eine Wahrscheinlichkeit hat, ist er mit eingezeichnet.
Bild 6 zeigt die Änderung des Pegelanstiegs der zweit-längsten Pegelmessreihe der USA, diesmal an der Ostküste. Schön zu erkennen ist, dass seit Beginn der Messreihe keine Änderung der Anstiegsrate eingetreten ist. Eine Erhöhung der Änderungsrate ist auch nicht im Entferntesten erkennbar. Man sieht aber auch, dass eine Spanne der Änderungsrate zwischen 2 … 4 mm / pa – also von 100 % – historisch normal ist und somit keinerlei Beleg für einen Klimawandel-Einfluss darstellt.
Damit jeder Leser abschätzen kann, ob der in der Studie angegeben Wert von +22 mm / pa Pegel-Änderungsgeschwindigkeit – welcher zwischenzeitlich schon hätte eintreten müssen – eine Wahrscheinlichkeit hat, ist er im Bild 5 mit eingezeichnet.

Bild 5 In den Pegelverlauf von San Franzisco (1850 … 2005) eingezeichnete Pegel im Jahr 2100 (grün: lineare Weiterführung; rot: Prof. Rahmstorf, PIK)

Bild 6 Ab sofort erforderliche Erhöhung der Pegeländerung von San Franzisco, um im Jahr 2100 +1,8 m Pegel zu erreichen

Aktueller und zukünftiger Pegelverlauf USA

Anhand der wahren Pegeldaten wird man mit der Annahme nicht sehr falsch liegen, dass – da sich bisher kein Hinweis auf eine Änderung zeigt – eine Pegelzunahme bis zum Jahr 2100 von etwa + 20 … 30 cm einstellen könnte. Dass in den kommenden 84 Jahren die riesigen Antarktisgletscher ins Meer rutschen (wie es Simulationen erzeugen können), dürfte jeder mit Realitätssinn versehene Bürger ins Reich der PIK-Fabeln verweisen.

Das IPCC liegt von diesen Werten nicht weit weg. Es hat ein Problem damit, dass die Tidenpegel- und Satellitenpegel-Änderungen deutlich differieren. Aber die Küste interessiert der Satellitenpegel nicht (dort messen die Satelliten zudem ungenau), sondern, das, was am Land wirklich „ankommt“.
Dazu Auszüge aus dem letzten IPCC Sachstandsbericht AR5:

IPCC AR5 über Pegeländerungen:
It is very likely that the long-term trend estimate in GMSL is 1.7 [1.5 to 1.9] mm yr–1 between 1901 and 2010 for a total sea level rise of 0.19 [0.17 to 0.21] m (Figure 13.3c).
Satellitendaten: a GMSL rate of 3.2 [2.8 to 3.6] mm yr
–1over 1993–2012 is found by the different altimetry data processing groups.

Bild 7(b) zeigt, dass die Änderungsgeschwindigkeit seit 1910 global irgendwo zwischen 0 … 4 mm / pa schwankt und sich derzeit mehr am oberen Bereichsende befindet. Am Bild 7(a) (Pegel-Änderungsverlauf) sieht man einen Teil der Zyklik, die man im Bild 6 ebenfalls schon sah. Damit soll gesagt werden, dass es überhaupt nicht so sicher ist, dass der aktuelle, leichte Anstieg zu immer höheren Werten führen muss.

Bild 7 Globale Pegeländerungen vom Jahr 1900 … 2005. Quelle: AR5 Figure 13.7 (Auszug)

Auch jüngste Studien belegen, dass der den von Klimaaktivisten unisono postulierte „sich immer mehr beschleunigende Pegelanstieg“ ein typisches (nur in Simulationen erzeugtes) eher ein Klimaalarm-Märchen sein könnte (wie es die Pegelstationen ausweisen).

kaltesonne, 21. September 2016: Landgewinn trotz Meeresspiegelanstieg: Küsten haben sich in den vergangenen 30 Jahren um 13.500 Quadratkilometer ins Meer vorgebaut

Am 25. August 2016 gab es in Nature Climate Change ein kleines Wunder zu bestaunen. Eine Forschergruppe um Gennadii Donchyts vom niederländischen Deltares Research Institute veröffentlichte eine Statistik zu Landgewinnen und -verlusten in den Küstenzonen der Erde. Angesichts des steigenden Meeresspiegels war ein gewisser Landverlust zu erwarten. Umso größer die Überraschung, als nun die offiziellen Zahlen präsentiert wurden: Die Küstenzonen sind nicht etwa geschrumpft, sondern es wurden in den vergangenen 30 Jahren sogar 13,565 km2 neu geschaffen. Eine echte Sensation. Die deutsche Presse zog es allerdings leider vor, dazu zu schweigen. Unbequeme Daten, die man der Bevölkerung lieber nicht zumuten wollte. In der Publikation heißt es:
Earth’s surface gained 115,000 km2 of water and 173,000 km2 of land over the past 30 years, including 20,135 km2 of water and 33,700 km2 of land in coastal areas. Here, we analyse the gains and losses through the Deltares Aqua Monitor — an open tool that detects land and water changes around the globe.

Und so wurden die 13,1 Millionen betroffenen US-Bürger berechnet

Mit den Angaben des vorherigen Kapitels (aus der Studie [5]) lässt sich nachvollziehen, wie die 13,1 Millionen Betroffenen US-Bürger berechnet wurden:

-Es wird nicht der wahrscheinliche Pegelanstieg von 20 … bis maximal 40 cm angenommen, sondern ein einsamer Extremwert des PIK von 1,8 m, was einem vollkommen unrealistischen Pegelanstieg von ab sofort 21 mm / pa (aktuell ca. 2,1 mm / pa.) entspricht.
-Es wurde angenommen, dass ausgerechnet in den „sicher“ bereits in den nächsten 85 Jahren überschwemmten Gebieten die Bevölkerung weit überproportional noch um das 3-fache anwächst.
Anm.: Die jährliche Zunahme an US-Einwohnern beträgt aktuell +0,7 % / pa (Quelle: Weltbank) mit leicht abnehmender Tendenz. Wenn es bei den 0,7 % bliebe, ergäbe dies bis zum Jahr 2100 eine Zunahme von +81 % und nicht + 200 %, wie in der Studie berechnet. Sicher nicht zufällig hatte eine solch hohe Zunahme bisher auch noch keine Studie angenommen.
-Und es wurde angenommen, dass keinerlei Maßnahmen gegen einen steigenden Meerespegel vorgenommen würden.

Nur sofern alle diese vollkommen unhaltbaren Annahmen gleichzeitig eintreffen würden, sind im Jahr 2100 ca. 13,1 Millionen Bürger betroffen

Nimmt man dagegen realistisch an:
– Der Pegel steigt um den typischen, vom IPCC angegebenen (und den aktuellen Pegelverläufen in etwa gedeckten) Wert von ca. 0,3 m
– Die Population in den ausgewiesenen Flutgebieten wächst nicht mit dem Faktor 3, sondern wird auf dem heutigen Stand eingefroren, da weitere Besiedlungen in den ausgewiesen Flut-gefährdeten Gebieten nicht zugelassen werden
(Anmerkung: Eigentlich müssten die Bewohner in so „sicher“ überfluteten Gebieten ja eher umgesiedelt werden)
dann sind ca. 330.000 Personen in den USA betroffen. Das wären im Jahr 2100 dann 0,023 % der US-Einwohner
(Anmerkung: Lt. der Studie hat sich bis dahin die übrige Einwohnerzahl der USA ja angeblich verdreifacht).

Nimmt man realistisch an, dass es den USA geling, in den nächsten 85 Jahren Küsten-Schutzmaßnahmen gegen einen um ca. 30 cm steigenden Meerespegel durchzuführen, dann bleibt auch davon nur noch ein kleiner Teil an Betroffenen übrig.

Dieses realistische Szenario ist für die USA ganz bestimmt kein Problem und wäre nicht einmal eine Meldung (außer eine Ab-Meldung) wert.

Von der dpa wurde jedoch der unter vollkommen irren Annahmen berechnete Maximalwert von 13,1 Millionen übernommen und mit ihrer Meldung an die deutschen Medien weiter geleitet – und Klimaretter.Info verstärkt die Meldung noch mit der Ergänzung „ … zu einer Bevölkerungswanderung in den USA führen könnte in der Größenordnung der Great Migration der Afroamerikaner im 20. Jahrhundert"

Die extra Erwähnung bei Klimaretter.Info: „… dreimal mehr …“
Ist mit Kenntnis des Hintergrundes schon nicht mehr erheiternd. Die Klimaberaterin hat keinerlei Scheu davor, diese Information ohne die Hintergrundinformation zu bringen, dass diese Verdreifachung (gegenüber bisherigen, bereits mit zu hohen Pegelanstiegen rechnenden Simulationen) ausschließlich dadurch zustande kommt, weil die Autoren zusätzlich simulierten, in den (angeblichen) Flutgebieten würde sich die Bewohnerzahl in den nächsten 85 Jahren zusätzlich überproportional noch verdreifachen.

Fazit

Ein typisches Beispiel, wie willfährige Klimawissenschaftler bewusst einen Alarmheader publizieren, der von der dpa dann „reingewaschen“ und als „Wahrheit“ an die Medien verteilt wird*. Allerdings auch wieder ein Beispiel, wie die (Des-)Informationsseite der Klimaberaterin C. Kemfert dieses „Klima-Alarmspiel“ konsequent unterstützt.

Der Autor stellt an Klimaretter.Info hiermit den Antrag, ihren Beitrag vom 15. März 2016: [3] USA: Meeresanstieg bedroht Millionen, als Lehrbeispiel für bewusste Desinformation in den eigenen KLIMA-LÜGENDETEKTOR aufzunehmen.

*Publizierungen von offiziellen Presseagenturen brauchen von den Zeitungsredakteuren nicht mehr auf Wahrheitsgehalt geprüft werden.

Nachtrag

An ein bereits früher berichtetes Beispiel aus dem „Lehrbuch für Klimaapokalypsen“ sei hiermit erinnert:
Wie man den Meerespegel-Verlauf in die richtige Richtung dreht

Quellen

[1] N24 Welt 12.09.2016: So stark wird der Klimawandel die US-Küsten treffen
http://www.n24.de/n24/Wissen/Mensch-Natur/d/9124902/so-stark-wird-der-klimawandel-die-us-kuesten-treffen.html

[2] Hamburger Abendblatt, 11.09.16: Klimawandel bedroht US-Küsten: Millionen Menschen betroffen
http://www.abendblatt.de/ratgeber/wissen/article208220367/Klimawandel-bedroht-US-Kuesten-Millionen-Menschen-betroffen.html

[3] Klimaretter.Info 15. März 2016: USA: Meeresanstieg bedroht Millionen
http://www.klimaretter.info/forschung/nachricht/20851-usa-meeresspiegelanstieg-bedroht-millionen

[4] Mathew E. Hauer, Jason M. Evans: Millions projected at risk of displacement from sea level rise in the Continental United States (Anm.: Studie)

[5] Mathew E. Hauer, Jason M. Evans, Deepak Mishra: Population Projections and Risk of Inundation from SLR for the United States in 2100 (Anm.: Präsentationsdarstellung)

[6] EIKE: PIK-Alarmmeldung: „Meeresspiegelanstieg: Zu groß zum Wegpumpen“, er könnte bis 2100 um 1,3 m steigen
http://www.eike-klima-energie.eu/news-cache/pik-alarmmeldung-meeresspiegelanstieg-zu-gross-zum-wegpumpen-er-koennte-bis-2100-um-13-m-steigen/




Kraftvolle Länder, reiche Menschen!

Die zwei installierten Lichter sowie Motorsägen und Bohrer. Ihre Produktivität vervierfachte sich. Sie stellten lokale Arbeiter ein, um noch mehr Tische und Stühle von noch besserer Qualität zu höheren Preisen herzustellen und diese zu verschiffen an lokale und weit entfernt wohnende Kunden. Die Arbeiter konnten mehr Geld ausgeben, so dass weitere Familien davon profitierten.

Der Lebensstandard stieg, konnten die Familien sich doch jetzt Lampen, Kühlschränke, Fernseher, Computer und andere elektronische Geräte kaufen, die viele Amerikaner und Europäer einfach als gegeben hinnehmen. Die Gemeinde wurde in die moderne Zeit katapultiert, unternehmerischer Geist entfaltete sich, neue Industrien öffneten und seit Neuem hatten Familien Zugang zu Beschäftigung und zur globalen Wirtschaft.

Selbst am äußersten Rand des elektrifizierten Gebietes profitierten die Menschen noch. Bheki Vilakazi eröffnete einen kleinen Laden, so dass die Menschen ihre Handys aufladen konnten, bevor sie sich in das Veld aufmachten, wo rasche Kommunikation im Falle eines Unfalles über Leben und Tod entscheiden kann, oder wenn Autos liegen blieben oder wilden Tieren gegenüber standen.

200 Meilen entfernt, nahe Tzaneen, erkannten andere Unternehmer, dass ihr Boden und das tropische Klima Bananen ausgezeichneter Qualität hervorbrachte. Nachdem ihr ländliches Gebiet an die Stromversorgung angeschlossen worden war, richteten sie die Du Roi Nursery und das banana cloning laboratory ein, in dem Wissenschaftler überragende Qualität entwickelten – Saatgut frei von Krankheiten, eingebettet in eine Schutzschicht und verschifft nach ganz Afrika und zu anderen Gebieten der Welt.

Jane Ramothwala besuchte nur bis zur zehnten Klasse eine ländliche Schule und war ein Zimmermädchen in einem Hotel, bevor sie eine general nursery-Arbeiterin in dem Unternehmen wurde. Während der folgenden Jahrzehnte arbeitete sie hart, um sich mit jeder Facette von Geschäftsoperationen vertraut zu machen, brachte sich selbst Englisch bei und absolvierte viele Kurse der Erwachsenenbildung – wollte sie doch zur Managerin des Pflanzenlabors des Unternehmens werden.

Derzeit verdient sie fünf mal so viel Geld als zuvor. Während jener Zeit vermehrten sich die Pflanzen von 800.000 auf 10 Millionen, und heute arbeiten im Laboratorium, im Vertrieb und in der Aufzucht viele College-Absolventen und 45 Arbeiter mit geringer Ausbildung. Deren Leben haben sich grundlegend verändert, viele haben moderne Wohnungen eingerichtet, und deren Kinder stehen vor einer viel besseren Zukunft als irgendjemand nur eine Generation zuvor zu träumen gewagt hatte.

Zugang zu Strom, sagt Jane, „hatte einen gewaltigen Einfluss auf die Lebensqualität vieler Familien in ländlichen Gebieten der Provinz Limpopo“. Ihre Lebensqualität sowie die ihrer Nachbarn hat sich verbessert. Es gibt viel mehr Chancen und Zugang zu Nachrichten von überall her.

Diese Szenarien wiederholen sich auf der ganzen Welt, von Nigeria und Kenia über Chile, Peru, China, Indien, Indonesien bis hin zu Dutzenden anderer Länder. Tausende anderer Gemeinden, Millionen andere Familien wollen die gleichen Chancen haben. Aber derzeit müssen Viele weiter ohne Strom leben, oder sie haben Strom nur sporadisch oder unvorhersagbar nur ein paar Stunden pro Woche.

Verteilt über den Globus fehlt es fast drei Milliarden Menschen – fast der Hälfte der Weltbevölkerung – immer noch an regelmäßig und zuverlässig verfügbarem Strom. Fast 1,3 Milliarden Menschen haben gar keinen Zugang zu Strom.

In Afrika südlich der Sahara haben 600 Millionen Menschen – fast doppelt so viele, wie die USA Einwohner haben, und 70% der Bevölkerung in jenem Gebiet – immer noch gar keinen Zugang zu Strom, oder dieser fließt nur begrenzt und sporadisch (hier). Über 80% der Bewohner sind immer noch abhängig von Holz, Dung und Holzkohle zum Heizen oder Kochen, was zu extensiver Rauchbildung und Luftverschmutzung in ihren Wohnungen und Dörfern führt.

In Indien haben über 300 Millionen Menschen (fast so viele, wie in den USA und Mexiko leben) immer noch überhaupt keinen Strom; zehn Millionen weitere Menschen haben ihn höchstens für wenige Stunden am Tag.

Unzählige Menschen in diesen Gemeinden leben in erbärmlicher Armut, oftmals lediglich von ein paar Dollars pro Tag. Das Pro-Kopf-Einkommen in Afrika südlich der Sahara beträgt grob etwa 1 Dollar pro Tag, schreibt der in Sambia geborene Ökonom Dambisa Moyo. Damit gibt es dort den höchsten Anteil armer Familien weltweit.

Mütter in diesen Gemeinden bringen jeden Tag Stunden über offenem Feuer gebeugt zu, ihre Babys auf ihrem Rücken, und atmen giftigen Rauch Tag für Tag. Viele müssen sich hinlegen wegen schwächender und oftmals tödlicher Lungenkrankheiten. Ihren Wohnungen, Schulen und Krankenhäusern fehlt es an den grundlegendsten, auf Strom basierenden Geräten: Lampen, Kühlschränke, Radios, Fernseher, Computer und Trinkwasser. [Auf das alles sollen wir ja unseren Politikern und Medien zufolge hierzulande auch verzichten, wenn der Wind nicht weht und die Sonne nicht scheint! Gute Nacht, Deutschland! Anm. d. Übers.]

Ihre Häuser aus Lehm und Stroh sowie anderen traditionellen Baustoffen bieten ideale Brutstätten für Fliegen und Mücken, die ihre Opfer mit Malaria und anderen tödlichen Krankheiten infizieren. Frauen und Kinder müssen meilenweit laufen, um Krüge mit unbehandeltem Wasser zu schleppen, in dem es von Bakterien und Parasiten wimmelt, die zu Cholera, Durchfälle und Flussblindheit führen. Ungekühlte Nahrungsmittel verderben schnell, was weitere Darmkrankheiten zur Folge hat.

Hunderte Millionen werden ernsthaft krank, und fünf Millionen sterben jedes Jahr durch Lungen- und Darmkrankheiten. Ursache sind das Einatmen von Rauch offener Feuer und das Fehlen von Kühlschränken, sauberem Wasser und sicherer Nahrungsmittel.

Wenn die Sonne untergeht, endet ihr Alltag, es sei denn, sie können bei Kerzen- oder Taschenlampenlicht oder Ölfunzeln arbeiten.

Die Umweltkosten sind genauso hoch. Die Gorilla-Habitate in Ruanda werden zu Holzkohle verarbeitet, um Kochfeuer anzuzünden. In Sambia und anderswo fällen Unternehmer Bäume zu Tausenden entlang Autobahnen und verwandeln Waldhabitate in Grasland. Dann verkaufen sie Brennholz an Autofahrer, die zurück zu ihren nicht elektrifizierten Wohnungen in ländlichen Gebieten oder sogar ganzen Stadtteilen eilen.

Genauso schnell wie Wohlfahrtsorganisationen in reichen Ländern Baumpflanz-Kampagnen anzetteln, fällen die Menschen auf der ganzen Welt Bäume, um grundlegenden Bedürfnissen wie Kochen und Heizen zu genügen.

Solange es keine zuverlässige und bezahlbare Stromversorgung gibt, wird dies noch viele Jahrzehnte so weitergehen. Schritt für Schritt, Hektar für Hektar werden Wälder zu Grasland, die dann einfach hinweg gespült werden durch Wind und Regen. Und die Menschen werden in ihrer Armut gefangen bleiben, in Elend, Krankheiten und frühzeitigem Sterben.

Diese nicht nachhaltige menschliche und ökologische Zerstörung kann aber umgekehrt werden, genau wie es in den USA der Fall war. Einen vitalen Anteil daran haben Kraftwerke, die mit stetig verbesserter Verschmutzungs-Kontrolle ausgestattet sind – und die Kohle oder Erdgas verbrennen, welches Hunderte Male mehr Energie pro Pfund liefert als Holz, Dung oder Biotreibstoffe auf Pflanzengrundlage.

„Zugang zu den Vorteilen, die eine ausreichende Energieversorgung mit sich bringt, wiegt viel schwerer als deren geringer Beitrag zu Treibhausgas-Emissionen“, schreibt der Kolumnist bei der New York Times Andrew Revkin auf seinem DotEarth Blog. Afrika sitzt auf riesigen Lagerstätten von Kohle, Erdgas und flüssigen Kondensaten, die weitgehend ignoriert werden oder einfach als unerwünschte Nebenprodukte verbrannt werden, wenn Unternehmen Rohöl fördern. Kann nicht mal irgendjemand ein Geschäftsmodell erfinden, welches diese „neben-Treibstoffe“ auffängt anstatt sie zu verbrennen, fragte er sich.

Ultimativ geht es bei den Debatten um Energie, Umwelt, Klimawandel und Ökonomie um zwei Dinge:

1) Werden die Armen der Welt ihren ordnungsgemäßen Platz einnehmen unter den gesunden und wohlhabenden Menschen auf der Erde – oder müssen sie ihre Hoffnungen und Träume aufgeben wegen deplatzierter Gesundheits- und Umweltbedenken?

2) Werden arme Länder, Gemeinden und Familien ihre eigene Zukunft bestimmen – oder werden ihnen diese Entscheidungen abgenommen durch Politiker und Aktivisten, die verlogene Behauptungen über Umweltkatastrophen ausstoßen, um Verträge, Gesetze, Vorschriften und politische Maßnahmen zu rechtfertigen, die diesen Menschen den Zugang zu sicherer und bezahlbarer Stromversorgung und anderen modernen, lebensrettenden Technologien verwehren – und sie dadurch zu ewiger Armut, Krankheit und frühzeitigem Tod zu verurteilen.

Der ganze Artikel steht hier: https://www.masterresource.org/developing-countries/powering-countries-empowering-people-part-i/

Link: https://wattsupwiththat.com/2016/09/23/powering-countries-empowering-people/

Zu diesem Beitrag passt die folgende Meldung von Reuters:

Führende chinesische Kohleproduzenten haben begonnen, ihre Produktion zu steigern, berichtete das China Securities Journal vor ein paar Tagen. Damit werden potentiell 11 Millionen Tonnen neuer Vorräte jeden Monat auf den Markt geworfen, was den kometenhaften Preisanstieg in Asien stoppen soll (siehe Graphik unten). Der Beschluss folgte einem Treffen zu Beginn dieses Monats, einen Entwurf zu erarbeiten, der es den Bergbauern erlaubt, ihren täglichen Output um 500.000 Tonnen zu steigern, falls die Preise zwei Wochen lang auf 500 Yuan (74,94 Dollar) pro Tonne steigen. Der größte chinesische Kohleerzeuger Shenhua Group hat grünes Licht bekommen, seinen Output um 2,79 Millionen Tonnen pro Monat zu steigern, hieß es in dem Journal.

Reuters, 23 September 2016

Übersetzt von Chris Frey EIKE