EIKE wünscht allen Leserinnen und Lesern ein gutes und erfreuliches Jahr 2017

Doch nur mit dem Zweifel beginnt auch die Suche nach der Wahrheit. Und diese Suche hat bereits große Teile der Bevölkerung erfasst. Unübersehbare Zeichen dafür sind die großen Erfolge neuer  politischer Player, Parteien wie Medien der bürgerlich liberal-konservativen  Mitte, die sich nicht den Maulkorb der  Political Correctness mehr umhängen lassen, sondern reden und schreiben was ist, insbesondere aber – mit sehr guten Argumenten, die täglich durch Fakten erhärtet werden- glaubwürdige Alternativen den Menschen vorstellen. Die „postfaktischen“ Argumente eine selbstherrlichen Kanzlerin und ihrer Unterstützer in allen etablierten Parteien, den Ämtern und Medien  werden – für jedermann sicht- und erkennbar- stets und ständig aufs Neue, durch die wahrgenommene Wirklichkeit widerlegt.

Mit Dank an Spürnase Frank Abels z.Zt. Australien für diesen Stimmungsaufheller

Bestärkt wurde diese stark anschwellende Bewegung durch vom Establishment mit großem finanziellen wie medialem Aufwand bekämpften sichtbaren politischen Veränderungen im Lande aber auch außerhalb. Die wider alles Wollen der Etablierten errungenen Erfolge eines Donald Trump in den USA, der Widerstand weiter Kreise gegen als falsch empfundenes offizielle Gehabe und Getue, dass in schroffem  Gegensatz zu den erlebten Fakten steht, sei es in Großbritannien, in Österreich. Italien, usw, der sich u.a. im Wahlverhalten äußert, sind sehr ermutigende Signale, die sich mit einiger Gewissheit auch in 2017 fortsetzen werden.

In diesem Sinne wird 2017 ein besseres Jahr als 2016 werden, wenn auch schreckliche internationale Katastrophen und auch Kriege weiterhin zu seinen Begleitern gehören werden.

So schlimm und bedauerlich diese auch sind: Wir freuen uns auf das Neue Jahr und wünschen und hoffen liebe Leserinnen und Leser, dass Sie das auch tun!

Ihre EIKE Redaktion




Der ausgefallene Weltunter­gang (Teil 3) – Wie steht es heute um die Fukushima „Todeszone“

Während der Katastrophe wurden große Mengen an Radioaktivität freigesetzt, z.B. ca. 42 % der Cäsium Cs-137 Emission von Tschernobyl, und kontaminierten Luft, Böden, Wasser und Nahrungsmittel in der land- und meerseitigen Umgebung. Die japanische Regierung beschloss eine Evakuierung der Bevölkerung in einer Zone mit dem Radius von bis zu 30 Km. Nach offiziellen Angaben haben die japanischen Behörden nach dem Erdbeben insgesamt 154 000 Menschen aus der Region um das Kraftwerk evakuiert. Die Evakuierung kostete einige Menschenleben, besonders von sehr alten und kranken Menschen, die wohl besser nicht hätten evakuiert werden sollen. Die Zahl dieser armen Menschen variiert sehr stark, abhängig vom Standpunkt zur Kernenergie derjenigen, die Artikel oder Studien veröffentlichen.

Was ist seit Fukushima in der japanischen „Todeszone“ geschehen?

In den letzten fünf Jahren ist in der Evakuierungszone viel geschehen. Ziel war und ist es, den Bürgern ihre Heimat wiederzugeben und ihnen eine sichere Rückkehr zu ermöglichen. Dafür arbeiten zehntausende Menschen hart und ernten seit einem guten Jahr die ersten größeren Erfolge. Der größte Erfolg ist für sie, wenn die Evakuierung eines Gebietes oder einer Stadt aufgehoben wird und die Bewohner zurückkehren. Natürlich kehren nicht alle zurück. Manche haben in den Jahren einen neuen Lebensmittelpunkt gefunden. Andere haben Angst vor der Strahlung, was nur zu verständlich ist.

Als erstes wurde (und wird) ein Messprogramm der Strahlung durchgeführt und eine genaue Karte der Radioaktivität erstellt. Dabei stellte sich heraus, dass ein dicker zigarrenförmiger Bereich, der von der Windrichtung benachteiligt war, eine höhere Radioaktivität aufwies, als der größte Teil des Territoriums. Danach begannen die umfangreichsten Dekontaminations-Maßnahmen in der Geschichte der Menschheit.

Man begann auf den Dächern. Sie wurden abgewaschen und gereinigt. Dann die Dachrinnen und die Wände. Im Gelände wurden die Bäume von oben nach unten mit Hochruckreinigern gewaschen, die Pflanzen abgemäht und danach eine dünne Bodenschicht von einigen Zentimetern abgetragen. Die Abfälle wurden sorgfältig gesammelt, eingetütet und in spezielle Lagerstätten verbracht, wo sie vor Regen und Grundwasser geschützt, gelagert werden und abklingen können. So schreitet der Prozess über die Städte, Wälder und Felder voran. Es geht deshalb voran, weil zehntausend fleißige Menschen daran arbeiten. Es lohnt, dem Link zu folgen und sich die Bilder anzusehen.

Das Ganze hört sich für uns abenteuerlich an. Aber man muss bedenken, dass die Strahlung ohnehin so niedrig ist, dass für die tausenden Reinigungskräfte keine echte Gefährdung besteht, so lange sie ihre Papiermasken tragen und keine Strahlungspartikel einatmen. Durch die Dekontamination konnte die Strahlung in den gereinigten Gebieten um ca. 30% gesenkt werden. Nach und nach werden die zulässigen Grenzwerte erreicht und die Regierung gibt ein Gebiet oder eine Stadt zur Rückkehr frei.

Aber das genügt nicht. Parallel zu der Dekontamination wird die lokale Infrastruktur verbessert.

Niemand kehrt nach Hause zurück, wenn nicht Supermärkte, Krankenhäuser, Schulen und Erholungsstätten eröffnet sind. Auch neue Industrie wird angesiedelt, um für die Rückkehrer Arbeitsplätze anzubieten. Etwa ein Drittel der Evakuierungszone ist freigegeben. Und auch die berühmten Fukushima-Pfirsiche sind wieder auf dem japanischen Markt zu haben, ohne dass jemand Angst vor dem Verzehr haben muss. Wahrscheinlich sind nirgendwo auf der Welt Lebensmittel besser radiologisch kontrolliert, als in Japan nach Fukushima. Die Präfektur Fukushima – ein gebranntes Kind – hat folgerichtig für sich beschlossen, sich bis zum Jahr 2040 aus erneuerbaren Energien zu versorgen und hat damit begonnen, große Solarkraftwerke zu errichten.

Es wird noch viele Jahre dauern, bis auch die Cäsium-belastete „Zigarre“ wieder bezogen werden kann. Aber – Japan ist nicht die Sowjetunion, wo heute um Tschernobyl herum der größte, von Menschen unberührte Naturpark der Welt existiert und gedeiht.

Radioaktivität zu Wasser

Die Aktivität pro Liter Meerwasser beträgt in der Nähe des Kernkraftwerks Fukushima etwa ein Becquerel pro Liter. Auf dem offenen Meer (30 bis 300 Kilometer vor der Küste) wiesen von TEPCO unabhängig durchgeführte Messungen nur noch Werte von 0,002 und 0,01 Becquerel nach, was nur wenig höher liegt als die Vergleichsdaten aus der Zeit vor der Katastrophe. Dies liegt im Bereich der weltweiten Hintergrundstrahlung und kann vernachlässigt werden – zum Vergleich: laut deutscher Trinkwasserverordnung sind 100Bq/l (aus natürlichem Radonzerfall) im Trinkwasser erlaubt. Fisch aus dem Pazifik ist unbedenklich: Experten sowohl der staatlichen Überwachungsbehörden als auch des Bundesverbands der deutschen Fischindustrie und des Fischgroßhandels haben keine Belastung in hier verkauften Produkten festgestellt. Die von einigen Medien verbreiteten Geschichten vom Mutationen und Sterben der Seetiere in der Nähe von Fukushima gehören in den Bereich „Fake-News“.

Radioaktivität zu Lande

Verglichen mit der Strahlenbelastung unmittelbar nach dem Reaktor-GAU ist die Strahlenbelastung in etwa um den Faktor 10 gefallen. Das heißt, dass in der Stadt Fukushima statt 2,74 Mikro-Sievert heute 0,18 Mikro-Sievert gemessen werden. Zum Vergleich: in München wurden am 21. Dezember 2012 0,12Mikrosievert gemessen. Man kann davon ausgehen, dass in den freigegebenen Gebieten die Menschen einer niedrigeren Umgebungsbelastung ausgesetzt sind, als die Bewohner des deutschen Schwarzwaldes. Nichtsdestotrotz warnt Greenpeace auf Grund eigener Messungen vor der Strahlenbelastung. Ich meine aber, dass man den professionellen und viel umfangreicheren Messprogrammen der japanischen Regierung durchaus mehr vertrauen kann, als den Geigerzählern von Greenpeace.

Gesundheitsschäden der Bevölkerung

Die Provinz Fukushima führt umfangreiche Untersuchungsprogramme der Bevölkerung auf Strahlenschäden durch. Von den etwa zwei Millionen Bewohnern der Fukushima Provinz wurden 370.000 identifiziert, die zum Zeitpunkt des Unfalls jünger als 18 Jahre waren. Etwa 250.000 von ihnen nahmen freiwillig an einer Schilddrüsenuntersuchung teil. Das Ergebnis dieser Untersuchung zeigt, dass es in Fukushima keine erkennbaren Abweichungen beim Schilddrüsenkrebs zur Vergleichsregion Japan gibt.

Einer WHO-Studie zu den Folgen von Fukushima zufolge sei das Gesundheitsrisiko für die Menschen vor Ort geringer als ursprünglich befürchtet: Günstige Winde und die Evakuierungsmaßnahmen sollen schwerere Gesundheitsschäden für die Bevölkerung auch rund um Fukushima verhindert haben. Nicht zu unterschätzen ist allerdings die psychische Belastung durch die Folgen von Erdbeben und Tsunami: Der Tod von Angehörigen, die Unsicherheit über die Zukunft, die Evakuierung – das hat die meist älteren Menschen um Fukushima schwer getroffen. Dadurch ausgelöster Stress erhöht beispielsweise das Risiko für Herz-Kreislauf-Erkrankungen.

Reisen in die Region Fukushima

Reisen in die Region außerhalb der gesperrten Gebiete sind unbedenklich: Laut dem Bundesamt für Strahlenschutz erhalten Reisende bei einem vierwöchigen Aufenthalt beispielsweise direkt in der Stadt Fukushima eine Strahlenbelastung von weniger als 0,4 Millisievert und in den geringer belasteten Regionen im Westen und Süden der Präfektur unter 0,1 Millisievert. Zum Vergleich: Eine Röntgenaufnahme belastet mit etwa 0,01 bis 0,03 Millisievert, und die gesamte natürliche Strahlenbelastung in Deutschland beträgt durchschnittlich 2,1 Millisievert im Jahr. Was das Essen betrifft, so ist ebenfalls wenig zu befürchten: Lebensmittel werden streng überwacht, und nur in Einzelfällen wurden Überschreitungen des Grenzwerts von 100 Becquerel pro Kilogramm für Gesamtcäsium nachgewiesen – im gesamten Geschäftsjahr 2013 lagen bei über 300 000 genommenen Proben in 938 Fällen erhöhte Werte vor. Das Trinkwasser weist keine erhöhten Werte auf und kann bedenkenlos genutzt werden.

Quelle: http://www.spektrum.de/news/fukushima-3-jahre-danach/1253533

Der Weltuntergang wird wohl ausbleiben. Der GAU in Tschernobyl ist 30 Jahre her. Das ist auch für einige radioaktive Isotope viel Zeit, um ganz von allein zu zerfallen. Cäsium 137 hat eine Halbwertszeit von 30 Jahren, die Hälfte des CS-137-Fallouts ist schon weg. Dies gilt für Tschernobyl und wird auch für Fukushima umso eher gelten, als hier aufwändig dekontaminiert wird.

30 Jahre nach dem Atomunfall entwickelt sich Tschernobyl zu einem Touristenmagneten. Sogar unsere Umweltministerin Barbara Hendricks war kürzlich zu Besuch. Die Welt schreibt in einem Reisebericht nach Tschernobyl:Auf der Rückfahrt rechnete die Reiseleiterin unsere Strahlenbelastung aus. Vermutlich würde ich auf dem Flug nach Hause mehr abbekommen“. Der Strahlenpegel liegt auf dem Gelände der Ruine von Tschernobyl bei circa 0,12 Mikro-Sievert pro Stunde, zulässig sind 0,25 Mikro-Sievert pro Stunde.

Das wird nun ‚Todeszone’ genannt. Im Flugzeug gibt es auf unserer Breite in Reiseflughöhe etwa 6 Mikro-Sievert pro Stunde (noch abhängig von der Aktivität der Sonne), also mehr als das 20-fache vom erlaubten Wert in Tschernobyl. Frage: Warum handelt es sich bei Tschernobyl um eine Todeszone, wenn täglich weltweit mehr als eine Million Menschen sich dieser Strahlung ohne den geringsten Schaden aussetzen, und das fliegende Personal etwa 1000 Stunden im Jahr?“

 




Die Zahltage des EEG beginnen ihren vorher­gesagten Lauf

Zum Muttertag geschah es:
EIKE 04.06.2016 : Muttertag war EEG-Geschenktag auf Kosten der nicht privilegierten Stromkunden,
und nun wieder über Weihnachten (dazwischen auch, aber nicht in so großem Maßstab):
Vom 24. – 26.12.2016 wurden 582.426 MWh elektrische Energie mit (leicht abgerundet) 19,907 Millionen EUR Zuzahlung von der Strombörse an willige Abnehmer „verhökert“*.
Das klingt nach nicht einmal so viel. Schließlich ist man in Deutschland inzwischen weit höhere Kosten für verschiedensten politischen Unsinn längst gewöhnt.
Doch in Summe beträgt die Erlösdifferenz zur EEG-Zwangszahlung für den Überschussstrom (wieder leicht abgerundet) 207,881 Millionen EUR*. Ein Betrag, den die privaten, deutschen Stromkunden an die gelobten „Ökostrom-Energieernter“ ohne jegliche Gegenleistung löhnen mussten.
Und leider bekam vorwiegend das Ausland den Strom, zusätzlich versüßt mit Zuzahlungen für die Freundlichkeit, ihn abzunehmen. Kleine Probleme scheinen demnach noch in der grandiosen Wende zu stecken. Aber das sollte sich bestimmt noch lösen lassen – zumindest wenn das EEG erst einmal vollständig ausgebaut ist.

Bis es aber so weit ist, soll einmal nachgesehen werden, warum das EEG-Wunder über Weihnachten das Ausland und nicht die deutschen Stromkunden so reich beschenkt hat und warum es allen Beteuerungen zum Trotz damit immer schlimmer werden wird.

Bild 1 Verlauf von Verbrauch, Strompreis und Ökostromerzeugung vom 17. – 28. Dezember. Quelle: Agorameter

Aus Bild 1 kann man (stark vereinfacht) folgendes herauslesen:

– Bis zum 23. Dezember mussten die konventionellen Kraftwerke den wesentlichen Stromanteil erzeugen, weil die Öko-Energieernter nicht im Ansatz ausreichend Energie liefern konnten. Von den 38 % Strombedarf, den sie angeblich decken [1], ist über viele Tage nichts zu sehen.
– Dann kam Wind auf und die Windmüller drückten ihren Strom in die Leitungen, während wegen Weihnachten gleichzeitig der Verbrauch deutlich sank.
– Trotzdem reichte der Ökostrom nicht aus und konventionelle Kraftwerke mussten weiter unterstützen.

Jedoch war es nicht möglich, diese Energiedifferenz immer auszugleichen, heißt konventionelle Erzeugung so schnell hin- und her zu fahren, wie der Ökostrom schwankte, mit der Konsequenz, dass zeitweise (kann auch in Teilnetzen gewesen sein) Überangebot vorlag, was sich mit einem negativen Strompreis äußerte.

In den folgenden Bildern kann man dazu die Details betrachten.
Solar (Bild 2), obwohl es am EEG einen Kostenanteil von ca. 40 % hat (WIKIPEDIA, Stand 2013), lieferte praktisch nichts!
Erzählt wird von „Fachinstituten“ dazu folgendes:
Fraunhofer ISE, Aktuelle Fakten zur Photovoltaik in Deutschland [1]: Liefert PV bereits relevante Beiträge zur Stromversorgung? … An sonnigen Werktagen kann PV-Strom zeitweise bis zu 35%, an Sonn- und Feiertagen bis zu 50% unseres momentanen Stromverbrauchs abdecken
Fazit: Wer sich auf solche Fachinstitute verlässt, ist auch mal ganz schnell (von Energie) verlassen.

Bild 2 Verlauf von Verbrauch und Solareinspeisung vom 17. – 28. Dezember. Quelle: Agorameter

Die Windenergie (Bild 3) ist etwas besser, kann, was immer wieder bestritten wird, aber auch für längere Zeitspannen fast auf Null sinken, womit immer neu bewiesen ist, dass sie nicht grundlastfähig ist, obwohl auch dies von „Fachpersonen“ behauptet wird:

EIKE 28.01.2016: Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig
dpa: [2] Weil der Wind auf dem Meer stetiger und häufiger weht als an Land, liefern Windräder auf See mehr Strom und sind besser ausgelastet. Sie gelten wie Atom- und Kohlekraftwerke als „grundlastfähig“, können also den Versorgungssockel absichern.
Die Münchner Stadtwerke behaupten es
[3] Christian Vogt, Leiter des Beteiligungsmanagements der Stadtwerke München: … Bis 2025 wollen wir so viel Ökostrom erzeugen, wie ganz München verbraucht. Eine ganz wesentliche Bedeutung bei der Umsetzung hat die Windkraft, insbesondere Offshore. Sie hat das größte Potenzial und ist sogar grundlastfähig.

Bild 3 Verlauf von Verbrauch und Windstromeinspeisung vom 17. – 28. Dezember. Quelle: Agorameter

Warum führte dies über Weihnachten zu negativen Strompreisen?

Elektrischer Strom verhält sich immer noch stur nach physikalischen Gesetzten und nicht nach den Wünschen der Ökopolitiker und denen von Frau C. Kemfert. Er muss weiterhin sekundengenau immer in der Verbrauchsmenge erzeugt werden. Herrscht Überangebot, muss er „verschwinden“, sonst steigt die Netzspannung zwangsweise an mit Folgen, die bis zur Netzzerstörung – und der Verbraucher -reichen.

Um die Energie „verschwinden“ zu lassen, gibt es nur wenige Möglichkeiten:
– jemand hat genügend Last und kann ihn abnehmen (wie geschehen, ist das oft noch das Ausland),
– er wird gespeichert (dazu fehlen bisher und auch in weiterer Zukunft vollkommen die Möglichkeiten im erforderlichen Großmaßstab),
– er wird beim Entstehen abgeregelt (bedeutet: nicht eingespeist, aber trotzdem voll vergütet).

Allen Lösungen ist aber eines gemeinsam: Der private, deutsche Stromkunde muss den zu viel erzeugten EEG-Strom gesetzlich gezwungen immer voll bezahlen, egal wohin und wie er verschleudert oder gar abgeregelt wird.
Warum ist das so: Weil die Ökostrom-Vorrangeinspeisung festgelegt hat, dass Ökostrom in beliebiger Menge und vollkommen unabhängig vom Bedarf oder Netzlast erzeugt werden darf und grundsätzlich beim Entstehen vergütet wird.

Nun soll diese unsinnige Art der Stromerzeugung ja zur 100 %-Versorgung ausgebaut werden, was ungefähr den 4 – 6fachen Zubau erfordert. Für den ersten Schritt dahin, den 3-fachen Zubau ist in Bild 4 ganz grob eingezeichnet, wie die Ganglinien dann verlaufen (Hinweis: der Unterschied beim Schwellwert des Börsen-Strompreises in Bild 4 gegenüber Bild 3 hat die Ursache, dass in Bild 3 auch Wasserkraft und Biogasstrom enthalten sind, die beide im Bild 4 fehlen).
Eine Grundlast ist weiterhin nicht im Ansatz vorhanden, das zeitweise Überangebot schnellt aber in ganz neue Dimensionen. Die Verbraucher werden es am sichersten bemerken, denn die daraus für ihn zwangsweise resultierende Kostenlawine wird gewaltig.

Bild 4 Verlauf von Verbrauch und Einspeisung Wind + Solar vom 17. – 28. Dezember. Quelle: Agorameter. Vom Autor ergänzt (grobe Skizzierung): 3-fache Einspeisung, Schwelle für negative Strompreise (unter der rot gestichelten Linie)

Was sagt die Klima- und Energieberaterin unserer Bundesregierung, Prof. C. Kemfer dazu:
[4] VDI Nachrichten 29. April 2016: DIW-Expertin Claudia Kemfert, „Energiewende gefährdet:
Prof. C. Kemfert: Derzeit haben wir einen Stromangebotsüberschuss und verkaufen diesen in unsere Nachbarländer. Der Strompreis an der Börse ist so niedrig wie nie. Wir könnten problemlos die ineffizienten Kohlekraftwerke abschalten. In Folge würde sich nicht nur das vorherrschende Überangebot vermindern, sondern es wären auch die Stromnetze weniger belastet.
Prof. C. Kemfert: Der Preis für Privatpersonen hängt vor allem daran, dass der niedrige Börsenstrompreis nicht bei ihnen ankommt. Nur energieintensive Unternehmen, die von Steuern und Umlagen befreit sind, profitieren davon. Sobald Kohle- und Kernenergie verschwinden, steigt zwar der Börsenstrompreis, aber die EEG-Umlage sinkt. Dann würden voraussichtlich auch Privatpersonen weniger bezahlen müssen.

Beim Durchlesen dieses Unsinns wird verständlich, warum es diese Professorin bis in das Beratergremium in Berlin geschafft hat. Unsere Politiker mögen keine ehrlichen Antworten mehr, sondern erwarten Zustimmung zu ihren Beschlüssen, natürlich mit passenden Begründungen.

Man hätte sich gewünscht, der Fachredakteur der VDI-Zeitschrift hätte im Interview im Bild 4 oder Bild 5 virtuell die konventionellen Kraftwerke abgeschaltet und dann in der Dunkelheit gefragt, wo Frau Kemfert nun problemlos die fehlende Ökoenergie aus dem angeblich vorherrschenden Überangebot herbekommen möchte. So etwas Gehässiges macht ein Fachredakteur des VDI aber nicht.
Zum von Frau Kemfert unisono gebrachte Beispiel, der billige Börsenstrompreis käme nur nicht beim Privatkunden an, gibt es ebenfalls viele Gegenargumentationen. Sie basieren immer darauf, dass dieser Strom immer! bereits von ihm voll vergütet werden musste und für ihn deshalb erst kostenneutral ist, wenn er an der Börse mindestens für die Einspeisevergütung (zuzüglich der Zuschläge) verkauft werden kann.
Es ist so, als wenn der Kunde seine Verpflegung beim Discounter zu bezahlen hat, aber an einer Tafel abholen muss und die „Verpflegungsmangelfachpersonen“ dann erklären, man solle sich als Kunde über diese Errungenschaft doch freuen, weil es an der Tafel an ihn kostenlos ausgegeben wurde. Mit der Ergänzung, dass es nun auch nichts aus mache, wenn die Discounter jetzt gesetzlich gezwungen werden, beliebige Produktions- und Ernteüberschüsse zu einem weit über dem Marktpreis liegenden Obulus abzunehmen und notfalls vor dem Verderben zu verschenken. Diesen Obulus habe der Kunde selbstverständlich auch über eine Umlage voll zu bezahlen, aber bitte wieder freuen, an der Tafel kann sich jeder auch diesen Überschuss umsonst abholen. Sofern es dort wegen der Übermengen keine Abholer gibt, geht der Überschuss mit einer Zuzahlung ins arme Ausland, oder wird gleich vernichtet (abgeregelt). Man wird aber einsehen, dass diese Zuzahlungen an das arme Ausland auch wieder über eine Umlage von ihm eingefordert werden müssen.
Solche Mechanismen kannten schon die ehemalige DDR und Auswüchse der EU Agrarsubventionierungen. Politische Lösungen wiederholen sich schier unendlich.

Bild 5 Verlauf von Verbrauch und Einspeisung Ökostomerzeugung im Jahr 2016 (bis 29.12.). Quelle: Agorameter

Die Führungskräfte in den Fachfirmen, wie Versorger und Netzbetreiber wissen von den Problemen und steuern dagegen – sollte man meinen. Aber gerade diese unterstützen den Weg in dieses EEG-Verderben, weil es ihnen – und nur ihnen – Vorteile bringt und es eben politischer Beschluss ist, den man pflichtgetreu (da im Vorstand in aller Regel auch hochrangige Politikvertreter sitzen) umzusetzen hat:

[5] Die N-ERGIE betrachtet es als ihre Aufgabe, die politischen Vorgaben entsprechend des geltenden gesetzlichen Handlungsrahmens möglichst effizient umzusetzen. Dies ist die Vorgabe des EnWG.
Gesellschaftliches und politisches Ziel in Deutschland ist die Entwicklung einer vieldimensional nachhaltigen Energiewirtschaft auf der Grundlage der Zieltrias aus Versorgungssicherheit, Wirtschaftlichkeit und Umweltverträglichkeit. Der notwendige Beitrag regenerativer Energiequellen zur Stromerzeugung steigt nach dem deutschen Energiekonzept sukzessive auf bis zu 80 % im Jahr 2050; fossile Energieträger werden nur mehr ergänzende Funktion im zukünftigen Energiesystem einnehmen. Dies ist die aktuelle Vorgabe der Politik.
Der gesellschaftliche Grundkonsens der deutschen Energiewende mit ihren neuen Strukturen, Rollen, Vorgehensweisen, Geschäftsmodellen und Märkten gründet in der Erkenntnis, dass die Energieversorgung im Strom nahezu vollständig dekarbonisiert werden muss und hierzu die Kernenergie keine akzeptable Option für Deutschland darstellt . Dazu bekennt sich die N-ERGIE.
[6] VBEW Vorstandvorsitzender beim Überreichen der Plakette „Gestalter der Energiewende“:
„Wir freuen uns sehr über diese Auszeichnung. Unser Verband wird sich mit allen Mitgliedern weiterhin für das Gelingen der Energiewende engagieren“

Für ihre Kunden bieten sie dann frappierende Lösungen:
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Jedoch gibt es Politiker, die kurze Momente der Energie-Erleuchtung haben:
[6] In einer Publizierung der SEN AG Energie der CSU steht:
Nicht vorhandene Reservekraftwerke und die Netzunsicherheit der Nachbarländer gefährden die Stromversorgung in Bayern zusätzlich. Bei unseren Nachbarn gibt es Hinweise auf einen Rückgang der Kraftwerksleistung und eine Erhöhung des eigenen Strombedarfs.
Die Sicherheit der Stromversorgung in Bezug auf Haltung von Frequenz, Spannung und Stabilität ist nicht ausreichend gewährleistet. Nach den neuesten Zahlen der Bundesnetzagentur sind deutschlandweit bis dato 50 Kraftwerke zur Abschaltung angemeldet. Die Lage wird dramatisch.
Doch die es verfasst haben, sind ja Politik-Senioren. Und die haben noch nicht mitbekommen, dass der Strom inzwischen nicht mehr nach veralteten Physikbüchern fließt, sondern viel moderner übers Internet kommt – auf jedem PAD kann man ihn schließlich in einer App fließen sehen – und durch Wischen an der Steckdose erscheint.

Eines ist aber sicher: Das EEG wird noch viel Stoff für Publizierungen liefern.
EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle
EIKE 22.11.2016: Energieversorger helfen ihren Kunden gegen teuren EEG-Strom! Aktion lokaler Versorger in Bayern: Energiewende bezahlbar

EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
EIKE 12.09.2016: Der Geheimplan: Die Schweiz bereitet sich auf das Scheitern ihrer Energiewende vor
EIKE 02.09.2016: Weltweit einzigartiger Stromspeicher im Pilotversuch: Der Naturstromspeicher – die von Berlin geförderte EEG-Naturvernichtung
EIKE 02.07.2015: Der Wind bläst stetig – die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus

*Die Daten wurden freundlicher Weise von Herrn R. Schuster zur Verfügung gestellt

Quellen

[1] Fraunhofer ISE: Aktuelle Fakten zur Photovoltaik in Deutschland, Fassung vom 14.10.2016

[2] Kölnische Rundschau 18.01.2016: Rekordjahr für Windparks auf See

[3] VATTENFALL Pressemeldungen 08-07-2015: Baustart auf See für Offshore-Windpark „Sandbank“

[4] EIKE 05.06.2016: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert

[5] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
[6] EIKE 02.07.2015: Der Wind bläst stetig – die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus




Dezember­rückblick 2016, Hochwinter­ausblick 2017

1. Die langfristige Entwicklung der Dezembertemperaturen und der „CO2- bedingte Klimawandel“

Der 2015er, frühlingshafte Dezember mit ersten Frühblühern wurde oft als Vorbote der „Klimaerwärmung“ gedeutet. Doch sehr milde Dezember gab es auch vor mehr als 40 Jahren schon, beispielsweise 1974. Betrachtet man den Temperaturverlauf seit jenem Dezember in Erfurt-Weimar (offizielle Station des Deutschen Wetterdienstes DWD), so erlebt man eine Überraschung:

Den geringen (nicht signifikanten) Temperaturanstieg erkennt man kaum, und das, obwohl der 2015er Dezember deutlich wärmer als der 1974er ausfiel. Zumindest im letzten Monat des Jahres fand also der „CO2- bedingte Klimawandel“ bislang nicht statt, denn die Erfurter Werte sind nicht wärmeinselbereinigt (am Flughafen Erfurt- Weimar nahmen Verkehr und bebaute Flächen seit den 1970er Jahren zu, was zumindest leicht erwärmend wirkte und vermutlich neben einer geringfügigen Zunahme der Tage mit Südwestlagen und einer erhöhten Sonnenscheindauer um etwa 17 Stunden seit 1974 die Ursache der Mini- Dezember- Erwärmung ist). Ein nahezu identisches Bild zeigt sich übrigens in Zentralengland, auch dort blieben die Dezembertemperaturen seit 1974 nahezu unverändert. Nun mögen Kritiker bemängeln, es habe sich aber seit 1881, dem Beginn vertrauenswürdiger Messungen in Deutschland, deutlich erwärmt. Das ist korrekt und soll keinesfalls verschwiegen werden, doch jenseits des Atlantiks finden sich Stationen, welche sich schon seit 1881 so gut wie gar nicht erwärmten; ein Beispiel von der US- Ostküste möge das belegen:

2. Besonderheiten der Dezemberwitterung 2016- Die Praxis widerlegt die Theorie der CO2- bedingten Erwärmung

Beim täglichen Blick auf das Barometer fiel der fast stets deutlich zu hohe Luftdruck auf. Wahrscheinlich gab es einen neuen Rekord des Dezember- Luftdruckmittelwertes, was aber erst nach Vorliegen aller Werte endgültig feststehen wird. In Potsdam wurde der bislang höchste Dezembermittelwert 1972 mit 1013,35 hPa (in Barometerhöhe, nicht auf NN reduziert) gemessen. Aber der hohe Luftdruck, der zwischen West-, Mittel- und Südosteuropa pendelte, ging mit fehlender Kaltluftzufuhr, meist schwachem Wind, gebietsweise viel Sonne und zu wenigen Niederschlagstagen einher; trotzdem gab es einige beachtlich kalte Nächte. Die Luftmasse, meist eine im Winter recht milde maritime Subpolarluft (mP), wandelte sich direkt über Mitteleuropa bodennah in gealterte Subpolarluft (xPs oder die trockenere cPs) um, während in der Höhe Warmluftadvektion herrschte, welche den Höhenkeil und das riesige Bodenhoch immer wieder aufbaute. In den klaren, windschwachen Nächten kühlte die Luft bodennah trotz der hohen CO2- Konzentration (im Mittel schon über 400 ppm) und der Höhen- Warmluft stark aus. Zeitweise entstand eine kräftige Inversion (Temperaturumkehr) zwischen dem Thüringer Becken oder dem Werratal (dort sammelte sich die schwere Kaltluft mit teilweise zweistelligen Minusgraden) und den Mittelgebirgsgipfeln mit Temperaturen um 0°C. Die folgende Abbildung zeigt die Wetterlage am Morgen des 05.12.2016:

Das umfangreiche, kräftige Hochdruckgebiet über Südosteuropa reichte bis nach Mitteleuropa. Das Luftdruckgefälle und folglich auch der Wind waren über Mitteleuropa nur sehr schwach (großer Abstand der Isobaren). Die nächste Abbildung mit wenigen Temperaturmeldungen in °C illustriert die enormen Temperaturunterschiede über Mitteldeutschland am Morgen des 5. Dezember, welche allein durch die starke nächtliche Ausstrahlung entstanden waren:

Am 20. Dezember entstand dann erneut ein umfangreiches, mit Nebel gefülltes Kaltluftreservoir im Thüringer Becken und dem südlichen Sachsen- Anhalt. In der Weimarer Mulde schien ab dem späten Vormittag bei +1°C zwar die Sonne, doch der Druck der am Ettersberg aufgestauten Kaltluft war so groß, dass Nebel noch nach 13 Uhr die nördlichen Ortsteile Weimar- Waldstadt und Schöndorf zeitweise einhüllte, sich beim Absinken mit nordöstlichem Wind Richtung Ilmtal auflösend (ganz schwacher Nordföhn). Aber kaum wurde die Sonne schwächer, überflutete der gefrierende Nebel (Zeichen ww49 nach WMO- Schlüssel) ab 14.45 Uhr den gesamten Großraum Erfurt/Weimar und verschwand erst in der zweiten Nachthälfte aus dem Ilmtal. Dieses Beispiel verdeutlicht, wie dominant Sonnenscheindauer, Bewölkungs- und Windverhältnisse die Temperaturen beeinflussen. Weil mehrfach Vorstöße milderer Luft aus SW bis NW, darunter das berüchtigte „Weihnachtstauwetter“, diese markanten Abkühlungsphasen unterbrachen, wenngleich viel schwächer als 2015, fiel der Dezember 2016 insgesamt etwas zu mild aus.

3. Allen Unkenrufen zum Trotz- das arktische Meereis wuchs im Dezember zeitweise stark

Im Spätherbst (Oktober/November) nahm das arktische Meereis die bislang geringste Fläche seit der Einführung der satellitengestützten Überwachung im Jahre 1979 ein. Das rief sogleich die Alarmisten und Katastrophisten auf den Plan. So schrieb das links- grüne Kampfblatt „DIE ZEIT“ am 8. Dezember unter der Rubrik Wissen: „Das Eis schwindet. Das ist kein ästhetisches, sondern ein existenzielles Problem.“ Leider übersahen die ZEIT- Redakteure einige Fakten. Erstens ist der Zeitraum seit 1979 sehr gering; sein Beginn fällt mit der Abkühlungsphase der 1970er zusammen. Auch in früheren Zeiten, für die aber nur sehr ungenaue Daten vorliegen, wich das Eis stark zurück, so in den 1930er Jahren. Und seit Mitte November dehnte sich die Eisfläche zeitweise stark aus, was auch die folgende Abbildung verdeutlicht (Quelle http://nsidc.org/arcticseaicenews/ ):

Die Eisbedeckung wies in der letzten Dezemberdekade einige Besonderheiten auf. Während eine ungewöhnlich große eisfreie „Kerbe“ bis weit in das Seegebiet nördlich von Westsibirien reichte, war die Eisbedeckung in allen anderen Gebieten fast normal. Dieser Umstand ist vermutlich den in diesem Spätherbst/Frühwinter rekordverdächtig hohen AMO- Werten geschuldet. Über die letzten Golfstrom- Ausläufer gelangt das (noch!) zu warme Atlantikwasser weit nach Nordosten. Von einem „katastrophalen“ Eisschwund kann keine Rede sein. Diese frühwinterliche Ausdehnung des Meereises ist eine mögliche Ursache für die Häufung der Westlagen in dieser Jahreszeit; sicher hat sie auch diesmal das Auftreten des schon immer sehr häufigen „Weihnachtstauwetters“ begünstigt. Auffällig umfangreich war auch die Schneedecke Eurasiens schon Ende November; sie hatte mit 24,03 Millionen Km² den bisherigen 1993er Novemberrekord (24,13 Mio. Km²) nur knapp verfehlt; für Dezember liegen noch keine Werte vor.

4. Ausblick in den Januar- was die mittelfristigen Modelle vorhersehen

Die Ensemble- Vorhersagekarte des NOAA (USA- Wetterdienst) vom 26.12. für den 10.01.2017 zeigte eine diffuse Hochdruckzone von den Azoren über Mittel- bis nach Osteuropa und tiefen Luftdruck westlich von Island (Quelle: NOAA). Sollte das so eintreten (noch sehr unsicher), so wäre es in Deutschland weder extrem mild, noch extrem kalt:

Bei den Modellen entstehen in derart langen Vorhersagezeiträumen aber oft Differenzen der einzelnen, gerechneten Läufe, ganz oben das amerikanische GFS von 26.12., 00 UTC, Mitte ENS, unten ECMWF, jeweils für den 05. Januar 2017, 00 UTC, berechnet (Quelle: http://www.wetterzentrale.de/topkarten/ ). Während GFS und ENS eher antizyklonales Westwetter vorhersahen, berechnete das ECMWF einen Trog über Mitteleuropa mit einem Mittelmeer- Tief, was starke Schneefälle in Ost- und Süddeutschland auslösen könnte:

Die Unsicherheit bleibt also groß, doch deutet sich wohl ein Januar an, der etwas kälter und vor allem niederschlagsreicher als der Dezember ausfallen könnte.

5. Die Nordatlantische Oszillation (NAO), die AMO, die QBO, der Polarwirbel, die markante Kaltwasserinsel im zentralen Nordatlantik und die Sonnenaktivität

Die NAO „drehte“ nach Mitte Dezember wieder auffallend markant in den Positivmodus, was mildes Westwetter förderte und so das „Weihnachtstauwetter“ begünstigt hat. Die AMO- Werte blieben auch im November ungewöhnlich hoch. AMO- Warmphasen erhöhen die Wahrscheinlichkeit für einen kalten Winter leicht, weil diese Konstellation kalte, nordöstliche Strömungen („Wintermonsun“) begünstigen könnte. Und die QBO (Windverhältnisse in der unteren Stratosphäre der Tropen, die etwa alle 2,2 Jahre zwischen West und Ost wechseln) dreht momentan in der unteren Stratosphäre in die Westwindphase, was eher milde Winter bevorteilt. Ein Polarwirbelsplitting, welches die Westdrift schwächen und kalte Nord- bis Ostlagen über Europa fördern könnte, kündigte sich in den Modellvorhersagen des französischen Wetterdienstes, welche gut 2 Wochen in die Zukunft reichen, bislang noch nicht eindeutig an.

Die lange Zeit auffällig beständige „Kaltwasserinsel“ im zentralen Nordatlantik zwischen Großbritannien/Westeuropa und den USA war auch im Dezember 2016 meist gut erkennbar. Im Dezember 2016 nahm die Sonnenaktivität weiter ab; zeitweise war die Sonne völlig fleckenlos, was nach eigenen Untersuchungen meridionale Strömungsmuster, darunter besonders Nord- und Ostlagen, im Hochwinter 2017 etwas wahrscheinlicher werden lässt.

6. Analogfälle (ähnliche Witterung wie 2016)

Die wahrscheinliche (trotzdem sehr unsichere) Luftdruckverteilung über Europa (Quelle: langfristwetter.com) sieht für die Hochwintermonate nun doch etwas anders aus, als noch im November erwartet:

Im Januar 2017 (oberes Bild) nur noch eine leicht geschwächte Westwind- Zirkulation (positive Luftdruck- Anomalien in hpa auf Meeresspiegelniveau, gelbe und rötliche Linien über Nordosteuropa und zu tiefer Luftdruck blau- violett auf dem zentralen Nordatlantik). Das kann zumindest gelegentlich Kälte in Mitteleuropa begünstigen. Im Februar (unteres Bild) soll nun etwas zu tiefer Luftdruck über West- und Nordwesteuropa herrschen. Einem Dezember mit auffallend zu hohem Luftdruck über Mitteleuropa folgten in der Vergangenheit häufiger normale bis milde, als zu kalte Januare. Einzelne, sehr milde oder zu kalte Phasen sind jedoch nicht ausgeschlossen.

7. Die „Siebenschläfer- Regel“ des Winters

Neben der im Novemberbericht bei EIKE ausführlich erläuterten „2- K- Septemberregel“ (der Winter und auch der Hochwinter fallen mit sehr hoher Wahrscheinlichkeit zu mild aus, wenn der vorangehende September in Deutschland um mindestens 2 Kelvin zu warm war), gibt es für die Abschätzung der Hochwinterwitterung noch weitere Regeln, so etwa „War der Dezember gelind, bleibt auch der Winterrest ein Kind.“ Oder „Bricht gar ein Spatz im Dezember- Eis ein, wird ein milder Januar sein.“ Bei Verknüpfung der Dezember- und Septemberregel gilt folgende Aussage: „Waren September und Dezember insgesamt zu mild, so erhöht das die Wahrscheinlichkeit für einen zu milden Januar deutlich“.

Am wichtigsten ist aber die sogenannte „Dreikönigs- Regel“: „War bis Dreikönige (06.01.) kein richtiger Winter, so folgt meist auch kein strenger mehr dahinter.“ Sie funktioniert ähnlich wie die Siebenschläfer- Regel. Kurz nach dem Sonnenhöchst- und Tiefststand hat sich die Atmosphäre meist für ein bestimmtes Strömungsmuster entschieden. Die markanten Keile und Tröge sowie der unser Wetter steuernde Strahlstrom haben eine bestimmte Position eingenommen und behalten diese dann meist für weitere 2 bis etwa 7 Wochen mit nur leichten Variationen bei („Persistenz“). Freilich lässt auch diese Regel Ausnahmen zu, und der „Entscheidungszeitraum“ reicht etwa vom 20.12. bis fast Mitte Januar. Einem Dezember mit auffallend hohem Luftdruck folgten bislang häufiger zu milde als zu kalte Januare. Weil sich der hohe Luftdruck und die milde Witterung auch bis zum Jahreswechsel 2016/17 noch hielten, könnte auch der Januar zeitweise ähnlich verlaufen; gelegentliche Kälteeinbrüche oder zumindest endlich zeitweise Schnee bis ins Flachland bleiben trotzdem möglich. In den Wintern 2011/12 und 2012/13 folgte milden Dezembern sogar noch entweder ein sehr kalter Februar (2012) oder 2013 ein bis in den April dauernder schneereicher Winter, der erst nach dem 10. Januar so richtig begann. Näheres und Interessantes zur Problematik der großräumigen Zirkulationsverhältnisse und deren Auswirkungen auf die winterlichen Temperaturverhältnisse finden Sie im Beitrag von Hans-Dieter Schmidt vom 23.12.2016 unter http://www.eike-klima-energie.eu/2016/12/23/extreme-kaelte-in-teilen-der-usa-dauerhoch-in-mitteleuropa/ . Fasst man alle Prognosesignale zusammen, so kündigt sich am wahrscheinlichsten ein wechselhafter, eher unspektakulärer Januar 2017 an, der weder extrem mild noch extrem kalt ausfällt, eher nasskalt, und einen Wechsel von zyklonalen und antizyklonalen Phasen aufweist.

8. Die Langfrist- Vorhersagen: Viele Institute korrigierten ihre Prognosen vom November 2016

Der britische Wetterdienst (UKMO) sieht nun eine leicht erhöhte Wahrscheinlichkeit für einen milden Winter in ganz Deutschland, allerdings unter Einbeziehung des März:

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten. Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob

Meteo Schweiz bezieht nun ebenfalls den März ein und erhöht dabei die Wahrscheinlichkeitsaussage für einen milden Winter:

LARS THIEME (langfristwetter.com) sagt in seiner Dezemberausgabe nun einen zu milden Januar und einen normalen Februar vorher.

Das IRI bleibt bei seiner Novemberprognose eines mit leicht erhöhter Wahrscheinlichkeit zu milden Winters.

Der DWD (Offenbach) sieht nun eine deutlich erhöhte Wahrscheinlichkeit für einen normalen Winter:

Die NASA (US- Weltraumbehörde) schwenkt komplett um und kündigt nun einen zu kalten Januar und einen etwas zu kalten Februar an (hier wird nur der Januar gezeigt, Europa liegt ganz links oben in der Karte):

Und das CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 2 Abbildungen, Eingabezeitraum 16. bis 25.12.2016): Januar (oben) eher normal, nur in Teilen des Alpenraumes etwas zu mild und in Südosteuropa zu kalt; Februar (unten) überall viel zu mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Die Mehrzahl dieser Langfristprognosen deutet also weiterhin einen normalen bis etwas zu milden Hochwinter 2017 an.

Fazit: Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute bleiben sehr widersprüchlich. Es deuten sich aber zumindest einige merklich kältere Phasen im Hochwinter 2017 an, besonders im Januar, zeitweise auch mit nördlichen Strömungsanteilen eher nasskalt; doch insgesamt fällt dieser mit erhöhter Wahrscheinlichkeit normal bis etwas zu mild aus, wenngleich etwas weniger, als in den Vorjahren. Zumindest in den Mittelgebirgen (über 600 Meter) könnte ab Anfang Januar für längere Zeit gut Wintersport möglich sein und auch im Tiefland öfter mal Frost und Schnee herrschen. Geschätzte Januar-Monatsmitteltemperatur 2017 für Erfurt-Bindersleben (Mittel 1981- 2010 minus 0,3°C) -1,5 bis +2,5°C (etwas zu kalt bis deutlich zu mild). Für Feb. 2017 lässt sich noch kein Temperaturbereich schätzen, doch ist ein zu milder Februar momentan noch wahrscheinlicher, als ein zu kalter.

Eine Bewertung der ursprünglichen Winterprognosen (Stand November) erfolgt im Laufe des Monats März.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 27.12. 2016




Der Fukushima-Report (2): Unter Kontrolle

Wie sieht es heute auf dem Gelände des havarierten AKW aus und welche Fortschritte wurden gemacht? Zur Zeit des Erdbebens waren die Blöcke 1,2 und 3 in Betrieb. Die Blöcke 4,5 und 6 waren zur Revision abgeschaltet. Man muss wissen, dass die Blöcke 5 und 6 ohne Schaden davonkamen, weil sie um ca. 10 Meter erhöht gebaut wurden. Die Blöcke 1 bis 4 hingegen verloren bei dem Tsunami alle ihre Stromquellen und bei den Blöcken 1 bis 3 kam es zu teilweisen Kernschmelzen sowie zu Wasserstoffexplosionen in den Serviceflurbereichen der Turbinengebäude, wovon auch der Block 4 beeinträchtig wurde, dessen Reaktor bei der Katastrophe keinen Brennstoff enthielt.

Reaktorblock 1

Nach dem Unglück baute TEPCO ein neues Außengebäude über den Block, um die Radioaktivität sicher einzuschließen. Da nunmehr der Austritt von Radioaktivität nicht mehr zu befürchten ist, wurde dieses Gebäude teilweise eröffnet, um den Abtransport des nuklearen Brennstoffes aus den Abklingbecken durchzuführen. Am havarierten Reaktor selbst laufen Aufräumungs- und Aufklärungsarbeiten mittels eigens dazu konstruierten Robotern. Der beschädigte Reaktor ist unter Kontrolle und wird unter 30 °C gekühlt.

Reaktorblock 2

Der Block 2 wurde durch die Wasserstoffexplosionen weniger beschädigt und das Gebäude blieb weitgehend intakt. Die Aufräumungsarbeiten sind fortgeschritten und der Strahlenpegel innerhalb des Gebäudes konnte erheblich gesenkt werden. Der beschädigte Reaktor ist unter Kontrolle und wird unter 30 °C gekühlt.

Reaktorblock 3

Im Block drei wurden die ins Becken gestürzte Umlademaschine entfernt und die Aufräumarbeiten begonnen. Eine Umhausung des schwer beschädigten Turbinen-Gebäudes wurde so installiert, dass im Jahre 2017 der Brennstoff aus den Lagerbecken mit einer neuen Lademaschine in Castoren verpackt und abtransportiert werden kann. Der beschädigte Reaktor ist unter Kontrolle und wird unter 30 °C gekühlt.

Reaktorblock 4

Der Block 4 wurde innerhalb eines neuen Gebäudes komplett aufgeräumt und es wurde eine neue Brennstoff-Lademaschine installiert. Mittels dieser Anlage wurde der gesamte Brennstoff aus dem Block 4 in „castorartige“ Transportbehälter verpackt und abtransportiert. Seit September 2014 ist der Block 4 „brennstoff-frei“, das heißt, alle radioaktiven Brennelemente des Reaktors und der Lagerbecken sind entfernt worden. Vom Block 4 geht keine Gefahr mehr aus.

Die Blöcke 5 und 6

Die unbeschädigten Blöcke 5 und 6 werden nicht wieder in Betrieb gehen. Sie werden derzeit als Erprobungsmittel für dutzende neue Roboter und verschiedenste neue Rückbautechnologien genutzt. Japan arbeitet in Fukushima wegweisend mit vielen in- und ausländischen Unternehmen an der Weiterentwicklung mobiler Robotertechnologie.

Das Werksgelände

Das Werksgelände wurde komplett aufgeräumt und außerhalb der Reaktorblöcke durch Abtragen einer Oberflächenschicht dekontaminiert. Weite Bereiche wurden mittels Beton oberflächenversiegelt, so dass auf dem Kraftwerksgelände von den 6000 dort arbeitenden Mitarbeitern keine spezielle Schutzkleidung außer einem einfachen Papiermundschutz getragen werden muss. Die gesamte Seeseite des Geländes bekam eine 800 Meter lange, tief in das Felsenbett eingebrachte wasserdichte Stahl-Wand, um das Ablaufen eventuell kontaminierten Wassers ins Meer zu verhindern.

Derzeit geht gerade eine gigantische Vereisungsanlage in Betrieb. Rund um das Gelände der Reaktorblöcke wurden abertausende Rohrleitungen tief in den Boden gebohrt, durch die nun eine Kühlflüssigkeit strömt. Ziel ist es, bis Mitte nächsten Jahres einen gefrorenen wasserdichten Ring tief um das Reaktorgelände zu erzeugen, der das Grundwasser am Eintritt und eventuelle Flüssigkeiten am Austritt hindert. Dazu musste natürlich auch eine fabrikartige Anlage installiert werden, welche die Kühlflüssigkeit herunter kühlt. Die Technologie erscheint uns exotisch, ist aber in Japan auch anderweitig durchaus üblich. Große Teile des Eisschutzwalls sind bereits dicht gefroren.

Auf dem Kraftwerksgelände wurden große Lagerhallen erbaut, um die verpackten niedrigaktiven Abfälle temporär sicher einzulagern.

Wasserbehandlung

Die Wasserbehandlung gehörte seit Anfang der Katastrophe zu den größten Problemen in Fukushima. Der Tsunami, der die Anlage geflutet hatte, ließ Unmengen von kontaminiertem Wasser in den Gebäuden zurück. Für die Kühlung der beschädigten Reaktoren wurden ebenfalls große Mengen Wasser benötigt. Da das Werk an einem Berghang steht, drang durch Risse in den Gebäuden viel Grundwasser von unten ein und vermischte sich mit dem kontaminierten Wasser in der Anlage. All dieses Wasser ließ man nicht einfach abfließen, sondern pumpte es in Tausende eilig errichtete provisorische Tanks ab. Ein gigantisches Tanklager voll mit niedrigaktivem Wasser entstand und wurde ständig grösser. TEPCO baute eiligst mehrere große Wasseraufbereitungsfabriken auf dem Kraftwerksgelände und seit 2015 wird die Wassermenge durch Aufbereitung und Reinigung geringer. Die provisorischen Kunststofftanks wurden durch zuverlässige normal geschweißte Tanklager ersetzt und somit die Gefahr von Leckagen gebannt. Die Behandlung hochradioaktiven Wassers war im Mai 2015 abgeschlossen.

Die 6.000 Mitarbeiter

Seit diesem Jahr fahren die Mitarbeiter wieder in Bussen in ihrer normalen Arbeitskleidung direkt ins Werk. Für die Arbeiter wurden neue Sozialgebäude erbaut, in denen sie sich umziehen, ausruhen und ihre Malzeiten einnehmen können, die übrigens weitgehend aus lokalen Produkten erzeugt werden. (Dazu mehr im Teil 3 dieser Artikelserie). Selbst einen Supermarkt gibt es in diesem Gebäude. Auch ein neues Bürogebäude wurde errichtet, um die mehr als 1000 Ingenieure und Techniker unterzubringen, die an den Rückbauarbeiten beteiligt sind. Ein neues medizinisches Versorgungsgebäude mit der nötigen ärztlichen Infrastruktur wurde errichtet, um im Falle von Unfälle den Mitarbeitern 24 Stunden am Tag direkt vor Ort helfen zu können.

Um eventuellen Illusionen vorzubeugen: TEPCO Führungs-Mitarbeiter und Arbeiter kasteien sich seit der Fukushima-Katastrophe, als Ausdruck ihrer Betroffenheit. Die Arbeitszeiten wurden verlängert und die Gehälter gesenkt. TEPCO spart so um 600 Millionen US-Dollar pro Jahr ein. Als ich in der Tokioer TEPCO Zentrale in Shinjuku zu Besuch war, standen die Klimaanlagen auf 28°C, um Energie zu sparen.

Die Aufräum- und Rückbauarbeiten werden 30 oder sogar 40 Jahre in Anspruch nehmen. Die Kosten werden mit ca. 40 Milliarden Euro veranschlagt. Unklar ist, ob diese Summe reichen wird. Es ist genauso unklar, ob die von Kanzleramtsminister Altmaier veranschlagte Summe von 1.000 Milliarden Euro für die Energiewende reichen wird.

Leider sind Informationen über die Fortschritte in Fukushima in deutschen Medien selten oder sie werden mit Katastrophen-Unterton vorgetragen. Man könnte fast meinen, deutsche Journalisten wollten trotz des längst beschlossenen Atomausstiegs immer noch Ängste vor der Kernenergie schüren. TEPCO hat, was Transparenz gegenüber der Öffentlichkeit betrifft, viel aus Fukushima gelernt. Wer sich für mehr Details, eindrucksvolle Bilder und informative Videofilme (in Englisch) interessiert, dem sei die TEPCO Webseite empfohlen.

Bereits erschienen:

Der Fukushima-Report (1): Die Fakten, die Mythen

Die nächsten Folgen:

Der Fukushima-Report (3): Wieder Leben in „Todeszonen“

Der Fukushima-Report (4): Geisterfahrer der Energiepolitik




Aufhebung von Obamas 11-Stunden-Bohrverbot

Bei seinen Vorbereitungen zur Räumung seines Büros konnte Präsident Obama nicht einem „Parthian Shot“ widerstehen gegen die das Amt übernehmende Trump-Regierung, indem er Bohrungen verbot in großen Bereichen des amerikanischen Arktis-Sektors und vor der atlantischen Küste.

Grüne Gruppen behaupten, dass dieses Gesetz von Dauer ist, während Energiestrategen behaupten, dass Präsident Trump dieses Gesetz per Rechtsverfügung aufheben kann.

Auf unserer Website CFACT.org posteten wir einen Beitrag des Energie-Analysten Michael Bastasch hierzu:

„Obama ordnete an, dass sein Bohrverbot ,alle fünf Jahre überprüft werden soll mittels einer auf Klima- und Meereswissenschaft basierenden Abschätzung des Lebenszyklus‘. Im Hinterkopf hatte er dabei wohl, dass ein Klimatest von Offshore-Bohrungen immer einen schädlichen Einfluss auf die Umwelt herausbekommen wird. Umweltaktivisten haben ihn seit Monaten gedrängt, von Abschnitt 12(a) des Outer Continental Shelf Lands Act aus dem Jahr 1953 Gebrauch zu machen, um Offshore-Bohrungen zu blockieren“.

Das gesamte Gesetz kann auf unserer Website hier eingesehen werden.

Die Lektüre des Gesetzes zeigt aber, dass die Klima-Campaigner zu vertrauensselig sind.

Als der Kongress einem Gesetz zustimmte, welches den äußeren Kontinentalschelf der USA betrifft, wurde eindeutig dem Sinn des Gesetzes Ausdruck verliehen:

„Der Äußere Kontinentalschelf ist eine vitale nationale Ressource, die die Regierung für die Öffentlichkeit verwaltet. Er sollte zugänglich gemacht werden für Expeditionen und eine geordnete Entwicklung sowie Gegenstand von Umweltschutzmaßnahmen sein auf eine Art und Weise, die konsistent ist mit der Wahrung von Wettbewerb und anderer nationaler Erfordernisse“.

Der Kongress erkannte die Bedeutung der Ressourcen vor der amerikanischen Küste. Die Absicht des Kongresses war es, Energie und andere Ressourcen für die US-Wirtschaft verfügbar zu machen. Die Umwelt-Vorbehalte bestehen, um eine sichere und verantwortungsvolle Ausbeutung sicherzustellen.

Der Kongress glaubte auch, dass einige empfindliche Gebiete geschützt werden sollten, weshalb die Klausel verankert worden ist, dass „der Präsident der Vereinigten Staaten von Zeit zu Zeit nicht vermietete Gebiete im Äußeren Kontinentalschelf von der Nutzung ausschließen kann“.

Präsident Eisenhower befolgte diese Vorgabe wie geplant, als er ein Gebiet der Florida Keys von der Entwicklung ausnahm.

Nachfolgende Präsidenten erkannten die Weisheit in der Entscheidung von Ike und ließen sie bestehen. Allerdings waren andere präsidiale „Ausschlüsse“ keineswegs „permanent“. Sie wurden von nachfolgenden Präsidenten aufgehoben.

Das Atlanta Journal Constitution berichtet, dass „Präsident Bill Clinton im Jahre 1998 ein Offshore-Bohrverbot bis zum Jahr 2012 verlängerte, welches ursprünglich von Präsident George H. W. Bush in Kraft gesetzt worden war – aber im Jahre 2008 hob Präsident George W. Bush jene Clinton-Proklamation vier Jahre vorher auf“.

Präsident Obama, der prominent mit der Bemerkung „Ich habe einen Stift, und ich habe ein Telefon“ seine Absicht bekundet hatte, den Kongress zu umgehen, gab dem designierten Präsidenten Trump den Rat, sich nicht zu sehr auf präsidiale Verfügungen zu stützen. Gleichzeitig verordnete er das Bohrverbot.

Präsident Trump sollte dieses unkluge Bohrverbot aufheben. Wenn es zu den unvermeidlichen juristischen Klagen kommt, sollte jedes neutrale Gericht die Verordnung der Absicht des Kongresses folgend auslegen.

For nature and people too,

Craig Rucker, executive director

———————————————

In dem oben erwähnten Beitrag von Michael Bastasch beschreibt dieser noch einmal die näheren Umstände. Präsident Trump kann jederzeit mit Hilfe des von Republikanern beherrschten Kongresses dieses Verbot aufheben. Verschiedene Präsidenten zuvor haben bereits von dem gesetz aus dem Jahr 1953 Gebrauch gemacht, und jeweils nachfolgende Präsidenten haben entsprechende Verordnungen wieder aufgehoben.

Bastasch weist aber noch auf einen anderen Aspekt hin (hier): Die Fracking-Technologie ist inzwischen noch kostengünstiger zu betreiben als teure Bohrungen Offshore und in der Arktis. Es kann also gut sein, dass die „Umweltschützer“ ganz umsonst Zeter und Mordio schreien.

Chris Frey, Übersetzer für das EIKE




Der politische Einfluss des WBGU: Die gefährlichen Weissagungen des Papstflüsterer

Wie konnte es dazu kommen?

WISSENSCHAFT: In seinem Buch „Klimahysterie ist keine Lösung“ (2012) hatte der Autor einstmals mit Bezug auf die „Große Transformation“ (2011) des späteren „Papstflüsterers“ Professor Schellnhuber und seines WBGU, zugegebenermaßen prä-aktuell und voll-phobisch, vor einer offenbar politisch gewollten Klimadiktatur gewarnt, Zitat mit meinen Hervorhebungen:

„… Stattdessen schlägt unsere Klimaforschung auf der Grundlage von fiktiven Ergebnissen grob vereinfachender Computermodelle bereits heute eine ‚Große Transformation zur dekarbonisierten Weltgemeinschaft‘ vor, um unsere Gesellschaft auf eine strikte CO2-Vermeidung auszurichten und den Klimaschutz als Verfassungsziel einzuführen.

Propagiert der WBGU mit seiner ‘Großen Transformation‘ bereits unseren neuen –ISMUS, den CO2-Klimatismus? Nach dem Fall des Eisernen Vorhangs war man sich doch einstmals einig darüber, nie wieder gesellschaftliche Experimente mit Menschen zulassen zu wollen….

Man möge sich also lieber rechtzeitig fragen, was die Forderung nach einer ‚gesellschaftlichen Problematisierung von nicht nachhaltigen Lebensstilen‘ in ihrer weichgespülten Formulierung wirklich bedeutet und welche Art von Hexenjagd uns am Ende tatsächlich damit angedroht worden sein mag!

Heute wird die „vom Menschen verursachte Klimaerwärmung“ angeblich von 97 Prozent aller Klimawissenschaftler bestätigt, was übrigens eine typische Fake-News ist. In unserer extrem arbeitsteiligen Welt müssen sich die Bürgerinnen und Bürger aber mangels eigener Expertise in fremden Fachgebieten auf ausgewiesene „Experten“ verlassen können, und Wissenschaftler genießen in unserem Land nun mal einen ganz besonders hohen Vertrauensvorschuss. Und diese Wissenschaftler erklären nun mit einer Fake-News eine wissenschaftliche Diskussion von globaler sozial- und wirtschaftspolitischer Bedeutung im Sinne der mittelalterlichen Inquisition für beendet.

POLITIK: Die „Große Transformation“ des WBGU (2011) machte keine öffentlichen Schlagzeilen. Im Gegenteil, kaum jemand hatte in der zwischenzeitlichen gesellschaftlichen Diskussion überhaupt schon jemals diesen Begriff „Dekarbonisierung“ gehört. Und von einer solchen „Dekarbonisierung der Welt“ wurde in den Mainstream-Medien auch jahrelang überhaupt nichts berichtet. Diese „Dekarbonisierung“ tauchte dann aber völlig unvermittelt in der Rede von Bundeskanzlerin Frau Dr. Merkel zum VI. Petersberger Klimadialog am 19. Mai 2015 wieder auf, Zitat mit Hervorhebungen:

„.. Meine Damen und Herren, wir dürfen das Ziel nicht aus dem Auge verlieren. Wir werden in Paris erleben – auch das kann man schon absehen –, dass es noch mehr Engagement als heute brauchen wird, um dem Zwei-Grad-Ziel wirklich gerecht zu werden. Damit wir das Ziel nicht aus den Augen verlieren, brauchen wir eine langfristige Vision, die uns Orientierung, aber auch Ansporn gibt.

Die Wissenschaft gibt uns eine klare Handlungsempfehlung. Wir müssen in diesem Jahrhundert, im 21. Jahrhundert, die Dekarbonisierung schaffen – also den vollständigen Umstieg auf kohlenstofffreies Wirtschaften. Für diese Vision treten Deutschland und Frankreich gemeinsam ein und werben dafür auch bei unseren Partnern. Das Intergovernmental Panel on Climate Change, IPCC, fordert als Etappenziel auf dem Weg dorthin, bis 2050 die Treibhausgasemissionen um 40 bis 70 Prozent gegenüber 2010 zu verringern…“

Am 8. Juni 2015, dem zweiten Tag des G7-Gipfels auf Schloss Elmau, meldete Spiegel-Online dann unvermittelt: „G7-Beschluss in Elmau – Umweltschützer feiern historisches Klimaversprechen“. Zu diesem Zeitpunkt war die internationale Meinungsbildung auf politischer Ebene für eine globale „Dekarbonisierung“ also offenbar bereits abgeschlossen – und zwar ohne jede gesellschaftliche Diskussion.

RELIGION: In seiner Enzyklika ‚Laudatio Si‘ macht sich Papst Franziskus Gedanken über das „gemeinsame Haus“, Zitat aus Wikipedia:

Die auf den 24. Mai 2015 datierte und am 18. Juni 2015 in acht Sprachen veröffentlichte Verlautbarung ‚Über die Sorge für das gemeinsame Haus‘ befasst sich schwerpunktmäßig mit dem Themenbereich Umwelt- und Klimaschutz und setzt zudem Zeichen im Hinblick auf bestehende soziale Ungerechtigkeiten und auf die Erschöpfung der natürlichen Ressourcen…“.

Papst Franziskus macht sich in dieser Enzyklika aber auch sehr ausführliche Gedanken um die zukünftige politische Weltordnung, Zitat mit Hervorhebungen:

„175. Die gleiche Logik, die es erschwert, drastische Entscheidungen zur Umkehrung der Tendenz zur Erderwärmung zu treffen, unterbindet auch die Verwirklichung des Ziels, die Armut auszurotten. Wir brauchen eine verantwortlichere weltweite Reaktion, die darin besteht, gleichzeitig sowohl die Reduzierung der Umweltverschmutzung als auch die Entwicklung der armen Länder und Regionen in Angriff zu nehmen. Während das 21. Jahrhundert ein Regierungssystem vergangener Zeiten beibehält, ist es Schauplatz eines Machtschwunds der Nationalstaaten, vor allem weil die Dimension von Wirtschaft und Finanzen, die transnationalen Charakter besitzt, tendenziell die Vorherrschaft über die Politik gewinnt. In diesem Kontext wird es unerlässlich, stärkere und wirkkräftig organisierte internationale Institutionen zu entwickeln, die Befugnisse haben, die durch Vereinbarung unter den nationalen Regierungen gerecht bestimmt werden, und mit der Macht ausgestattet sind, Sanktionen zu verhängen. Auf der Linie dessen, was bereits von der Soziallehre der Kirche entwickelt wurde, hat Benedikt XVI. bekräftigt: ‚Um die Weltwirtschaft zu steuern, die von der Krise betroffenen Wirtschaften zu sanieren, einer Verschlimmerung der Krise und sich daraus ergebenden Ungleichgewichten vorzubeugen, um eine geeignete vollständige Abrüstung zu verwirklichen, sowie Ernährungssicherheit und Frieden zu verwirklichen, den Umweltschutz zu gewährleisten und die Migrationsströme zu regulieren, ist das Vorhandensein einer echten politischen Weltautorität, wie sie schon von meinem Vorgänger, dem [heiligen] Papst Johannes XXIII., angesprochen wurde, dringend nötig.‘ …“

Papst Franziskus fordert in seiner Enzyklika ‚Laudatio Si‘ also ganz unverblümt eine mit eigener Macht ausgestattete politische Weltregierung zur Rettung der Menschheit ein.

ZEITENWENDE?

Rückkehr der Vernunft in die „Klimapolitik“?

Zwei extreme Positionen prägen die Klimadebatte seit Jahrzehnten. Die eine geht davon…

ERGEBNIS: Mit dieser übereinstimmenden Zielsetzung von Wissenschaft, Politik und Religion ging es dann in die UN-Klimakonferenz vom 30. November bis 12. Dezember 2015 in Paris (COP 21). Das wenig überraschende Ergebnis dieser Klimakonferenz war dann eine „Dekarbonisierung der Welt“ für ein 1,5-2 Grad Klimaziel bis zum Jahre 2100 in einer „nicht verbindlichen“ völkerrechtlichen Vereinbarung, die inzwischen von mehr als 80 Staaten ratifiziert worden ist. In dem neuen WBGU-Sondergutachten Entwicklung und Gerechtigkeit durch Transformation: Die vier großen I wurde jetzt offenbar die politische Agenda dieser Neuen Ökologische Weltbewegung formuliert, mit der die „Top-Down“-Strategie für das weitere Vorgehen in Sachen „Dekarbonisierung der Welt“ spezifiziert und deren Finanzierung durch eine weltweite Planwirtschaft und ökologische Zwangsabgaben in den G20-Staaten zementiert werden soll, Zitat mit Hervorhebungen:

„… Transformative Staatsfonds einrichten

Zur Umsetzung der Agenda 2030 und des Übereinkommens von Paris sollten die beteiligten Staaten effektive nationalstaatliche Politikinstrumente entwickeln. Der WBGU empfiehlt den G20-Staaten insbesondere die Einrichtung transformativer Staatsfonds (Zukunftsfonds). Damit können die G20-Staaten auf den Finanzmärkten stärker als Akteure aktiv werden, mit dem Ziel, einen sozialverträglichen Strukturwandel hin zu einem nachhaltigen Wirtschafts- und Gesellschaftssystem zu fördern. Die Zukunftsfonds sollten sich aus den Einnahmen von CO2-Steuern und Emissionshandel speisen sowie aus einer Generationenkomponente auf Nachlassvermögen. Die Mittel der transformativen Staatsfonds sollten im Sinne des Klimaschutzes und der SDGs angelegt und die Erträge für gemeinwohl- und gerechtigkeitsorientierte Zwecke verwendet werden.

Nachhaltigkeits- und Klimapolitik zur Lösung weltpolitischer Probleme nutzen

Die Regierungen der G20 sollten sich nicht nur „zu Hause“ engagieren, sondern auch auf  internationaler Ebene als Vorreiter dazu beitragen, Kooperation zu stärken und globale Probleme zu lösen. Bei richtiger Ausgestaltung und dem strategischen Einsatz der vier großen I kann Nachhaltigkeits- und Klimapolitik als Hebel zur Lösung weltpolitischer Probleme genutzt werden. Erstens kann eine weitsichtige Klimaschutz- und Nachhaltigkeitspolitik zu einem Modernisierungsprojekt der Weltwirtschaft werden. Sie kann ökonomische Entwicklungschancen eröffnen, indem sie Innovationen inspiriert, Investitionsmöglichkeiten und nachhaltige Beschäftigung schafft sowie Investitionen in zukunftsfeste Technologien, Unternehmen und Infrastrukturen lenkt. Zweitens kann Klimaschutz- und Nachhaltigkeitspolitik auf nationaler Ebene zum Gerechtigkeitsprojekt werden und Inklusion voranbringen, indem sie Dekarbonisierungsstrategien sozialverträglich gestaltet, Ungleichheiten bekämpft und soziale Kohäsion stärkt. Drittens kann die Bewältigung gemeinsamer nachhaltigkeits- und klimapolitischer Herausforderungen zum Friedensprojekt werden, denn dadurch können auch Staaten Vertrauen aufbauen, die sonst nicht miteinander kooperieren oder in offenem Konflikt stehen. Dies fördert Inklusion auf globaler Ebene, indem Ressourcen- und Verteilungskonflikte entschärft werden und Bürgerkriegen sowie Massenflucht entgegengewirkt wird…“

Hier wurden also vom WBGU die Ergebnisse des G20-Gipfels von Hamburg (2017) einer weiterhin schweigenden Öffentlichkeit schon mal probehalber „vorgestellt“.

Diese Vorstellung zukünftiger Absichten geschah ganz im Sinne der politischen EU-Strategie eines Jean-Claude Juncker, Zitat mit Hervorhebungen:

Wir beschließen etwas, stellen das dann in den Raum und warten einige Zeit ab, was passiert. Wenn es dann kein großes Geschrei gibt und keine Aufstände, weil die meisten gar nicht begreifen, was da beschlossen wurde, dann machen wir weiter – Schritt für Schritt, bis es kein Zurück mehr gibt.”

Schritt für Schritt, bis es kein Zurück mehr gibt – aus den Mosaiksteinen einer menschengemachten Klimakatastrophe, dem festen Willen der G7-Industrienationen zur Dekarbonisierung der Welt und dem gesellschaftspolitischen Streben von Kirche und ökologischen NGOs zu einer „nachhaltigen“ Weltordnung setzt sich also das Bild einer neuen „Weltrevolution von oben“ zusammen. Diese Weltrevolution zu einer dekarbonisierten Weltgemeinschaft vergleicht der WBGU in seiner Großen Transformation (2011), Zitat mit Hervorhebungen,

„…mit den beiden fundamentalen Transformationen der Weltgeschichte: der Neolithischen Revolution, also der Erfindung und Verbreitung von Ackerbau und Viehzucht, sowie der Industriellen Revolution…“.

Der Absatz 214 in Kapitel II. der Enzyklika ‚Laudatio Si‘ lässt wohlmöglich, rechtzeitig vor dem G20-Gipfel in Hamburg (2017), das Mäntelchen dieses neuen ökologischen Welt-Totalitarismus fallen, Zitat mit Hervorhebungen:

„… Es ist Sache der Politik und der verschiedenen Vereinigungen, sich um eine Sensibilisierung der Bevölkerung zu bemühen … Da viel auf dem Spiel steht, sind nicht nur Institutionen notwendig, die die Macht besitzen, Sanktionen gegen Umweltattacken zu verhängen, sondern ebenso notwendig ist es, dass auch wir uns gegenseitig kontrollieren und erziehen “.

Bevor wir jetzt aber anfangen, uns gegenseitig zu kontrollieren und zu erziehen, sollten wir ernsthaft bedenken, dass die vom WBGU zitierten Transformationen in der Menschheitsgeschichte freiwillige Entwicklungen waren, die sich „marktwirtschaftlich“ von der Basis her als „wirtschaftliche Erfolgsmodelle“ durchgesetzt hatten.

Alle „Weltrevolutionen“ dagegen, die einer Bevölkerung durch regulatorische „Top-Down-Strategien“ aufgezwungen worden sind, haben in Unfreiheit, wirtschaftlicher Not und Kriegen bis hin zum Völkermord geendet …

Uli Weber ist Geophysiker und Publizist

Übernommen von Tichys Einblick hier




Der Fukushima-Report (1): Die Fakten, die Mythen

Hier soll nicht relativiert werden. In Fukushima gab es drei Kernschmelzen. 150.000 Menschen wurden evakuiert und von ihrer Heimat entfremdet. Das ist schlimm. Aber es gab keine Strahlungsopfer, es gab keine Meeresungeheuer und es gibt keine auf ewig unbewohnbare Todeszone. Stattdessen gab es „postfaktische“ Berichterstattung und Panikmache in den deutschen Medien. So schlimm die Reaktorkatastrophe von Fukushima auch war, der Weltuntergang ist ausgefallen. Bleiben Se interessiert an dem, was wirklich in Fukushima geschieht.

Der Tsunami, der am 11. März 2011 um 14:47 Uhr (Ortszeit) von dem Tōhoku-Erdbeben ausgelöst wurde, war an der Küste Fukushimas 14 Meter hoch. Die Sintflut hat fünf Jahre nach ihrem Eintreten im fernen Deutschland mehr Reaktoren zerstört als in Japan. Der Unterschied: Japan fährt seine Atomkraftwerke schrittweise nach Sicherheitsverbesserungen wieder an. Sie ungenutzt stehen zu lassen, wird den Japanern zu teuer. Deutschland legt seine Reaktoren, die zu den Besten der Welt gehören, sukzessive still, uns ist nichts zu teuer. Das letzte AKW soll 2022 außer Betrieb gehen. Es könnte ja im Emsland einen Tsunami geben.

„Vorhersehbar und vermeidbar“

Ich möchte diesen Artikel mit einem Statement von Kiyoshi Kurokawa, dem Vorsitzenden der Unabhängigen-Untersuchungskommission des Kernkraft-Unfalls in Fukushima beginnen: „Der GAU des KKW Fukushima war eine zutiefst menschengemachte Katastrophe – die man hätte vorhersehen und vermeiden können. Eine Vielzahl von Irrtümern und absichtlichen Vernachlässigungen führte dazu, dass das AKW Fukushima unvorbereitet von den Ereignissen des 11. März heimgesucht wurde…„.

Diesem Statement stimme ich vollinhaltlich zu. Der Tsunami, der zigtausende Menschen tötete, war nur der Auslöser der folgenden Reaktor-Katastrophe in Fukushima. Die Ursache war, dass die Vorstände des Kraftwerk-Betreibers  TEPCO Erkenntnisse von Wissenschaftlern und Ingenieuren mißachtet hatten, die vor den riesigen Flutwellen gewarnt hatten. Zu den Ursachen gehörte auch, dass die japanische Aufsichtsbehörde und die Regierung ihrer Aufgabe der unabhängigen Überwachung der AKW-Betreiber nicht gerecht wurden. Mit Sicherheitsvorkehrungen, deren Kosten überschaubar gewesen wären, hätte man die Turbinengebäude, in denen sich die Notstromdiesel befanden, tsunamifest abdichten können. Niemand von uns würde heute den Namen Fukushima kennen.

Die Vorstände und Politiker haben anders entschieden und damit leichtfertig – und gierig – die nukleare Sicherheit aufs Spiel gesetzt. Sie haben einen Schaden angerichtet, den sie niemals wieder gut machen können, selbst wenn ein Gericht sie dafür hart bestraft. Das Desaster war auch in der japanischen Kultur des Gehorsams, der Unterordnung und des Kuschens vor der Hierarchie begründet – eine Katastrophe Made in Japan. Dies weist der Bericht der Untersuchungskommission in voller Transparenz nach. Den vollständigen Untersuchungsbericht finden Sie hier. Dem habe ich nichts hinzuzufügen.

Die Helden verhinderten Schlimmeres

Es gibt aber, wie immer, auch eine andere Seite der Medaille. Das Erdbeben überstanden alle japanischen AKW-Anlagen unbeschadet und sie reagierten bestimmungsgemäß mit automatischer Reaktorabschaltung. Als dann aber die 14 Meter hohe Flut die sechs Blöcke der Anlage in Fukushima überrollte, drückten die Wellen quasi mit dem kleinen Finger ihrer linken Hand die Blechtore der Turbinengebäude ein und verwandelten das Turbinenhaus in ein gesunkenes Schiff, in dem das Wasser fünf Meter hoch stand. In diesem Gebäude waren aber auch die Notstromdiesel untergebracht, die dabei überflutet wurden und ausfielen.

Zum Zeitpunkt des Tsunami waren etwa 700 Mitarbeiter im Kraftwerk tätig. Fünf von ihnen ertranken in den Fluten – es waren wohl die mit der Überwachung der Notstromaggregate Beauftragten – einer stürzte beim Erdbeben von einem Kran. Das waren die einzigen Todesopfer der Nuklearkatastrophe. Nach meinem Wissen verließ in der Folge nicht ein einziger Mitarbeiter das Kraftwerksgelände, obwohl ihnen das Schicksal ihrer Angehörigen nicht bekannt war und die Telefone in die Ortschaften nicht mehr funktionierten. Sie blieben, solange es der Einsatzstab von ihnen erwartete, und es gelang ihnen, noch Schlimmeres zu verhindern. Sie versammelten sich unter der Leitung von Masao Yoshida, dem Leiter der Anlage, im Notstandsgebäude. Von hier aus begann der fast aussichtslose Kampf mit den Folgen der Überschwemmung. Sehen Sie sich Yoshida San an, den Mann, der die Helden von Fukushima führte, und bilden Sie sich Ihr eigenes Urteil.

Hilflos mussten die Betriebsmannschaften mit ansehen, wie ein Notstromsystem nach dem anderen absoff und sie die Kontrolle über die Reaktoren verloren. Einige der Männer bauten sogar Batterien aus den übereinander geworfenen Autos auf den Parkplätzen aus, um sie an wichtige Messinstrumente anzuschließen, für ein Mindestmaß an Kontrolle über die abgeschalteten Anlagen. Der Brennstoff in den abgeschalteten Reaktoren wurde nicht mehr genügend gekühlt, die Brennstäbe fingen an zu glühen und setzten große Mengen Wasserstoff frei. Wasserstoff ist in Verbindung mit Luft hochexplosiv, der geringste Funke löst eine Explosion aus. Das sollte sich auch in Deutschland jeder vor Augen führen, der auf die Wasserstoff-Technologie für Fahrzeuge setzt.

Vorsorge war TEPCO zu teuer

In Fukushima baute der Wasserstoff Druck in den Sicherheitsgebäuden der Reaktoren auf. Dieser Sicherheitseinschluss musste intakt bleiben, damit keine Radioaktivität entwich. Masao Yoshida, der sich dieser Gefahr bewusst war, stellte mehrere Teams von Freiwilligen zusammen – sie sollten die Ventile des kontrollierten Notablasses des Wasserstoffgases manuell öffnen. Wegen der dabei bestehenden Explosionsgefahr gehörten ältere Mitarbeiter den Teams an.

Mit Taschenlampen kämpften sich die Männer zu den Ventilen durch das dunkle Kraftwerk, vorbei an geborstenen Leitungen, über zerrissene Stromkabel kletternd, von denen sie nicht wussten, ob sie noch Spannung führten. Allen Teams gelang es, die Armaturen zu öffnen und mit hohem Druck strömte der Wasserstoff aus den Reaktorgebäuden durch große Wasserbecken, in denen nicht-gasförmige Radioaktivität aus dem Gas gewaschen wurde und verbreitete sich in der Turbinenhalle. In deutschen Kraftwerken stehen überall Rekombinatoren, die diesen Wasserstoff unschädlich machen würden. In Fukushima hatte TEPCO es nicht für nötig erachtet, sie zu installieren – zu teuer.

Der Wasserstoff gelangte so in die Bedienungsflure der Turbinengebäude und reicherte sich dort an, bis er die Explosionskonzentration von grösser 4 Vol% erreicht hatte und explodierte. Das waren die Explosionen, die als Videobilder um die Welt gingen. Kaum jemand verstand damals, dass auf den Fernsehbildern nicht die Reaktoren explodierten, sondern dass die Mannschaft die Explosionen von abgeleitetem Wasserstoff bewusst herbeigeführt hatte, um die Reaktoren zu schützen. Es gelang allen Teams noch vor den Explosionen, unverletzt ins Notstandsgebäude zurückzukehren. Trotzdem konnten die Reaktoren danach immer noch nicht gekühlt werden und die Brennstäbe wurden teilweise zerstört und schmolzen.

Arbeit unter extremen Bedingungen

Obwohl das Notstandsgebäude auf Grund seiner erdbebenfesten Bauweise auf Federn und Gleitfundamenten unbeschädigt blieb, waren die Bedingungen in dem dreistöckigen Notstandsgebäude für die 700 Mitarbeiter äußerst kompliziert. Die Ungewissheit über das Schicksal ihrer Familien belastete sie. Es gab nicht genügend zu essen und zu trinken – einen halben Liter Wasser und eine kleine Fertigpackung Nudeln oder Reis wurde die Ration der nächsten Wochen. Nachschub kam nicht, da auch außerhalb des Kraftwerkes die Infrastruktur zusammengebrochen war.

Aus Angst wollte auch niemand von den lokalen Lieferanten etwas in das havarierte Kraftwerk liefern, die Mannschaften mussten alles selbst herbeischaffen. Für die 700 gab es ganze zwei Dixi-Toiletten, man mag sich das gar nicht vorstellen. Geschlafen wurde unter den Tischen und auf den Korridoren des Notstandsgebäudes. Zwei Mann machten nichts anderes, als die elektrischen Eingangstüren manuell zu bedienen. Es gab nicht genügend Gummistiefel, um sich vor dem heißen Wasser zu schützen, Arbeitsschutzkleidung wurde schnell knapp. Von außen kam anfangs kaum Hilfe.

Und trotzdem, Japan ist nicht Russland, Fukushima ist nicht Tschernobyl. Bei allen folgenden Havarie-Bekämpfungsmaßnahmen trugen die Ingenieure und Arbeiter ihre Dosimeter und hielten die von Masao Yoshida festgelegte Maximaldosis von 250 Millisievert ein. So wird es auch in Zukunft keine Strahlentoten als Folge von Fukushima geben. Die „50 von Fukushima“ sind übrigens eine von den Medien erdachte Legende, es waren stets mehrere Hundert Mitarbeiter vor Ort. Und sie sind auch nicht gestorben, wie es die deutschen „Experten“ prophezeiten. „Postfaktisch“ heißt so etwas heute „fake news“.

Panische Führungskräfte, unwürdige Szenen

Eines der größten Probleme Yoshida Sans während dieser Zeit war das panische Verhalten der Führungskräfte im Tokioer Havarie-Stab. Die von TEPCO im Internet veröffentlichten Filme dieser Videokonferenzen – ja, das gab es die ganze Zeit, das Kraftwerk war mit Satellitenfunk dazu ausgerüstet, der auch funktionierte – zeigen unwürdige Szenen: Masao Yoshida teilt die von ihm festgelegte Dosis von 250 mSV mit und Akio Takahasi, eine ranghohe Führungskraft ruft barsch „Eine Dosis von 500 mSv ist in Ordnung, also los“. Masau Yoshida erklärt, dass er Leute zum Beschaffen von Mineralwasser losgeschickt hat und der Vorstand ruft: „Benzin für die Feuerlöschpumpen ist wichtiger.“ Bezeichnend ist, dass ganze 418 Menschen dieses Video überhaupt aufgerufen haben.

In ihrer Angst vor dem bösen Atom vergisst die Welt ganz und gar, von Yoshida San und seinen Männern würdigend Notiz zu nehmen. Niemand denkt über ihren Mut und ihre Umsicht nach. Niemand erkennt ihre Professionalität und ihre Standhaftigkeit. Die Medien machen das Gegenteil, sie verunglimpfen das Havariepersonal von TEPCO. Diese Männer haben es geschafft, dass in Fukushima Daiichi bei drei Kernschmelzen niemand durch Radioaktivität um Gesundheit und Leben kam. Trotz der Führungsschwäche des Krisenstabs und der beteiligten Regierungsvertreter kann heute die Evakuierungszone derzeit wieder besiedelt werden, weil dank Yoshida Sans Männern eine noch stärkere Ausbreitung von Radioaktivität verhindert wurde.

Wir Menschen sind schon eine ungerechte Spezie. Wenn wir Angst haben, setzt das Denken aus. Wir suchen Schuldige, wenn etwas schiefgeht. Dabei wird schon unbedacht gern mal ein Falscher beschuldigt. Oder ein Held wird vergessen. Gerade im Land der berufsmäßigen Besserwisser und Weltenretter wurden von verantwortungslosen Journalisten aus sicherer Entfernung wilde Verleumdungen erfunden: von Obdachlosen und Jugendlichen, die in tödlicher Strahlung verheizt wurden, von Feuerwehrleuten, die gewaltsam in einen Todeseinsatz getrieben wurden. Nichts davon ist wahr, aber wen interessierte das schon?

Wilde Fantasien deutscher Journalisten

In der ARD, die ja bekanntlich jeden verurteilt, der Ängste befeuert, wurden damals abenteuerliche Geschichten „gefunden“: ARD-Reporter Robert Hetkämper: „Wir haben ehemalige Kernkraftwerksmitarbeiter gefunden, die darüber geklagt haben, dass sie mehr oder weniger in früheren Jahren verheizt worden sind und ihnen nie gesagt wurde, wie hoch die Strahlung tatsächlich ist. Sie wurden über die wirklichen Gefahren nicht aufgeklärt. Wenn sie erkrankten, zahlte ihnen niemand Kompensation. Dann haben wir einen Arzt in Osaka gefunden. Er sagte, es sei Usus, in der Kernkraftwerksbranche Obdachlose oder Arbeitslose, Gastarbeiter oder sogar Minderjährige anzuheuern. Wir selber als ARD-Studio Tokio hatten vor vielen Jahren schon mal über Obdachlose in den Straßen von Tokio berichtet. Die hatten uns erzählt, dass sie in Kernkraftwerken eingesetzt wurden. Die Leute sind zu ihnen in den Park gekommen, wo sie lagerten, und haben sie dann für gutes Geld angeheuert, Kernkraftwerke zu reinigen. Da sind offenbar auch viele erkrankt. Das wussten wir.“

Diese Geschichte ist so absurd, dass sie einem ARD-Journalisten sogar nach dem Genuss von mehreren Flaschen Sake hätte seltsam vorkommen können. Weltweit darf niemand in einem AKW arbeiten, der nicht einer umfangreichen Sicherheitsüberprüfung unterzogen wurde. Und selbst zum Reinigen eines AKW’s bedarf es einer Qualifikation, die jemand von der Straße mit Sicherheit nicht hat. Und im Kraftwerk gibt es eine Strahlenschutzabteilung, die jeden Ort des Kontrollbereiches ausmisst und kennzeichnet. Außerdem tragen alle Mitarbeiter ein behördlich kontrolliertes Dosimeter und zusätzlich mindestens ein Alarmdosimeter, das sich beim Erreichen einer niedrigen Dosis automatisch mit einem Warnton meldet. In einem AKW wird niemand „verheizt“, sondern nur in der wilden Fantasie des ARD-Korrespondenten Hetkämper. Wobei man zu seiner Ehrenrettung sagen muss, dass seinerzeit die meisten deutschen Journalisten von wilden Fantasien heimgesucht wurden.

Achse-Autor Manfred Haferburg studierte an der TU Dresden Kernenergetik und machte eine Blitzkarriere im damalig größten AKW in Greifswald. Nach der Wende kümmerte er sich für eine internationale Organisation um die Sicherheitskultur von Atomkraftwerken weltweit und hat so viele AKW’s von innen gesehen, wie kaum ein anderer.

In dieser Serie erscheinen in den nächsten Tagen

Der Fukushima-Report (2): Fukushima unter Kontrolle

Der Fukushima-Report (3): Wieder Leben in „Todeszonen“

Der Fukushima-Report (4): Geisterfahrer der Energiepolitik

Zuerst erschienen bei ACHGUT hier




Die Kontroll- und Kommando­zentrale des Klima-Alarmismus‘

Zunächst von Jennifer Hadden, Networks in Contention: The Divisive Politics of Climate Change (2015) [etwa: Netzwerke im Wettstreit: Die entzweiende Politik zu Klimawandel]:

Wie mir ein Interviewter erklärte hinsichtlich der Strategie der internationalen Klima-Koalition: ,Wir arbeiten ziemlich viel zusammen. Aber wir wissen, dass wir alle für unterschiedliche Dinge stehen, darum müssen wir sorgfältig den Eindruck erwecken, dass wir nicht die ganze Zeit zusammenarbeiten‘ (Interview, WWF European Policy Office 2008).”

Ein Umweltaktivist erklärte mir: „Klimawandel ist nicht länger ein Thema unter anderen, es ist DAS Thema, ein Mega-Thema für alles, an dem wir arbeiten“ (Interview, Danish 92 Group, 2009).

Im Jahre 1989 kamen diese Organisationen erstmals zusammen, um eine Koalition zu bilden: The Climate Action Network (CAN). Das CAN wurde gegründet als der Motor einer transnationalen Koordinierung von 63 Organisationen … Viele Bemühungen des CAN bestanden in der Unterstützung der Arbeit des IPCC, und es half, dessen zentrale Rolle im internationalen Klimaregime zu etablieren … Tatsächlich konsolidierte das CAN seine Koalitions-Struktur während dieses Zeitraumes (neunziger Jahre), in dem es eine hochrangige politische Gruppe ins Leben rief, um Politik und strategische Koordinierung unter den Mitgliedsgruppen zu fördern.

Im Mittelpunkt des Treibens des CAN stand der Gedanke, dass die Mitgliedsorganisationen „mit einer Stimme“ sprechen müssen, um die internationalen Verhandlungen zu beeinflussen.

Das CAN hat einen großen Einfluss auf die Art der Strategien, zu welchen die Organisationen greifen: „Es scheint, dass viele der großen Gruppen die Richtung vorgeben, und wir alle neigen dazu, dieser zu folgen. Aber wenn wir vor Ort arbeiten, dürfen wir das nicht immer unter die Leute bringen, weshalb wir andere Dinge tun sollten“ (Interview, Greenpeace Germany 2010).

mit den großen internationalen Nicht-Regierungs-Organisationen NGOs – WWF, FOE (vor 2008), Oxfam und Greenpeace – werden extensive Beratungen durchgeführt, bevor Vorschläge erarbeitet werden. Die meisten Mitglieder erkennen an, dass die großen Gruppen de facto über CAN-Positionen das Vetorecht haben. Falls diese Gruppen einem Vorschlag zustimmen, wird dieser allen Mitgliedern zugeleitet …

Das CAN (1) prahlt damit, über 1100 Mitgliedsorganisationen zu vertreten. Hadden zufolge wird das CAN geleitet durch eine hochrangige politische Gruppe, geführt von den Vier Apokalyptischen Reitern: WWF, Greenpeace (1), FOE (1), möglicherweise vor 2008) und Oxfam (möglicherweise unter Ausschluss des USA-Ablegers). Sie geben Befehle, und alle Mitglieder folgen diesen Befehlen, während „sie sorgfältig den Eindruck erwecken, nicht zusammenzuarbeiten“. Jahrzehnte lang war es ihr Ziel, ein internationales Klimaregime zu etablieren, dem sich Amerika unterzuordnen hätte. Die Mitgliedsorganisationen (oder Einheiten) „können sich anderen Dingen zuwenden“ – mit anderen Worten, sie werden angehalten, die Initiative zu ergreifen, die Absichten des Kommandeurs auszuführen. So wird eine gute Armee geführt, nicht eine Bewegung oder ein Netzwerk. Sie verfügen auch über ungeheure finanzielle Macht: Der WWF allein hat ein jährliches Einkommen nahe 1 Milliarde Dollar, welches Geld er nach Belieben verwenden kann.

Ebenso sind die Mitglieder nach dem Top-Down-System organisiert wie militärische Einheiten und nicht wie ehrenamtliche Organisationen. Man betrachte diese Aussagen von Thomas Lyon, Good Cop/Bad Cop: Environmental NGOs and Their Strategies toward Business (2012):

Jüngere nationale Gruppen, die verwurzelt sind in der Umweltbewegung Ende der sechziger und Anfang der siebziger Jahre wie etwa der Natural Resources Defense Council und der Environmental Defense Fund, neigen dazu, ein sich selbst erneuerndes Gremium von Direktoren zu haben … eine Tendenz, konzentriert Entscheidungen für die Gruppe zu treffen und Demokratie innerhalb der Organisation zu umgehen. Am bemerkenswertesten: brauchbare Wahlverfahren sind selten. … Leider sind Studenten, die Zeit damit verbracht haben, die Rolle von Wahlen und demokratischen Prozessen in NGOs zu untersuchen, typischerweise enttäuscht worden. Was sie erkannt haben ist das Fehlen von klassischen demokratischen Prozessen … obwohl viele NGOs demokratische Verfahren in ihren Statuten haben, sind diese Gruppen in der Praxis fast immer oligarchisch.

das politische System in den USA scheint angesichts der gegebenen Gewaltenteilung und schwacher politischer Parteien (man beachte das Fehlen einer existenzfähigen Grünen Partei) wie geschaffen für den Einfluss (transnationaler Umwelt-) Gruppen auf Entscheidungen der Regierung.

Amerika ist im Besonderen Ziel, und der neue Feind erkennt unser verfassungsmäßiges politisches System mit seiner „Gewaltenteilung und schwachen politischen Parteien“ als eine Schwäche, die ausgebeutet werden kann, wobei offenbar die Fehler der Feinde Amerikas aus der Vergangenheit wiederholt werden.

Weitere Aussagen von diesen und anderen Autoren finden sich in meinem Beitrag Climate Alarmism Command auf meiner Website.

I. „Single-Voice-Prinzip“

Auf der Grundlage dieser Belege ist der Klima-Alarmismus das Erzeugnis eines sehr großen, sehr gut koordinierten und zentral kontrollierten Unternehmens. Dies erklärt dessen Fähigkeit, gewaltsam perfekt synchronisierte Botschaften zu verbreiten, trotz der internen Inkonsistenzen, trotz Widersprüchen zur Hochschulwissenschaft und trotz häufiger Flip-Flops als Reaktion auf sich ändernde politische Allianzen sowie focus group research results [?].

Ein Beispiel dafür ist die beispiellose Überschwemmung der Massenmedien mit eindeutig falschen Statements wie „97% aller Wissenschaftler stimmen überein“. Im Idealfall würden die Medien die ganze Zeit über die Wahrheit berichten. In der Vergangenheit (was inzwischen wie eine legendäre Vergangenheit aussieht) berichteten die Main-Stream-Medien Fakten zumeist zutreffend, sogar wenn sie diese mit einem liberalen Bias interpretierten. Gelegentlich machten sie Fehler oder stellten sogar Falschbehauptungen auf. Journalisten neigen dazu, voneinander abzuschreiben, und so könnten die gleichen Fake News in allen Zeitungen und TV-Kanälen erschienen sein, aber nur für sehr kurze Zeit. Die „97%-Lüge“ dagegen durchzieht die Medien konstant seit dessen Einführung durch Naomi Oreskes im Jahre 2004! Diese Zahl ist schon sehr oft explizit widerlegt worden und ist offensichtlich absurd: Es sieht mehr wie ein Wahlergebnis in einem kommunistischen Land aus als eine ,Umfrage‘ nach den Meinungen der Wissenschaftler! Vermeintlich ist es durch multiple Studien „bestätigt“ worden – etwas, das eine geringere Wahrscheinlichkeit aufweist als der Gewinn des Lotto-Jackpots zwei Jahre hintereinander. Und doch konnte diese Ente seit nunmehr 12 Jahren überleben.

Im Bereich des Klima-Alarmismus‘ gibt es andere magische Zahlen, die völlig sinnlos sind, wie etwa 350 ppm oder 2 Grad (später ersetzt durch 1,5 Grad). Aber sie haben eine enorme Überlebenskraft. Zusätzlich zu dem unnatürlich synchronisierten Vorgehen gibt es ein höchst anomales Fehlen von Abweichungen unter den Reihen der Klima-Alarmisten. Dies ist besonders auffällig angesichts der Kehrtwendungen, die das CAG hinsichtlich vieler politischer Dinge vollzogen hatte, wie etwa Emissionen von China und der Verbrauch von Erdgas. Sogar die Kommunistische Partei der USA, eine Marionette der Sowjets seit 1933, kroch zu Kreuze, nachdem ihr befohlen worden war, von Anti-Nazi zu Pro-Nazi zu wechseln nach dem Molotow-Ribbentrop-Pakt von 1939. Nichts dergleichen geschah in den heimischen Klima-Alarmisten-Gruppen, als die CAG seine Forderung von globaler Reduktion von CO2-Emissionen zu einseitiger Reduktion durch den Westen änderte und China, Japan, Russland und der Rest der Welt ihre Emissionen nach Belieben zunehmen lassen dürfen. Diese Fakten beweisen über alle Zweifel erhaben, dass es eine zentrale Kontrolle des Klima-Alarmismus‘ gibt.

II. Front Groups

Die Existenz von front groups, die oftmals aus dem Nichts erscheinen und in den Brennpunkt der Medien-Aufmerksamkeit katapultiert werden, ist ein weiteres verräterisches Anzeichen. Beispiel: InsideClimate News führte ein Nischendasein als Projekt innerhalb der Gedärme einer obskuren linksextremen Brutstätte Public Interest Projects (jetzt NEO Philanthropy) seit 2007. Im Jahre 2011 hatte sie sechs Mitarbeiter. Plötzlich wurde sie mit Beifall überhäuft einschließlich des einst renommierten Pulitzer-Preises für besondere Berichterstattung im Jahre 2013. Schon bald heimste sie Dutzende journalistischer Auszeichnungen ein, einschließlich eines weiteren Pulitzer-Preises, und dessen Fake News wurden zu „Beweisen“ in dem berüchtigten Versuch der „Attorneys General United for Clean Power” [etwa: Staatsanwälte vereint für saubere Energie], durch Vollmachten bestimmte Sprechweisen zu unterdrücken (hier). Exxon, dem obersten Protagonisten der Verschwörungstheorie, der zufolge Klimarealisten durch „fossile Treibstoffe“ finanziert werden, wurde diese Vollmacht genehmigt. InsideClimate News wurde gegründet von der Ford Foundation (1), RBF (1)/RFF (Rockefeller Brothers Fund / Rockefeller Family Fund), the Park Foundation, the Marisla Foundation, the Knight Foundation, the Grantham Foundation und weiteren üblichen Verdächtigen. Fast alle die Geldgeber sind offen Mitglieder der EGA (1) (Environmental Grantmakers Association), welche von RBF/RFF gegründet worden war und in der gleichen Etage sein Büro hat. (Übrigens ist die RBF/RFF separat von der größeren Rockefeller Foundation). 350.org ist ein weiteres Beispiel einer hochgejubelten front group.

III. Entwicklung der CAG

Die CAG ist im Jahre 1989 gegründet worden, aber es dauerte fast eineinhalb Jahrzehnte, bis Klima-Alarmismus zum ideologischen Hauptthema für multiple transnationale und internationale Gruppen geworden ist. Dementsprechend ist auch die Konsolidierung der Macht in den Händen einiger Weniger graduell erfolgt. Folglich hat sich die Climate Alarmism Governance entwickelt anstatt von einer Person oder einer kleinen Gruppe erschaffen worden zu sein. ENGOs und ehrgeizige UN-Politiker arbeiteten seit den siebziger Jahren Hand in Hand miteinander, um ihre Macht zu erweitern. Die Einführung dieses Vorgehens wird häufig Maurice Strong zugeschrieben. UN-Agenturen und Politiker können sich nicht offen und direkt in die inneren Angelegenheiten der meisten Länder einmischen. Also nutzen sie NGOs für diesen Zweck. CAN und ihre Mitglieder WWF, Greenpeace, Oxfam, EDF und NRDC haben beim IPCC offiziell den Status von Beobachtern und agieren als dessen de-facto-Sprecher, korrumpieren die IPCC-Forschung noch mehr und schmücken die ohnehin schon verzerrten IPCC-Berichte aus (ein ehemaliger Greenpeace-Führer nannte es „dramatisieren“). CAN-Mitglieder leisten Lobbyarbeit für die Delegationen bei den COPs des UNFCCC und bei anderen internationalen Zusammenkünften, manipulieren die wissenschaftliche Arbeit des IPCC von innen heraus (hier) und gehen finanzielle Deals mit deren Funktionären ein. Das Climate Action Network vermeidet zwar die Verbindung mit Gruppen, die Gewalt unterstützen, kooperiert aber mit diesen. Sie schürt Hass zwischen Europa und Amerika und will Rache („Gerechtigkeit“) für wirkliche oder imaginäre Angriffe in der Vergangenheit. Die Führer verschiedener transnationaler NGOs (nicht nur CAN-Mitglieder) treffen sich regelmäßig persönlich, um gemeinsame Ziele und Strategien festzulegen. Zwischen derartigen Treffen bleiben sie via elektronischer Medien in Kontakt.

Ein weiterer Stützpfeiler der CAG ist die UN-Organisation, wo die USA lediglich eine Stimme von über 190 weiteren haben (aber den Löwenanteil der Finanzierung tragen). Bequemerweise sind einige der Umwelt-„Markenzeichen“ bei den UN akkreditiert und nehmen offiziell an Treffen vieler UN-Agenturen teil. Inoffiziell bestechen oder manipulieren sie Vertreter auswärtiger Regierungen und der UN nach ihren Wünschen (siehe hier, Abschnitte 3.2 und 3.8). Die relevanteste Gruppe der UN-Abteilung Klima-Alarmismus ist das IPCC, ins Leben gerufen durch UNEP und WMO. Ich habe die genaue Zusammensetzung und die Beziehungen an der Spitze der CAG oder die Rolle der europäischen Grünen Parteien nicht untersucht.

IV. Finanzielle Beziehungen zwischen einigen Klimaalarm-Einheiten und der Korruption von ehemaligen Mainstream-Institutionen

Die zentralisierte Finanzierung des Klima-Alarmismus‘ geht Hand in Hand mit der zentralisierten Befehlsgebung und Kontrolle. Heute kommt das meiste Geld für den Klima-Alarmismus von der öffentlichen Hand der USA und der EU. In der Vergangenheit war die EGA ein großer Faktor. Geld von den Primärquellen wird gewaschen und zwischen Klimaalarm-Gruppen auf verschiedenen Wegen hin- und hergeschoben. Die folgenden Tabellen stammen von einer offiziellen Klage in 5:16-cv-211-C, verifiziert unter der Strafe für Meineid.

Tabelle 1: Matrix der Finanzbeziehungen zwischen einigen CAG-Unternehmen

„R“ bedeutet, dass das in der Zeile genannte Unternehmen („Markenzeichen“) direkt von dem Unternehmen in der Spalte finanziert wird. „D“ bedeutet, dass das Unternehmen in der Zeile direkt Gelder an das Unternehmen in der Spalte gegeben hat. Nur Geld-Transfers, über die von 2003 bis 2014-2015 in bestimmten Steuerformularen berichtet worden war, sind erfasst. „Freundschafts“-Dienste, Zahlungen an nahestehende Parteien, Geldtransfers mittels Dritter und Transfers außerhalb der Bücher sind nicht erfasst. Alle Finanzierungs-Ereignisse sind substantiell (manchmal Millionen Dollar stark und mit Sicherheit über 10.000 Dollar).

Tabelle 2: Finanzierung des Center for American Progress und einiger front groups durch einige CAG-Unternehmen.

Tabelle 3: „Spenden“ an einige ehemals respektierte Organisationen seitens einiger CAG-Unternehmen.

NAS ist die National Academy of Sciences, welche einmal die höchste wissenschaftliche Einrichtung der Nation war. AAAS steht für die American Association for the Advancement of Science, dem Herausgeber des Journals Science. Die New York Times Company (NYT) ist eine kommerzielle Körperschaft, was „Spenden“ sogar noch seltsamer macht. (2)

(1) Diese Organisationen stehen im Verdacht, mit kriminellen Machenschaften in Verbindung zu stehen oder an diesen teilzuhaben, wie es definiert ist im The Racketeer Influenced and Corrupt Organizations Act (“RICO”), 18 U.S.C. § 1961-1963. Der Autor ist Kläger in einem Zivilprozess gegen diese Organisation (5:16-cv-211-C Goldstein v. Climate Action Network et al.).

(2) Man darf nicht vergessen: die große Mehrheit von Individuen, die der CAG unwissentlich geholfen haben, sind unschuldig.

Link: https://wattsupwiththat.com/2016/12/23/the-command-control-center-of-climate-alarmism/

Übersetzt von Chris Frey EIKE




Harald Lesch, die Claudia Roth des Klima­wandels: Glaubt einfach, was ich erzähle – Nach­prüfen schadet nur!

Wie die bekannte Claudia Roth der GRÜNEN appelliert er, anstelle Belege zu bringen, vorwiegend an die „Betroffenheit“, die seine „unbezweifelbaren“ Aussagen erzeugen sollen, weshalb man ihn inzwischen synonym als klimatisches Pedant der GRÜNEN-Politikerin bezeichnen kann, obwohl ihm der bei den GRÜNEN sonst oft übliche (bei Frau Roth vorhandene) Studienabbruch fehlt.

Der Autor hat sich (wieder) die Mühe gemacht, Beispiele seiner inzwischen oft schon abstrus überzogenen Thesen zu sichten und darzustellen, dass Vieles einer Nachprüfung nicht Stand hält, oder zumindest wesentlich Klimawandel-unkritischer betrachtet werden kann.

Video: Frag den Lesch – Neues aus der Klimaküche

https://www.youtube.com/watch?v=mfALmgAwPKQ&feature=youtu.be

Video: [2] Frag den Lesch – Neues aus der Klimaküche 

Im Video geht es angeblich über das Neueste vom Klimawandel. Zumindest wird es in der Lesch-typischen, stammelnden und auslassungsreichen Vortragsweise so erzählt.

Einleitung

H. Lesch: … Neuigkeiten von den Klimamodellen … Klimawandel, das stimmt ja sowieso nicht …. denn dass der Mensch einen Einfluss auf das Klima hat, auf den Klimawandel, das ist eindeutig, übereindeutig. … in den 90er Jahren dachte man, da könnte noch eine gewisse Unsicherheit sein, das ist aber vorbei … die neuesten Entdeckungen, muss man leider sagen, aber auch Bestätigungen muss man leider noch mehr sagen, die zeigen ganz klar – wir sind dran schuld.

Und dann wird über eine ganz neue Entdeckung erzählt,

Biofilme auf Gletschern:

H. Lesch: … Neu herausgekommen ist ein Effekt … eine ganz neue Entdeckung …. warum schmelzen die Gletscher so viel schneller… Ruß und andere Staubteilchen regnen auf die Gletscher … diese bilden Biofilme aus .. dadurch, dass die unsichtbaren Biofilme auf der Oberfläche der Gletscher sind, wird ne ganze Menge Energie in den Biofilmen deponiert und dadurch schmelzen die Gletscher schneller. Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung.

Der Autor ist dieser wichtigen Entdeckung, welche den Treibhauseffekt zusätzlich verstärkt, nachgegangen. Bei der Max Planck Gesellschaft findet sich dazu eine Pressemitteilung:

Bakterien heizen Gletschereis auf
Mikroorganismen siedeln sich auf dem Eis an Staubteilchen aus der Atmosphäre und lassen den Gletscher dadurch schneller schmelzen… Mikroben leben von Kohlenstoff aus Gletschern
Das nutzt auch der Klimaforschung, denn ein besseres Verständnis des Kohlenstoffspeichers in Gletschern und des Transports von Kohlenstoff in andere Ökosysteme kann dazu beitragen, aktuelle Klimamodelle zu verbessern. Es ist schon lange bekannt, dass organischer Kohlenstoff, der für Jahrtausende in Gletschern gespeichert war, beim Abschmelzen freigesetzt wird und Mikroorganismen als Nahrung dient. Die nun vorliegende Studie zeigt, dass auch durch die Fixierung von anorganischem Kohlenstoff durch Mikroorganismen auf Gletschern organischer Kohlenstoff entsteht, der rasch von benachbarten Organismen verbraucht wird.

Zur Pressemitteilung ist die Studie genannt, welche wohl auf einer Dissertationsarbeit beruht:
Heidi J: Smith et al.: [3] Biofilms on glacial surfaces: hotspots for biological activity
Leider steht in dieser Studie nirgends auch nur ein vager Hinweis zum quantitativen Einfluss auf das Klima oder die Gletscherschmelze. Auf Nachfrage des Autors beim Max Planck Institut kam dazu die folgende Antwort: … Tatsächlich gibt es bisher noch keine quantitativen Daten zu dieser Studie. Das wird sicher Gegenstand weiterer Untersuchungen sein.

Was sagte Herr Lesch

Und nun vergleiche man diese Antwort mit Herrn Leschs Darstellung:

H. Lesch: „ … Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha, das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung… „.

Prognosen von Klimamodellen

Weiter geht es im Video:
H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten … Eine Vorhersage war in der Tat, dass durch die allgemeine Erwärmung sich die Wolkenbänder systematisch vom Äquator hinaus in Richtung nach Norden und nach Süden bewegen müssten. Und genau das ist nun entdeckt worden. Und eine weitere Vorhersage der Klimamodelle ist eingetreten: Sobald die Atmosphäre eine bestimmte Temperatur überschreitet, schießen die Wolken weiter nach oben … aber inzwischen sind nicht nur Gewitterwolken davon betroffen, sondern die gesamte Dynamik ist davon betroffen.

Wieder muss man Datenquellen raten. Doch könnte sich die Aussage auf die folgende Studie beziehen:

Juli 2016, [4] Evidence for climate change in the satellite cloud record,
deren Pressemitteilung vorwiegend im Englischsprachigen Raum publiziert wurde.
Doch WELT N24 hat auch darüber berichtet: Wegen des Klimawandels haben wir weniger Wolken
… Unklar waren bislang auch die Auswirkungen der globalen Erwärmung auf den Wolken-Bedeckungsgrad. Das lag vor allem daran, dass Wettersatelliten die Veränderungen nur teilweise zuverlässig wiedergeben, unter anderem wegen verschiedener Umlaufbahnen, unterschiedlicher Kalibrierung und Veränderungen der Sensorenempfindlichkeit im Laufe der Zeit. Das Forscherteam analysierte nun die Datenreihen verschiedener Satelliten und rechnete störende Einflüsse heraus.
Die Auswertung über 27 Jahre zeigt, dass der Bedeckungsgrad vor allem der mittleren Breiten abnimmt – weil sich der subtropische Hochdruckgürtel ausdehnt und sich die Tiefdruckzone der mittleren Breiten – insbesondere über dem nördlichen Atlantik – polwärts verlagert. Dagegen stieg der Bedeckungsgrad etwa über dem Atlantik und Pazifik nördlich des Äquators. Zudem berichten die Forscher, dass die oberste Wolkenschicht höher reicht als früher.

Seit dem Jahr 1984 gibt es ein ISCCP Cloud-Cover Daten-Projekt. Und Studien, welche die Veränderungen der Wolken-Bedeckungsgrade über die verschiedenen Breiten analysieren und versuchen, mit den Simulationsergebnissen in Einklang zu bringen, gibt es wie Sand am Meer. Allerdings oft mit ernüchternden Ergebnissen, zum Beispiel,

dass zwischen Messungen und Simulationsergebnissen nicht nur große Abweichungen bestehen, sondern die Effekte schlichtweg noch nicht ausreichend verstanden sind. Dazu kommt, dass beispielsweise ein Projekt beim CERN ermittelte, dass die Wolkenbedeckung viel stärker als bisher angenommen von natürlichen Einflüssen abhängt, somit im vor-industriellen Zeitalter eventuell viel größer als bisher angenommen war und das aktuelle Verhalten somit weit mehr (als bisher angenommen) von natürlichem und weniger (als bisher angenommen) vom CO2-Forcing abhängt

Theorien und Annahmen gibt es also viele und die Ergebnisse erscheinen insgesamt etwas chaotisch, weshalb die Klimamodellierer bezüglich der Wolken immer noch ziemlich hilflos sind:
M. Calisto at al., 2014: Cloud radiative forcing intercomparison between fully coupled CMIP5 models and CERES satellite data (Anmerkung: CMIP5 „Coupled Model Intercomparison Project 5“ sind neue Klimamodellierungen)

We have found that none of the models are consistent with the CERES data for all four variables considered….
we can say that despite consistent improvements in complexity and resolution of the models, none of the CMIP5 models presented here fits perfectly to the satellite data. Most of the models show a large bias in sea-ice regions, the tropical Pacific, and subtropical stratocumulus regions (Figs. 5 and 6). An accurate representation of clouds and their radiative effects still remains a challenge for global climate modeling.

[Übersetzung von Chris Frey: Wir sind zu dem Ergebnis gekommen, dass keines der Modelle konsistent ist mit den CERES-Daten für alle betrachteten Variablen … wir können sagen, dass trotz konsistenter Verbesserungen hinsichtlich Komplexität und Auflösung der Modelle keines der hier präsentierten CMIP5-Modelle genau zu den Satellitendaten passt. Die meisten Modelle zeigen einen großen Bias in Gebieten mit Meereis, dem tropischen Pazifik und subtropischen Stratocumulus-Regionen. Eine genaue Repräsentation von Wolken und deren Strahlungs-Auswirkungen bleibt nach wie vor eine große Herausforderung für die globale Klima-Modellierung.

Ende Übersetzung]

The Daily Star, May 27, 2016 : Scientists make news clouds which may lessen global warming
… Nobody knows just how cloudy skies were in the old days. Scientists have figured there were far fewer clouds than now, Kirkby said. But the discovery of a new natural route to cloud formation suggests that cloud cover was in fact greater than scientists had assumed.

If so, the way these simulations work, it would mean that greenhouse gases haven’t been quite as potent in producing warming so far as scientists thought. So, ton for ton, they may not be quite as potent in producing future warming either.
A new discovery about how clouds form may scale back some of the more dire predictions about temperature increases caused by man-made global warming. That’s because it implies that a key assumption for making such predictions is a bit off. „What this will do is slightly reduce and sharpen the projections for temperature during the 21st century,“ said researcher Jasper Kirkby.

[Übersetzung von Chris Frey: … Niemand weiß, wie wolkig es während der alten Tage war. Wissenschaftler haben herausgefunden, dass es weit weniger Wolken gegeben hatte als jetzt, sagte Kirkby. Aber die Entdeckung eines neuen natürlichen Weges der Wolkenbildung zeigt, dass die Wolkenbedeckung tatsächlich höher war als die Wissenschaftler vermutet hatten.

Falls das so ist, die Funktionsweise dieser Simulationen, würde das bedeuten, dass Treibhausgase nicht in der Lage gewesen wären, eine den Vermutungen der Wissenschaftler entsprechende Erwärmung zu erzeugen. Eine neue Entdeckung darüber, wie sich Wolken bilden, kann einige der düsteren Prophezeiungen hinsichtlich der vom Menschen verursachten Erwärmung abschwächen. Und zwar deswegen, weil es impliziert, dass eine grundlegende Hypothese für derartige Prophezeiungen ein wenig abwegig ist. „Das Ergebnis hiervon wird sein, dass die Projektionen der Temperaturen im 21. Jahrhundert etwas reduziert werden“, sagte der Forscher Jasper Kirkby.

Ende Übersetzung]

Einer Studie, der es auf einmal gelang, aus längst bekannten, teilweise aber ungeeigneten Satellitendaten
[4] „this is because observational systems originally designed for monitoring weather have lacked sufficient stability to detect cloud changes reliably over decades unless they have been corrected to remove artefacts ,
durch „Herausrechnen störender Einflüsse“ plötzlich einen „genauen“ Wolkenverlauf zu rekonstruieren und dann durch geeignet angepasste
[4] „Here we show that several independent, empirically corrected satellite records exhibit large-scale patterns of cloud change between the 1980s and the 2000s that are similar to those produced by model simulations of climate with recent historical external radiative forcing
Simulationsläufe nachzuvollziehen, ist jedenfalls mit äußerster Vorsicht zu betrachten. Es entsteht leicht der Eindruck der typischen “Beweisführung” in der Klimakunst: Nachträglich Messdaten zu “erzeugen”, dann Simulationen so lange anzupassen (es wurden wohl die CO2- und Aerosol-Forcinwerte so lange verändert, bis die zurückgerechneten Kurvenverläufe ungefähr passten), bis diese Daten wenigstens im Ansatz in einer Rücksimulation herauskommen und dann zu behaupten, damit ist die Qualität der Simulationen belegt (die das Ergebnis allerdings weder vorhersagen, noch ohne nachträgliche “Anpassung” zurückrechnen konnten).

Auf kaltesonne kam dazu jüngst eine größere Zusammenfassung:
kaltesonne, 27. August 2016: Wolken – die großen Unbekannten im Klimasystem
Lange Zeit hatten uns die Klimawissenschaftler vorgegaukelt, es gäbe nur noch i-Punkte in den Klimagleichungen zu setzen. Heute wissen wir, dass dies ein schwerer Fehler war. Noch immer gibt es viele große Unbekannte in den Klimamodellen. Im Februar 2015 räumte das Deutsche Klimakonsortium (DKK) ein:
Wolken – die großen Unbekannten im Klimasystem
[…] Wolken sind für systematische Messungen nicht nur schwer zugänglich, sie unterliegen auch ständiger und schneller Veränderung, sind in Form, Entstehung, Zusammensetzung und Höhenvorkommen unterschiedlich und haben deshalb verschiedene Auswirkung auf die Energiebilanz in der Atmosphäre. So wirken Wolken in tieferen Atmosphärenschichten kühlend, weil sie Sonnenstrahlen reflektieren und weniger Energie die Erdoberfläche erreicht. Hohe Eiswolken, Zirren genannt, wirken hingegen eher wärmend, da sie die Wärmeabstrahlung der Erde nicht in die Atmosphäre entlassen, sondern wieder Richtung Erdoberfläche reflektieren. […] Frank Stratmann untersucht im weltweit einzigartigen Leipziger Wolkensimulator (Leipzig Aerosol Cloud Interaction Simulator, LACIS) die Wechselwirkungen zwischen Aerosolpartikeln und Wolkentropfen: Im Kleinen wird die Wolkenbildung simuliert, die sich normalerweise bis zu einer Höhe von 15 km über der Erdoberfläche abspielt. […]
In Stratmanns Vortrag heißt es:
Was ist der Stand:
Wolken in Klimamodellen werden in der Regel nicht im Detail modelliert weil:
a) es teilweise an grundlegendem physikalischem Verständnis mangelt
b) eine Prozessmodellierung numerisch zu aufwändig ist
c) es ein grundsätzliches Skalenproblem gibt
(Wolken – Kilometerskala, Modellauflösung – Hundertkilometerskala)
d) Wolken werden in parametrisierter Form behandelt
Klimamodelle müssen anhand von Messwerten validiert werden
kaltesonne: Im Mai 2015 brachte auch proplanta.de Klimarealimus:
Forscher nehmen Wolken ins Visier
Wie beeinflussen die Wolken den weltweiten Klimawandel? Forscher haben darauf noch keine umfassenden Antworten.
Klar sei nur eines, sagt Professor Thomas Leisner, Klimaforscher am Karlsruher Institut für Technologie (KIT): «Wenn sich das Klima ändert, ändern sich auch die Wolken – und umgekehrt». Doch in welchem Maße? Und in welche Richtung? In der deutschlandweit einzigartigen Wolkenkammer «Aida» versuchen Leisner und seine Mitarbeiter, Antworten zu finden. Zwei zentrale Fragen stellen sich:
Werden die Wolken im Klimawandel mehr kühlend oder mehr erwärmend wirken?

Das Max Plank Institut umschreibt die Problematik recht umständlich, aber mit ähnlichem Ergebnis: Wo liegen die Grenzen der Vorhersagbarkeit des Erdsystems?
… Anderes ist jetzt erst möglich geworden, wie etwa das Ersetzen der Wolkenparametrisierung durch konvektionsauflösende Modelle, wodurch die Simulationen eine deutlich stabilere konzeptuelle Grundlage erhalten.
Um unsere Modelle zu evaluieren und zu initialisieren, benutzen wir in zunehmendem Maße Beobachtungsdatensätze, aus denen wir grundlegende,
neue Einsichten in das sich ändernde Erdsystem gewinnen: von der Vertikalstruktur der Wolken über die zunehmende Wärmeaufnahme des Ozeans bis hin zu den immer genauer werdenden Beschreibungen der Landbiosphäre. Die globalen Beobachtungen werden durch eine neue Generation von Messkampagnen ergänzt, zum Beispiel für die Wolkendynamik in den Subtropen oder die meridionale Umwälzbewegung im Ozean.

Was sagte Herr Lesch

Die Aussage: „ H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten.“
ist damit auf jeden Fall nicht belegt und entspringt eher einem Wunschdenken. Zudem ist eine solche Aussage auch Unsinn, doch trotzdem entlarvend typisch „ … es gibt Prognosen, dass die Prognosen eintreten …“.
Beim Klima-Simulieren werden viele verschieden parametrierte Simulations-Läufe gemacht und dann „ermittelt“, welcher der „richtigste“ sein könnte. Irgend eine Prognose tritt dadurch irgendwann immer ein. Nur ist in der Regel vorher nicht bekannt, welche es werden wird. Anders herum werden die Simulationen rückwirkend den wahren Verläufen angepasst und dazu verkündet: „hätte man es damals so parametriert, wären die heutigen Ergebnisse herausgekommen“.
Wer die himmelschreienden Ungenauigkeiten nicht glaubt, sehe sich das in den vielen Vulnerabilitätsstudien mit ihren Simulationsläufen an:
EIKE: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Wie schwierig es ist, Ursache und Wirkung zu unterscheiden, lässt sich am folgenden Verlaufsbild der tropischen Wolkenbedeckung ahnen.

Bild 3 Tropische Wolkenbedeckung und Temperatur seit 1983 (Wolken: ISCCP) Quelle: WUWT, Blogbeitrag

Meeresspiegel

Weiter geht es bei Herrn Lesch mit dem Meeresspiegel:
H. Lesch: … und warmes Wasser braucht mehr Platz … und schon ist man beim Meeresspiegelanstieg: Da gibt es ebenfalls neue Daten und die sagen uns ebenfalls nichts Gutes. … Zumal sich eben auch die Kontinente noch anheben z.B. genau dann wenn die Gletscher verschwinden die … wenn das Eis verschwindet …
Wie hoch ist tatsächlich der Meeresspiegelanstieg … Man hat Modelle benutzt und hat lokale Messstationen deren Wasseranstieg, deren Meeresanstieg zu rekonstruieren. Dann macht man das mit zwei, drei, vieren . ist eine Evolution von Modellen. … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr …
und das ist klar, klipp und klar

Wieder muss man Datenquellen raten, aber es finden sich dazu passende Fundstellen, wie:
[1] Temperature-driven global sea-level variability in the Common Era
Wie so oft, hat ein Studienteam ganz neu festgestellt, dass man die Daten der Vergangenheit bisher falsch interpretiert hat und mit den „richtigen“, statistischen Methoden berechnet, die Zukunft viel schlimmer (als bisher publiziert) werden wird. Und wie so oft, wenn eine schlimme Klimaapokalypse zu verkünden ist, war auch Herr Rahmstorf (PIK) im Team dabei.
Die Studie kommt auch im EIKE-Artikel: Anstieg des Meeresspiegels: Nur Fakten, vor, doch soll hier auf eine Besprechung auf scinexx eingegangen werden.
scinexx.de:
[6] Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren Bisher vollständigste Berechnung der klimabedingten Veränderungen des globalen Meeresspiegels
Jetzt ist es amtlich: Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren. Von 1900 bis 2000 stiegen die weltweiten Pegel um 14 Zentimeter. Gäbe es dagegen den anthropogenen Klimawandel nicht, wäre der Meeresspiegel vielleicht sogar gleichgeblieben, wie Forscher im Fachmagazin „Proceedings of the National Academy of Sciences“ berichten. Zudem wären allein den US-Küsten 4.000 Überschwemmungen seit 1950 erspart geblieben.
Dass die Meeresspiegel durch die globale Erwärmung ansteigen, ist mittlerweile sattsam bekannt. Unter anderem deshalb prognostizieren Klimaforscher zunehmende Überschwemmungen und selbst in den USA gehen schon die ersten Inseln unter.
Zudem wurde lange Zeit mit
falschen Basiswerten gerechnet, so dass sich erst kürzlich herausstellte, dass der Anstieg doch steiler ist als gedacht.
„Eine statistische Herausforderung“
Robert Kopp von der Rutgers University und seine Kollegen haben es nun dank komplexer Analysen erstmals geschafft, die Entwicklung des Meeresspiegels in den letzten 3.000 Jahren zu rekonstruieren. „Kein lokaler Pegelstand liefert uns den globalen Meeresspiegel“, erklärt Kopp. „Denn an jedem Standort wird der Wert von zahlreichen Prozessen beeinflusst, die ihn vom globalen Mittel abweichen lassen. Hieraus das globale Signal zu isolieren – das ist die statistische Herausforderung“
Wie sensibel der Ozean auf Klimaveränderungen reagiert, zeigt ein weiteres Ergebnis:
Zwischen den Jahren 1000 und 14000 sank der Meeresspiegel um rund acht Zentimeter ab, wie die Forscher feststellten. Diese Entwicklung trifft mit einer Phase zusammen, in der sich globale Klima um 0,2 Grad Celsius abkühlte. „Es ist erstaunlich, dass wir diese Pegelveränderungen sogar bei einer so schwachen Abkühlung sehen“, sagt Kopp.

Selbst allerschlimmste Fehler fallen einer Fachredaktion nicht auf

Im scinexx-Artikel steht (hier extra als screenshot, damit man es glaubt, sofern es doch noch von der Redaktion korrigiert werden sollte), dass der Meeresspiegel zwischen den Jahren 1.000 und 14.000 um rund 8 cm sank:

Bild 4 Screenshot aus dem scinexx Artikel [6] zur Studie [1]
Diese Textstelle liest sich in der Studie allerdings wie folgt:

[1] „ … with a notable decline over 10001400 CE coinciding with 0.2 °C of global cooling

Der Redakteur hat (sicher versehentlich) aus den richtigen 1.400 CE in der Studie falsche 14.000 CE getippt. Das kann jedem mal passieren. Nur lag der Meerespegel vor 14.000 Jahren wie allgemein bekannt um 80 m (und nicht 8 cm) tiefer und die Temperatur ebenfalls um fast 20 Grad (und nicht 0,2 Grad). Dass dieser – fast schon jedem Klimalaien sofort ins Auge springende – Fehler niemandem in der Redaktion aufgefallen ist (und keinen Leser zur Reklamation veranlasste), zeigt, welcher krasse Unsinn beim Klimawandel publiziert werden kann, ohne „anzuecken“.

Bild 5 Pegel- und Temperaturverlauf seit ca. 25.000 Jahren. Quelle: Zentralanstalt für Meteorologie und Geodynamik, ZAMG

Im Studienteam müssen wahre Rekonstruktionsgenies gewesen sein

Im scinexx Artikel steht: „Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren“. In der Studie selbst findet sich dazu das folgende Bild:

Bild 6 Die erste (angeblich) wirklich genaue Rekonstruktion des Meeresspiegelverlaufs seit 2400 Jahren. Quelle: [1]
Dieser „endlich ganz genaue berechnete Verlauf“ zeigt seit den letzten 2400 Jahren (bis ca. 1900) eine Spanne von gerade einmal ca. 15 cm.

Nun hat der Autor historische Pegelrekonstruktionen schon einmal in einer kleinen Analyse gesichtet und ist dabei zum Ergebnis gekommen, dass die Pegel-Änderungsspanne um Dimensionen höher ist, und schlimmer, aufgrund der katastrophalen Proxi-Ungenauigkeiten gar kein „wirklicher“ Global-Verlauf mit brauchbarer Genauigkeit rekonstruiert werden kann:
EIKE 07.04.2016: [5] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Daraus eine Proxy_Rekonstruktion (Bild 7), welche dem IPCC AR5 entstammt. Die Proxys überstreichen in diesem Zeitraum eine Spanne von mindestens 100 cm. Vor allem aber sind sie regellos verteilt (Verdacht, dass sie teils Zufallswerte darstellen). Jedenfalls lässt sich kein „wahrscheinlicher“ mittlerer Kurvenverlauf daraus berechnen, weil die notwendigen, statistischen Basisannahmen nicht erfüllt sind. Natürlich kommt im Rechner immer eine Mittelwert-Kurve heraus – nur stimmt sie nicht.

Bild 7 IPCC Proxibild der vergangenen 3000 Jahre (gestrichelte Linien durch den Autor ergänzt). 0 = Jahr 1950

Original-Bildtext: Figure 13.3 (a) Paleo sea level data for the last 3000 years from Northern and Southern Hemisphere sites

Der folgende Verlauf eines Proxys der Malediven, indischer Ozean (Bild 8) soll zeigen, wie leicht die Annahme, einen so steilen Pegelanstieg wie aktuell hätte es die letzten 3000 Jahre noch nie gegeben, auch falsch sein kann. Es fällt aber kaum auf, da die schnellen Änderungen in den vielen Mittelungen verschwinden.

Bild 8 [5] Fig. 1. Sea level curve for the last 5000 years for the Maldives.
Nun eine Tabelle mit den Pegeländerungen weltweit verteilter Proxis aus dem EIKE-Artikel (Bild 9). Die Pegel-Spannweiten der letzten 2000 Jahre liegen zwischen -1,4 … +3,2 m. Laut der ganz neuen Studie will man daraus mittels ganz moderner Statistik heraus bekommen haben, dass der globale Mittelwert in diesem Zeitraum um nicht mehr als 15 cm geschwankt hätte. Das ist mehr als absolut unglaubwürdig. Bei den katastrophal streuenden Daten lässt sich auch mit noch so viel „Statistik“ kein wahrer Mittelwertverlauf mit dieser Genauigkeit bestimmen, beziehungsweise belegen.

Bild 9 [5] Meerespegel-Verlaufsrekonstruktionen aus weltweit verteilten Pegelproxys (ohne Pegel Mittelmeer)
Zum angeblich so alarmistischen, jüngeren Pegelanstieg noch ein Link:

EIKE: Anstieg des Meeresspiegels: Nur Fakten
Nur weil der Meerespegel eben nicht alarmistisch ansteigt, wird mit immer neuen „bahnbrechenden, statistischen Analysen“ versucht, einen zu konstruieren.

Was sagte Herr Lesch

Die Aussage: H. Lesch: „ … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr … und das ist klar, klipp und klar,
darf man bedenkenlos anzweifeln, da sie sich auf eine Studie bezieht, welche unseriöse und vielen anderen Analysen deutlich widersprechende Ergebnisse präsentiert. Klipp und klar ist nur, dass damit gar nichts klar ist.

Fazit

Herr Lesch hat inzwischen mehrere Vorträge zum Klimawandel „gedreht“. Es ist (für jemand dazu kritisch eingestellten) wirklich eine Qual, sich seine Darstellungen dazu anzusehen und zu hören. Man merkt dabei auch, wie wenig „Wissenschaftsvorträge“ nutzten, wenn keine Quellen bekannt gegeben werden.
Im Kern sind seine Vorträge dazu inzwischen zur reinen Agitation und Kanzelpredigt, moderner: Vermittlung einer Message, verkommen. Mit „Wahrheitsvermittlung“ haben sie jedenfalls rein gar nichts mehr zu tun. Vor Kurzem verkündet er inzwischen, beim Klimawandel gäbe es überhaupt keine Zweifel, was die (alarmistischen) Studien schreiben, wäre einfach „wahr“ und somit gäbe es dazu auch keinen Dissens mehr (die Rezension zu einem seiner Videos, in welchem er vor großem Publikum genau dies konkret sagt, erscheint noch).
Es fragt sich nur: Was treibt einen Professor dazu, sich sein Renommee selbst so konsequent kaputt zu machen? – Und, warum unsere Fernsehanstalten solche Ökokirchen-Predigersendungen als „Wissenschaft“ bringen.

Quellen

[1] R. E. Kopp et al. (mit S. Rahmstorf): Temperature-driven global sea-level variability in the Common Era

[2] ZDFHD, Video: Frag den Lesch – Neues aus der Klimaküche Quelle: YouTube, Veröffentlicht am 28.11.2016

[3] npj, Heidi J Smith at al., 8 June 2016: Biofilms on glacial surfaces: hotspots for biological activity

[4] Joel R. Norris at al., 11 July 2016: Evidence for climate change in the satellite cloud record

[5] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

[6] scinexx.de: Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren

[7] ScienceScepticalBlog: Die Top 5 Lügenmärchen der Klimaforscher
http://www.science-skeptical.de/klimawandel/die-top-5-luegenmaerchen-der-klimaforscher/0015719/