EIKE wünscht allen Leserinnen und Lesern ein gutes und erfreuliches Jahr 2017

Doch nur mit dem Zweifel beginnt auch die Suche nach der Wahrheit. Und diese Suche hat bereits große Teile der Bevölkerung erfasst. Unübersehbare Zeichen dafür sind die großen Erfolge neuer  politischer Player, Parteien wie Medien der bürgerlich liberal-konservativen  Mitte, die sich nicht den Maulkorb der  Political Correctness mehr umhängen lassen, sondern reden und schreiben was ist, insbesondere aber – mit sehr guten Argumenten, die täglich durch Fakten erhärtet werden- glaubwürdige Alternativen den Menschen vorstellen. Die „postfaktischen“ Argumente eine selbstherrlichen Kanzlerin und ihrer Unterstützer in allen etablierten Parteien, den Ämtern und Medien  werden – für jedermann sicht- und erkennbar- stets und ständig aufs Neue, durch die wahrgenommene Wirklichkeit widerlegt.

Mit Dank an Spürnase Frank Abels z.Zt. Australien für diesen Stimmungsaufheller

Bestärkt wurde diese stark anschwellende Bewegung durch vom Establishment mit großem finanziellen wie medialem Aufwand bekämpften sichtbaren politischen Veränderungen im Lande aber auch außerhalb. Die wider alles Wollen der Etablierten errungenen Erfolge eines Donald Trump in den USA, der Widerstand weiter Kreise gegen als falsch empfundenes offizielle Gehabe und Getue, dass in schroffem  Gegensatz zu den erlebten Fakten steht, sei es in Großbritannien, in Österreich. Italien, usw, der sich u.a. im Wahlverhalten äußert, sind sehr ermutigende Signale, die sich mit einiger Gewissheit auch in 2017 fortsetzen werden.

In diesem Sinne wird 2017 ein besseres Jahr als 2016 werden, wenn auch schreckliche internationale Katastrophen und auch Kriege weiterhin zu seinen Begleitern gehören werden.

So schlimm und bedauerlich diese auch sind: Wir freuen uns auf das Neue Jahr und wünschen und hoffen liebe Leserinnen und Leser, dass Sie das auch tun!

Ihre EIKE Redaktion




Der ausgefallene Weltunter­gang (Teil 3) – Wie steht es heute um die Fukushima „Todeszone“

Während der Katastrophe wurden große Mengen an Radioaktivität freigesetzt, z.B. ca. 42 % der Cäsium Cs-137 Emission von Tschernobyl, und kontaminierten Luft, Böden, Wasser und Nahrungsmittel in der land- und meerseitigen Umgebung. Die japanische Regierung beschloss eine Evakuierung der Bevölkerung in einer Zone mit dem Radius von bis zu 30 Km. Nach offiziellen Angaben haben die japanischen Behörden nach dem Erdbeben insgesamt 154 000 Menschen aus der Region um das Kraftwerk evakuiert. Die Evakuierung kostete einige Menschenleben, besonders von sehr alten und kranken Menschen, die wohl besser nicht hätten evakuiert werden sollen. Die Zahl dieser armen Menschen variiert sehr stark, abhängig vom Standpunkt zur Kernenergie derjenigen, die Artikel oder Studien veröffentlichen.

Was ist seit Fukushima in der japanischen „Todeszone“ geschehen?

In den letzten fünf Jahren ist in der Evakuierungszone viel geschehen. Ziel war und ist es, den Bürgern ihre Heimat wiederzugeben und ihnen eine sichere Rückkehr zu ermöglichen. Dafür arbeiten zehntausende Menschen hart und ernten seit einem guten Jahr die ersten größeren Erfolge. Der größte Erfolg ist für sie, wenn die Evakuierung eines Gebietes oder einer Stadt aufgehoben wird und die Bewohner zurückkehren. Natürlich kehren nicht alle zurück. Manche haben in den Jahren einen neuen Lebensmittelpunkt gefunden. Andere haben Angst vor der Strahlung, was nur zu verständlich ist.

Als erstes wurde (und wird) ein Messprogramm der Strahlung durchgeführt und eine genaue Karte der Radioaktivität erstellt. Dabei stellte sich heraus, dass ein dicker zigarrenförmiger Bereich, der von der Windrichtung benachteiligt war, eine höhere Radioaktivität aufwies, als der größte Teil des Territoriums. Danach begannen die umfangreichsten Dekontaminations-Maßnahmen in der Geschichte der Menschheit.

Man begann auf den Dächern. Sie wurden abgewaschen und gereinigt. Dann die Dachrinnen und die Wände. Im Gelände wurden die Bäume von oben nach unten mit Hochruckreinigern gewaschen, die Pflanzen abgemäht und danach eine dünne Bodenschicht von einigen Zentimetern abgetragen. Die Abfälle wurden sorgfältig gesammelt, eingetütet und in spezielle Lagerstätten verbracht, wo sie vor Regen und Grundwasser geschützt, gelagert werden und abklingen können. So schreitet der Prozess über die Städte, Wälder und Felder voran. Es geht deshalb voran, weil zehntausend fleißige Menschen daran arbeiten. Es lohnt, dem Link zu folgen und sich die Bilder anzusehen.

Das Ganze hört sich für uns abenteuerlich an. Aber man muss bedenken, dass die Strahlung ohnehin so niedrig ist, dass für die tausenden Reinigungskräfte keine echte Gefährdung besteht, so lange sie ihre Papiermasken tragen und keine Strahlungspartikel einatmen. Durch die Dekontamination konnte die Strahlung in den gereinigten Gebieten um ca. 30% gesenkt werden. Nach und nach werden die zulässigen Grenzwerte erreicht und die Regierung gibt ein Gebiet oder eine Stadt zur Rückkehr frei.

Aber das genügt nicht. Parallel zu der Dekontamination wird die lokale Infrastruktur verbessert.

Niemand kehrt nach Hause zurück, wenn nicht Supermärkte, Krankenhäuser, Schulen und Erholungsstätten eröffnet sind. Auch neue Industrie wird angesiedelt, um für die Rückkehrer Arbeitsplätze anzubieten. Etwa ein Drittel der Evakuierungszone ist freigegeben. Und auch die berühmten Fukushima-Pfirsiche sind wieder auf dem japanischen Markt zu haben, ohne dass jemand Angst vor dem Verzehr haben muss. Wahrscheinlich sind nirgendwo auf der Welt Lebensmittel besser radiologisch kontrolliert, als in Japan nach Fukushima. Die Präfektur Fukushima – ein gebranntes Kind – hat folgerichtig für sich beschlossen, sich bis zum Jahr 2040 aus erneuerbaren Energien zu versorgen und hat damit begonnen, große Solarkraftwerke zu errichten.

Es wird noch viele Jahre dauern, bis auch die Cäsium-belastete „Zigarre“ wieder bezogen werden kann. Aber – Japan ist nicht die Sowjetunion, wo heute um Tschernobyl herum der größte, von Menschen unberührte Naturpark der Welt existiert und gedeiht.

Radioaktivität zu Wasser

Die Aktivität pro Liter Meerwasser beträgt in der Nähe des Kernkraftwerks Fukushima etwa ein Becquerel pro Liter. Auf dem offenen Meer (30 bis 300 Kilometer vor der Küste) wiesen von TEPCO unabhängig durchgeführte Messungen nur noch Werte von 0,002 und 0,01 Becquerel nach, was nur wenig höher liegt als die Vergleichsdaten aus der Zeit vor der Katastrophe. Dies liegt im Bereich der weltweiten Hintergrundstrahlung und kann vernachlässigt werden – zum Vergleich: laut deutscher Trinkwasserverordnung sind 100Bq/l (aus natürlichem Radonzerfall) im Trinkwasser erlaubt. Fisch aus dem Pazifik ist unbedenklich: Experten sowohl der staatlichen Überwachungsbehörden als auch des Bundesverbands der deutschen Fischindustrie und des Fischgroßhandels haben keine Belastung in hier verkauften Produkten festgestellt. Die von einigen Medien verbreiteten Geschichten vom Mutationen und Sterben der Seetiere in der Nähe von Fukushima gehören in den Bereich „Fake-News“.

Radioaktivität zu Lande

Verglichen mit der Strahlenbelastung unmittelbar nach dem Reaktor-GAU ist die Strahlenbelastung in etwa um den Faktor 10 gefallen. Das heißt, dass in der Stadt Fukushima statt 2,74 Mikro-Sievert heute 0,18 Mikro-Sievert gemessen werden. Zum Vergleich: in München wurden am 21. Dezember 2012 0,12Mikrosievert gemessen. Man kann davon ausgehen, dass in den freigegebenen Gebieten die Menschen einer niedrigeren Umgebungsbelastung ausgesetzt sind, als die Bewohner des deutschen Schwarzwaldes. Nichtsdestotrotz warnt Greenpeace auf Grund eigener Messungen vor der Strahlenbelastung. Ich meine aber, dass man den professionellen und viel umfangreicheren Messprogrammen der japanischen Regierung durchaus mehr vertrauen kann, als den Geigerzählern von Greenpeace.

Gesundheitsschäden der Bevölkerung

Die Provinz Fukushima führt umfangreiche Untersuchungsprogramme der Bevölkerung auf Strahlenschäden durch. Von den etwa zwei Millionen Bewohnern der Fukushima Provinz wurden 370.000 identifiziert, die zum Zeitpunkt des Unfalls jünger als 18 Jahre waren. Etwa 250.000 von ihnen nahmen freiwillig an einer Schilddrüsenuntersuchung teil. Das Ergebnis dieser Untersuchung zeigt, dass es in Fukushima keine erkennbaren Abweichungen beim Schilddrüsenkrebs zur Vergleichsregion Japan gibt.

Einer WHO-Studie zu den Folgen von Fukushima zufolge sei das Gesundheitsrisiko für die Menschen vor Ort geringer als ursprünglich befürchtet: Günstige Winde und die Evakuierungsmaßnahmen sollen schwerere Gesundheitsschäden für die Bevölkerung auch rund um Fukushima verhindert haben. Nicht zu unterschätzen ist allerdings die psychische Belastung durch die Folgen von Erdbeben und Tsunami: Der Tod von Angehörigen, die Unsicherheit über die Zukunft, die Evakuierung – das hat die meist älteren Menschen um Fukushima schwer getroffen. Dadurch ausgelöster Stress erhöht beispielsweise das Risiko für Herz-Kreislauf-Erkrankungen.

Reisen in die Region Fukushima

Reisen in die Region außerhalb der gesperrten Gebiete sind unbedenklich: Laut dem Bundesamt für Strahlenschutz erhalten Reisende bei einem vierwöchigen Aufenthalt beispielsweise direkt in der Stadt Fukushima eine Strahlenbelastung von weniger als 0,4 Millisievert und in den geringer belasteten Regionen im Westen und Süden der Präfektur unter 0,1 Millisievert. Zum Vergleich: Eine Röntgenaufnahme belastet mit etwa 0,01 bis 0,03 Millisievert, und die gesamte natürliche Strahlenbelastung in Deutschland beträgt durchschnittlich 2,1 Millisievert im Jahr. Was das Essen betrifft, so ist ebenfalls wenig zu befürchten: Lebensmittel werden streng überwacht, und nur in Einzelfällen wurden Überschreitungen des Grenzwerts von 100 Becquerel pro Kilogramm für Gesamtcäsium nachgewiesen – im gesamten Geschäftsjahr 2013 lagen bei über 300 000 genommenen Proben in 938 Fällen erhöhte Werte vor. Das Trinkwasser weist keine erhöhten Werte auf und kann bedenkenlos genutzt werden.

Quelle: http://www.spektrum.de/news/fukushima-3-jahre-danach/1253533

Der Weltuntergang wird wohl ausbleiben. Der GAU in Tschernobyl ist 30 Jahre her. Das ist auch für einige radioaktive Isotope viel Zeit, um ganz von allein zu zerfallen. Cäsium 137 hat eine Halbwertszeit von 30 Jahren, die Hälfte des CS-137-Fallouts ist schon weg. Dies gilt für Tschernobyl und wird auch für Fukushima umso eher gelten, als hier aufwändig dekontaminiert wird.

30 Jahre nach dem Atomunfall entwickelt sich Tschernobyl zu einem Touristenmagneten. Sogar unsere Umweltministerin Barbara Hendricks war kürzlich zu Besuch. Die Welt schreibt in einem Reisebericht nach Tschernobyl:Auf der Rückfahrt rechnete die Reiseleiterin unsere Strahlenbelastung aus. Vermutlich würde ich auf dem Flug nach Hause mehr abbekommen“. Der Strahlenpegel liegt auf dem Gelände der Ruine von Tschernobyl bei circa 0,12 Mikro-Sievert pro Stunde, zulässig sind 0,25 Mikro-Sievert pro Stunde.

Das wird nun ‚Todeszone’ genannt. Im Flugzeug gibt es auf unserer Breite in Reiseflughöhe etwa 6 Mikro-Sievert pro Stunde (noch abhängig von der Aktivität der Sonne), also mehr als das 20-fache vom erlaubten Wert in Tschernobyl. Frage: Warum handelt es sich bei Tschernobyl um eine Todeszone, wenn täglich weltweit mehr als eine Million Menschen sich dieser Strahlung ohne den geringsten Schaden aussetzen, und das fliegende Personal etwa 1000 Stunden im Jahr?“

 




Die Zahltage des EEG beginnen ihren vorher­gesagten Lauf

Zum Muttertag geschah es:
EIKE 04.06.2016 : Muttertag war EEG-Geschenktag auf Kosten der nicht privilegierten Stromkunden,
und nun wieder über Weihnachten (dazwischen auch, aber nicht in so großem Maßstab):
Vom 24. – 26.12.2016 wurden 582.426 MWh elektrische Energie mit (leicht abgerundet) 19,907 Millionen EUR Zuzahlung von der Strombörse an willige Abnehmer „verhökert“*.
Das klingt nach nicht einmal so viel. Schließlich ist man in Deutschland inzwischen weit höhere Kosten für verschiedensten politischen Unsinn längst gewöhnt.
Doch in Summe beträgt die Erlösdifferenz zur EEG-Zwangszahlung für den Überschussstrom (wieder leicht abgerundet) 207,881 Millionen EUR*. Ein Betrag, den die privaten, deutschen Stromkunden an die gelobten „Ökostrom-Energieernter“ ohne jegliche Gegenleistung löhnen mussten.
Und leider bekam vorwiegend das Ausland den Strom, zusätzlich versüßt mit Zuzahlungen für die Freundlichkeit, ihn abzunehmen. Kleine Probleme scheinen demnach noch in der grandiosen Wende zu stecken. Aber das sollte sich bestimmt noch lösen lassen – zumindest wenn das EEG erst einmal vollständig ausgebaut ist.

Bis es aber so weit ist, soll einmal nachgesehen werden, warum das EEG-Wunder über Weihnachten das Ausland und nicht die deutschen Stromkunden so reich beschenkt hat und warum es allen Beteuerungen zum Trotz damit immer schlimmer werden wird.

Bild 1 Verlauf von Verbrauch, Strompreis und Ökostromerzeugung vom 17. – 28. Dezember. Quelle: Agorameter

Aus Bild 1 kann man (stark vereinfacht) folgendes herauslesen:

– Bis zum 23. Dezember mussten die konventionellen Kraftwerke den wesentlichen Stromanteil erzeugen, weil die Öko-Energieernter nicht im Ansatz ausreichend Energie liefern konnten. Von den 38 % Strombedarf, den sie angeblich decken [1], ist über viele Tage nichts zu sehen.
– Dann kam Wind auf und die Windmüller drückten ihren Strom in die Leitungen, während wegen Weihnachten gleichzeitig der Verbrauch deutlich sank.
– Trotzdem reichte der Ökostrom nicht aus und konventionelle Kraftwerke mussten weiter unterstützen.

Jedoch war es nicht möglich, diese Energiedifferenz immer auszugleichen, heißt konventionelle Erzeugung so schnell hin- und her zu fahren, wie der Ökostrom schwankte, mit der Konsequenz, dass zeitweise (kann auch in Teilnetzen gewesen sein) Überangebot vorlag, was sich mit einem negativen Strompreis äußerte.

In den folgenden Bildern kann man dazu die Details betrachten.
Solar (Bild 2), obwohl es am EEG einen Kostenanteil von ca. 40 % hat (WIKIPEDIA, Stand 2013), lieferte praktisch nichts!
Erzählt wird von „Fachinstituten“ dazu folgendes:
Fraunhofer ISE, Aktuelle Fakten zur Photovoltaik in Deutschland [1]: Liefert PV bereits relevante Beiträge zur Stromversorgung? … An sonnigen Werktagen kann PV-Strom zeitweise bis zu 35%, an Sonn- und Feiertagen bis zu 50% unseres momentanen Stromverbrauchs abdecken
Fazit: Wer sich auf solche Fachinstitute verlässt, ist auch mal ganz schnell (von Energie) verlassen.

Bild 2 Verlauf von Verbrauch und Solareinspeisung vom 17. – 28. Dezember. Quelle: Agorameter

Die Windenergie (Bild 3) ist etwas besser, kann, was immer wieder bestritten wird, aber auch für längere Zeitspannen fast auf Null sinken, womit immer neu bewiesen ist, dass sie nicht grundlastfähig ist, obwohl auch dies von „Fachpersonen“ behauptet wird:

EIKE 28.01.2016: Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig
dpa: [2] Weil der Wind auf dem Meer stetiger und häufiger weht als an Land, liefern Windräder auf See mehr Strom und sind besser ausgelastet. Sie gelten wie Atom- und Kohlekraftwerke als „grundlastfähig“, können also den Versorgungssockel absichern.
Die Münchner Stadtwerke behaupten es
[3] Christian Vogt, Leiter des Beteiligungsmanagements der Stadtwerke München: … Bis 2025 wollen wir so viel Ökostrom erzeugen, wie ganz München verbraucht. Eine ganz wesentliche Bedeutung bei der Umsetzung hat die Windkraft, insbesondere Offshore. Sie hat das größte Potenzial und ist sogar grundlastfähig.

Bild 3 Verlauf von Verbrauch und Windstromeinspeisung vom 17. – 28. Dezember. Quelle: Agorameter

Warum führte dies über Weihnachten zu negativen Strompreisen?

Elektrischer Strom verhält sich immer noch stur nach physikalischen Gesetzten und nicht nach den Wünschen der Ökopolitiker und denen von Frau C. Kemfert. Er muss weiterhin sekundengenau immer in der Verbrauchsmenge erzeugt werden. Herrscht Überangebot, muss er „verschwinden“, sonst steigt die Netzspannung zwangsweise an mit Folgen, die bis zur Netzzerstörung – und der Verbraucher -reichen.

Um die Energie „verschwinden“ zu lassen, gibt es nur wenige Möglichkeiten:
– jemand hat genügend Last und kann ihn abnehmen (wie geschehen, ist das oft noch das Ausland),
– er wird gespeichert (dazu fehlen bisher und auch in weiterer Zukunft vollkommen die Möglichkeiten im erforderlichen Großmaßstab),
– er wird beim Entstehen abgeregelt (bedeutet: nicht eingespeist, aber trotzdem voll vergütet).

Allen Lösungen ist aber eines gemeinsam: Der private, deutsche Stromkunde muss den zu viel erzeugten EEG-Strom gesetzlich gezwungen immer voll bezahlen, egal wohin und wie er verschleudert oder gar abgeregelt wird.
Warum ist das so: Weil die Ökostrom-Vorrangeinspeisung festgelegt hat, dass Ökostrom in beliebiger Menge und vollkommen unabhängig vom Bedarf oder Netzlast erzeugt werden darf und grundsätzlich beim Entstehen vergütet wird.

Nun soll diese unsinnige Art der Stromerzeugung ja zur 100 %-Versorgung ausgebaut werden, was ungefähr den 4 – 6fachen Zubau erfordert. Für den ersten Schritt dahin, den 3-fachen Zubau ist in Bild 4 ganz grob eingezeichnet, wie die Ganglinien dann verlaufen (Hinweis: der Unterschied beim Schwellwert des Börsen-Strompreises in Bild 4 gegenüber Bild 3 hat die Ursache, dass in Bild 3 auch Wasserkraft und Biogasstrom enthalten sind, die beide im Bild 4 fehlen).
Eine Grundlast ist weiterhin nicht im Ansatz vorhanden, das zeitweise Überangebot schnellt aber in ganz neue Dimensionen. Die Verbraucher werden es am sichersten bemerken, denn die daraus für ihn zwangsweise resultierende Kostenlawine wird gewaltig.

Bild 4 Verlauf von Verbrauch und Einspeisung Wind + Solar vom 17. – 28. Dezember. Quelle: Agorameter. Vom Autor ergänzt (grobe Skizzierung): 3-fache Einspeisung, Schwelle für negative Strompreise (unter der rot gestichelten Linie)

Was sagt die Klima- und Energieberaterin unserer Bundesregierung, Prof. C. Kemfer dazu:
[4] VDI Nachrichten 29. April 2016: DIW-Expertin Claudia Kemfert, „Energiewende gefährdet:
Prof. C. Kemfert: Derzeit haben wir einen Stromangebotsüberschuss und verkaufen diesen in unsere Nachbarländer. Der Strompreis an der Börse ist so niedrig wie nie. Wir könnten problemlos die ineffizienten Kohlekraftwerke abschalten. In Folge würde sich nicht nur das vorherrschende Überangebot vermindern, sondern es wären auch die Stromnetze weniger belastet.
Prof. C. Kemfert: Der Preis für Privatpersonen hängt vor allem daran, dass der niedrige Börsenstrompreis nicht bei ihnen ankommt. Nur energieintensive Unternehmen, die von Steuern und Umlagen befreit sind, profitieren davon. Sobald Kohle- und Kernenergie verschwinden, steigt zwar der Börsenstrompreis, aber die EEG-Umlage sinkt. Dann würden voraussichtlich auch Privatpersonen weniger bezahlen müssen.

Beim Durchlesen dieses Unsinns wird verständlich, warum es diese Professorin bis in das Beratergremium in Berlin geschafft hat. Unsere Politiker mögen keine ehrlichen Antworten mehr, sondern erwarten Zustimmung zu ihren Beschlüssen, natürlich mit passenden Begründungen.

Man hätte sich gewünscht, der Fachredakteur der VDI-Zeitschrift hätte im Interview im Bild 4 oder Bild 5 virtuell die konventionellen Kraftwerke abgeschaltet und dann in der Dunkelheit gefragt, wo Frau Kemfert nun problemlos die fehlende Ökoenergie aus dem angeblich vorherrschenden Überangebot herbekommen möchte. So etwas Gehässiges macht ein Fachredakteur des VDI aber nicht.
Zum von Frau Kemfert unisono gebrachte Beispiel, der billige Börsenstrompreis käme nur nicht beim Privatkunden an, gibt es ebenfalls viele Gegenargumentationen. Sie basieren immer darauf, dass dieser Strom immer! bereits von ihm voll vergütet werden musste und für ihn deshalb erst kostenneutral ist, wenn er an der Börse mindestens für die Einspeisevergütung (zuzüglich der Zuschläge) verkauft werden kann.
Es ist so, als wenn der Kunde seine Verpflegung beim Discounter zu bezahlen hat, aber an einer Tafel abholen muss und die „Verpflegungsmangelfachpersonen“ dann erklären, man solle sich als Kunde über diese Errungenschaft doch freuen, weil es an der Tafel an ihn kostenlos ausgegeben wurde. Mit der Ergänzung, dass es nun auch nichts aus mache, wenn die Discounter jetzt gesetzlich gezwungen werden, beliebige Produktions- und Ernteüberschüsse zu einem weit über dem Marktpreis liegenden Obulus abzunehmen und notfalls vor dem Verderben zu verschenken. Diesen Obulus habe der Kunde selbstverständlich auch über eine Umlage voll zu bezahlen, aber bitte wieder freuen, an der Tafel kann sich jeder auch diesen Überschuss umsonst abholen. Sofern es dort wegen der Übermengen keine Abholer gibt, geht der Überschuss mit einer Zuzahlung ins arme Ausland, oder wird gleich vernichtet (abgeregelt). Man wird aber einsehen, dass diese Zuzahlungen an das arme Ausland auch wieder über eine Umlage von ihm eingefordert werden müssen.
Solche Mechanismen kannten schon die ehemalige DDR und Auswüchse der EU Agrarsubventionierungen. Politische Lösungen wiederholen sich schier unendlich.

Bild 5 Verlauf von Verbrauch und Einspeisung Ökostomerzeugung im Jahr 2016 (bis 29.12.). Quelle: Agorameter

Die Führungskräfte in den Fachfirmen, wie Versorger und Netzbetreiber wissen von den Problemen und steuern dagegen – sollte man meinen. Aber gerade diese unterstützen den Weg in dieses EEG-Verderben, weil es ihnen – und nur ihnen – Vorteile bringt und es eben politischer Beschluss ist, den man pflichtgetreu (da im Vorstand in aller Regel auch hochrangige Politikvertreter sitzen) umzusetzen hat:

[5] Die N-ERGIE betrachtet es als ihre Aufgabe, die politischen Vorgaben entsprechend des geltenden gesetzlichen Handlungsrahmens möglichst effizient umzusetzen. Dies ist die Vorgabe des EnWG.
Gesellschaftliches und politisches Ziel in Deutschland ist die Entwicklung einer vieldimensional nachhaltigen Energiewirtschaft auf der Grundlage der Zieltrias aus Versorgungssicherheit, Wirtschaftlichkeit und Umweltverträglichkeit. Der notwendige Beitrag regenerativer Energiequellen zur Stromerzeugung steigt nach dem deutschen Energiekonzept sukzessive auf bis zu 80 % im Jahr 2050; fossile Energieträger werden nur mehr ergänzende Funktion im zukünftigen Energiesystem einnehmen. Dies ist die aktuelle Vorgabe der Politik.
Der gesellschaftliche Grundkonsens der deutschen Energiewende mit ihren neuen Strukturen, Rollen, Vorgehensweisen, Geschäftsmodellen und Märkten gründet in der Erkenntnis, dass die Energieversorgung im Strom nahezu vollständig dekarbonisiert werden muss und hierzu die Kernenergie keine akzeptable Option für Deutschland darstellt . Dazu bekennt sich die N-ERGIE.
[6] VBEW Vorstandvorsitzender beim Überreichen der Plakette „Gestalter der Energiewende“:
„Wir freuen uns sehr über diese Auszeichnung. Unser Verband wird sich mit allen Mitgliedern weiterhin für das Gelingen der Energiewende engagieren“

Für ihre Kunden bieten sie dann frappierende Lösungen:
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Jedoch gibt es Politiker, die kurze Momente der Energie-Erleuchtung haben:
[6] In einer Publizierung der SEN AG Energie der CSU steht:
Nicht vorhandene Reservekraftwerke und die Netzunsicherheit der Nachbarländer gefährden die Stromversorgung in Bayern zusätzlich. Bei unseren Nachbarn gibt es Hinweise auf einen Rückgang der Kraftwerksleistung und eine Erhöhung des eigenen Strombedarfs.
Die Sicherheit der Stromversorgung in Bezug auf Haltung von Frequenz, Spannung und Stabilität ist nicht ausreichend gewährleistet. Nach den neuesten Zahlen der Bundesnetzagentur sind deutschlandweit bis dato 50 Kraftwerke zur Abschaltung angemeldet. Die Lage wird dramatisch.
Doch die es verfasst haben, sind ja Politik-Senioren. Und die haben noch nicht mitbekommen, dass der Strom inzwischen nicht mehr nach veralteten Physikbüchern fließt, sondern viel moderner übers Internet kommt – auf jedem PAD kann man ihn schließlich in einer App fließen sehen – und durch Wischen an der Steckdose erscheint.

Eines ist aber sicher: Das EEG wird noch viel Stoff für Publizierungen liefern.
EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle
EIKE 22.11.2016: Energieversorger helfen ihren Kunden gegen teuren EEG-Strom! Aktion lokaler Versorger in Bayern: Energiewende bezahlbar

EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
EIKE 12.09.2016: Der Geheimplan: Die Schweiz bereitet sich auf das Scheitern ihrer Energiewende vor
EIKE 02.09.2016: Weltweit einzigartiger Stromspeicher im Pilotversuch: Der Naturstromspeicher – die von Berlin geförderte EEG-Naturvernichtung
EIKE 02.07.2015: Der Wind bläst stetig – die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus

*Die Daten wurden freundlicher Weise von Herrn R. Schuster zur Verfügung gestellt

Quellen

[1] Fraunhofer ISE: Aktuelle Fakten zur Photovoltaik in Deutschland, Fassung vom 14.10.2016

[2] Kölnische Rundschau 18.01.2016: Rekordjahr für Windparks auf See

[3] VATTENFALL Pressemeldungen 08-07-2015: Baustart auf See für Offshore-Windpark „Sandbank“

[4] EIKE 05.06.2016: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert

[5] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten
[6] EIKE 02.07.2015: Der Wind bläst stetig – die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus




Dezember­rückblick 2016, Hochwinter­ausblick 2017

1. Die langfristige Entwicklung der Dezembertemperaturen und der „CO2- bedingte Klimawandel“

Der 2015er, frühlingshafte Dezember mit ersten Frühblühern wurde oft als Vorbote der „Klimaerwärmung“ gedeutet. Doch sehr milde Dezember gab es auch vor mehr als 40 Jahren schon, beispielsweise 1974. Betrachtet man den Temperaturverlauf seit jenem Dezember in Erfurt-Weimar (offizielle Station des Deutschen Wetterdienstes DWD), so erlebt man eine Überraschung:

Den geringen (nicht signifikanten) Temperaturanstieg erkennt man kaum, und das, obwohl der 2015er Dezember deutlich wärmer als der 1974er ausfiel. Zumindest im letzten Monat des Jahres fand also der „CO2- bedingte Klimawandel“ bislang nicht statt, denn die Erfurter Werte sind nicht wärmeinselbereinigt (am Flughafen Erfurt- Weimar nahmen Verkehr und bebaute Flächen seit den 1970er Jahren zu, was zumindest leicht erwärmend wirkte und vermutlich neben einer geringfügigen Zunahme der Tage mit Südwestlagen und einer erhöhten Sonnenscheindauer um etwa 17 Stunden seit 1974 die Ursache der Mini- Dezember- Erwärmung ist). Ein nahezu identisches Bild zeigt sich übrigens in Zentralengland, auch dort blieben die Dezembertemperaturen seit 1974 nahezu unverändert. Nun mögen Kritiker bemängeln, es habe sich aber seit 1881, dem Beginn vertrauenswürdiger Messungen in Deutschland, deutlich erwärmt. Das ist korrekt und soll keinesfalls verschwiegen werden, doch jenseits des Atlantiks finden sich Stationen, welche sich schon seit 1881 so gut wie gar nicht erwärmten; ein Beispiel von der US- Ostküste möge das belegen:

2. Besonderheiten der Dezemberwitterung 2016- Die Praxis widerlegt die Theorie der CO2- bedingten Erwärmung

Beim täglichen Blick auf das Barometer fiel der fast stets deutlich zu hohe Luftdruck auf. Wahrscheinlich gab es einen neuen Rekord des Dezember- Luftdruckmittelwertes, was aber erst nach Vorliegen aller Werte endgültig feststehen wird. In Potsdam wurde der bislang höchste Dezembermittelwert 1972 mit 1013,35 hPa (in Barometerhöhe, nicht auf NN reduziert) gemessen. Aber der hohe Luftdruck, der zwischen West-, Mittel- und Südosteuropa pendelte, ging mit fehlender Kaltluftzufuhr, meist schwachem Wind, gebietsweise viel Sonne und zu wenigen Niederschlagstagen einher; trotzdem gab es einige beachtlich kalte Nächte. Die Luftmasse, meist eine im Winter recht milde maritime Subpolarluft (mP), wandelte sich direkt über Mitteleuropa bodennah in gealterte Subpolarluft (xPs oder die trockenere cPs) um, während in der Höhe Warmluftadvektion herrschte, welche den Höhenkeil und das riesige Bodenhoch immer wieder aufbaute. In den klaren, windschwachen Nächten kühlte die Luft bodennah trotz der hohen CO2- Konzentration (im Mittel schon über 400 ppm) und der Höhen- Warmluft stark aus. Zeitweise entstand eine kräftige Inversion (Temperaturumkehr) zwischen dem Thüringer Becken oder dem Werratal (dort sammelte sich die schwere Kaltluft mit teilweise zweistelligen Minusgraden) und den Mittelgebirgsgipfeln mit Temperaturen um 0°C. Die folgende Abbildung zeigt die Wetterlage am Morgen des 05.12.2016:

Das umfangreiche, kräftige Hochdruckgebiet über Südosteuropa reichte bis nach Mitteleuropa. Das Luftdruckgefälle und folglich auch der Wind waren über Mitteleuropa nur sehr schwach (großer Abstand der Isobaren). Die nächste Abbildung mit wenigen Temperaturmeldungen in °C illustriert die enormen Temperaturunterschiede über Mitteldeutschland am Morgen des 5. Dezember, welche allein durch die starke nächtliche Ausstrahlung entstanden waren:

Am 20. Dezember entstand dann erneut ein umfangreiches, mit Nebel gefülltes Kaltluftreservoir im Thüringer Becken und dem südlichen Sachsen- Anhalt. In der Weimarer Mulde schien ab dem späten Vormittag bei +1°C zwar die Sonne, doch der Druck der am Ettersberg aufgestauten Kaltluft war so groß, dass Nebel noch nach 13 Uhr die nördlichen Ortsteile Weimar- Waldstadt und Schöndorf zeitweise einhüllte, sich beim Absinken mit nordöstlichem Wind Richtung Ilmtal auflösend (ganz schwacher Nordföhn). Aber kaum wurde die Sonne schwächer, überflutete der gefrierende Nebel (Zeichen ww49 nach WMO- Schlüssel) ab 14.45 Uhr den gesamten Großraum Erfurt/Weimar und verschwand erst in der zweiten Nachthälfte aus dem Ilmtal. Dieses Beispiel verdeutlicht, wie dominant Sonnenscheindauer, Bewölkungs- und Windverhältnisse die Temperaturen beeinflussen. Weil mehrfach Vorstöße milderer Luft aus SW bis NW, darunter das berüchtigte „Weihnachtstauwetter“, diese markanten Abkühlungsphasen unterbrachen, wenngleich viel schwächer als 2015, fiel der Dezember 2016 insgesamt etwas zu mild aus.

3. Allen Unkenrufen zum Trotz- das arktische Meereis wuchs im Dezember zeitweise stark

Im Spätherbst (Oktober/November) nahm das arktische Meereis die bislang geringste Fläche seit der Einführung der satellitengestützten Überwachung im Jahre 1979 ein. Das rief sogleich die Alarmisten und Katastrophisten auf den Plan. So schrieb das links- grüne Kampfblatt „DIE ZEIT“ am 8. Dezember unter der Rubrik Wissen: „Das Eis schwindet. Das ist kein ästhetisches, sondern ein existenzielles Problem.“ Leider übersahen die ZEIT- Redakteure einige Fakten. Erstens ist der Zeitraum seit 1979 sehr gering; sein Beginn fällt mit der Abkühlungsphase der 1970er zusammen. Auch in früheren Zeiten, für die aber nur sehr ungenaue Daten vorliegen, wich das Eis stark zurück, so in den 1930er Jahren. Und seit Mitte November dehnte sich die Eisfläche zeitweise stark aus, was auch die folgende Abbildung verdeutlicht (Quelle http://nsidc.org/arcticseaicenews/ ):

Die Eisbedeckung wies in der letzten Dezemberdekade einige Besonderheiten auf. Während eine ungewöhnlich große eisfreie „Kerbe“ bis weit in das Seegebiet nördlich von Westsibirien reichte, war die Eisbedeckung in allen anderen Gebieten fast normal. Dieser Umstand ist vermutlich den in diesem Spätherbst/Frühwinter rekordverdächtig hohen AMO- Werten geschuldet. Über die letzten Golfstrom- Ausläufer gelangt das (noch!) zu warme Atlantikwasser weit nach Nordosten. Von einem „katastrophalen“ Eisschwund kann keine Rede sein. Diese frühwinterliche Ausdehnung des Meereises ist eine mögliche Ursache für die Häufung der Westlagen in dieser Jahreszeit; sicher hat sie auch diesmal das Auftreten des schon immer sehr häufigen „Weihnachtstauwetters“ begünstigt. Auffällig umfangreich war auch die Schneedecke Eurasiens schon Ende November; sie hatte mit 24,03 Millionen Km² den bisherigen 1993er Novemberrekord (24,13 Mio. Km²) nur knapp verfehlt; für Dezember liegen noch keine Werte vor.

4. Ausblick in den Januar- was die mittelfristigen Modelle vorhersehen

Die Ensemble- Vorhersagekarte des NOAA (USA- Wetterdienst) vom 26.12. für den 10.01.2017 zeigte eine diffuse Hochdruckzone von den Azoren über Mittel- bis nach Osteuropa und tiefen Luftdruck westlich von Island (Quelle: NOAA). Sollte das so eintreten (noch sehr unsicher), so wäre es in Deutschland weder extrem mild, noch extrem kalt:

Bei den Modellen entstehen in derart langen Vorhersagezeiträumen aber oft Differenzen der einzelnen, gerechneten Läufe, ganz oben das amerikanische GFS von 26.12., 00 UTC, Mitte ENS, unten ECMWF, jeweils für den 05. Januar 2017, 00 UTC, berechnet (Quelle: http://www.wetterzentrale.de/topkarten/ ). Während GFS und ENS eher antizyklonales Westwetter vorhersahen, berechnete das ECMWF einen Trog über Mitteleuropa mit einem Mittelmeer- Tief, was starke Schneefälle in Ost- und Süddeutschland auslösen könnte:

Die Unsicherheit bleibt also groß, doch deutet sich wohl ein Januar an, der etwas kälter und vor allem niederschlagsreicher als der Dezember ausfallen könnte.

5. Die Nordatlantische Oszillation (NAO), die AMO, die QBO, der Polarwirbel, die markante Kaltwasserinsel im zentralen Nordatlantik und die Sonnenaktivität

Die NAO „drehte“ nach Mitte Dezember wieder auffallend markant in den Positivmodus, was mildes Westwetter förderte und so das „Weihnachtstauwetter“ begünstigt hat. Die AMO- Werte blieben auch im November ungewöhnlich hoch. AMO- Warmphasen erhöhen die Wahrscheinlichkeit für einen kalten Winter leicht, weil diese Konstellation kalte, nordöstliche Strömungen („Wintermonsun“) begünstigen könnte. Und die QBO (Windverhältnisse in der unteren Stratosphäre der Tropen, die etwa alle 2,2 Jahre zwischen West und Ost wechseln) dreht momentan in der unteren Stratosphäre in die Westwindphase, was eher milde Winter bevorteilt. Ein Polarwirbelsplitting, welches die Westdrift schwächen und kalte Nord- bis Ostlagen über Europa fördern könnte, kündigte sich in den Modellvorhersagen des französischen Wetterdienstes, welche gut 2 Wochen in die Zukunft reichen, bislang noch nicht eindeutig an.

Die lange Zeit auffällig beständige „Kaltwasserinsel“ im zentralen Nordatlantik zwischen Großbritannien/Westeuropa und den USA war auch im Dezember 2016 meist gut erkennbar. Im Dezember 2016 nahm die Sonnenaktivität weiter ab; zeitweise war die Sonne völlig fleckenlos, was nach eigenen Untersuchungen meridionale Strömungsmuster, darunter besonders Nord- und Ostlagen, im Hochwinter 2017 etwas wahrscheinlicher werden lässt.

6. Analogfälle (ähnliche Witterung wie 2016)

Die wahrscheinliche (trotzdem sehr unsichere) Luftdruckverteilung über Europa (Quelle: langfristwetter.com) sieht für die Hochwintermonate nun doch etwas anders aus, als noch im November erwartet:

Im Januar 2017 (oberes Bild) nur noch eine leicht geschwächte Westwind- Zirkulation (positive Luftdruck- Anomalien in hpa auf Meeresspiegelniveau, gelbe und rötliche Linien über Nordosteuropa und zu tiefer Luftdruck blau- violett auf dem zentralen Nordatlantik). Das kann zumindest gelegentlich Kälte in Mitteleuropa begünstigen. Im Februar (unteres Bild) soll nun etwas zu tiefer Luftdruck über West- und Nordwesteuropa herrschen. Einem Dezember mit auffallend zu hohem Luftdruck über Mitteleuropa folgten in der Vergangenheit häufiger normale bis milde, als zu kalte Januare. Einzelne, sehr milde oder zu kalte Phasen sind jedoch nicht ausgeschlossen.

7. Die „Siebenschläfer- Regel“ des Winters

Neben der im Novemberbericht bei EIKE ausführlich erläuterten „2- K- Septemberregel“ (der Winter und auch der Hochwinter fallen mit sehr hoher Wahrscheinlichkeit zu mild aus, wenn der vorangehende September in Deutschland um mindestens 2 Kelvin zu warm war), gibt es für die Abschätzung der Hochwinterwitterung noch weitere Regeln, so etwa „War der Dezember gelind, bleibt auch der Winterrest ein Kind.“ Oder „Bricht gar ein Spatz im Dezember- Eis ein, wird ein milder Januar sein.“ Bei Verknüpfung der Dezember- und Septemberregel gilt folgende Aussage: „Waren September und Dezember insgesamt zu mild, so erhöht das die Wahrscheinlichkeit für einen zu milden Januar deutlich“.

Am wichtigsten ist aber die sogenannte „Dreikönigs- Regel“: „War bis Dreikönige (06.01.) kein richtiger Winter, so folgt meist auch kein strenger mehr dahinter.“ Sie funktioniert ähnlich wie die Siebenschläfer- Regel. Kurz nach dem Sonnenhöchst- und Tiefststand hat sich die Atmosphäre meist für ein bestimmtes Strömungsmuster entschieden. Die markanten Keile und Tröge sowie der unser Wetter steuernde Strahlstrom haben eine bestimmte Position eingenommen und behalten diese dann meist für weitere 2 bis etwa 7 Wochen mit nur leichten Variationen bei („Persistenz“). Freilich lässt auch diese Regel Ausnahmen zu, und der „Entscheidungszeitraum“ reicht etwa vom 20.12. bis fast Mitte Januar. Einem Dezember mit auffallend hohem Luftdruck folgten bislang häufiger zu milde als zu kalte Januare. Weil sich der hohe Luftdruck und die milde Witterung auch bis zum Jahreswechsel 2016/17 noch hielten, könnte auch der Januar zeitweise ähnlich verlaufen; gelegentliche Kälteeinbrüche oder zumindest endlich zeitweise Schnee bis ins Flachland bleiben trotzdem möglich. In den Wintern 2011/12 und 2012/13 folgte milden Dezembern sogar noch entweder ein sehr kalter Februar (2012) oder 2013 ein bis in den April dauernder schneereicher Winter, der erst nach dem 10. Januar so richtig begann. Näheres und Interessantes zur Problematik der großräumigen Zirkulationsverhältnisse und deren Auswirkungen auf die winterlichen Temperaturverhältnisse finden Sie im Beitrag von Hans-Dieter Schmidt vom 23.12.2016 unter http://www.eike-klima-energie.eu/2016/12/23/extreme-kaelte-in-teilen-der-usa-dauerhoch-in-mitteleuropa/ . Fasst man alle Prognosesignale zusammen, so kündigt sich am wahrscheinlichsten ein wechselhafter, eher unspektakulärer Januar 2017 an, der weder extrem mild noch extrem kalt ausfällt, eher nasskalt, und einen Wechsel von zyklonalen und antizyklonalen Phasen aufweist.

8. Die Langfrist- Vorhersagen: Viele Institute korrigierten ihre Prognosen vom November 2016

Der britische Wetterdienst (UKMO) sieht nun eine leicht erhöhte Wahrscheinlichkeit für einen milden Winter in ganz Deutschland, allerdings unter Einbeziehung des März:

Anmerkung: Hier wird nur die erste UKMO- Karte gezeigt. Es gibt zwei weitere, eine mit der Probability (Wahrscheinlichkeit) für einen normalen Winter und eine für einen zu kalten. Die aktuellen Karten jederzeit unter http://www.metoffice.gov.uk/research/climate/seasonal-to-decadal/gpc-outlooks/glob-seas-prob

Meteo Schweiz bezieht nun ebenfalls den März ein und erhöht dabei die Wahrscheinlichkeitsaussage für einen milden Winter:

LARS THIEME (langfristwetter.com) sagt in seiner Dezemberausgabe nun einen zu milden Januar und einen normalen Februar vorher.

Das IRI bleibt bei seiner Novemberprognose eines mit leicht erhöhter Wahrscheinlichkeit zu milden Winters.

Der DWD (Offenbach) sieht nun eine deutlich erhöhte Wahrscheinlichkeit für einen normalen Winter:

Die NASA (US- Weltraumbehörde) schwenkt komplett um und kündigt nun einen zu kalten Januar und einen etwas zu kalten Februar an (hier wird nur der Januar gezeigt, Europa liegt ganz links oben in der Karte):

Und das CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 2 Abbildungen, Eingabezeitraum 16. bis 25.12.2016): Januar (oben) eher normal, nur in Teilen des Alpenraumes etwas zu mild und in Südosteuropa zu kalt; Februar (unten) überall viel zu mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Die fast täglich aktualisierten, aber leider oft falschen Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Die Mehrzahl dieser Langfristprognosen deutet also weiterhin einen normalen bis etwas zu milden Hochwinter 2017 an.

Fazit: Die Prognosesignale sowie die Vorhersagen der Wetterdienste und Institute bleiben sehr widersprüchlich. Es deuten sich aber zumindest einige merklich kältere Phasen im Hochwinter 2017 an, besonders im Januar, zeitweise auch mit nördlichen Strömungsanteilen eher nasskalt; doch insgesamt fällt dieser mit erhöhter Wahrscheinlichkeit normal bis etwas zu mild aus, wenngleich etwas weniger, als in den Vorjahren. Zumindest in den Mittelgebirgen (über 600 Meter) könnte ab Anfang Januar für längere Zeit gut Wintersport möglich sein und auch im Tiefland öfter mal Frost und Schnee herrschen. Geschätzte Januar-Monatsmitteltemperatur 2017 für Erfurt-Bindersleben (Mittel 1981- 2010 minus 0,3°C) -1,5 bis +2,5°C (etwas zu kalt bis deutlich zu mild). Für Feb. 2017 lässt sich noch kein Temperaturbereich schätzen, doch ist ein zu milder Februar momentan noch wahrscheinlicher, als ein zu kalter.

Eine Bewertung der ursprünglichen Winterprognosen (Stand November) erfolgt im Laufe des Monats März.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 27.12. 2016




Der Fukushima-Report (2): Unter Kontrolle

Wie sieht es heute auf dem Gelände des havarierten AKW aus und welche Fortschritte wurden gemacht? Zur Zeit des Erdbebens waren die Blöcke 1,2 und 3 in Betrieb. Die Blöcke 4,5 und 6 waren zur Revision abgeschaltet. Man muss wissen, dass die Blöcke 5 und 6 ohne Schaden davonkamen, weil sie um ca. 10 Meter erhöht gebaut wurden. Die Blöcke 1 bis 4 hingegen verloren bei dem Tsunami alle ihre Stromquellen und bei den Blöcken 1 bis 3 kam es zu teilweisen Kernschmelzen sowie zu Wasserstoffexplosionen in den Serviceflurbereichen der Turbinengebäude, wovon auch der Block 4 beeinträchtig wurde, dessen Reaktor bei der Katastrophe keinen Brennstoff enthielt.

Reaktorblock 1

Nach dem Unglück baute TEPCO ein neues Außengebäude über den Block, um die Radioaktivität sicher einzuschließen. Da nunmehr der Austritt von Radioaktivität nicht mehr zu befürchten ist, wurde dieses Gebäude teilweise eröffnet, um den Abtransport des nuklearen Brennstoffes aus den Abklingbecken durchzuführen. Am havarierten Reaktor selbst laufen Aufräumungs- und Aufklärungsarbeiten mittels eigens dazu konstruierten Robotern. Der beschädigte Reaktor ist unter Kontrolle und wird unter 30 °C gekühlt.

Reaktorblock 2

Der Block 2 wurde durch die Wasserstoffexplosionen weniger beschädigt und das Gebäude blieb weitgehend intakt. Die Aufräumungsarbeiten sind fortgeschritten und der Strahlenpegel innerhalb des Gebäudes konnte erheblich gesenkt werden. Der beschädigte Reaktor ist unter Kontrolle und wird unter 30 °C gekühlt.

Reaktorblock 3

Im Block drei wurden die ins Becken gestürzte Umlademaschine entfernt und die Aufräumarbeiten begonnen. Eine Umhausung des schwer beschädigten Turbinen-Gebäudes wurde so installiert, dass im Jahre 2017 der Brennstoff aus den Lagerbecken mit einer neuen Lademaschine in Castoren verpackt und abtransportiert werden kann. Der beschädigte Reaktor ist unter Kontrolle und wird unter 30 °C gekühlt.

Reaktorblock 4

Der Block 4 wurde innerhalb eines neuen Gebäudes komplett aufgeräumt und es wurde eine neue Brennstoff-Lademaschine installiert. Mittels dieser Anlage wurde der gesamte Brennstoff aus dem Block 4 in „castorartige“ Transportbehälter verpackt und abtransportiert. Seit September 2014 ist der Block 4 „brennstoff-frei“, das heißt, alle radioaktiven Brennelemente des Reaktors und der Lagerbecken sind entfernt worden. Vom Block 4 geht keine Gefahr mehr aus.

Die Blöcke 5 und 6

Die unbeschädigten Blöcke 5 und 6 werden nicht wieder in Betrieb gehen. Sie werden derzeit als Erprobungsmittel für dutzende neue Roboter und verschiedenste neue Rückbautechnologien genutzt. Japan arbeitet in Fukushima wegweisend mit vielen in- und ausländischen Unternehmen an der Weiterentwicklung mobiler Robotertechnologie.

Das Werksgelände

Das Werksgelände wurde komplett aufgeräumt und außerhalb der Reaktorblöcke durch Abtragen einer Oberflächenschicht dekontaminiert. Weite Bereiche wurden mittels Beton oberflächenversiegelt, so dass auf dem Kraftwerksgelände von den 6000 dort arbeitenden Mitarbeitern keine spezielle Schutzkleidung außer einem einfachen Papiermundschutz getragen werden muss. Die gesamte Seeseite des Geländes bekam eine 800 Meter lange, tief in das Felsenbett eingebrachte wasserdichte Stahl-Wand, um das Ablaufen eventuell kontaminierten Wassers ins Meer zu verhindern.

Derzeit geht gerade eine gigantische Vereisungsanlage in Betrieb. Rund um das Gelände der Reaktorblöcke wurden abertausende Rohrleitungen tief in den Boden gebohrt, durch die nun eine Kühlflüssigkeit strömt. Ziel ist es, bis Mitte nächsten Jahres einen gefrorenen wasserdichten Ring tief um das Reaktorgelände zu erzeugen, der das Grundwasser am Eintritt und eventuelle Flüssigkeiten am Austritt hindert. Dazu musste natürlich auch eine fabrikartige Anlage installiert werden, welche die Kühlflüssigkeit herunter kühlt. Die Technologie erscheint uns exotisch, ist aber in Japan auch anderweitig durchaus üblich. Große Teile des Eisschutzwalls sind bereits dicht gefroren.

Auf dem Kraftwerksgelände wurden große Lagerhallen erbaut, um die verpackten niedrigaktiven Abfälle temporär sicher einzulagern.

Wasserbehandlung

Die Wasserbehandlung gehörte seit Anfang der Katastrophe zu den größten Problemen in Fukushima. Der Tsunami, der die Anlage geflutet hatte, ließ Unmengen von kontaminiertem Wasser in den Gebäuden zurück. Für die Kühlung der beschädigten Reaktoren wurden ebenfalls große Mengen Wasser benötigt. Da das Werk an einem Berghang steht, drang durch Risse in den Gebäuden viel Grundwasser von unten ein und vermischte sich mit dem kontaminierten Wasser in der Anlage. All dieses Wasser ließ man nicht einfach abfließen, sondern pumpte es in Tausende eilig errichtete provisorische Tanks ab. Ein gigantisches Tanklager voll mit niedrigaktivem Wasser entstand und wurde ständig grösser. TEPCO baute eiligst mehrere große Wasseraufbereitungsfabriken auf dem Kraftwerksgelände und seit 2015 wird die Wassermenge durch Aufbereitung und Reinigung geringer. Die provisorischen Kunststofftanks wurden durch zuverlässige normal geschweißte Tanklager ersetzt und somit die Gefahr von Leckagen gebannt. Die Behandlung hochradioaktiven Wassers war im Mai 2015 abgeschlossen.

Die 6.000 Mitarbeiter

Seit diesem Jahr fahren die Mitarbeiter wieder in Bussen in ihrer normalen Arbeitskleidung direkt ins Werk. Für die Arbeiter wurden neue Sozialgebäude erbaut, in denen sie sich umziehen, ausruhen und ihre Malzeiten einnehmen können, die übrigens weitgehend aus lokalen Produkten erzeugt werden. (Dazu mehr im Teil 3 dieser Artikelserie). Selbst einen Supermarkt gibt es in diesem Gebäude. Auch ein neues Bürogebäude wurde errichtet, um die mehr als 1000 Ingenieure und Techniker unterzubringen, die an den Rückbauarbeiten beteiligt sind. Ein neues medizinisches Versorgungsgebäude mit der nötigen ärztlichen Infrastruktur wurde errichtet, um im Falle von Unfälle den Mitarbeitern 24 Stunden am Tag direkt vor Ort helfen zu können.

Um eventuellen Illusionen vorzubeugen: TEPCO Führungs-Mitarbeiter und Arbeiter kasteien sich seit der Fukushima-Katastrophe, als Ausdruck ihrer Betroffenheit. Die Arbeitszeiten wurden verlängert und die Gehälter gesenkt. TEPCO spart so um 600 Millionen US-Dollar pro Jahr ein. Als ich in der Tokioer TEPCO Zentrale in Shinjuku zu Besuch war, standen die Klimaanlagen auf 28°C, um Energie zu sparen.

Die Aufräum- und Rückbauarbeiten werden 30 oder sogar 40 Jahre in Anspruch nehmen. Die Kosten werden mit ca. 40 Milliarden Euro veranschlagt. Unklar ist, ob diese Summe reichen wird. Es ist genauso unklar, ob die von Kanzleramtsminister Altmaier veranschlagte Summe von 1.000 Milliarden Euro für die Energiewende reichen wird.

Leider sind Informationen über die Fortschritte in Fukushima in deutschen Medien selten oder sie werden mit Katastrophen-Unterton vorgetragen. Man könnte fast meinen, deutsche Journalisten wollten trotz des längst beschlossenen Atomausstiegs immer noch Ängste vor der Kernenergie schüren. TEPCO hat, was Transparenz gegenüber der Öffentlichkeit betrifft, viel aus Fukushima gelernt. Wer sich für mehr Details, eindrucksvolle Bilder und informative Videofilme (in Englisch) interessiert, dem sei die TEPCO Webseite empfohlen.

Bereits erschienen:

Der Fukushima-Report (1): Die Fakten, die Mythen

Die nächsten Folgen:

Der Fukushima-Report (3): Wieder Leben in „Todeszonen“

Der Fukushima-Report (4): Geisterfahrer der Energiepolitik




Aufhebung von Obamas 11-Stunden-Bohrverbot

Bei seinen Vorbereitungen zur Räumung seines Büros konnte Präsident Obama nicht einem „Parthian Shot“ widerstehen gegen die das Amt übernehmende Trump-Regierung, indem er Bohrungen verbot in großen Bereichen des amerikanischen Arktis-Sektors und vor der atlantischen Küste.

Grüne Gruppen behaupten, dass dieses Gesetz von Dauer ist, während Energiestrategen behaupten, dass Präsident Trump dieses Gesetz per Rechtsverfügung aufheben kann.

Auf unserer Website CFACT.org posteten wir einen Beitrag des Energie-Analysten Michael Bastasch hierzu:

„Obama ordnete an, dass sein Bohrverbot ,alle fünf Jahre überprüft werden soll mittels einer auf Klima- und Meereswissenschaft basierenden Abschätzung des Lebenszyklus‘. Im Hinterkopf hatte er dabei wohl, dass ein Klimatest von Offshore-Bohrungen immer einen schädlichen Einfluss auf die Umwelt herausbekommen wird. Umweltaktivisten haben ihn seit Monaten gedrängt, von Abschnitt 12(a) des Outer Continental Shelf Lands Act aus dem Jahr 1953 Gebrauch zu machen, um Offshore-Bohrungen zu blockieren“.

Das gesamte Gesetz kann auf unserer Website hier eingesehen werden.

Die Lektüre des Gesetzes zeigt aber, dass die Klima-Campaigner zu vertrauensselig sind.

Als der Kongress einem Gesetz zustimmte, welches den äußeren Kontinentalschelf der USA betrifft, wurde eindeutig dem Sinn des Gesetzes Ausdruck verliehen:

„Der Äußere Kontinentalschelf ist eine vitale nationale Ressource, die die Regierung für die Öffentlichkeit verwaltet. Er sollte zugänglich gemacht werden für Expeditionen und eine geordnete Entwicklung sowie Gegenstand von Umweltschutzmaßnahmen sein auf eine Art und Weise, die konsistent ist mit der Wahrung von Wettbewerb und anderer nationaler Erfordernisse“.

Der Kongress erkannte die Bedeutung der Ressourcen vor der amerikanischen Küste. Die Absicht des Kongresses war es, Energie und andere Ressourcen für die US-Wirtschaft verfügbar zu machen. Die Umwelt-Vorbehalte bestehen, um eine sichere und verantwortungsvolle Ausbeutung sicherzustellen.

Der Kongress glaubte auch, dass einige empfindliche Gebiete geschützt werden sollten, weshalb die Klausel verankert worden ist, dass „der Präsident der Vereinigten Staaten von Zeit zu Zeit nicht vermietete Gebiete im Äußeren Kontinentalschelf von der Nutzung ausschließen kann“.

Präsident Eisenhower befolgte diese Vorgabe wie geplant, als er ein Gebiet der Florida Keys von der Entwicklung ausnahm.

Nachfolgende Präsidenten erkannten die Weisheit in der Entscheidung von Ike und ließen sie bestehen. Allerdings waren andere präsidiale „Ausschlüsse“ keineswegs „permanent“. Sie wurden von nachfolgenden Präsidenten aufgehoben.

Das Atlanta Journal Constitution berichtet, dass „Präsident Bill Clinton im Jahre 1998 ein Offshore-Bohrverbot bis zum Jahr 2012 verlängerte, welches ursprünglich von Präsident George H. W. Bush in Kraft gesetzt worden war – aber im Jahre 2008 hob Präsident George W. Bush jene Clinton-Proklamation vier Jahre vorher auf“.

Präsident Obama, der prominent mit der Bemerkung „Ich habe einen Stift, und ich habe ein Telefon“ seine Absicht bekundet hatte, den Kongress zu umgehen, gab dem designierten Präsidenten Trump den Rat, sich nicht zu sehr auf präsidiale Verfügungen zu stützen. Gleichzeitig verordnete er das Bohrverbot.

Präsident Trump sollte dieses unkluge Bohrverbot aufheben. Wenn es zu den unvermeidlichen juristischen Klagen kommt, sollte jedes neutrale Gericht die Verordnung der Absicht des Kongresses folgend auslegen.

For nature and people too,

Craig Rucker, executive director

———————————————

In dem oben erwähnten Beitrag von Michael Bastasch beschreibt dieser noch einmal die näheren Umstände. Präsident Trump kann jederzeit mit Hilfe des von Republikanern beherrschten Kongresses dieses Verbot aufheben. Verschiedene Präsidenten zuvor haben bereits von dem gesetz aus dem Jahr 1953 Gebrauch gemacht, und jeweils nachfolgende Präsidenten haben entsprechende Verordnungen wieder aufgehoben.

Bastasch weist aber noch auf einen anderen Aspekt hin (hier): Die Fracking-Technologie ist inzwischen noch kostengünstiger zu betreiben als teure Bohrungen Offshore und in der Arktis. Es kann also gut sein, dass die „Umweltschützer“ ganz umsonst Zeter und Mordio schreien.

Chris Frey, Übersetzer für das EIKE




Der politische Einfluss des WBGU: Die gefährlichen Weissagungen des Papstflüsterer

Wie konnte es dazu kommen?

WISSENSCHAFT: In seinem Buch „Klimahysterie ist keine Lösung“ (2012) hatte der Autor einstmals mit Bezug auf die „Große Transformation“ (2011) des späteren „Papstflüsterers“ Professor Schellnhuber und seines WBGU, zugegebenermaßen prä-aktuell und voll-phobisch, vor einer offenbar politisch gewollten Klimadiktatur gewarnt, Zitat mit meinen Hervorhebungen:

„… Stattdessen schlägt unsere Klimaforschung auf der Grundlage von fiktiven Ergebnissen grob vereinfachender Computermodelle bereits heute eine ‚Große Transformation zur dekarbonisierten Weltgemeinschaft‘ vor, um unsere Gesellschaft auf eine strikte CO2-Vermeidung auszurichten und den Klimaschutz als Verfassungsziel einzuführen.

Propagiert der WBGU mit seiner ‘Großen Transformation‘ bereits unseren neuen –ISMUS, den CO2-Klimatismus? Nach dem Fall des Eisernen Vorhangs war man sich doch einstmals einig darüber, nie wieder gesellschaftliche Experimente mit Menschen zulassen zu wollen….

Man möge sich also lieber rechtzeitig fragen, was die Forderung nach einer ‚gesellschaftlichen Problematisierung von nicht nachhaltigen Lebensstilen‘ in ihrer weichgespülten Formulierung wirklich bedeutet und welche Art von Hexenjagd uns am Ende tatsächlich damit angedroht worden sein mag!

Heute wird die „vom Menschen verursachte Klimaerwärmung“ angeblich von 97 Prozent aller Klimawissenschaftler bestätigt, was übrigens eine typische Fake-News ist. In unserer extrem arbeitsteiligen Welt müssen sich die Bürgerinnen und Bürger aber mangels eigener Expertise in fremden Fachgebieten auf ausgewiesene „Experten“ verlassen können, und Wissenschaftler genießen in unserem Land nun mal einen ganz besonders hohen Vertrauensvorschuss. Und diese Wissenschaftler erklären nun mit einer Fake-News eine wissenschaftliche Diskussion von globaler sozial- und wirtschaftspolitischer Bedeutung im Sinne der mittelalterlichen Inquisition für beendet.

POLITIK: Die „Große Transformation“ des WBGU (2011) machte keine öffentlichen Schlagzeilen. Im Gegenteil, kaum jemand hatte in der zwischenzeitlichen gesellschaftlichen Diskussion überhaupt schon jemals diesen Begriff „Dekarbonisierung“ gehört. Und von einer solchen „Dekarbonisierung der Welt“ wurde in den Mainstream-Medien auch jahrelang überhaupt nichts berichtet. Diese „Dekarbonisierung“ tauchte dann aber völlig unvermittelt in der Rede von Bundeskanzlerin Frau Dr. Merkel zum VI. Petersberger Klimadialog am 19. Mai 2015 wieder auf, Zitat mit Hervorhebungen:

„.. Meine Damen und Herren, wir dürfen das Ziel nicht aus dem Auge verlieren. Wir werden in Paris erleben – auch das kann man schon absehen –, dass es noch mehr Engagement als heute brauchen wird, um dem Zwei-Grad-Ziel wirklich gerecht zu werden. Damit wir das Ziel nicht aus den Augen verlieren, brauchen wir eine langfristige Vision, die uns Orientierung, aber auch Ansporn gibt.

Die Wissenschaft gibt uns eine klare Handlungsempfehlung. Wir müssen in diesem Jahrhundert, im 21. Jahrhundert, die Dekarbonisierung schaffen – also den vollständigen Umstieg auf kohlenstofffreies Wirtschaften. Für diese Vision treten Deutschland und Frankreich gemeinsam ein und werben dafür auch bei unseren Partnern. Das Intergovernmental Panel on Climate Change, IPCC, fordert als Etappenziel auf dem Weg dorthin, bis 2050 die Treibhausgasemissionen um 40 bis 70 Prozent gegenüber 2010 zu verringern…“

Am 8. Juni 2015, dem zweiten Tag des G7-Gipfels auf Schloss Elmau, meldete Spiegel-Online dann unvermittelt: „G7-Beschluss in Elmau – Umweltschützer feiern historisches Klimaversprechen“. Zu diesem Zeitpunkt war die internationale Meinungsbildung auf politischer Ebene für eine globale „Dekarbonisierung“ also offenbar bereits abgeschlossen – und zwar ohne jede gesellschaftliche Diskussion.

RELIGION: In seiner Enzyklika ‚Laudatio Si‘ macht sich Papst Franziskus Gedanken über das „gemeinsame Haus“, Zitat aus Wikipedia:

Die auf den 24. Mai 2015 datierte und am 18. Juni 2015 in acht Sprachen veröffentlichte Verlautbarung ‚Über die Sorge für das gemeinsame Haus‘ befasst sich schwerpunktmäßig mit dem Themenbereich Umwelt- und Klimaschutz und setzt zudem Zeichen im Hinblick auf bestehende soziale Ungerechtigkeiten und auf die Erschöpfung der natürlichen Ressourcen…“.

Papst Franziskus macht sich in dieser Enzyklika aber auch sehr ausführliche Gedanken um die zukünftige politische Weltordnung, Zitat mit Hervorhebungen:

„175. Die gleiche Logik, die es erschwert, drastische Entscheidungen zur Umkehrung der Tendenz zur Erderwärmung zu treffen, unterbindet auch die Verwirklichung des Ziels, die Armut auszurotten. Wir brauchen eine verantwortlichere weltweite Reaktion, die darin besteht, gleichzeitig sowohl die Reduzierung der Umweltverschmutzung als auch die Entwicklung der armen Länder und Regionen in Angriff zu nehmen. Während das 21. Jahrhundert ein Regierungssystem vergangener Zeiten beibehält, ist es Schauplatz eines Machtschwunds der Nationalstaaten, vor allem weil die Dimension von Wirtschaft und Finanzen, die transnationalen Charakter besitzt, tendenziell die Vorherrschaft über die Politik gewinnt. In diesem Kontext wird es unerlässlich, stärkere und wirkkräftig organisierte internationale Institutionen zu entwickeln, die Befugnisse haben, die durch Vereinbarung unter den nationalen Regierungen gerecht bestimmt werden, und mit der Macht ausgestattet sind, Sanktionen zu verhängen. Auf der Linie dessen, was bereits von der Soziallehre der Kirche entwickelt wurde, hat Benedikt XVI. bekräftigt: ‚Um die Weltwirtschaft zu steuern, die von der Krise betroffenen Wirtschaften zu sanieren, einer Verschlimmerung der Krise und sich daraus ergebenden Ungleichgewichten vorzubeugen, um eine geeignete vollständige Abrüstung zu verwirklichen, sowie Ernährungssicherheit und Frieden zu verwirklichen, den Umweltschutz zu gewährleisten und die Migrationsströme zu regulieren, ist das Vorhandensein einer echten politischen Weltautorität, wie sie schon von meinem Vorgänger, dem [heiligen] Papst Johannes XXIII., angesprochen wurde, dringend nötig.‘ …“

Papst Franziskus fordert in seiner Enzyklika ‚Laudatio Si‘ also ganz unverblümt eine mit eigener Macht ausgestattete politische Weltregierung zur Rettung der Menschheit ein.

ZEITENWENDE?

Rückkehr der Vernunft in die „Klimapolitik“?

Zwei extreme Positionen prägen die Klimadebatte seit Jahrzehnten. Die eine geht davon…

ERGEBNIS: Mit dieser übereinstimmenden Zielsetzung von Wissenschaft, Politik und Religion ging es dann in die UN-Klimakonferenz vom 30. November bis 12. Dezember 2015 in Paris (COP 21). Das wenig überraschende Ergebnis dieser Klimakonferenz war dann eine „Dekarbonisierung der Welt“ für ein 1,5-2 Grad Klimaziel bis zum Jahre 2100 in einer „nicht verbindlichen“ völkerrechtlichen Vereinbarung, die inzwischen von mehr als 80 Staaten ratifiziert worden ist. In dem neuen WBGU-Sondergutachten Entwicklung und Gerechtigkeit durch Transformation: Die vier großen I wurde jetzt offenbar die politische Agenda dieser Neuen Ökologische Weltbewegung formuliert, mit der die „Top-Down“-Strategie für das weitere Vorgehen in Sachen „Dekarbonisierung der Welt“ spezifiziert und deren Finanzierung durch eine weltweite Planwirtschaft und ökologische Zwangsabgaben in den G20-Staaten zementiert werden soll, Zitat mit Hervorhebungen:

„… Transformative Staatsfonds einrichten

Zur Umsetzung der Agenda 2030 und des Übereinkommens von Paris sollten die beteiligten Staaten effektive nationalstaatliche Politikinstrumente entwickeln. Der WBGU empfiehlt den G20-Staaten insbesondere die Einrichtung transformativer Staatsfonds (Zukunftsfonds). Damit können die G20-Staaten auf den Finanzmärkten stärker als Akteure aktiv werden, mit dem Ziel, einen sozialverträglichen Strukturwandel hin zu einem nachhaltigen Wirtschafts- und Gesellschaftssystem zu fördern. Die Zukunftsfonds sollten sich aus den Einnahmen von CO2-Steuern und Emissionshandel speisen sowie aus einer Generationenkomponente auf Nachlassvermögen. Die Mittel der transformativen Staatsfonds sollten im Sinne des Klimaschutzes und der SDGs angelegt und die Erträge für gemeinwohl- und gerechtigkeitsorientierte Zwecke verwendet werden.

Nachhaltigkeits- und Klimapolitik zur Lösung weltpolitischer Probleme nutzen

Die Regierungen der G20 sollten sich nicht nur „zu Hause“ engagieren, sondern auch auf  internationaler Ebene als Vorreiter dazu beitragen, Kooperation zu stärken und globale Probleme zu lösen. Bei richtiger Ausgestaltung und dem strategischen Einsatz der vier großen I kann Nachhaltigkeits- und Klimapolitik als Hebel zur Lösung weltpolitischer Probleme genutzt werden. Erstens kann eine weitsichtige Klimaschutz- und Nachhaltigkeitspolitik zu einem Modernisierungsprojekt der Weltwirtschaft werden. Sie kann ökonomische Entwicklungschancen eröffnen, indem sie Innovationen inspiriert, Investitionsmöglichkeiten und nachhaltige Beschäftigung schafft sowie Investitionen in zukunftsfeste Technologien, Unternehmen und Infrastrukturen lenkt. Zweitens kann Klimaschutz- und Nachhaltigkeitspolitik auf nationaler Ebene zum Gerechtigkeitsprojekt werden und Inklusion voranbringen, indem sie Dekarbonisierungsstrategien sozialverträglich gestaltet, Ungleichheiten bekämpft und soziale Kohäsion stärkt. Drittens kann die Bewältigung gemeinsamer nachhaltigkeits- und klimapolitischer Herausforderungen zum Friedensprojekt werden, denn dadurch können auch Staaten Vertrauen aufbauen, die sonst nicht miteinander kooperieren oder in offenem Konflikt stehen. Dies fördert Inklusion auf globaler Ebene, indem Ressourcen- und Verteilungskonflikte entschärft werden und Bürgerkriegen sowie Massenflucht entgegengewirkt wird…“

Hier wurden also vom WBGU die Ergebnisse des G20-Gipfels von Hamburg (2017) einer weiterhin schweigenden Öffentlichkeit schon mal probehalber „vorgestellt“.

Diese Vorstellung zukünftiger Absichten geschah ganz im Sinne der politischen EU-Strategie eines Jean-Claude Juncker, Zitat mit Hervorhebungen:

Wir beschließen etwas, stellen das dann in den Raum und warten einige Zeit ab, was passiert. Wenn es dann kein großes Geschrei gibt und keine Aufstände, weil die meisten gar nicht begreifen, was da beschlossen wurde, dann machen wir weiter – Schritt für Schritt, bis es kein Zurück mehr gibt.”

Schritt für Schritt, bis es kein Zurück mehr gibt – aus den Mosaiksteinen einer menschengemachten Klimakatastrophe, dem festen Willen der G7-Industrienationen zur Dekarbonisierung der Welt und dem gesellschaftspolitischen Streben von Kirche und ökologischen NGOs zu einer „nachhaltigen“ Weltordnung setzt sich also das Bild einer neuen „Weltrevolution von oben“ zusammen. Diese Weltrevolution zu einer dekarbonisierten Weltgemeinschaft vergleicht der WBGU in seiner Großen Transformation (2011), Zitat mit Hervorhebungen,

„…mit den beiden fundamentalen Transformationen der Weltgeschichte: der Neolithischen Revolution, also der Erfindung und Verbreitung von Ackerbau und Viehzucht, sowie der Industriellen Revolution…“.

Der Absatz 214 in Kapitel II. der Enzyklika ‚Laudatio Si‘ lässt wohlmöglich, rechtzeitig vor dem G20-Gipfel in Hamburg (2017), das Mäntelchen dieses neuen ökologischen Welt-Totalitarismus fallen, Zitat mit Hervorhebungen:

„… Es ist Sache der Politik und der verschiedenen Vereinigungen, sich um eine Sensibilisierung der Bevölkerung zu bemühen … Da viel auf dem Spiel steht, sind nicht nur Institutionen notwendig, die die Macht besitzen, Sanktionen gegen Umweltattacken zu verhängen, sondern ebenso notwendig ist es, dass auch wir uns gegenseitig kontrollieren und erziehen “.

Bevor wir jetzt aber anfangen, uns gegenseitig zu kontrollieren und zu erziehen, sollten wir ernsthaft bedenken, dass die vom WBGU zitierten Transformationen in der Menschheitsgeschichte freiwillige Entwicklungen waren, die sich „marktwirtschaftlich“ von der Basis her als „wirtschaftliche Erfolgsmodelle“ durchgesetzt hatten.

Alle „Weltrevolutionen“ dagegen, die einer Bevölkerung durch regulatorische „Top-Down-Strategien“ aufgezwungen worden sind, haben in Unfreiheit, wirtschaftlicher Not und Kriegen bis hin zum Völkermord geendet …

Uli Weber ist Geophysiker und Publizist

Übernommen von Tichys Einblick hier




Der Fukushima-Report (1): Die Fakten, die Mythen

Hier soll nicht relativiert werden. In Fukushima gab es drei Kernschmelzen. 150.000 Menschen wurden evakuiert und von ihrer Heimat entfremdet. Das ist schlimm. Aber es gab keine Strahlungsopfer, es gab keine Meeresungeheuer und es gibt keine auf ewig unbewohnbare Todeszone. Stattdessen gab es „postfaktische“ Berichterstattung und Panikmache in den deutschen Medien. So schlimm die Reaktorkatastrophe von Fukushima auch war, der Weltuntergang ist ausgefallen. Bleiben Se interessiert an dem, was wirklich in Fukushima geschieht.

Der Tsunami, der am 11. März 2011 um 14:47 Uhr (Ortszeit) von dem Tōhoku-Erdbeben ausgelöst wurde, war an der Küste Fukushimas 14 Meter hoch. Die Sintflut hat fünf Jahre nach ihrem Eintreten im fernen Deutschland mehr Reaktoren zerstört als in Japan. Der Unterschied: Japan fährt seine Atomkraftwerke schrittweise nach Sicherheitsverbesserungen wieder an. Sie ungenutzt stehen zu lassen, wird den Japanern zu teuer. Deutschland legt seine Reaktoren, die zu den Besten der Welt gehören, sukzessive still, uns ist nichts zu teuer. Das letzte AKW soll 2022 außer Betrieb gehen. Es könnte ja im Emsland einen Tsunami geben.

„Vorhersehbar und vermeidbar“

Ich möchte diesen Artikel mit einem Statement von Kiyoshi Kurokawa, dem Vorsitzenden der Unabhängigen-Untersuchungskommission des Kernkraft-Unfalls in Fukushima beginnen: „Der GAU des KKW Fukushima war eine zutiefst menschengemachte Katastrophe – die man hätte vorhersehen und vermeiden können. Eine Vielzahl von Irrtümern und absichtlichen Vernachlässigungen führte dazu, dass das AKW Fukushima unvorbereitet von den Ereignissen des 11. März heimgesucht wurde…„.

Diesem Statement stimme ich vollinhaltlich zu. Der Tsunami, der zigtausende Menschen tötete, war nur der Auslöser der folgenden Reaktor-Katastrophe in Fukushima. Die Ursache war, dass die Vorstände des Kraftwerk-Betreibers  TEPCO Erkenntnisse von Wissenschaftlern und Ingenieuren mißachtet hatten, die vor den riesigen Flutwellen gewarnt hatten. Zu den Ursachen gehörte auch, dass die japanische Aufsichtsbehörde und die Regierung ihrer Aufgabe der unabhängigen Überwachung der AKW-Betreiber nicht gerecht wurden. Mit Sicherheitsvorkehrungen, deren Kosten überschaubar gewesen wären, hätte man die Turbinengebäude, in denen sich die Notstromdiesel befanden, tsunamifest abdichten können. Niemand von uns würde heute den Namen Fukushima kennen.

Die Vorstände und Politiker haben anders entschieden und damit leichtfertig – und gierig – die nukleare Sicherheit aufs Spiel gesetzt. Sie haben einen Schaden angerichtet, den sie niemals wieder gut machen können, selbst wenn ein Gericht sie dafür hart bestraft. Das Desaster war auch in der japanischen Kultur des Gehorsams, der Unterordnung und des Kuschens vor der Hierarchie begründet – eine Katastrophe Made in Japan. Dies weist der Bericht der Untersuchungskommission in voller Transparenz nach. Den vollständigen Untersuchungsbericht finden Sie hier. Dem habe ich nichts hinzuzufügen.

Die Helden verhinderten Schlimmeres

Es gibt aber, wie immer, auch eine andere Seite der Medaille. Das Erdbeben überstanden alle japanischen AKW-Anlagen unbeschadet und sie reagierten bestimmungsgemäß mit automatischer Reaktorabschaltung. Als dann aber die 14 Meter hohe Flut die sechs Blöcke der Anlage in Fukushima überrollte, drückten die Wellen quasi mit dem kleinen Finger ihrer linken Hand die Blechtore der Turbinengebäude ein und verwandelten das Turbinenhaus in ein gesunkenes Schiff, in dem das Wasser fünf Meter hoch stand. In diesem Gebäude waren aber auch die Notstromdiesel untergebracht, die dabei überflutet wurden und ausfielen.

Zum Zeitpunkt des Tsunami waren etwa 700 Mitarbeiter im Kraftwerk tätig. Fünf von ihnen ertranken in den Fluten – es waren wohl die mit der Überwachung der Notstromaggregate Beauftragten – einer stürzte beim Erdbeben von einem Kran. Das waren die einzigen Todesopfer der Nuklearkatastrophe. Nach meinem Wissen verließ in der Folge nicht ein einziger Mitarbeiter das Kraftwerksgelände, obwohl ihnen das Schicksal ihrer Angehörigen nicht bekannt war und die Telefone in die Ortschaften nicht mehr funktionierten. Sie blieben, solange es der Einsatzstab von ihnen erwartete, und es gelang ihnen, noch Schlimmeres zu verhindern. Sie versammelten sich unter der Leitung von Masao Yoshida, dem Leiter der Anlage, im Notstandsgebäude. Von hier aus begann der fast aussichtslose Kampf mit den Folgen der Überschwemmung. Sehen Sie sich Yoshida San an, den Mann, der die Helden von Fukushima führte, und bilden Sie sich Ihr eigenes Urteil.

Hilflos mussten die Betriebsmannschaften mit ansehen, wie ein Notstromsystem nach dem anderen absoff und sie die Kontrolle über die Reaktoren verloren. Einige der Männer bauten sogar Batterien aus den übereinander geworfenen Autos auf den Parkplätzen aus, um sie an wichtige Messinstrumente anzuschließen, für ein Mindestmaß an Kontrolle über die abgeschalteten Anlagen. Der Brennstoff in den abgeschalteten Reaktoren wurde nicht mehr genügend gekühlt, die Brennstäbe fingen an zu glühen und setzten große Mengen Wasserstoff frei. Wasserstoff ist in Verbindung mit Luft hochexplosiv, der geringste Funke löst eine Explosion aus. Das sollte sich auch in Deutschland jeder vor Augen führen, der auf die Wasserstoff-Technologie für Fahrzeuge setzt.

Vorsorge war TEPCO zu teuer

In Fukushima baute der Wasserstoff Druck in den Sicherheitsgebäuden der Reaktoren auf. Dieser Sicherheitseinschluss musste intakt bleiben, damit keine Radioaktivität entwich. Masao Yoshida, der sich dieser Gefahr bewusst war, stellte mehrere Teams von Freiwilligen zusammen – sie sollten die Ventile des kontrollierten Notablasses des Wasserstoffgases manuell öffnen. Wegen der dabei bestehenden Explosionsgefahr gehörten ältere Mitarbeiter den Teams an.

Mit Taschenlampen kämpften sich die Männer zu den Ventilen durch das dunkle Kraftwerk, vorbei an geborstenen Leitungen, über zerrissene Stromkabel kletternd, von denen sie nicht wussten, ob sie noch Spannung führten. Allen Teams gelang es, die Armaturen zu öffnen und mit hohem Druck strömte der Wasserstoff aus den Reaktorgebäuden durch große Wasserbecken, in denen nicht-gasförmige Radioaktivität aus dem Gas gewaschen wurde und verbreitete sich in der Turbinenhalle. In deutschen Kraftwerken stehen überall Rekombinatoren, die diesen Wasserstoff unschädlich machen würden. In Fukushima hatte TEPCO es nicht für nötig erachtet, sie zu installieren – zu teuer.

Der Wasserstoff gelangte so in die Bedienungsflure der Turbinengebäude und reicherte sich dort an, bis er die Explosionskonzentration von grösser 4 Vol% erreicht hatte und explodierte. Das waren die Explosionen, die als Videobilder um die Welt gingen. Kaum jemand verstand damals, dass auf den Fernsehbildern nicht die Reaktoren explodierten, sondern dass die Mannschaft die Explosionen von abgeleitetem Wasserstoff bewusst herbeigeführt hatte, um die Reaktoren zu schützen. Es gelang allen Teams noch vor den Explosionen, unverletzt ins Notstandsgebäude zurückzukehren. Trotzdem konnten die Reaktoren danach immer noch nicht gekühlt werden und die Brennstäbe wurden teilweise zerstört und schmolzen.

Arbeit unter extremen Bedingungen

Obwohl das Notstandsgebäude auf Grund seiner erdbebenfesten Bauweise auf Federn und Gleitfundamenten unbeschädigt blieb, waren die Bedingungen in dem dreistöckigen Notstandsgebäude für die 700 Mitarbeiter äußerst kompliziert. Die Ungewissheit über das Schicksal ihrer Familien belastete sie. Es gab nicht genügend zu essen und zu trinken – einen halben Liter Wasser und eine kleine Fertigpackung Nudeln oder Reis wurde die Ration der nächsten Wochen. Nachschub kam nicht, da auch außerhalb des Kraftwerkes die Infrastruktur zusammengebrochen war.

Aus Angst wollte auch niemand von den lokalen Lieferanten etwas in das havarierte Kraftwerk liefern, die Mannschaften mussten alles selbst herbeischaffen. Für die 700 gab es ganze zwei Dixi-Toiletten, man mag sich das gar nicht vorstellen. Geschlafen wurde unter den Tischen und auf den Korridoren des Notstandsgebäudes. Zwei Mann machten nichts anderes, als die elektrischen Eingangstüren manuell zu bedienen. Es gab nicht genügend Gummistiefel, um sich vor dem heißen Wasser zu schützen, Arbeitsschutzkleidung wurde schnell knapp. Von außen kam anfangs kaum Hilfe.

Und trotzdem, Japan ist nicht Russland, Fukushima ist nicht Tschernobyl. Bei allen folgenden Havarie-Bekämpfungsmaßnahmen trugen die Ingenieure und Arbeiter ihre Dosimeter und hielten die von Masao Yoshida festgelegte Maximaldosis von 250 Millisievert ein. So wird es auch in Zukunft keine Strahlentoten als Folge von Fukushima geben. Die „50 von Fukushima“ sind übrigens eine von den Medien erdachte Legende, es waren stets mehrere Hundert Mitarbeiter vor Ort. Und sie sind auch nicht gestorben, wie es die deutschen „Experten“ prophezeiten. „Postfaktisch“ heißt so etwas heute „fake news“.

Panische Führungskräfte, unwürdige Szenen

Eines der größten Probleme Yoshida Sans während dieser Zeit war das panische Verhalten der Führungskräfte im Tokioer Havarie-Stab. Die von TEPCO im Internet veröffentlichten Filme dieser Videokonferenzen – ja, das gab es die ganze Zeit, das Kraftwerk war mit Satellitenfunk dazu ausgerüstet, der auch funktionierte – zeigen unwürdige Szenen: Masao Yoshida teilt die von ihm festgelegte Dosis von 250 mSV mit und Akio Takahasi, eine ranghohe Führungskraft ruft barsch „Eine Dosis von 500 mSv ist in Ordnung, also los“. Masau Yoshida erklärt, dass er Leute zum Beschaffen von Mineralwasser losgeschickt hat und der Vorstand ruft: „Benzin für die Feuerlöschpumpen ist wichtiger.“ Bezeichnend ist, dass ganze 418 Menschen dieses Video überhaupt aufgerufen haben.

In ihrer Angst vor dem bösen Atom vergisst die Welt ganz und gar, von Yoshida San und seinen Männern würdigend Notiz zu nehmen. Niemand denkt über ihren Mut und ihre Umsicht nach. Niemand erkennt ihre Professionalität und ihre Standhaftigkeit. Die Medien machen das Gegenteil, sie verunglimpfen das Havariepersonal von TEPCO. Diese Männer haben es geschafft, dass in Fukushima Daiichi bei drei Kernschmelzen niemand durch Radioaktivität um Gesundheit und Leben kam. Trotz der Führungsschwäche des Krisenstabs und der beteiligten Regierungsvertreter kann heute die Evakuierungszone derzeit wieder besiedelt werden, weil dank Yoshida Sans Männern eine noch stärkere Ausbreitung von Radioaktivität verhindert wurde.

Wir Menschen sind schon eine ungerechte Spezie. Wenn wir Angst haben, setzt das Denken aus. Wir suchen Schuldige, wenn etwas schiefgeht. Dabei wird schon unbedacht gern mal ein Falscher beschuldigt. Oder ein Held wird vergessen. Gerade im Land der berufsmäßigen Besserwisser und Weltenretter wurden von verantwortungslosen Journalisten aus sicherer Entfernung wilde Verleumdungen erfunden: von Obdachlosen und Jugendlichen, die in tödlicher Strahlung verheizt wurden, von Feuerwehrleuten, die gewaltsam in einen Todeseinsatz getrieben wurden. Nichts davon ist wahr, aber wen interessierte das schon?

Wilde Fantasien deutscher Journalisten

In der ARD, die ja bekanntlich jeden verurteilt, der Ängste befeuert, wurden damals abenteuerliche Geschichten „gefunden“: ARD-Reporter Robert Hetkämper: „Wir haben ehemalige Kernkraftwerksmitarbeiter gefunden, die darüber geklagt haben, dass sie mehr oder weniger in früheren Jahren verheizt worden sind und ihnen nie gesagt wurde, wie hoch die Strahlung tatsächlich ist. Sie wurden über die wirklichen Gefahren nicht aufgeklärt. Wenn sie erkrankten, zahlte ihnen niemand Kompensation. Dann haben wir einen Arzt in Osaka gefunden. Er sagte, es sei Usus, in der Kernkraftwerksbranche Obdachlose oder Arbeitslose, Gastarbeiter oder sogar Minderjährige anzuheuern. Wir selber als ARD-Studio Tokio hatten vor vielen Jahren schon mal über Obdachlose in den Straßen von Tokio berichtet. Die hatten uns erzählt, dass sie in Kernkraftwerken eingesetzt wurden. Die Leute sind zu ihnen in den Park gekommen, wo sie lagerten, und haben sie dann für gutes Geld angeheuert, Kernkraftwerke zu reinigen. Da sind offenbar auch viele erkrankt. Das wussten wir.“

Diese Geschichte ist so absurd, dass sie einem ARD-Journalisten sogar nach dem Genuss von mehreren Flaschen Sake hätte seltsam vorkommen können. Weltweit darf niemand in einem AKW arbeiten, der nicht einer umfangreichen Sicherheitsüberprüfung unterzogen wurde. Und selbst zum Reinigen eines AKW’s bedarf es einer Qualifikation, die jemand von der Straße mit Sicherheit nicht hat. Und im Kraftwerk gibt es eine Strahlenschutzabteilung, die jeden Ort des Kontrollbereiches ausmisst und kennzeichnet. Außerdem tragen alle Mitarbeiter ein behördlich kontrolliertes Dosimeter und zusätzlich mindestens ein Alarmdosimeter, das sich beim Erreichen einer niedrigen Dosis automatisch mit einem Warnton meldet. In einem AKW wird niemand „verheizt“, sondern nur in der wilden Fantasie des ARD-Korrespondenten Hetkämper. Wobei man zu seiner Ehrenrettung sagen muss, dass seinerzeit die meisten deutschen Journalisten von wilden Fantasien heimgesucht wurden.

Achse-Autor Manfred Haferburg studierte an der TU Dresden Kernenergetik und machte eine Blitzkarriere im damalig größten AKW in Greifswald. Nach der Wende kümmerte er sich für eine internationale Organisation um die Sicherheitskultur von Atomkraftwerken weltweit und hat so viele AKW’s von innen gesehen, wie kaum ein anderer.

In dieser Serie erscheinen in den nächsten Tagen

Der Fukushima-Report (2): Fukushima unter Kontrolle

Der Fukushima-Report (3): Wieder Leben in „Todeszonen“

Der Fukushima-Report (4): Geisterfahrer der Energiepolitik

Zuerst erschienen bei ACHGUT hier




Die Kontroll- und Kommando­zentrale des Klima-Alarmismus‘

Zunächst von Jennifer Hadden, Networks in Contention: The Divisive Politics of Climate Change (2015) [etwa: Netzwerke im Wettstreit: Die entzweiende Politik zu Klimawandel]:

Wie mir ein Interviewter erklärte hinsichtlich der Strategie der internationalen Klima-Koalition: ,Wir arbeiten ziemlich viel zusammen. Aber wir wissen, dass wir alle für unterschiedliche Dinge stehen, darum müssen wir sorgfältig den Eindruck erwecken, dass wir nicht die ganze Zeit zusammenarbeiten‘ (Interview, WWF European Policy Office 2008).”

Ein Umweltaktivist erklärte mir: „Klimawandel ist nicht länger ein Thema unter anderen, es ist DAS Thema, ein Mega-Thema für alles, an dem wir arbeiten“ (Interview, Danish 92 Group, 2009).

Im Jahre 1989 kamen diese Organisationen erstmals zusammen, um eine Koalition zu bilden: The Climate Action Network (CAN). Das CAN wurde gegründet als der Motor einer transnationalen Koordinierung von 63 Organisationen … Viele Bemühungen des CAN bestanden in der Unterstützung der Arbeit des IPCC, und es half, dessen zentrale Rolle im internationalen Klimaregime zu etablieren … Tatsächlich konsolidierte das CAN seine Koalitions-Struktur während dieses Zeitraumes (neunziger Jahre), in dem es eine hochrangige politische Gruppe ins Leben rief, um Politik und strategische Koordinierung unter den Mitgliedsgruppen zu fördern.

Im Mittelpunkt des Treibens des CAN stand der Gedanke, dass die Mitgliedsorganisationen „mit einer Stimme“ sprechen müssen, um die internationalen Verhandlungen zu beeinflussen.

Das CAN hat einen großen Einfluss auf die Art der Strategien, zu welchen die Organisationen greifen: „Es scheint, dass viele der großen Gruppen die Richtung vorgeben, und wir alle neigen dazu, dieser zu folgen. Aber wenn wir vor Ort arbeiten, dürfen wir das nicht immer unter die Leute bringen, weshalb wir andere Dinge tun sollten“ (Interview, Greenpeace Germany 2010).

mit den großen internationalen Nicht-Regierungs-Organisationen NGOs – WWF, FOE (vor 2008), Oxfam und Greenpeace – werden extensive Beratungen durchgeführt, bevor Vorschläge erarbeitet werden. Die meisten Mitglieder erkennen an, dass die großen Gruppen de facto über CAN-Positionen das Vetorecht haben. Falls diese Gruppen einem Vorschlag zustimmen, wird dieser allen Mitgliedern zugeleitet …

Das CAN (1) prahlt damit, über 1100 Mitgliedsorganisationen zu vertreten. Hadden zufolge wird das CAN geleitet durch eine hochrangige politische Gruppe, geführt von den Vier Apokalyptischen Reitern: WWF, Greenpeace (1), FOE (1), möglicherweise vor 2008) und Oxfam (möglicherweise unter Ausschluss des USA-Ablegers). Sie geben Befehle, und alle Mitglieder folgen diesen Befehlen, während „sie sorgfältig den Eindruck erwecken, nicht zusammenzuarbeiten“. Jahrzehnte lang war es ihr Ziel, ein internationales Klimaregime zu etablieren, dem sich Amerika unterzuordnen hätte. Die Mitgliedsorganisationen (oder Einheiten) „können sich anderen Dingen zuwenden“ – mit anderen Worten, sie werden angehalten, die Initiative zu ergreifen, die Absichten des Kommandeurs auszuführen. So wird eine gute Armee geführt, nicht eine Bewegung oder ein Netzwerk. Sie verfügen auch über ungeheure finanzielle Macht: Der WWF allein hat ein jährliches Einkommen nahe 1 Milliarde Dollar, welches Geld er nach Belieben verwenden kann.

Ebenso sind die Mitglieder nach dem Top-Down-System organisiert wie militärische Einheiten und nicht wie ehrenamtliche Organisationen. Man betrachte diese Aussagen von Thomas Lyon, Good Cop/Bad Cop: Environmental NGOs and Their Strategies toward Business (2012):

Jüngere nationale Gruppen, die verwurzelt sind in der Umweltbewegung Ende der sechziger und Anfang der siebziger Jahre wie etwa der Natural Resources Defense Council und der Environmental Defense Fund, neigen dazu, ein sich selbst erneuerndes Gremium von Direktoren zu haben … eine Tendenz, konzentriert Entscheidungen für die Gruppe zu treffen und Demokratie innerhalb der Organisation zu umgehen. Am bemerkenswertesten: brauchbare Wahlverfahren sind selten. … Leider sind Studenten, die Zeit damit verbracht haben, die Rolle von Wahlen und demokratischen Prozessen in NGOs zu untersuchen, typischerweise enttäuscht worden. Was sie erkannt haben ist das Fehlen von klassischen demokratischen Prozessen … obwohl viele NGOs demokratische Verfahren in ihren Statuten haben, sind diese Gruppen in der Praxis fast immer oligarchisch.

das politische System in den USA scheint angesichts der gegebenen Gewaltenteilung und schwacher politischer Parteien (man beachte das Fehlen einer existenzfähigen Grünen Partei) wie geschaffen für den Einfluss (transnationaler Umwelt-) Gruppen auf Entscheidungen der Regierung.

Amerika ist im Besonderen Ziel, und der neue Feind erkennt unser verfassungsmäßiges politisches System mit seiner „Gewaltenteilung und schwachen politischen Parteien“ als eine Schwäche, die ausgebeutet werden kann, wobei offenbar die Fehler der Feinde Amerikas aus der Vergangenheit wiederholt werden.

Weitere Aussagen von diesen und anderen Autoren finden sich in meinem Beitrag Climate Alarmism Command auf meiner Website.

I. „Single-Voice-Prinzip“

Auf der Grundlage dieser Belege ist der Klima-Alarmismus das Erzeugnis eines sehr großen, sehr gut koordinierten und zentral kontrollierten Unternehmens. Dies erklärt dessen Fähigkeit, gewaltsam perfekt synchronisierte Botschaften zu verbreiten, trotz der internen Inkonsistenzen, trotz Widersprüchen zur Hochschulwissenschaft und trotz häufiger Flip-Flops als Reaktion auf sich ändernde politische Allianzen sowie focus group research results [?].

Ein Beispiel dafür ist die beispiellose Überschwemmung der Massenmedien mit eindeutig falschen Statements wie „97% aller Wissenschaftler stimmen überein“. Im Idealfall würden die Medien die ganze Zeit über die Wahrheit berichten. In der Vergangenheit (was inzwischen wie eine legendäre Vergangenheit aussieht) berichteten die Main-Stream-Medien Fakten zumeist zutreffend, sogar wenn sie diese mit einem liberalen Bias interpretierten. Gelegentlich machten sie Fehler oder stellten sogar Falschbehauptungen auf. Journalisten neigen dazu, voneinander abzuschreiben, und so könnten die gleichen Fake News in allen Zeitungen und TV-Kanälen erschienen sein, aber nur für sehr kurze Zeit. Die „97%-Lüge“ dagegen durchzieht die Medien konstant seit dessen Einführung durch Naomi Oreskes im Jahre 2004! Diese Zahl ist schon sehr oft explizit widerlegt worden und ist offensichtlich absurd: Es sieht mehr wie ein Wahlergebnis in einem kommunistischen Land aus als eine ,Umfrage‘ nach den Meinungen der Wissenschaftler! Vermeintlich ist es durch multiple Studien „bestätigt“ worden – etwas, das eine geringere Wahrscheinlichkeit aufweist als der Gewinn des Lotto-Jackpots zwei Jahre hintereinander. Und doch konnte diese Ente seit nunmehr 12 Jahren überleben.

Im Bereich des Klima-Alarmismus‘ gibt es andere magische Zahlen, die völlig sinnlos sind, wie etwa 350 ppm oder 2 Grad (später ersetzt durch 1,5 Grad). Aber sie haben eine enorme Überlebenskraft. Zusätzlich zu dem unnatürlich synchronisierten Vorgehen gibt es ein höchst anomales Fehlen von Abweichungen unter den Reihen der Klima-Alarmisten. Dies ist besonders auffällig angesichts der Kehrtwendungen, die das CAG hinsichtlich vieler politischer Dinge vollzogen hatte, wie etwa Emissionen von China und der Verbrauch von Erdgas. Sogar die Kommunistische Partei der USA, eine Marionette der Sowjets seit 1933, kroch zu Kreuze, nachdem ihr befohlen worden war, von Anti-Nazi zu Pro-Nazi zu wechseln nach dem Molotow-Ribbentrop-Pakt von 1939. Nichts dergleichen geschah in den heimischen Klima-Alarmisten-Gruppen, als die CAG seine Forderung von globaler Reduktion von CO2-Emissionen zu einseitiger Reduktion durch den Westen änderte und China, Japan, Russland und der Rest der Welt ihre Emissionen nach Belieben zunehmen lassen dürfen. Diese Fakten beweisen über alle Zweifel erhaben, dass es eine zentrale Kontrolle des Klima-Alarmismus‘ gibt.

II. Front Groups

Die Existenz von front groups, die oftmals aus dem Nichts erscheinen und in den Brennpunkt der Medien-Aufmerksamkeit katapultiert werden, ist ein weiteres verräterisches Anzeichen. Beispiel: InsideClimate News führte ein Nischendasein als Projekt innerhalb der Gedärme einer obskuren linksextremen Brutstätte Public Interest Projects (jetzt NEO Philanthropy) seit 2007. Im Jahre 2011 hatte sie sechs Mitarbeiter. Plötzlich wurde sie mit Beifall überhäuft einschließlich des einst renommierten Pulitzer-Preises für besondere Berichterstattung im Jahre 2013. Schon bald heimste sie Dutzende journalistischer Auszeichnungen ein, einschließlich eines weiteren Pulitzer-Preises, und dessen Fake News wurden zu „Beweisen“ in dem berüchtigten Versuch der „Attorneys General United for Clean Power” [etwa: Staatsanwälte vereint für saubere Energie], durch Vollmachten bestimmte Sprechweisen zu unterdrücken (hier). Exxon, dem obersten Protagonisten der Verschwörungstheorie, der zufolge Klimarealisten durch „fossile Treibstoffe“ finanziert werden, wurde diese Vollmacht genehmigt. InsideClimate News wurde gegründet von der Ford Foundation (1), RBF (1)/RFF (Rockefeller Brothers Fund / Rockefeller Family Fund), the Park Foundation, the Marisla Foundation, the Knight Foundation, the Grantham Foundation und weiteren üblichen Verdächtigen. Fast alle die Geldgeber sind offen Mitglieder der EGA (1) (Environmental Grantmakers Association), welche von RBF/RFF gegründet worden war und in der gleichen Etage sein Büro hat. (Übrigens ist die RBF/RFF separat von der größeren Rockefeller Foundation). 350.org ist ein weiteres Beispiel einer hochgejubelten front group.

III. Entwicklung der CAG

Die CAG ist im Jahre 1989 gegründet worden, aber es dauerte fast eineinhalb Jahrzehnte, bis Klima-Alarmismus zum ideologischen Hauptthema für multiple transnationale und internationale Gruppen geworden ist. Dementsprechend ist auch die Konsolidierung der Macht in den Händen einiger Weniger graduell erfolgt. Folglich hat sich die Climate Alarmism Governance entwickelt anstatt von einer Person oder einer kleinen Gruppe erschaffen worden zu sein. ENGOs und ehrgeizige UN-Politiker arbeiteten seit den siebziger Jahren Hand in Hand miteinander, um ihre Macht zu erweitern. Die Einführung dieses Vorgehens wird häufig Maurice Strong zugeschrieben. UN-Agenturen und Politiker können sich nicht offen und direkt in die inneren Angelegenheiten der meisten Länder einmischen. Also nutzen sie NGOs für diesen Zweck. CAN und ihre Mitglieder WWF, Greenpeace, Oxfam, EDF und NRDC haben beim IPCC offiziell den Status von Beobachtern und agieren als dessen de-facto-Sprecher, korrumpieren die IPCC-Forschung noch mehr und schmücken die ohnehin schon verzerrten IPCC-Berichte aus (ein ehemaliger Greenpeace-Führer nannte es „dramatisieren“). CAN-Mitglieder leisten Lobbyarbeit für die Delegationen bei den COPs des UNFCCC und bei anderen internationalen Zusammenkünften, manipulieren die wissenschaftliche Arbeit des IPCC von innen heraus (hier) und gehen finanzielle Deals mit deren Funktionären ein. Das Climate Action Network vermeidet zwar die Verbindung mit Gruppen, die Gewalt unterstützen, kooperiert aber mit diesen. Sie schürt Hass zwischen Europa und Amerika und will Rache („Gerechtigkeit“) für wirkliche oder imaginäre Angriffe in der Vergangenheit. Die Führer verschiedener transnationaler NGOs (nicht nur CAN-Mitglieder) treffen sich regelmäßig persönlich, um gemeinsame Ziele und Strategien festzulegen. Zwischen derartigen Treffen bleiben sie via elektronischer Medien in Kontakt.

Ein weiterer Stützpfeiler der CAG ist die UN-Organisation, wo die USA lediglich eine Stimme von über 190 weiteren haben (aber den Löwenanteil der Finanzierung tragen). Bequemerweise sind einige der Umwelt-„Markenzeichen“ bei den UN akkreditiert und nehmen offiziell an Treffen vieler UN-Agenturen teil. Inoffiziell bestechen oder manipulieren sie Vertreter auswärtiger Regierungen und der UN nach ihren Wünschen (siehe hier, Abschnitte 3.2 und 3.8). Die relevanteste Gruppe der UN-Abteilung Klima-Alarmismus ist das IPCC, ins Leben gerufen durch UNEP und WMO. Ich habe die genaue Zusammensetzung und die Beziehungen an der Spitze der CAG oder die Rolle der europäischen Grünen Parteien nicht untersucht.

IV. Finanzielle Beziehungen zwischen einigen Klimaalarm-Einheiten und der Korruption von ehemaligen Mainstream-Institutionen

Die zentralisierte Finanzierung des Klima-Alarmismus‘ geht Hand in Hand mit der zentralisierten Befehlsgebung und Kontrolle. Heute kommt das meiste Geld für den Klima-Alarmismus von der öffentlichen Hand der USA und der EU. In der Vergangenheit war die EGA ein großer Faktor. Geld von den Primärquellen wird gewaschen und zwischen Klimaalarm-Gruppen auf verschiedenen Wegen hin- und hergeschoben. Die folgenden Tabellen stammen von einer offiziellen Klage in 5:16-cv-211-C, verifiziert unter der Strafe für Meineid.

Tabelle 1: Matrix der Finanzbeziehungen zwischen einigen CAG-Unternehmen

„R“ bedeutet, dass das in der Zeile genannte Unternehmen („Markenzeichen“) direkt von dem Unternehmen in der Spalte finanziert wird. „D“ bedeutet, dass das Unternehmen in der Zeile direkt Gelder an das Unternehmen in der Spalte gegeben hat. Nur Geld-Transfers, über die von 2003 bis 2014-2015 in bestimmten Steuerformularen berichtet worden war, sind erfasst. „Freundschafts“-Dienste, Zahlungen an nahestehende Parteien, Geldtransfers mittels Dritter und Transfers außerhalb der Bücher sind nicht erfasst. Alle Finanzierungs-Ereignisse sind substantiell (manchmal Millionen Dollar stark und mit Sicherheit über 10.000 Dollar).

Tabelle 2: Finanzierung des Center for American Progress und einiger front groups durch einige CAG-Unternehmen.

Tabelle 3: „Spenden“ an einige ehemals respektierte Organisationen seitens einiger CAG-Unternehmen.

NAS ist die National Academy of Sciences, welche einmal die höchste wissenschaftliche Einrichtung der Nation war. AAAS steht für die American Association for the Advancement of Science, dem Herausgeber des Journals Science. Die New York Times Company (NYT) ist eine kommerzielle Körperschaft, was „Spenden“ sogar noch seltsamer macht. (2)

(1) Diese Organisationen stehen im Verdacht, mit kriminellen Machenschaften in Verbindung zu stehen oder an diesen teilzuhaben, wie es definiert ist im The Racketeer Influenced and Corrupt Organizations Act (“RICO”), 18 U.S.C. § 1961-1963. Der Autor ist Kläger in einem Zivilprozess gegen diese Organisation (5:16-cv-211-C Goldstein v. Climate Action Network et al.).

(2) Man darf nicht vergessen: die große Mehrheit von Individuen, die der CAG unwissentlich geholfen haben, sind unschuldig.

Link: https://wattsupwiththat.com/2016/12/23/the-command-control-center-of-climate-alarmism/

Übersetzt von Chris Frey EIKE




Harald Lesch, die Claudia Roth des Klima­wandels: Glaubt einfach, was ich erzähle – Nach­prüfen schadet nur!

Wie die bekannte Claudia Roth der GRÜNEN appelliert er, anstelle Belege zu bringen, vorwiegend an die „Betroffenheit“, die seine „unbezweifelbaren“ Aussagen erzeugen sollen, weshalb man ihn inzwischen synonym als klimatisches Pedant der GRÜNEN-Politikerin bezeichnen kann, obwohl ihm der bei den GRÜNEN sonst oft übliche (bei Frau Roth vorhandene) Studienabbruch fehlt.

Der Autor hat sich (wieder) die Mühe gemacht, Beispiele seiner inzwischen oft schon abstrus überzogenen Thesen zu sichten und darzustellen, dass Vieles einer Nachprüfung nicht Stand hält, oder zumindest wesentlich Klimawandel-unkritischer betrachtet werden kann.

Video: Frag den Lesch – Neues aus der Klimaküche

https://www.youtube.com/watch?v=mfALmgAwPKQ&feature=youtu.be

Video: [2] Frag den Lesch – Neues aus der Klimaküche 

Im Video geht es angeblich über das Neueste vom Klimawandel. Zumindest wird es in der Lesch-typischen, stammelnden und auslassungsreichen Vortragsweise so erzählt.

Einleitung

H. Lesch: … Neuigkeiten von den Klimamodellen … Klimawandel, das stimmt ja sowieso nicht …. denn dass der Mensch einen Einfluss auf das Klima hat, auf den Klimawandel, das ist eindeutig, übereindeutig. … in den 90er Jahren dachte man, da könnte noch eine gewisse Unsicherheit sein, das ist aber vorbei … die neuesten Entdeckungen, muss man leider sagen, aber auch Bestätigungen muss man leider noch mehr sagen, die zeigen ganz klar – wir sind dran schuld.

Und dann wird über eine ganz neue Entdeckung erzählt,

Biofilme auf Gletschern:

H. Lesch: … Neu herausgekommen ist ein Effekt … eine ganz neue Entdeckung …. warum schmelzen die Gletscher so viel schneller… Ruß und andere Staubteilchen regnen auf die Gletscher … diese bilden Biofilme aus .. dadurch, dass die unsichtbaren Biofilme auf der Oberfläche der Gletscher sind, wird ne ganze Menge Energie in den Biofilmen deponiert und dadurch schmelzen die Gletscher schneller. Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung.

Der Autor ist dieser wichtigen Entdeckung, welche den Treibhauseffekt zusätzlich verstärkt, nachgegangen. Bei der Max Planck Gesellschaft findet sich dazu eine Pressemitteilung:

Bakterien heizen Gletschereis auf
Mikroorganismen siedeln sich auf dem Eis an Staubteilchen aus der Atmosphäre und lassen den Gletscher dadurch schneller schmelzen… Mikroben leben von Kohlenstoff aus Gletschern
Das nutzt auch der Klimaforschung, denn ein besseres Verständnis des Kohlenstoffspeichers in Gletschern und des Transports von Kohlenstoff in andere Ökosysteme kann dazu beitragen, aktuelle Klimamodelle zu verbessern. Es ist schon lange bekannt, dass organischer Kohlenstoff, der für Jahrtausende in Gletschern gespeichert war, beim Abschmelzen freigesetzt wird und Mikroorganismen als Nahrung dient. Die nun vorliegende Studie zeigt, dass auch durch die Fixierung von anorganischem Kohlenstoff durch Mikroorganismen auf Gletschern organischer Kohlenstoff entsteht, der rasch von benachbarten Organismen verbraucht wird.

Zur Pressemitteilung ist die Studie genannt, welche wohl auf einer Dissertationsarbeit beruht:
Heidi J: Smith et al.: [3] Biofilms on glacial surfaces: hotspots for biological activity
Leider steht in dieser Studie nirgends auch nur ein vager Hinweis zum quantitativen Einfluss auf das Klima oder die Gletscherschmelze. Auf Nachfrage des Autors beim Max Planck Institut kam dazu die folgende Antwort: … Tatsächlich gibt es bisher noch keine quantitativen Daten zu dieser Studie. Das wird sicher Gegenstand weiterer Untersuchungen sein.

Was sagte Herr Lesch

Und nun vergleiche man diese Antwort mit Herrn Leschs Darstellung:

H. Lesch: „ … Die Biofilme sind etwas, das man vorher nicht kannte, aber jetzt weiß, aha, das verstärkt nochmal den Effekt des Klimawandels, also der Erwärmung… „.

Prognosen von Klimamodellen

Weiter geht es im Video:
H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten … Eine Vorhersage war in der Tat, dass durch die allgemeine Erwärmung sich die Wolkenbänder systematisch vom Äquator hinaus in Richtung nach Norden und nach Süden bewegen müssten. Und genau das ist nun entdeckt worden. Und eine weitere Vorhersage der Klimamodelle ist eingetreten: Sobald die Atmosphäre eine bestimmte Temperatur überschreitet, schießen die Wolken weiter nach oben … aber inzwischen sind nicht nur Gewitterwolken davon betroffen, sondern die gesamte Dynamik ist davon betroffen.

Wieder muss man Datenquellen raten. Doch könnte sich die Aussage auf die folgende Studie beziehen:

Juli 2016, [4] Evidence for climate change in the satellite cloud record,
deren Pressemitteilung vorwiegend im Englischsprachigen Raum publiziert wurde.
Doch WELT N24 hat auch darüber berichtet: Wegen des Klimawandels haben wir weniger Wolken
… Unklar waren bislang auch die Auswirkungen der globalen Erwärmung auf den Wolken-Bedeckungsgrad. Das lag vor allem daran, dass Wettersatelliten die Veränderungen nur teilweise zuverlässig wiedergeben, unter anderem wegen verschiedener Umlaufbahnen, unterschiedlicher Kalibrierung und Veränderungen der Sensorenempfindlichkeit im Laufe der Zeit. Das Forscherteam analysierte nun die Datenreihen verschiedener Satelliten und rechnete störende Einflüsse heraus.
Die Auswertung über 27 Jahre zeigt, dass der Bedeckungsgrad vor allem der mittleren Breiten abnimmt – weil sich der subtropische Hochdruckgürtel ausdehnt und sich die Tiefdruckzone der mittleren Breiten – insbesondere über dem nördlichen Atlantik – polwärts verlagert. Dagegen stieg der Bedeckungsgrad etwa über dem Atlantik und Pazifik nördlich des Äquators. Zudem berichten die Forscher, dass die oberste Wolkenschicht höher reicht als früher.

Seit dem Jahr 1984 gibt es ein ISCCP Cloud-Cover Daten-Projekt. Und Studien, welche die Veränderungen der Wolken-Bedeckungsgrade über die verschiedenen Breiten analysieren und versuchen, mit den Simulationsergebnissen in Einklang zu bringen, gibt es wie Sand am Meer. Allerdings oft mit ernüchternden Ergebnissen, zum Beispiel,

dass zwischen Messungen und Simulationsergebnissen nicht nur große Abweichungen bestehen, sondern die Effekte schlichtweg noch nicht ausreichend verstanden sind. Dazu kommt, dass beispielsweise ein Projekt beim CERN ermittelte, dass die Wolkenbedeckung viel stärker als bisher angenommen von natürlichen Einflüssen abhängt, somit im vor-industriellen Zeitalter eventuell viel größer als bisher angenommen war und das aktuelle Verhalten somit weit mehr (als bisher angenommen) von natürlichem und weniger (als bisher angenommen) vom CO2-Forcing abhängt

Theorien und Annahmen gibt es also viele und die Ergebnisse erscheinen insgesamt etwas chaotisch, weshalb die Klimamodellierer bezüglich der Wolken immer noch ziemlich hilflos sind:
M. Calisto at al., 2014: Cloud radiative forcing intercomparison between fully coupled CMIP5 models and CERES satellite data (Anmerkung: CMIP5 „Coupled Model Intercomparison Project 5“ sind neue Klimamodellierungen)

We have found that none of the models are consistent with the CERES data for all four variables considered….
we can say that despite consistent improvements in complexity and resolution of the models, none of the CMIP5 models presented here fits perfectly to the satellite data. Most of the models show a large bias in sea-ice regions, the tropical Pacific, and subtropical stratocumulus regions (Figs. 5 and 6). An accurate representation of clouds and their radiative effects still remains a challenge for global climate modeling.

[Übersetzung von Chris Frey: Wir sind zu dem Ergebnis gekommen, dass keines der Modelle konsistent ist mit den CERES-Daten für alle betrachteten Variablen … wir können sagen, dass trotz konsistenter Verbesserungen hinsichtlich Komplexität und Auflösung der Modelle keines der hier präsentierten CMIP5-Modelle genau zu den Satellitendaten passt. Die meisten Modelle zeigen einen großen Bias in Gebieten mit Meereis, dem tropischen Pazifik und subtropischen Stratocumulus-Regionen. Eine genaue Repräsentation von Wolken und deren Strahlungs-Auswirkungen bleibt nach wie vor eine große Herausforderung für die globale Klima-Modellierung.

Ende Übersetzung]

The Daily Star, May 27, 2016 : Scientists make news clouds which may lessen global warming
… Nobody knows just how cloudy skies were in the old days. Scientists have figured there were far fewer clouds than now, Kirkby said. But the discovery of a new natural route to cloud formation suggests that cloud cover was in fact greater than scientists had assumed.

If so, the way these simulations work, it would mean that greenhouse gases haven’t been quite as potent in producing warming so far as scientists thought. So, ton for ton, they may not be quite as potent in producing future warming either.
A new discovery about how clouds form may scale back some of the more dire predictions about temperature increases caused by man-made global warming. That’s because it implies that a key assumption for making such predictions is a bit off. „What this will do is slightly reduce and sharpen the projections for temperature during the 21st century,“ said researcher Jasper Kirkby.

[Übersetzung von Chris Frey: … Niemand weiß, wie wolkig es während der alten Tage war. Wissenschaftler haben herausgefunden, dass es weit weniger Wolken gegeben hatte als jetzt, sagte Kirkby. Aber die Entdeckung eines neuen natürlichen Weges der Wolkenbildung zeigt, dass die Wolkenbedeckung tatsächlich höher war als die Wissenschaftler vermutet hatten.

Falls das so ist, die Funktionsweise dieser Simulationen, würde das bedeuten, dass Treibhausgase nicht in der Lage gewesen wären, eine den Vermutungen der Wissenschaftler entsprechende Erwärmung zu erzeugen. Eine neue Entdeckung darüber, wie sich Wolken bilden, kann einige der düsteren Prophezeiungen hinsichtlich der vom Menschen verursachten Erwärmung abschwächen. Und zwar deswegen, weil es impliziert, dass eine grundlegende Hypothese für derartige Prophezeiungen ein wenig abwegig ist. „Das Ergebnis hiervon wird sein, dass die Projektionen der Temperaturen im 21. Jahrhundert etwas reduziert werden“, sagte der Forscher Jasper Kirkby.

Ende Übersetzung]

Einer Studie, der es auf einmal gelang, aus längst bekannten, teilweise aber ungeeigneten Satellitendaten
[4] „this is because observational systems originally designed for monitoring weather have lacked sufficient stability to detect cloud changes reliably over decades unless they have been corrected to remove artefacts ,
durch „Herausrechnen störender Einflüsse“ plötzlich einen „genauen“ Wolkenverlauf zu rekonstruieren und dann durch geeignet angepasste
[4] „Here we show that several independent, empirically corrected satellite records exhibit large-scale patterns of cloud change between the 1980s and the 2000s that are similar to those produced by model simulations of climate with recent historical external radiative forcing
Simulationsläufe nachzuvollziehen, ist jedenfalls mit äußerster Vorsicht zu betrachten. Es entsteht leicht der Eindruck der typischen “Beweisführung” in der Klimakunst: Nachträglich Messdaten zu “erzeugen”, dann Simulationen so lange anzupassen (es wurden wohl die CO2- und Aerosol-Forcinwerte so lange verändert, bis die zurückgerechneten Kurvenverläufe ungefähr passten), bis diese Daten wenigstens im Ansatz in einer Rücksimulation herauskommen und dann zu behaupten, damit ist die Qualität der Simulationen belegt (die das Ergebnis allerdings weder vorhersagen, noch ohne nachträgliche “Anpassung” zurückrechnen konnten).

Auf kaltesonne kam dazu jüngst eine größere Zusammenfassung:
kaltesonne, 27. August 2016: Wolken – die großen Unbekannten im Klimasystem
Lange Zeit hatten uns die Klimawissenschaftler vorgegaukelt, es gäbe nur noch i-Punkte in den Klimagleichungen zu setzen. Heute wissen wir, dass dies ein schwerer Fehler war. Noch immer gibt es viele große Unbekannte in den Klimamodellen. Im Februar 2015 räumte das Deutsche Klimakonsortium (DKK) ein:
Wolken – die großen Unbekannten im Klimasystem
[…] Wolken sind für systematische Messungen nicht nur schwer zugänglich, sie unterliegen auch ständiger und schneller Veränderung, sind in Form, Entstehung, Zusammensetzung und Höhenvorkommen unterschiedlich und haben deshalb verschiedene Auswirkung auf die Energiebilanz in der Atmosphäre. So wirken Wolken in tieferen Atmosphärenschichten kühlend, weil sie Sonnenstrahlen reflektieren und weniger Energie die Erdoberfläche erreicht. Hohe Eiswolken, Zirren genannt, wirken hingegen eher wärmend, da sie die Wärmeabstrahlung der Erde nicht in die Atmosphäre entlassen, sondern wieder Richtung Erdoberfläche reflektieren. […] Frank Stratmann untersucht im weltweit einzigartigen Leipziger Wolkensimulator (Leipzig Aerosol Cloud Interaction Simulator, LACIS) die Wechselwirkungen zwischen Aerosolpartikeln und Wolkentropfen: Im Kleinen wird die Wolkenbildung simuliert, die sich normalerweise bis zu einer Höhe von 15 km über der Erdoberfläche abspielt. […]
In Stratmanns Vortrag heißt es:
Was ist der Stand:
Wolken in Klimamodellen werden in der Regel nicht im Detail modelliert weil:
a) es teilweise an grundlegendem physikalischem Verständnis mangelt
b) eine Prozessmodellierung numerisch zu aufwändig ist
c) es ein grundsätzliches Skalenproblem gibt
(Wolken – Kilometerskala, Modellauflösung – Hundertkilometerskala)
d) Wolken werden in parametrisierter Form behandelt
Klimamodelle müssen anhand von Messwerten validiert werden
kaltesonne: Im Mai 2015 brachte auch proplanta.de Klimarealimus:
Forscher nehmen Wolken ins Visier
Wie beeinflussen die Wolken den weltweiten Klimawandel? Forscher haben darauf noch keine umfassenden Antworten.
Klar sei nur eines, sagt Professor Thomas Leisner, Klimaforscher am Karlsruher Institut für Technologie (KIT): «Wenn sich das Klima ändert, ändern sich auch die Wolken – und umgekehrt». Doch in welchem Maße? Und in welche Richtung? In der deutschlandweit einzigartigen Wolkenkammer «Aida» versuchen Leisner und seine Mitarbeiter, Antworten zu finden. Zwei zentrale Fragen stellen sich:
Werden die Wolken im Klimawandel mehr kühlend oder mehr erwärmend wirken?

Das Max Plank Institut umschreibt die Problematik recht umständlich, aber mit ähnlichem Ergebnis: Wo liegen die Grenzen der Vorhersagbarkeit des Erdsystems?
… Anderes ist jetzt erst möglich geworden, wie etwa das Ersetzen der Wolkenparametrisierung durch konvektionsauflösende Modelle, wodurch die Simulationen eine deutlich stabilere konzeptuelle Grundlage erhalten.
Um unsere Modelle zu evaluieren und zu initialisieren, benutzen wir in zunehmendem Maße Beobachtungsdatensätze, aus denen wir grundlegende,
neue Einsichten in das sich ändernde Erdsystem gewinnen: von der Vertikalstruktur der Wolken über die zunehmende Wärmeaufnahme des Ozeans bis hin zu den immer genauer werdenden Beschreibungen der Landbiosphäre. Die globalen Beobachtungen werden durch eine neue Generation von Messkampagnen ergänzt, zum Beispiel für die Wolkendynamik in den Subtropen oder die meridionale Umwälzbewegung im Ozean.

Was sagte Herr Lesch

Die Aussage: „ H. Lesch: Es gibt jetzt klare Prognosen dafür, dass die Prognosen von Klimamodellen eintreten.“
ist damit auf jeden Fall nicht belegt und entspringt eher einem Wunschdenken. Zudem ist eine solche Aussage auch Unsinn, doch trotzdem entlarvend typisch „ … es gibt Prognosen, dass die Prognosen eintreten …“.
Beim Klima-Simulieren werden viele verschieden parametrierte Simulations-Läufe gemacht und dann „ermittelt“, welcher der „richtigste“ sein könnte. Irgend eine Prognose tritt dadurch irgendwann immer ein. Nur ist in der Regel vorher nicht bekannt, welche es werden wird. Anders herum werden die Simulationen rückwirkend den wahren Verläufen angepasst und dazu verkündet: „hätte man es damals so parametriert, wären die heutigen Ergebnisse herausgekommen“.
Wer die himmelschreienden Ungenauigkeiten nicht glaubt, sehe sich das in den vielen Vulnerabilitätsstudien mit ihren Simulationsläufen an:
EIKE: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Wie schwierig es ist, Ursache und Wirkung zu unterscheiden, lässt sich am folgenden Verlaufsbild der tropischen Wolkenbedeckung ahnen.

Bild 3 Tropische Wolkenbedeckung und Temperatur seit 1983 (Wolken: ISCCP) Quelle: WUWT, Blogbeitrag

Meeresspiegel

Weiter geht es bei Herrn Lesch mit dem Meeresspiegel:
H. Lesch: … und warmes Wasser braucht mehr Platz … und schon ist man beim Meeresspiegelanstieg: Da gibt es ebenfalls neue Daten und die sagen uns ebenfalls nichts Gutes. … Zumal sich eben auch die Kontinente noch anheben z.B. genau dann wenn die Gletscher verschwinden die … wenn das Eis verschwindet …
Wie hoch ist tatsächlich der Meeresspiegelanstieg … Man hat Modelle benutzt und hat lokale Messstationen deren Wasseranstieg, deren Meeresanstieg zu rekonstruieren. Dann macht man das mit zwei, drei, vieren . ist eine Evolution von Modellen. … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr …
und das ist klar, klipp und klar

Wieder muss man Datenquellen raten, aber es finden sich dazu passende Fundstellen, wie:
[1] Temperature-driven global sea-level variability in the Common Era
Wie so oft, hat ein Studienteam ganz neu festgestellt, dass man die Daten der Vergangenheit bisher falsch interpretiert hat und mit den „richtigen“, statistischen Methoden berechnet, die Zukunft viel schlimmer (als bisher publiziert) werden wird. Und wie so oft, wenn eine schlimme Klimaapokalypse zu verkünden ist, war auch Herr Rahmstorf (PIK) im Team dabei.
Die Studie kommt auch im EIKE-Artikel: Anstieg des Meeresspiegels: Nur Fakten, vor, doch soll hier auf eine Besprechung auf scinexx eingegangen werden.
scinexx.de:
[6] Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren Bisher vollständigste Berechnung der klimabedingten Veränderungen des globalen Meeresspiegels
Jetzt ist es amtlich: Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren. Von 1900 bis 2000 stiegen die weltweiten Pegel um 14 Zentimeter. Gäbe es dagegen den anthropogenen Klimawandel nicht, wäre der Meeresspiegel vielleicht sogar gleichgeblieben, wie Forscher im Fachmagazin „Proceedings of the National Academy of Sciences“ berichten. Zudem wären allein den US-Küsten 4.000 Überschwemmungen seit 1950 erspart geblieben.
Dass die Meeresspiegel durch die globale Erwärmung ansteigen, ist mittlerweile sattsam bekannt. Unter anderem deshalb prognostizieren Klimaforscher zunehmende Überschwemmungen und selbst in den USA gehen schon die ersten Inseln unter.
Zudem wurde lange Zeit mit
falschen Basiswerten gerechnet, so dass sich erst kürzlich herausstellte, dass der Anstieg doch steiler ist als gedacht.
„Eine statistische Herausforderung“
Robert Kopp von der Rutgers University und seine Kollegen haben es nun dank komplexer Analysen erstmals geschafft, die Entwicklung des Meeresspiegels in den letzten 3.000 Jahren zu rekonstruieren. „Kein lokaler Pegelstand liefert uns den globalen Meeresspiegel“, erklärt Kopp. „Denn an jedem Standort wird der Wert von zahlreichen Prozessen beeinflusst, die ihn vom globalen Mittel abweichen lassen. Hieraus das globale Signal zu isolieren – das ist die statistische Herausforderung“
Wie sensibel der Ozean auf Klimaveränderungen reagiert, zeigt ein weiteres Ergebnis:
Zwischen den Jahren 1000 und 14000 sank der Meeresspiegel um rund acht Zentimeter ab, wie die Forscher feststellten. Diese Entwicklung trifft mit einer Phase zusammen, in der sich globale Klima um 0,2 Grad Celsius abkühlte. „Es ist erstaunlich, dass wir diese Pegelveränderungen sogar bei einer so schwachen Abkühlung sehen“, sagt Kopp.

Selbst allerschlimmste Fehler fallen einer Fachredaktion nicht auf

Im scinexx-Artikel steht (hier extra als screenshot, damit man es glaubt, sofern es doch noch von der Redaktion korrigiert werden sollte), dass der Meeresspiegel zwischen den Jahren 1.000 und 14.000 um rund 8 cm sank:

Bild 4 Screenshot aus dem scinexx Artikel [6] zur Studie [1]
Diese Textstelle liest sich in der Studie allerdings wie folgt:

[1] „ … with a notable decline over 10001400 CE coinciding with 0.2 °C of global cooling

Der Redakteur hat (sicher versehentlich) aus den richtigen 1.400 CE in der Studie falsche 14.000 CE getippt. Das kann jedem mal passieren. Nur lag der Meerespegel vor 14.000 Jahren wie allgemein bekannt um 80 m (und nicht 8 cm) tiefer und die Temperatur ebenfalls um fast 20 Grad (und nicht 0,2 Grad). Dass dieser – fast schon jedem Klimalaien sofort ins Auge springende – Fehler niemandem in der Redaktion aufgefallen ist (und keinen Leser zur Reklamation veranlasste), zeigt, welcher krasse Unsinn beim Klimawandel publiziert werden kann, ohne „anzuecken“.

Bild 5 Pegel- und Temperaturverlauf seit ca. 25.000 Jahren. Quelle: Zentralanstalt für Meteorologie und Geodynamik, ZAMG

Im Studienteam müssen wahre Rekonstruktionsgenies gewesen sein

Im scinexx Artikel steht: „Der globale Meeresspiegel ist im 20. Jahrhundert schneller angestiegen als jemals zuvor in den letzten 3.000 Jahren“. In der Studie selbst findet sich dazu das folgende Bild:

Bild 6 Die erste (angeblich) wirklich genaue Rekonstruktion des Meeresspiegelverlaufs seit 2400 Jahren. Quelle: [1]
Dieser „endlich ganz genaue berechnete Verlauf“ zeigt seit den letzten 2400 Jahren (bis ca. 1900) eine Spanne von gerade einmal ca. 15 cm.

Nun hat der Autor historische Pegelrekonstruktionen schon einmal in einer kleinen Analyse gesichtet und ist dabei zum Ergebnis gekommen, dass die Pegel-Änderungsspanne um Dimensionen höher ist, und schlimmer, aufgrund der katastrophalen Proxi-Ungenauigkeiten gar kein „wirklicher“ Global-Verlauf mit brauchbarer Genauigkeit rekonstruiert werden kann:
EIKE 07.04.2016: [5] Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

Daraus eine Proxy_Rekonstruktion (Bild 7), welche dem IPCC AR5 entstammt. Die Proxys überstreichen in diesem Zeitraum eine Spanne von mindestens 100 cm. Vor allem aber sind sie regellos verteilt (Verdacht, dass sie teils Zufallswerte darstellen). Jedenfalls lässt sich kein „wahrscheinlicher“ mittlerer Kurvenverlauf daraus berechnen, weil die notwendigen, statistischen Basisannahmen nicht erfüllt sind. Natürlich kommt im Rechner immer eine Mittelwert-Kurve heraus – nur stimmt sie nicht.

Bild 7 IPCC Proxibild der vergangenen 3000 Jahre (gestrichelte Linien durch den Autor ergänzt). 0 = Jahr 1950

Original-Bildtext: Figure 13.3 (a) Paleo sea level data for the last 3000 years from Northern and Southern Hemisphere sites

Der folgende Verlauf eines Proxys der Malediven, indischer Ozean (Bild 8) soll zeigen, wie leicht die Annahme, einen so steilen Pegelanstieg wie aktuell hätte es die letzten 3000 Jahre noch nie gegeben, auch falsch sein kann. Es fällt aber kaum auf, da die schnellen Änderungen in den vielen Mittelungen verschwinden.

Bild 8 [5] Fig. 1. Sea level curve for the last 5000 years for the Maldives.
Nun eine Tabelle mit den Pegeländerungen weltweit verteilter Proxis aus dem EIKE-Artikel (Bild 9). Die Pegel-Spannweiten der letzten 2000 Jahre liegen zwischen -1,4 … +3,2 m. Laut der ganz neuen Studie will man daraus mittels ganz moderner Statistik heraus bekommen haben, dass der globale Mittelwert in diesem Zeitraum um nicht mehr als 15 cm geschwankt hätte. Das ist mehr als absolut unglaubwürdig. Bei den katastrophal streuenden Daten lässt sich auch mit noch so viel „Statistik“ kein wahrer Mittelwertverlauf mit dieser Genauigkeit bestimmen, beziehungsweise belegen.

Bild 9 [5] Meerespegel-Verlaufsrekonstruktionen aus weltweit verteilten Pegelproxys (ohne Pegel Mittelmeer)
Zum angeblich so alarmistischen, jüngeren Pegelanstieg noch ein Link:

EIKE: Anstieg des Meeresspiegels: Nur Fakten
Nur weil der Meerespegel eben nicht alarmistisch ansteigt, wird mit immer neuen „bahnbrechenden, statistischen Analysen“ versucht, einen zu konstruieren.

Was sagte Herr Lesch

Die Aussage: H. Lesch: „ … auf diese Art und Weise ist es gelungen, eine klipp und klare Aussage darüber zu machen, dass die Meere in den letzten 100 Jahren so stark angestiegen sind wie in den letzten 3000 Jahren nicht mehr … und das ist klar, klipp und klar,
darf man bedenkenlos anzweifeln, da sie sich auf eine Studie bezieht, welche unseriöse und vielen anderen Analysen deutlich widersprechende Ergebnisse präsentiert. Klipp und klar ist nur, dass damit gar nichts klar ist.

Fazit

Herr Lesch hat inzwischen mehrere Vorträge zum Klimawandel „gedreht“. Es ist (für jemand dazu kritisch eingestellten) wirklich eine Qual, sich seine Darstellungen dazu anzusehen und zu hören. Man merkt dabei auch, wie wenig „Wissenschaftsvorträge“ nutzten, wenn keine Quellen bekannt gegeben werden.
Im Kern sind seine Vorträge dazu inzwischen zur reinen Agitation und Kanzelpredigt, moderner: Vermittlung einer Message, verkommen. Mit „Wahrheitsvermittlung“ haben sie jedenfalls rein gar nichts mehr zu tun. Vor Kurzem verkündet er inzwischen, beim Klimawandel gäbe es überhaupt keine Zweifel, was die (alarmistischen) Studien schreiben, wäre einfach „wahr“ und somit gäbe es dazu auch keinen Dissens mehr (die Rezension zu einem seiner Videos, in welchem er vor großem Publikum genau dies konkret sagt, erscheint noch).
Es fragt sich nur: Was treibt einen Professor dazu, sich sein Renommee selbst so konsequent kaputt zu machen? – Und, warum unsere Fernsehanstalten solche Ökokirchen-Predigersendungen als „Wissenschaft“ bringen.

Quellen

[1] R. E. Kopp et al. (mit S. Rahmstorf): Temperature-driven global sea-level variability in the Common Era

[2] ZDFHD, Video: Frag den Lesch – Neues aus der Klimaküche Quelle: YouTube, Veröffentlicht am 28.11.2016

[3] npj, Heidi J Smith at al., 8 June 2016: Biofilms on glacial surfaces: hotspots for biological activity

[4] Joel R. Norris at al., 11 July 2016: Evidence for climate change in the satellite cloud record

[5] EIKE 07.04.2016: Der Verlauf des Meeresspiegels im Holozän und seit 2.000 Jahren

[6] scinexx.de: Meeresspiegel: Schnellster Anstieg seit 3.000 Jahren

[7] ScienceScepticalBlog: Die Top 5 Lügenmärchen der Klimaforscher
http://www.science-skeptical.de/klimawandel/die-top-5-luegenmaerchen-der-klimaforscher/0015719/




Obsolete Klimawissenschaft zu CO2

Greenstone und Sunstein haben ein großes Interesse in diesem Spiel: Während ihrer Jahre in der ersten Obama-Regierung riefen sie eine inter-ministerielle Arbeitsgruppe IWG ins Leben, deren Mitglieder aus verschiedenen Regierungsagenturen berufen wurden, die sich mit den sozialen Kosten von Kohlenstoff (SCC) befasst hatten – oder den marginalen Kosten der Freisetzung einer Tonne CO2 in die Atmosphäre. Diese IWG befand, dass man die Kosten mit 36 Dollar pro Tonne schätzen sollte (für 2015). Man lege diese Zahl zugrunde, und man hat viel Rechtfertigung für wesentliche politische Schritte, um die CO2-Emissionen zu kappen. Greenstone und Sunstein hofften, dass die Arbeitsgruppe sich auf die „jüngsten Forschungen in Wissenschaft und Ökonomie“ stützen und die behaupteten Kosten belegen würden mit der „Berückichtigung der Zerstörungen von Eigentum durch Stürme und Überschwemmungen, abnehmende landwirtschaftliche und industrielle Produktivität, steigende Sterblichkeit und mehr“.

Ihre Mühe sollte als grandioses Scheitern betrachtet werden sowie als ein Affront gegen das wissenschaftliche Verfahren, das in ihren Studien anzuwenden sie vorgeben. Der erste Fehler ist ein Verfahrensfehler. Der schlechteste Weg, einen grundlegenden Meinungsaustausch zum komplexen Thema Klimawandel zu bekommen ist es, die IWG ausschließlich mit Mitgliedern der Obama-Regierung zu besetzen, alle sorgfältig ausgewählt, weil sie die übertriebenen Bedenken des Präsidenten bzgl. globaler Erwärmung teilen. Der einzige Weg, ein vollständiges und genaues Bild der Lage zu erhalten ist, den Abweichlern zum Thema globale Erwärmung genauso zuzuhören wie den Befürwortern. Das ist jedoch niemals geschehen. Denn schließlich, wer sollte schon einem „Leugner“ zuhören?

Diese herablassende Haltung ist fatal für eine unabhängige Untersuchung. Egal wie oft der Präsident behauptet, die Wissenschaft sei felsenfest – die Vielfalt von Beweisen aus jüngster Zeit lassen immer mehr ein sehr unterschiedliches Bild entstehen, welches den zügellosen Pessimismus hinsichtlich Klimawandel unterminiert, der vor etwa 10 Jahren groß in Mode war. Die im Rahmen der Obama-Regierung zusammen gerufene Gruppe hat niemals die Akkumulation von Beweisen der anderen Seite untersucht, geschweige denn widerlegt. Tatsächlich sind nahezu alle Berichte der IWG bemerkenswert hinsichtlich ihrer Weigerung, überhaupt irgendwelche Daten zu berücksichtigen. Stattdessen beruft man sich durchgängig auf Modelle, die von anderen entwickelt wurden, als das solide Fundament der Arbeit der Gruppe, ohne auch nur ein einziges Wort zu hinterfragen, welches die Modelle sagen.

Der zweite grundlegende Fehler der regierungsamtlichen Studien ist die Art und Weise, mit der sie die sozialen Kosten von Kohlenstoff (SCC) ausarbeiten. Wie alle Experten einer Kosten/Nutzen-Analyse wissen, ist es ein Fehler, die Kosten isoliert vom Nutzen zu betrachten, oder den Nutzen isoliert von den Kosten. Und doch scheint man genau dies in den Berichten getan zu haben. Als Reaktion auf die zahlreichen Beanstandungen zu den Berichten hat die IWG in einer Antwort im Juli 2015 geschrieben, dass „einige Kommentatoren den Eindruck hatten, dass die SCC-Schätzungen den Wert der Vorteile und die Dienstleistungen für die Gesellschaft einschließen sollten im Zusammenhang mit CO2-Emissionen“. Man muss deren Antwort in Gänze lesen, um das glauben zu können: „Eine rigorose Evaluierung der Vorteile und Kosten ist ein Eckpfeiler des Vorschriften gebenden Prozesses. Die IWG stimmt darin überein, dass dies wichtige Themen sind, die bei der Abschätzung der Auswirkungen einer Politik relevant sein können, die zur CO2-Reduktion führt. Allerdings sind diese Themen nicht relevant für die SCC selbst. Die SCC sind eine Schätzung der gesamtwirtschaftlichen Schäden aufgrund von CO2-Emissionen und werden daher herangezogen, um die Vorteile der Reduktion dieser Emissionen abzuschätzen“.

Im Wesentlichen werden die Vorteile derzeitiger oder zukünftiger CO2-Emissionen gar nicht angesprochen. Und doch muss eine wirklich neutrale Betrachtung des Problems vorbereitet werden, um zu der Schlussfolgerung zu kommen, dass gesteigerte Niveaus von CO2-Emissionen insgesamt vorteilhaft für die Gesellschaft sein, wie die Carbon Dioxide Coalition argumentiert hat, wenn man eine umfassendere Untersuchung durchführen würde. Der gesamte Prozess der Ausweitung von EPA-Vorschriften und anderer Maßnahmen der Obama-Regierung halten nur diese unrichtige grundlegende Schätzung am Leben. Das atemberaubendste Eingeständnis der Unsinnigkeit des gesamten EPA-Projektes stammt von der EPA-Chefin Gina McCarthy, die gesagt hatte, dass sie eine Temperaturabnahme um ein Hundertstel Grad als enorm vorteilhaft ansehen würde, unbeschadet der hohen Kosten, weil dieser Symbolismus „globale Maßnahmen auslösen“ könnte. Keine Kosten/Nutzen-Analyse würde verschwendete Ausgaben allein aus symbolischen Gründen rechtfertigen. Schließlich würde die menschliche Entwicklung bzgl. globaler Erwärmung nur dann Schaden nehmen, falls andere Nationen unseren falschen Sirenengesängen bzgl. CO2-Emissionen folgen, während die gewaltige Verschmutzung ignoriert wird, die Begleiterscheinung großer Bevölkerungszentren sind wie etwa Delhi und Peking.

Unglücklicherweise beruht die Unterstützung für Vorschriften bzgl. CO2-Emissionen unzulässig auf einer amtlichen Auswirkungs-Analyse, die nicht mehr wert ist als die falschen Hypothesen, auf denen die Modelle beruhen. Darunter ist auch der gewaltig komplizierte Clean Power Plan, der zeitweise vom Obersten US-Gerichtshof untersagt worden war und der ebenfalls auf den betrügerischen Schätzungen der sozialen Kosten von Kohlenstoff beruht.

Die Schwäche des EPA-Verfahrens wird offensichtlich durch die Daten, die Greenstone und Sunstein anführen, um die Behauptung zu stützen, dass die globale Erwärmung bereits ein gefährliches Niveau erreicht hat. Sie beziehen sich beispielsweise auf einen Geophysical Research Letter aus dem Jahr 2014, in dem es um den Rückzug von Eis in der Westantarktis zwischen 1992 und 2011 geht. Aber dieses eine Ergebnis muss in den richtigen Zusammenhang gestellt werden, wie es im State of the Climate Report aus diesem Jahr 2016 der Fall war. Dieses Dokument wurde vom Committee for a Constructive Tomorrow (CFACT) erstellt und der UN-Klimakonferenz in Marokko zugeleitet. In diesem vollständigeren Bericht wird belegt, dass der Massenzuwachs in der Ostantarktis im Mittel 200 Milliarden Tonnen pro Jahr betragen habe, verglichen mit den 65 Milliarden Tonnen Massenverlust, welche vom Zuwachs in der Ostantarktis weit überkompensiert worden waren. Damit ergibt sich ein Eiszuwachs in der gesamten Antarktis von grob geschätzt 82 Milliarden Tonnen pro Jahr zwischen 2003 und 2008. Fazit: „Die gute Nachricht lautet, dass die Antarktis gegenwärtig nicht zum Anstieg des Meeresspiegels beiträgt, sondern diesen um 0,23 Millimeter pro Jahr verlangsamt“. Alles in allem war die Temperatur in der Antarktis während der letzten 35 Jahre konstant geblieben.

Keine Analyse, die nur auf die Negativa schaut, kann es sich leisten, die viel größeren Positiva zu ignorieren, um ihre Glaubwürdigkeit zu erhalten. Tatsächlich belegt der CFACT-Bericht, dass die Eismasse in der Arktis derzeit um 22% größer ist als während der minimalen Ausdehnung im Jahre 2012. Diese Tatsache hilft zu erklären, warum es jüngst zu keiner Änderung der Rate des Meeresspiegel-Anstiegs gekommen war und mit Sicherheit zu keinem Anstieg, der irgendwie der relativ moderaten Erwärmung der letzten 100 Jahre zuzuordnen ist. Jüngste Trends zeigen, dass sich die Anstiegsrate der Ozeane während der letzten 18 Jahre immer mehr verlangsamt hat, während einer Zeit also, in der es eine substantielle Zunahme des CO2-Niveaus gegeben hatte. Und doch zeigen alle 102 verschiedenen, vom IPCC herangezogenen Modelle sehr hohe Schätzungen, und zwar um etwa das Vierfache zu hoch. Wie im CFACT-Bericht 2016 dokumentiert, hat sich die Temperatur während der letzten 18 Jahre kaum geändert, und die berichteten rekordhohen Werte beruhen auf Abweichungen bei den Messungen, die noch innerhalb der Messgenauigkeit liegen. Und doch folgt die Regierung der Methode, ausschließlich auf die Modelle zu schauen und die Daten zu ignorieren.

Genau dies wurde auch getan bei den inzwischen anachronistischen Endangerment Findings der EPA aus dem Jahr 2009, wo von der insgesamten Abnahme des arktischen Eises die Rede und die Behauptung aufgestellt worden war, dass die „erhöhten CO2-Niveaus“ „geringe vorteilhafte Auswirkungen auf die Ernteerträge“ erwarten ließen. Die gute Nachricht zu diesem Punkt scheint zu sein, dass die CO2-Zunahme während der letzten 30 Jahre zu einer Zunahme der grünen Vegetation auf der Erde um 14 Prozent geführt hat. Dies berichtet Matt Ridley in einem Vortrag im Jahre 2016. Es ist die beste aller möglichen CO2-Welten, wenn die Fläche urbaren Landes zunimmt bei geringen Temperaturänderungen und kaum wahrnehmbaren Änderungen des Meeresspiegels. Führt man all diese Zahlen zusammen, muss eine Überarbeitung der SCC erfolgen, denn wie es jetzt scheint, sind die Gesamtkosten von Kohlenstoff negativ. Außerdem haben die überarbeiteten Projektionen nur die viel niedrigen Schätzungen der globalen Erwärmung infolge eines höheren CO2-Niveaus untermauert.

Dieses grundlegende Ergebnis wird durch andere, leicht zugängliche Daten gestützt, die andere Bedenken im Artikel von Greenstone und Sunstein betreffen. Für Neulinge in dieser Diskussion: Es gab keine Zunahme von Stürmen und Überschwemmungen oder auch der Schäden, die diesen Ereignissen in die Schuhe geschoben werden. Im Gegenteil, die Trendlinie war eindeutig sehr günstig, hat doch die Anzahl von Extremereignissen wie Fluten und Stürme stetig während der letzten 100 Jahre abgenommen. Tatsächlich war das letzte schwere Unwetter in den USA der Hurrikan Katrina im Jahre 2005, gefolgt von elf Jahren relativer Ruhe in den USA und auf der ganzen Welt. Dieser Punkt ist zentral, weil eine der konstantesten Behauptungen zum globalen Klimawandel lautet, dass die systemweite Instabilität diese Extremereignisse hat zunehmen lassen, sogar dann noch, falls das Temperaturniveau insgesamt konstant geblieben ist.

Das Gesamtbild hinsichtlich der SCC ist daher das genaue Gegenteil dessen, was von Greenstone und Sunstein beschrieben worden ist, und diese Änderung der Richtung hat eine ernste Auswirkung auf den Erfolg zahlreicher juristischer Klagen. Greenstone und Sunstein schreiben, dass einem Urteil aus dem Jahr 2008 zufolge das Ignorieren der SCC eine regierungsamtliche Vorschrift „willkürlich und unberechenbar“ ist und dass daher eine Umformulierung seitens der betreffenden Agentur erfolgen muss. Sie erwähnen auch eine andere Entscheidung aus dem Jahr 2016, welche eine administrative Entscheidung des Energieministeriums aufrecht erhielt unter explizitem Bezug auf die SCC. Aber diese juristischen Entscheidungen sind umgeben von einer surrealistischen Aura. Eckpunkt dieser Fälle das Energy Policy and Conservation-Gesetz aus dem Jahr 2016 (EPCA). Dieses wurde in der Folge des Ölembargos des Nahen Ostens im Jahre 1973 in Kraft gesetzt. Das Hauptergebnis von EPCA war „die fundamentale Realität, dass diese Nation in eine neue Ära eingetreten ist, in der Energieressourcen, die früher ergiebig waren, immer weiter schrumpfen, was unser eigenes Wachstum verzögert und eine Änderung unserer Lebensgewohnheiten und -erwartungen erforderlich macht“.

Es war die Stärke dieses 41 Jahre alten Statuts, die den Gerichtshof im Jahre 2008 dazu veranlasste, von der National Highway Traffic Safety Administration zu verlangen, ihre Vorschriften bzgl. Treibstoffersparnis für Kleinlaster zu überarbeiten, weil sie die SCC nicht berücksichtigt hatte. Heutzutage ist diese Gesetzgebung vollkommen anachronistisch, weil die Revolution der Energie-Technologie die gesamte faktische Grundlage zerschlagen hat, auf der die Vorschriften bzgl. Treibstoffersparnis fußen. Angesichts Fracking ist Energie ergiebig. Folglich müssen die SCC neu bewertet werden im Lichte der Beweise, die außerhalb der EPA zusammengetragen und oben zusammengefasst worden waren. Kein einziger dieser Beweise ist berücksichtigt worden bei der Arbeit im geschlossenen Universum des gegenwärtigen Bündels von Umwelt- und Energiegesetzen. Derzeit scheint es so, dass praktisch alle EPA-Vorschriften auf überholter Wissenschaft beruhen.

Greenstone und Sunstein stehen nicht allein mit ihrer Weigerung, Beweise in Betracht zu ziehen, die ihre Behauptungen widerlegen. Aber falls die SCC negativ aussehen, sollte die Trump-Regierung tätig werden und die gegenwärtige Gefahrenbehauptung bzgl. CO2 eliminieren. Sie sollte den Vorschriften gebenden Apparat auflösen, der auf der hoch fragwürdigen Schätzung der hohen Werte der SCC beruht. Die traurige Wahrheit ist, dass die EPA und das Gesetzgebungsverfahren der Obama-Regierung keinen Respekt zeigt für die wissenschaftliche Methode, auf die zu bauen sie doch so sehr behaupten.

Link: http://www.hoover.org/research/obsolete-climate-science?utm_content=bufferefd7e&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer




Jede Tonne emit­tiertes CO2 führt zu einem Abschmelzen des Arktis­eises um drei Quadrat­meter

Klimaretter.Info: Arktis-Eisabdruck beim Autofahren
Einen direkten Zusammenhang zwischen dem Ausstoß von Treibhausgasen und der Eisschmelze in der Arktis stellt eine jetzt in der Zeitschrift Science veröffentlichte Studie her. Danach führt jede Tonne emittiertes CO2 zu einem Abschmelzen des Arktiseises um drei Quadratmeter mit einer Unschärfe von plus/minus 0,3 Quadratmetern. Sollten weitere 1.000 Gigatonnen CO2 in die Atmosphäre gelangen, sagt die Untersuchung voraus, werde dann im September – zum Ende des arktischen Sommers – die Arktis eisfrei sein.
Die Studienautoren Dirk Notz, Leiter der Max-Planck-Forschungsgruppe „Meereis im Erdsystem“, und Julienne Stroeve vom National Snow and Ice Data Center in den USA schlossen aus den bisherigen Emissionen und dem Eisrückgang seit 1953 auf den Wert von drei Quadratmetern Eis pro Tonne CO2.

Die Süddeutsche Zeitung wollte auf diese Information selbstverständlich ebenfalls nicht verzichten:
Mein Haus, mein Auto, meine Eisscholle
Bezogen sind die Meldungen auf die Studie:
[1]„Observed Arctic sea-ice loss directly follows anthropogenic CO2 emission”, Abstract

Arctic sea ice is retreating rapidly, raising prospects of a future ice-free Arctic Ocean during summer. Since climate-model simulations of the sea-ice loss differ substantially, we here use a robust linear relationship between monthly-mean September sea-ice area and cumulative CO2 emissions to infer the future evolution of Arctic summer sea ice directly from the observational record. The observed linear relationship implies a sustained loss of 3 ± 0.3 m2 of September sea-ice area per metric ton of CO2 emission. Based on this sensitivity, Arctic sea-ice will be lost throughout September for an additional 1000 Gt of CO2 emissions. Most models show a lower sensitivity, which is possibly linked to an underestimation of the modeled increase in incoming longwave radiation and of the modeled Transient Climate Response.
Sehr frei übersetzt lautet das:
Das arktische Meereis zieht sich rasch zurück, wodurch die Aussichten auf einen künftigen eisfreien Arktischen Ozean im Sommer zunehmen. Da sich Klimamodell-Simulationen des Meereisverlusts erheblich unterscheiden, verwenden wir hier eine robuste lineare Beziehung zwischen dem monatlichen September-Meereisbereich und den kumulativen CO2-Emissionen, um die künftige Entwicklung des arktischen Sommermeereises direkt aus den Beobachtungsdaten abzuleiten. Die beobachtete lineare Beziehung impliziert einen anhaltenden Verlust von 3 ± 0,3 m2 September-Meereisfläche pro Tonne CO2-Emission. Auf der Grundlage dieser Sensitivität wird das Arktische Meereis im September bei weiteren 1000 Gt CO2-Emissionen verschwinden Die meisten Modelle zeigen eine geringere Sensitivität, was möglicherweise mit einer Unterschätzung der modellierten Zunahme der eingehenden Langwellenstrahlung und der modellierten TCR* zusammenhängt.
*
TCR: WIKIPEDIA: TCR ist definiert als der Temperaturanstieg, der zum Zeitpunkt einer Verdoppelung der CO2-Konzentration in einem Szenario beobachtet wird, bei dem diese pro Jahr um 1 % anwächst. Der wahrscheinlichste Wert für die TCR liegt bei ca. 2 Grad nach 70 Jahren.

Endlich ist die persönliche Klimaschuld mit einem Meterstab absteckbar

Mit dieser Studie wollten die Autoren wohl ein großes Wissensloch schließen, um den ominösen Klimawandel greifbarer zu machen. Während man bisher eine nicht sichtbare Tonne CO2 in EUROs aufwiegen musste, kann nun jeder mit einem Meterstab seine persönliche Scholle Eis abstecken, die er durch eine klimaschädliche Tat schmelzen ließ, oder durch eine gute zufrieren lassen konnte. Wie in der katholischen Kirche, wo der Ablasshandel erst richtig florierte, als man die zu bezahlende Minderung der Höllentage abzählbar verbrieft bekam, steht dieser Marketingzwang dank dieser Studie nun auch der Ökokirche vollständig zur Verfügung.

Der Leitautor der angezogenen Studie [1], Dr. Dirk Notz, arbeitet beim Max-Planck-Institut für Meteorologie. Dort forscht er wohl vorwiegend über die Klimasimulation von Arktiseis (Institutsinfo):
-Meereis im Klimasystem
-Repräsentation von Meereis in gekoppelten Klimamodellen
-Eis-Ozean-Atmosphäre Wechselwirkungen
-Sensitivitätsstudien von Meereis mit Adjointmodellen
Als konform klimaalarmistisch hat er sich bereits in der Vergangenheit positioniert:
kaltesonne: „Hamburger Max-Planck-Institut mit fragwürdiger Beweisführung zum arktischen Meereis“. Seine Mitautorin, Julienne Stroeve, ist ebenfalls äußerst klimaalarmistisch eingestellt und eng mit Greenpeace verbunden (WUWT).

Gerade noch rechtzeitig zum Klimagipfel gelang der „Beleg“ dass es 1,5 Grad sein müssen

Neben der Erkenntnis zur Schmelzfläche des Arktiseises haben Herr Dr. Notz und seine Co-Autorin auch gleich mit herausgefunden, dass nur die Dekarbonisierung auf 1,5 Grad das Arktiseis (im Sommer) retten kann.
Diese Korrelation eines wichtigen Termins mit Bekanntgabe der Daten dürfte damit genau so signifikant sein, wie die technischen Ableitungen in der Studie. Aber die Ableitung – es geht wohl um Forschungsgelder und entsprechende Anbiederung durch politisch korrekte Daten – hat mit höherer Wahrscheinlichkeit mehr Wahrheitsgehalt.

Eine Studie ohne Angabe des Vertrauensbereiches geht nicht – ob der Inhalt stimmt, ist eher nebensächlich

In einer Studie ist es äußerst wichtig, dass eine Fehlerband-Angabe vorhanden ist. In diesem Fall ist es die Toleranz der Korrelation von 3 m2 +-0,3 m2 pro Tonne CO2-Emission. Ob die Aussage: Es sei anthropogener CO2-Einfluss, der sich linear in die Zukunft weiterführen lässt, überhaupt stimmt, ist allerdings vollkommen unwichtig.
Bevor die Studie abschließend rezensiert wird, der wichtige Blick zu den Polen, vor allem natürlich zum Arktiseis.

Wie steht es um das Meereis der Polkappen?

Global gesehen hat sich wenig verändert (Bild 1, oberste Linie „Globl sea ice area“). In Summe ist die Eisbedeckung seit dem Beginn der Satellitenmessungen im Jahr 1979 fast gleich geblieben. Demnach wäre es keiner besonderen Erwähnung wert, wenn nicht eine Unsymmetrie bestände und das Arktiseis weniger wird, während das der Antarktiseis aktuell horizontal verläuft und das Inlandeis langfristig zu nimmt (Bild 12).

Bild 1 zeigt die Eis-Ausdehnungsverläufe global (Arktis und Antarktis), Arktis, Antarktis in Monatsauflösung. Im Bild 2 sind die Verläufe von Arktis und Antarktis im gleichen Maßstab übereinander kopiert.

Bild 1 Globaler-, arktischer- und antarktischer- Meereisverlauf seit den Messungen durch Satelliten. Quelle: hidethedecline

Erkennbar ist, dass das Arktiseis abgenommen hat, während das Antarktiseis eine horizontale Linie bildet (Bild 2). Zudem zeigt sich, dass das Arktiseis seit ca. 10 Jahren nicht mehr abnimmt, was wegen des kurzen Zeitraums natürlich nicht signifikant ist.

Bild 2 Arktischer- und antarktischer- Meereisverlauf von Bild 1 (1979 – Okt. 2016), vom Autor übereinander kopiert. Der Y-Maßstab ist gleich, der Nullpunkt Antarktis ist verschoben

Die Abnahme des Arktis-Sommerminimums erfolgt nicht „linear“ (wie in der Studie [1] angegeben) sondern in Stufen, welche aus einem Zyklus resultieren (Bild 3 und 3.1).

Bild 3 Arktischer Meereisverlauf des sommerlichen Minimalwertes (1979 – Okt. 2016), vom Autor ergänzt. Quelle: meteo.plus

 

 

Bild 3.1 Arktischer Meereisverlauf des sommerlichen Minimalwertes, Regressions-Abschnitte (1979 – 2014). Quelle: Climategrog: on identifying inter-decadal variation in NH sea ice

Wie verlief die historische Eisausdehnung der Arktis

Einen interessanten und wohl wenig bekannten Aspekt bietet die Betrachtung des längerfristigen Verlaufs der arktischen Meereisbedeckung (Bild 4 und Bild 11) und ergänzend die der damaligen Temperaturen (Folgebildreihe). Auf einmal ergibt der Verlauf einen Zusammenhang und wird in Verbindung mit den Temperaturproxis begreiflich. Allerdings widerspricht die Aussage allen AGW-Klimaalarm-Informationen.

Bild 4 [3] Arktische Meereisbedeckung 1600 -2000 (Bildausschnitt, vom Autor um die gestrichelten Begrenzungslinien ergänzt). Linke Achse: Nordischer Multiproxi Mio km2.
Originaltext: Abbildung 2: Das Schmelzen des Meereises in den letzten Jahrhunderten wurde durch einen langfristigen Anstieg der Temperatur, der Sonnenaktivität und des Meeresspiegels begleitet. Der CO2-Gehalt der Atmosphäre erhöhte sich erst ab dem späten 19. Jahrhundert (aus: Die kalte Sonne, S. 64, hier auch die Literaturquellen der Kurven. Meereisbedeckung nach Polyak et al. 2010).

Die historische Eisbedeckung passt zum Temperaturverlauf

Das folgende Bild 5 zeigt eine Rekonstruktion der Grönlandtemperatur. Dazu das aktuelle Temperaturniveau („present temp“, grün eingekreist).Die aktuell gemeldeten „Wahnsinnstemperaturen“ in der Arktis verlieren dabei vollkommen ihren AGW-Schrecken, was nicht davon abhält, dass er verkündet wird:
Klimaretter.Info: Warnung vor 19 Kipppunkten in der Arktis, welche sich auf die Studie [13] Arctic Resilience Report 2016
bezieht. In dieser „Studie“ mit 240 Seiten Umfang findet sich keinerlei Darlegung zum historischen Temperaturkontext. Es reicht den Verfassern, dass es „allgemeines Wissen“ ist:
[13] Arctic Resilience Report 2016: The fact that the Arctic is changing fast is well known: The extent of sea ice, the condition of the Greenland ice sheet, the unusually warm temperatures are all widely reported – as are the new shipping routes opening up, and the oil exploration effrts. Less prominent, but also reported, are the stories of Indigenous Peoples whose livelihoods are disappearing, or whose villages are becoming uninhabitable.
Auch das „Wahrheitsministerium“ dpa meint, die Erde hätte erst um 1889 mit einem Klima begonnen.
dpa, 25. November 2016: Forscher registrieren Hitzewelle am Nordpol
Der Klimawandel wird auf der norwegischen Inselgruppe Spitzbergen immer stärker spürbar. «2016 wird dort das wärmste Jahr seit Beginn der Messungen 1889»

Geht man jedenfalls etwas weiter in der Historie zurück, zeigen sich die aktuellen Temperaturen als vollkommen normal. Doch welches Medium will das „erfahren“.

Bild 5 [11] (Bildausschnitt) Figure 1. (top) Reconstructed Greenland snow surface temperatures for the past 4000 years and air temperature over the past 170 years (1840–2010) from three records. The thick blue line and blue band represents the reconstructed Greenland temperature and 1 s error, respectively (this study). Hinweis: Rote, gestrichelte Begrenzungslinien vom Autor ergänzt
Bild 5 [11] (Bildausschnitt) Figure 1. (top) Reconstructed Greenland snow surface temperatures for the past 4000 years and air temperature over the past 170 years (1840–2010) from three records. The thick blue line and blue band represents the reconstructed Greenland temperature and 1 s error, respectively (this study). Hinweis: Rote, gestrichelte Begrenzungslinien vom Autor ergänzt

Bild 5.1 Rekonstruktion der Sommertemperatur Arctis. Quelle: NOAA, Shi, F., B. Yang, F.C. Ljungqvist, and F. Yang. 2012. Multi-proxy reconstruction of Arctic summer temperatures over the past 1400 years. Climate Research, Vol. 54 (2), pp. 113-128. Grafik vom Autor aus dem Datensatz erzeugt und mit Linien ergänzt

Bild 5.1 Rekonstruktion der Sommertemperatur Arctis. Quelle: NOAA, Shi, F., B. Yang, F.C. Ljungqvist, and F. Yang. 2012. Multi-proxy reconstruction of Arctic summer temperatures over the past 1400 years. Climate Research, Vol. 54 (2), pp. 113-128. Grafik vom Autor aus dem Datensatz erzeugt und mit Linien ergänzt

Auch die Europatemperaturen (Sommerwerte) ab Bild 6 zeigen es deutlich: Der ominöse Klimawandel begann niemals erst mit der Industrialisierung, bzw. genau dem Jahr 1880, sondern spätestens bereits um 1600 (Bild 6), wie es vom Autor schon mehrmals anhand von Studienanalysen gezeigt wurde:
EIKE: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende. Eine Literatursichtung von 1990 bis ganz aktuell, und
EIKE: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Bild 6 [9] Rekonstruierter Verlauf der sommerlichen Maximaltemperaturen Europa.
Original-Bildtext: Figure 3. Simulated and reconstructed European summer land temperature anomalies (with respect to 15001850 CE)for the last1200 yr, smoothed with a 31 yr moving average filter. BHM(CPS) reconstructed temperatures are shown in blue (red)over the spread of model runs. Simulations are distinguished by solar forcing: stronger (SUN WIDE , purple; TSI change from the LMM to present > 0.23%) and weaker (SUN NARROW, green; TSI change from the LMM to present <0.1%). The ensemble mean (heavy line)and the two bands accounting for 50% and 80% (shading)of the spread are shown for the model ensemble (see SOM for further details).

Bild 7 [9] Verlauf der Kältemaximas von 800 – 2000 als 51-Jahre Mittelwert des dargestellten Gebietes. Um 1600 war es am kältesten.
Bild 8 [9] Verlauf der Wärmemaximas von 800 – 2000 als 51-Jahre Mittelwert des dargestellten Gebietes. Deutlich erkennbar die mittelalterlichen Warmzeiten.
Auch für die Antarktis wurde ein ähnlicher Verlauf ermittelt. Dort wurde es im Gegensatz zur Nordhalbkugel allerdings bisher nicht mehr wärmer.

Bild 8.1 Figure S2 Proxy temperaturereconstructions for the seven regions of the PAGES 2k Network, Y-Achse: °C.

Quelle: PAGES 2k Consortium: Supplementary Information Continental-scale temperature variability during the last two millennia (vom Autor ergänzt und nachbearbeitet)

Warum so viele Rekonstruktionen diese Daten nicht zeigen, liegt (unter anderem) daran, dass die Temperaturvariabilität nicht richtig abgebildet wurde:
kaltesonne: Universität Gießen findet eklatante Unterschiede zwischen realer und simulierter Temperaturentwicklung während der letzten 2000 Jahre in Europa: Klimamodelle müssen auf den Prüfstand

Our reconstructions compare well with independent instrumental and proxy-based temperature estimates, but suggest a larger amplitude in summer temperature variability than previously reported. Both CPS and BHM reconstructions indicate that the mean 20th century European summer temperature was not significantly different from some earlier centuries, including the 1st, 2nd, 8th and 10th centuries CE. The 1st century (in BHM also the 10th century) may even have been slightly warmer than the 20th century

Anm.: Das ursprüngliche Bild 9 ist entfallen.

Zurück zur arktischen Eisbedeckung

Auch kurzfristiger betrachtet sind die Kenntnisse über den Eis-Ausdehnungsverlauf nicht so eindeutig, wie es oft suggeriert wird. In einer Studie zur Rekonstruktion des Sommereises [6] wird festgestellt, dass die größten Reduktionen vor 1920 stattgefunden haben (Bild 10) und der aktuelle Minimalstand keinesfalls so „unnatürlich“ ist, wie man offiziell berichtet.

Bild 10 [6] Abb. 8: 10jähriger gleitender Median des Sommermittels mit deutlichen Maxima um 1790, 1840, 1895 und 1950. Beeindruckend ist das Maximum zwischen 1893 und 1900 und der rasche Rückgang danach. Die Spitze des Medians in der Datenlücke hat ihre Ursache in dieser, ist also nicht wirklich vorhanden. In der Datenlücke 1803-1819 wurden konstante Werte in dieser Darstellung angenommen, da dies die Medianausreißer um 1802 verhindert

Es lohnt sich, die Aussagen in dieser Studie genauer zu lesen, denn sie widerspricht den „Erkenntnissen“ der „Korrelations-Trendanalysten“, wie Herrn Dr. Notz.

Studie (Auszüge, Hervorhebungen durch den Autor): [6] Veränderungen der Eisverhältnisse an der Südspitze Grönlands von 1777 bis 2002

Die jeweiligen Monatszeitreihen und das Sommermittel des KFI geben die Eisverhältnisse an der Südspitze Grönlands über einen 226jährigen Zeitraum hinweg an, nämlich von 1777 bis 2002.
Betrachtet man den Trend genauer, stellt man fest, dass ein Großteil der Eismengenreduktion zwischen 1900 und 1930 stattfand – über 50 %.
Dies spricht gegen die Berechnung eines linearen Trends. Die Trendanalyse zeigt allerdings auch, dass es unzureichend ist, bei der Betrachtung der Veränderung der Eisverhältnisse nur einen sehr kurzen Zeitraum zu verwenden, da die langfristigen Schwankungen die kurzfristigen doch erheblich überlagern. Betrachtete man den Zeitraum, in dem gemessene Klimadaten zur Verfügung stehen, so ergibt sich – durch die Maximal-Periode um 1900 – eine drastische Verringerung der Eismengen. Das Hinzunehmen des Zeitraumes davor zeigt, dass es sich bei dem Zeitraum 1865-1900 um ein Maximum handelte, das als Startpunkt einer linearen Trendanalyse ungeeignet ist. Es zeigt sich aber auch, dass alle Zeitreihen auf ein Minimum hinsteuern, offenbar sogar noch geringer werdend im jüngsten Zeitraum. Es wäre überzogen, aus dieser Untersuchung den anthropogenen Treibhauseffekt als Ursache zu identifizieren, doch liegt diese Vermutung nahe.
Die stärkste Eismengenreduzierung findet deutlich vor 1920 statt, je nach Zeitreihe sogar noch früher. Die Reduktion der Eismenge setzt sich auch nach 1920 fort, jedoch weniger stark, liegt dafür aber deutlich unter dem Niveau des 19. Jahrhunderts. Da sich dieses Muster des Eismengenverlusts in allen Zeitreihen wiederfindet, ist davon auszugehen, dass es sich um ein generelles Klimaphänomen der Nordhemisphäre handelt. Zwar sind die rekonstruierten Meereiszeitreihen sicherlich mehr oder weniger großen Fehlern unterworfen, sie geben aber einen generellen Überblick über die Stärke der Vereisung im Bereich des Ostgrönlandstromes. Somit stellt die KFI-Zeitreihe eine weitere Möglichkeit zum Vergleich von Klimadaten dar, die als Qualitätsstütze für andere Zeitreihen dienen können, sofern sie mit dieser in Relation stehen. Ob die starke Reduktion der Eisverhältnisse im 20. Jahrhundert ein kurzer Trend ist oder sich für die Zukunft eine weitere Reduktion erwarten lässt, lässt sich hier genau so wenig beantworten wie die Frage, ob der Mensch für diese Veränderung verantwortlich zeichnet. Letztlich handelt es sich bei dem Eistransport um einen Ausdruck des Klimageschehens, der atmosphärischen und ozeanischen Zirkulation. Wie sich dadurch die Eisverhältnisse an der Südspitze Grönlands weiter entwickeln werden, lässt sich nicht eindeutig prognostizieren. Die generelle Ähnlichkeit der Trends in den Zeitreihen belegt unzweifelhaft, dass die Eismenge über einen langen Zeitraum hinweg tatsächlich weniger geworden ist, insbesondere in der zweiten Hälfte des 20. Jahrhunderts gegenüber den belegbaren Zeiträumen zuvor. Es ist allerdings auch deutlich zu erkennen, dass um die Jahrhundertwende zum 20. Jahrhundert ein Maximum vorlag. Bisherige lange Eiszeitreihen beginnen überwiegend in oder nach ihm. Sie können diese Maximumstruktur daher nicht erkennen und registrieren stattdessen nur eine mehr oder weniger kontinuierlich rückläufige Tendenz. Die vorliegende Studie zeigt, dass die größte Eismengenreduktion der Arktis im 20. Jahrhundert bereits in dessen erstem Drittel stattfand.

Bild 11 [7] Historischer Verlauf der Eisbedeckung aus verschiedenen Rekonstruktionen. Die Begrenzungslinien der obersten Proxireihe (rot gestrichelt und violett) sind vom Autor ergänzt. Wie im Bild 4 zeigt sich auch hier die bereits im Mittelalter beginnende Abnahme der Eisbedeckung

Herr Dr. Notz sieht dagegen einen vollkommen anderen Verlauf als „richtungsweisender“ an (Bild 12). Allerdings entstammt dieser Verlauf nicht der Wirklichkeit, sondern seinen Simulationen, eine in der „Klimawissenschaft“ inzwischen gebräuchliche Methode, fehlende Daten durch „Wunschwerte“ zu ersetzen, auch wenn diese offensichtlich falsch, zumindest nicht verifizierbar sind.

Bild 12 [8] Abb. 5.2-1: Simulation der Ausdehnung des Meereises im September für den Zeitraum 800 bis 2100. Für die Vergangenheit wurde das entsprechende Modell mit Messdaten der äußeren Antriebe betrieben, für die Zukunft wurde angenommen, dass sich die Treibhausgasemissionen nur wenig verringern werden (vgl. Jungclaus et al. 2010).

Im Artikel: “Oktoberrückschau die 2.: Klimawandel, wohin bist du verschwunden“, wurde (eigentlich mehr zufällig) ein Satz zur Schneebedeckung der Nordhemisphäre ergänzt. Anbei nun eine Grafik, wie es damit seit dem Jahr 1970 aussieht (Bild 13). Der Verlauf wird viele Leser verblüffen, vor allem jedoch die Grünen und Umweltverbände, welche dem Wintersport jegliche Zukunft absprechen.

meteo.plus: Die Schneefläche in der Nordhemisphäre ändert sich infolge der Jahreszeiten gravierend. Während sie im Sommer nahezu verschwinden kann, nimmt sie im Winter in weiten Teilen Nordamerikas, Grönlands, Europas und Asiens auf mehr als 45 Millionen Quadratkilometer zu. Infolge der Klimaerwärmung hat sich in den letzten Jahrzehnten jedoch kaum etwas an der Ausdehnung der Schneefläche geändert. Die Trends deuten seit den 1990er Jahren eher wieder auf eine Zunahme der Schneebedeckung hin.

Bild 13 Jährliche Schneebedeckung der Nordhemisphäre Quelle: meteo.plus (Datenquelle: Rutgers University Global Snow Lab (NOAA)

Bild 14 Früher Wintereinbruch im Allgäu (13.11.2016). Quelle: BR-Homepage

Neue Zürcher Zeitung, 24.11.2016: Wintereinbruch in Japan, Erster November-Schnee in Tokio seit Jahrzehnten

In Tokio hat es am Donnerstag zum ersten Mal seit 54 Jahren in einem November geschneit.

Die (Un-)Genauigkeiten bisheriger Arktiseis-Vorhersagen

kaltesonne: [10] Warum ist die arktische Eisbedeckung immer noch nicht verschwunden – trotz der zahlreichen Ankündigungen? Von Dr. Dietrich E. Koelle
Die  Ankündigungen, dass die arktische Eisfläche bald ganz verschwunden sein wird, gehört zu den beliebtesten Übungen von publizitätsbewussten Klimatologen als auch von amerikanischen Politikern. Demnach dürfte es heute kein arktisches Eis mehr geben:
(1) M. Murphy, New Scientist, 1960: “Der arktische Ozean wird über das ganze Jahr offen sein noch vor dem Ende des 20.Jahrhunderts” (d.h. dem Jahr 2000),
(2) “Arktis-Spezialist Bernt Balchen 1972:  “Der Erwärmungstrend kann einen eisfreien arktischen Ozean  bis zum Jahr 2000 erzeugen”.
(3) Jay Zwally (NASA) sagte im Dez.2007 : “Der arktische Ozean könnte im Sommer 2012 fast eisfrei sein” (Natl.Geographic)
(4) Louis Fortier (Arctic Net, Kanada) 2007: “Die Arktis könnte im Sommer eisfrei sein bis 2010 oder 2015”
(5) David Barber (Univ.of Manitoba), 2008: “Der Nordpol könnte dieses Jahr erstmals eisfrei sein” : Juni 2008 (2) (3)
(6) Prof. W. Maslowski (US Naval Postgraduate School), 2008: “Im Sommer 2013 haben wir eine eisfreie Arktis”.
(7) M. Serreze, NSIDC (National Snow and Ice Data Centre, Colorado, USA) in 2008: “die Arktis könnte 2012 eisfrei sein”
(8) Al Gore, ehem.US-Vizepräsident bei der Klimakonferenz 2009 in Kopenhagen: “Arktis ist eisfrei in 5 Jahren” = 2014.
(9) US-Senator John Kerry 2009: “Die Arktis wird im Sommer  2013 eisfrei sein”
(10) Prof. P. Wadhams (Cambridge University), 2007: das arktische Eis ist in einer Todesspirale”, und 2011: “das Eis kann in vier Jahren alles verschwunden sein”, d.h. 2015.
Zufügung des Autors: Radio Bremen, 21. April 2016: Wissenschaftler erwarten dünneres Eis in der Arktis
Der vergangene Winter war relativ warm – auch am Nordpol. Forscher des Alfred-Wegener-Institutes (AWI) in Bremerhaven rechnen damit, dass das Meereis im Arktischen Ozean im Sommer so dünn sein könnte wie im Negativrekordjahr 2012. Die Wissenschaftler beobachten schon seit einiger Zeit, dass die Arktis sich zunehmend erwärmt.

Der historische Temperaturverlauf der Arktis ist durch Zyklen und nicht durch CO2 geprägt

Zur Aussage des AWI: „ … beobachten schon seit einiger Zeit, dass die Arktis sich zunehmend erwärmt“ lässt sich mit dem folgenden Bild 15, welches den stark zyklisch geprägten Temperaturverlauf der Arktis zeigt schön darstellen, was eine solche, angeblich „wissenschaftliche“ Aussage wirklich wert ist und welche Tendenzinformation dahinter steckt. Auf keinen Fall ist sie seriös und für Entscheidungen zu Klimamaßnahmen auch nicht hilfreich.

Bild 15 [10] Temperatur-Entwicklung in der Arktis, 1860-2000
Original-Bildtext: [10] BILD 3 (Anm.: Hier Bild 10) zeigt die Temperaturentwicklung von 1860 bis 2000 die sowohl global wie auch in der Arktis durch einen deutlich erkennbaren 60-Jahresszyklus  mit Temperatur-Schwankungen zwischen 0,2 und 1,2°C gekennzeichnet ist. Der russische Autor Frolov zeigt in Bild 4 einen ähnlichen Verlauf für die Barentsee (70-90° N) und wagt eine Extrapolation für die kommenden 50 Jahre. Demnach ist ein Temperaturabfall um ca. 1,5°C zu erwarten. Auch in einem ein neuen GEOMAR-Papier von 2014 mit den Ergebnissen eines neuen Klimamodells, das den NAO-Einfluss einbezieht, ist das Ergebnis eine kommende Temperatur-Abkühlung im Nordatlantik-Bereich.

Damit ist ziemlich sicher – das Arktiseis schmilzt nicht linear und eine seriöse Vorschau ist damit nicht möglich. Die Studie dient nur zur Darstellung der „Political Correctness“

Erinnerung: Herr Dr. Notz und seine Co-Autorin verkünden als Kernbotschaft: [1] we here use a robust linear relationship between monthly-mean September sea-ice area and cumulative CO2 emissions to infer the future evolution of Arctic summer sea ice directly from the observational record. The observed linear relationship implies a sustained loss of 3 ± 0.3 m2 of September sea-ice area per metric ton of CO2 emission. Based on this sensitivity, Arctic sea-ice will be lost throughout September for an additional 1000 Gt of CO2 emissions.

Diese Aussage und die Herleitung mittels einer einfachen Korrelationsbetrachtung, dazu über einen relativ kurzen (und problematischen) Zeitraum ist höchst unwissenschaftlich, wenn nicht unseriös. Man kann mit recht guter Sicherheit annehmen, dass diese Aussage falsch ist; und zwar sowohl was den linearen Trend betrifft, als auch den gemeldeten, linearen CO2-Einfluss. Den Studienautoren dürfte das bestimmt bewusst sein – was sie aber nicht an einer Publizierung hinderte, um Daten präsentieren zu können, welche den politischen Vorgaben entsprechen.

Die “Studie” hat damit jedoch nicht mehr “Wahrheitsgehalt”, als die ebenfalls aufgrund der Korrelation inclusive genauer Fehlerberechnung tätigbare Aussage von Bild 16.

 

Bild 16 Zeitreihen der Höhe der US Postgebühren von 1900 – 2000 (blau), der globalen Mitteltemperatur (orange) und der CP2 Konzentration (weiß). Wie deutlich erkennbar ist, folgt die Kurve der US Postgebühren der Entwicklung der globalen Mitteltemperatur wesentlich besser als die CO2 Kurve. Die Korrelation ist deutlich enger. Quelle: EIKE: Levermanns Märchenstunde – PIK Forscher verkauft Spekulationen als wissenschaftliche Wahrheiten

In der Klimawandel- “Wissenschaft” macht so etwas aber nichts aus. Da darf das “wissenschaftliche” Niveau ruhig beliebig weit unter dem von “Jugend Forscht” liegen – sofern das Ergebnis AGW-Klimawandel-bejahend ausfällt. Die vorbehaltlose Zustimmung der (Des-)Informationsseite von C. Kemfert (und der “üblichen” Medien) ist dann jedenfalls schon gesichert.

Mehr war aber auch wohl nicht gewollt, als sich der betont klimalarmistisch gebende Deutsche “Wissenschaftler” und die Greenpeace nahe stehende CO-Autorin für eine Studie zur Ermittlung des gewünschten Klimazusammenhanges fanden. Bezahlen muss es sowieso der Steuerzahler. Dass das Max Plank-Institut sich seinen Ruf ruinieren lässt, scheint es nicht zu stören – schließlich geht es ja um ein gutes Klima-Werk.

Wie seriösere Forscher das Thema darstellen, lässt sich auch nachlesen:

PolarNEWS, Oktober 25, 2016: Wie ist ein „eisfreier“ arktischen Sommer definiert? Wissenschaftler sprechen in der Regel von einer „eisfreien Arktis“, wenn weniger als 1 Millionen Quadratkilometern von Eis bedeckt sind. Das bedeutet, dass der Arktische Ozean praktisch eisfrei ist, während einige Gebiete im nördlichen Kanada und Grönland weiterhin eisbedeckt sind. … „Wenn es um die Vorhersage des Zeitpunktes einer eisfreien Arktis geht, zeigen verschiedene Klimamodelle eine große Bandbreite von über 100 Jahren. … Insgesamt zeigen unsere Ergebnisse, dass man vorsichtig sein muss, wenn man die langfristigen Meereisvorhersagen von Klimamodellen eingrenzen will“.

So schlimm war die Arktiserwärmung noch nie, die Folgen sind nicht absehbar – schrieb man im Jahr 1922

Zum Ende hin eine kleine Zugabe zum Arktisklima und wie sich Apokalypsen wiederholen.
Quelle: Alles Schall und Rauch:
Bericht von einer Expedition nach Spitzbergen unter der Führung von Dr. Adolf Hoel im Auftrag des norwegischen Wirtschaftsministeriums, verfasst im Jahr 1922: Die Veränderung der Arktis
Die Arktis scheint sich zu erwärmen. Berichte von Fischern, Robbenjägern und Forschern welche das Meer um Spitzbergen und den östlichen Teil der Arktis befahren, zeigen alle auf eine radikale Änderung der klimatischen Bedingungen und bis dato gänzlich unbekannten hohen Temperaturen in diesem Teil der Welt.
Die Meeresbeobachtungen sind aber noch interessanter. Die Eisbedingungen waren aussergewöhnlich. Tatsache ist, so wenig Eis hat man noch nie vorher notiert. Die Expedition hat praktisch einen neuen Rekord aufgestellt, in dem sie so weit nördlich segelten bis 81° 29’ in eisfreien Wasser. Das ist der nördlichste Punkt der jemals mit moderner ozeanografischen Geräten erreichte wurde.
Die Eigenschaft des Wassers im grossen Polarbecken war bisher unbekannt. Dr. Hoel berichtet, dass er einen Querschnitt des Golfstrom auf 81° nördlicher Breite gemacht und Tiefen von 3’100 Meter gemässen hätte. Diese zeigen den Golfstrom als sehr warm und er kann als Oberflächenstrom nach dem 81° Parallel verfolgt werden. Die Wärme des Wassers macht es wahrscheinlich, dass günstige Eisbedingungen für einige Zeit weitergehen.
Viele Landschaften haben sich so verändert, sie sind nicht mehr erkennbar. Wo vorher grosse Eismassen sich befanden, sind jetzt oft Moränen, Ansammlungen von Erde und Steinen. An vielen Orten wo früher Gletscher weit ins Meer ragten, sind sie komplett verschwunden.
Die Temperaturveränderung, sagt Kapitän Ingebrigtsen, hat auch die Flora und Fauna in der Arktis verändert. Diesen Sommer suchte er nach Weissfisch in den Gewässern um Spitzbergen. Früher gab es grosse Schwärme davon. Dieses Jahr sah er keine, obwohl er alle seine alten Fischgründe absuchte.
Es gab wenige Robben in den Gewässern um Spitzbergen dieses Jahr und der Fang war weit unter dem Durchschnitt. Das hat aber den Kapitän nicht überrascht. Er wies daraufhin, das Wasser um Spitzbergen hatte sonst eine gleichbleibende Temperatur im Sommer von 3°C. Dieses Jahr wurden Temperaturen von bis zu 15°C gemässen und letzten Winter ist das Meer nicht mal an der Nordküste von Spitzbergen zugefroren.“

Im Jahr 1975 folgte die große Kälte

Alles Schall und Rauch: Am 28. April 1975 erschien ein Artikel im Nachrichtenmagazin <Newsweek>, in dem Wissenschaftler in dramatischen Worten vor einer drohenden Eiszeit warnten. Die globalen Temperaturen wären stark gefallen und die Fläche der Polkappen würden zunehmen. Sie schlugen der amerikanischen Regierung vor, die ganze Eisfläche des Nordpols mit schwarzem Ruß zu bedecken, damit die Sonne diese schmilzt, um eine gefährliche Klimaabkühlung zu verhindern.

Das Eis der Antarktis

Auf der Südpolseite, der Antarktis, lässt sich kein Klimawandel feststellen. Das ist bekannt und führt dazu, dass zur „Erzeugung“ eines Klimawandel-Effektes vehement das Abrutschen von Festlandsgletschern ins Meer simuliert wird, worin das PIK wohl eine Vorreiterrolle innehat. Selbstverständlich finden sich für jede Argumentation viele belegende Studien.
Auf kaltesonne kam zur Antarktis einmal eine recht umfassende Darstellung:
kaltesonne, 17. Juni 2015: Klimamodellierer haben ein riesiges Problem: Modelle können Zunahme des antarktischen Meereises nicht reproduzieren
Die offiziellen Satellitendaten lassen keinen Raum für Spekulationen. Das antarktische Meereis wächst und wächst, und das seit 35 Jahren.

Eine weitere findet sich auf Ruhrkultour: NASA-Studie: Der antarktische Eisschild wächst
Ein neue Analyse von Satellitendaten der NASA, die am 30. Oktober 2015 veröffentlicht und am 18. August 2016 aktualisiert wurde, kommt zu dem Ergebnis, dass der antarktische Eisschild von 1992 bis 2001 einen Nettogewinn von 112 Milliarden Tonnen Eis pro Jahr aufweist. Der Nettogewinn des Eises hat sich zwischen 2003 und 2008 auf 82 Milliarden Tonnen Eis pro Jahr allerdings verlangsamt.
Die Antarktis enthält 90 Prozent des Eises der Erde. Wenn der antarktische Eisschild wächst, würde das nicht bedeuten, dass mehr als 90 Prozent der Gletscher der Welt wachsen?
Eine kleine Verdickung des Eises in der Ost-Antarktis und im Inneren der Westantarktis um durchschnittlich 0,7 Zoll (1,7 Zentimeter) pro Jahr wirkt sich nachhaltig über Tausende von Jahren aus. Sie entspreche einem sehr großen Gewinn von Eis – genug, um die Verluste aus schnell fließenden Gletschern in anderen Teilen des Kontinents zu überwiegen und den globalen Anstieg des Meeresspiegels zu reduzieren, sagen die NASA-Forscher.

Quellen

[1] Dirk Notz, Julienne Stroeve: served Arctic sea-ice loss directly follows anthropogenic CO2 emission

[2] Max Plank Gesellschaft, November 04, 2016, MPI-Met/PH: My contribution to Arctic sea ice melt
https://www.mpg.de/10817029/my-contribution-to-arctic-sea-ice-melt

[3] kaltesonne 12. Mai 2012: Hamburger Max-Planck-Institut mit fragwürdiger Beweisführung zum arktischen Meereis
http://www.kaltesonne.de/hamburger-max-planck-institut-mit-fragwurdiger-beweisfuhrung-zum-arktischen-meereis/

[4] NCAR December 8, 2015: NCAR develops method to predict sea ice changes years in advance Amid long-term retreat, winter sea ice could hold steady in the next several years
Zitat: “But we are predicting that the rate will taper off for several years in the future before resuming.

[5] Danish Meteorological Institute Scientific Report 05-02, 2005, Knud Lassen and Peter Thejll: Multi-decadal variation of the East Greenland Sea-Ice Extent: AD 1500-2000

[6] Institut für Geographie, Universität Hamburg, 2007, Börge Pflüger: Veränderungen der Eisverhältnisse an der Südspitze Grönlands von 1777 bis 2002

[7] Jochen Halfar at al.: Arctic sea-ice decline archived by multicentury annual-resolution record from crustose coralline algal proxy
GEOMAR: 650 Jahre arktische Eisbedeckung rekonstruiert. Forscher aus Deutschland, den USA und Kanada nutzen Rotalgen als Klimaarchiv
http://www.geomar.de/news/article/650-jahre-arktische-eisbedeckung-rekonstruiert/

[8] Notz, D. (2015): Historische und zukünftige Entwicklung des Arktischen Meereises. In: Lozán, J.L., H.Grassl, D.Kasang, D.Notz & H.Escher­Vetter (Hrsg.). Warnsignal Klima: Das Eis der Erde. pp. 194­198. Online: www.klima­warnsignale. uni­hamburg.de. doi:10.2312/warnsignal.klima.eis­der­erde.29

[9] Luterbacher et al, 29.01.2016: European summer temperatures since Roman times

[10] kaltesonne, 5. Januar 2016: Warum ist die arktische Eisbedeckung immer noch nicht verschwunden – trotz der zahlreichen Ankündigungen?

[11] Takuro Kobashi at al, 10. Nov. 2011: High variability of Greenland surface temperature over the past 4000 years estimated from trapped air in an ice core

[12] B. Christiansen and F. C. Ljungqvist, 18 April 2012: The extra-tropical Northern Hemisphere temperature in the last two millennia: reconstructions of low-frequency variability

[13] Arctic Council (2016). Arctic Resilience Report. M. Carson and G. Peterson (eds). Stockholm Environment Institute and Stockholm Resilience Centre, Stockholm




Trump vs. grüne Monster: Der Kampf, der seine Präsidentschaft bestimmen wird

Ich erkenne, dass dies für einige Leute nicht offensichtlich ist – auch nicht für diejenigen, die behaupten, auf der konservativen Seite der politischen Argumente zu stehen. Aber nach meiner kürzlichen Reise nach D.C. [Kurzform für Washington DC – steht District of Columbia] für einige private Treffen, sowohl mit [Trumps] Übergangsteam als auch mit wichtigen Mitgliedern der „Vast Right-Wing Conspiracy“ [*], war ich sicherer als je zuvor, dass Trump das hat, was es braucht – vor allem, wenn es um den Umgang mit der wohl gefährlichsten Bedrohung unserer Zeit geht: Die massiv korrupte, übertriebene, teure, menschenfeindliche, schikanierende, heimtückische, hässliche, verlogene und schrecklich zerstörerische Umweltindustrie – alias The Green Blob. [Anspielung auf die grünen Monster in dem Film: Gosthbusters – Geisterjäger, der Übersetzer]

[*Quelle eng.wikipedia.org: Vast Right-Wing Conspiracy, „Große Rechtsverschwörung“ ist eine Verschwörungstheorie, die 1998 von der damaligen First Lady der Vereinigten Staaten Hillary Clinton zur Verteidigung ihres Ehemanns, Präsident Bill Clinton, aufgebracht wurde, …. als Teil einer langen Kampagne durch Clintons politische Feinde. [1] Hillary Clinton erwähnte es wieder während ihrer Präsidentschaftswahlkampagne 2016; der Übersetzer]

Sicher gibt es andere geopolitische Bedrohungen – von der ISIS, dem Iran und der zerbröckelnden EU zu einem muskelprotzenden Russland und einem zunehmend arroganten China -, aber es gibt vermutlich keine, die einen so großen Einfluss auf das tägliche Leben der gewöhnlichen Völker, auf ihre ökonomisches und soziales Wohlbefinden und auf die Zukunft ihrer Kinder hat, wie der Grüne Blob.

Die Tentakel des Grünen Blobs erstrecken sich überall hin:

  • in die Klassenräume unserer Kinder (wo diese mit der Umweltpropaganda gehirngewaschen werden);
  • In unsere Universitäten (wo ganze Abteilungen jetzt von der grünen Junk-Wissenschaft entführt worden sind – weil … hey, das ist, wo das Geld ist);
  • In die Mainstream-Medien (die meisten von ihnen wiederholen – unbestritten, die falschen Forderungen bevorstehender Öko-Katastrophen von Umwelt-Aktivisten und Publicity-hungrigen Universitätsabteilungen),

Ein Geschäft, das Milliarden für die Umwelt-Willfährigkeit verschwendet und Milliarden mehr, für künstlich hochgetriebene Energiekosten durch unnötige, staatlich geförderte erneuerbare Energien;

  • In die Regierung (wo nur wenige Politiker genügend Grips haben, um zu erkennen, dass sie übers Ohr gehauen wurden und die trotzdem weiter „nachhaltige“ Initiativen für ihre unglücklichen Wähler ankurbeln);
  • In die Wirtschaft, wo Arbeitsplätze und Wachstum vernichtet werden, durch Maßnahmen von Ökofaschisten, in eigener Mission zur Zerstörung der westlichen industriellen Zivilisation;
  • In die Umwelt, die zerstückelt wird, – durch die Dinge, von denen uns erzählt wurde, sie tragen dazu bei die Umwelt zu retten – von Fledermaus und Vogel Schredder durch Eco-Kruzifixe,
  • In die Wälder, die gehäckselt wurden, um sie zu Holzhack-Biokraftstoffen zu machen, die im britischen Drax-Kraftwerk verbrannt werden,
  • bis hin zu den seltenen Erdmineralien, die unter entsetzlichen Bedingungen in China abgebaut wurden, um Windgeneratoren zu bauen;
  • Dabei die Inflation in Form von Ökosteuern, Regulierungen und Tarifen anheizen. In manchen Fällen wurden die Menschen in die Energiearmut und in einen frühen Tod getrieben, weil Regierungen (wie Obama und andere) die Elektrizitätspreise „zwangsläufig“ in die Höhe treiben, um Erneuerbare zu subventionieren gegenüber billigerem, zuverlässigerem fossilem Brennstoff.

Dieser Wahnsinn hat sich seit über vier Jahrzehnten weitgehend unkontrolliert durchgesetzt. Während einige korrupte Wenige bereichert wurden, hat es Milliarden [Menschen] ins Elend getrieben. Es kostet die Weltkonjunktur mindestens 1,5 Billionen Dollar jährlich für „Dekarbonisierungs“ -Ausgaben, die keinem anderen Zweck dienen, als den Selbstgefälligen einen warmen Anschein der überlegenen Moral zu geben.

[leichter lesbare Formatierung / Aufzählung durch den Übersetzer]

 

Und kein großer Politiker, irgendwo in der Welt, hatte weder den Mut noch die Überzeugung, dagegen anzugehen – Bis jetzt.

Die Präsidentschaft von Donald Trump verändert das Spiel. Es ist das schwarze Schwanereignis [*], das die Welt so dringend brauchte, um das zu verhindern, was eine außer Kontrolle geratene Katastrophe zu werden drohte.

[*Quelle deutsche Wirtschaftsnachrichten: Ein Schwarzer Schwan (Black Swan) ist ein unvorhergesehenes Ereignis, welches wirtschaftlichen Entwicklungen eine entscheidende Wende gibt; der Übersetzer]

Hätte Hillary den Green Blob gewonnen, wäre er so verankert und mächtig geworden, dass er fast unzerstörbar geworden wäre.

Hätte jeder andere Kandidat der Republikaner [= GOP Grand Old Party], außer Trump gewonnen, hätte sich nur wenig geändert – denn das GOP-Establishment (vor allem die Bushes) war fast genauso nutzlos sich der grünen Gefahr entgegen zustellen, wie die Demokraten.

In einer kurzen Reihe von Trump vs The Green Blob Artikeln werde ich Ihnen mitteilen, was ich an Fakten in DC gelernt habe. Ich werde erklären, warum diese Schlacht so wichtig ist und Ihnen sowohl die gute Nachricht (Trump’s Auswahlen sind zumeist vielversprechend) als auch die schlechte Nachricht geben (einige seiner Auswahlen sind weniger als ideal – beginnend mit Rex Tillerson …)

Ein gemeinsamer Refrain unter den Konservativen, die ich in D.C. kennen gelernt habe (die meisten von ihnen, wie ich, von der „red-meat variety“, war dieses:

[„red-meat variety“ – Hochpolitische Fragen, denen die amerikanische politische Rechte sich sehr stark verbunden fühlt; der Übersetzer]

„Das ist unsere Chance. Wir haben es nie erwartet. Jetzt ist sie da und wir müssen verdammt aufpassen, dass wir es nicht versauen! „

Dem stimme ich zu. Das ist der Grund, warum wir hier bei Breitbart anfangen, auf Umweltfragen näher als zuvor einzugehen. Wir werden Präsident Trump zur Rechenschaft ziehen und ihm helfen, das Richtige zu tun, weil – dessen muss man sich bewusst sein – es so viele Interessenten gibt, die sich alle Mühe geben, ihn dazu zu bringen, das Falsche zu tun ….

Gefunden auf Breitbart vom 19.12.2016

Übersetzt durch Andreas Demmig

http://www.breitbart.com/big-government/2016/12/19/trump-versus-the-green-blob-the-battle-that-will-define-his-presidency/




Kommentar Registrierung funktioniert wieder!

Die Feiertage sind nicht nur Tage der Besinnung und des Feierns, sondern auch Zeit für notwendige Wartung, Fehlerbehebung etc. Nach Umstellung auf WordPress haben sich einige kleiner und gößere Mängel gezeigt, die jetzt Schritt für Schritt behoben werden. Zudem wurden eine Reihe von Wünschen an uns herangetragen und Empfehlungen für eine bessere Funktion gegeben, die wir jetzt Stück für Stück angehen und je nach Möglichkeit und Aufwand umsetzen wollen.




Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

FOCUS ONLINE: Menschgemachter Klimawandel Einmalig in der Erdgeschichte: Fällt die nächste Eiszeit aus?
Für die Forscher des Instituts für Klimafolgenforschung in Potsdam ist klar: Der Mensch ist zu einer geologischen Kraft geworden – und diese kann den Beginn der nächsten Eiszeit unterdrücken. Denn trotz geringer Sommer-Sonneneinstrahlung kündigt sich keine neue Eiszeit an. Daher untersuchten die Potsdamer Wissenschaftler die Mechanismen, die die letzten Eiszeitzyklen angetrieben haben.
Das Ergebnis: Die letzten acht Eiszyklen lassen sich durch die Sonneneinstrahlung auf die Erde und die CO2-Konzentration in der Atmosphäre erklären. Die Wissenschaftler kommen zum Schluss, dass die Störung des natürlichen Kohlenstoffhaushalts durch den Menschen die nächste Eiszeit um 100.000 Jahre verschieben könnte – was bedeuten würde, dass wir einen kompletten Eiszeitzyklus überspringen. Die gegenwärtige Warmphase währt ohnehin schon lange.
Den Beginn einer neuen Eiszeit erwarten Forscher in etwa 50.000 Jahren – das allein ist schon eine ungewöhnlich lange Phase zwischen zwei Eiszeiten. Und diese könnte durch zusätzliche CO2-Emissionen aus der Verbrennung von Öl, Kohle und Gas sogar nochmals um 50.000 Jahre verlängert werden.

In der „Eiszeit“-Literatur wird zwar überall festgestellt, dass man die Eiszeitzyklen immer noch nicht ganz versteht. Man glaubt zwar, eine Haupt-Ursache zu kennen (Milanković-Zyklen), doch trotzdem bleibt noch vieles ungeklärt. Vor allem der Zyklen-Zeitsprung vor ca. 900.000 Jahren, der Pegelsprung vor ca. 400.000 Jahren und viele Einzeleffekte, welche immer neu zeigen, dass viele Theorien zwar Teilaspekte erklären können, aber keine das gesamte Eiszeit-Erscheinungsbild abdeckt.
Doch dem PIK gelang plötzlich das „Erkenntniswunder“:
PIK: [4] Menschgemachter Klimawandel unterdrückt die nächste Eiszeit
Mit einem ausgeklügelten Computermodell des Erdsystems, in dem die Dynamik von Atmosphäre, Ozean, Eisschilden und der globale Kohlenstoffzyklus simuliert werden, haben die Wissenschaftler den Effekt menschgemachter CO2-Emissionen auf das Eisvolumen der Nordhalbkugel untersucht. „Weil Kohlendioxid in der Atmosphäre extrem langlebig ist, haben vergangene wie künftige Emissionen großen Einfluss darauf, wann ein neuer Eiszeitzyklus beginnt“, sagt Ko-Autorin Ricarda Winkelmann. „Unsere Analyse zeigt, dass schon geringe zusätzliche Kohlenstoff-Emissionen die Entwicklung der Eisbedeckung auf der Nordhalbkugel wohl auf zehntausende Jahre beeinflussen würde, während künftige CO2-Emissionen von 1.000 oder 1.500 Gigatonnen Kohlenstoff die nächste Eiszeit um mindestens 100.000 Jahre verschieben könnten.“

So löst heutige (AGW-)Klima-Wissenschaft bisher unklärbare Fragen im Handumdrehen: Man nehme ein Simulationsprogramm (von denen keines das Wetter in 14 Tagen vorhersagen kann) und schon sind die Geheimnisse der letzten 2,6 Millionen Jahre gelöst – und das sogar noch rechtzeitig vor einem Klimagipfel. Und den Wissensbürgern wird es auch sofort als eine „Wahrheit“ dargestellt.

wiki Bildungsserver: Eiszeitalter
Die Warmzeiten dauerten zwischen 10 000 und 30 000 Jahre. Dazwischen lagen verschiedene Kaltzeiten wie die Weichsel-, die Saale- oder die Elster-Kaltzeit (Benennungen nach der norddeutschen Nomenklatur). Eine besonders lange Warmzeit von ca. 30 000 Jahren gab es vor etwa 400 000 Jahren. Auch für die jetzige Warmzeit ist unter natürlichen CO2-Bedingungen eine ähnliche Dauer berechnet worden. Bleibt der jetzige Kohlendioxidgehalt der Atmosphäre über viele Tausend Jahre erhalten oder steigt sogar noch weiter an, könnte die nächste Kaltzeit ausfallen und das seit 2,6 Millionen Jahren andauernde Eiszeitalter beendet sein. Die Menschheit hätte dann möglicherweise eine neue Klimaepoche eingeleitet, das „Anthropozän„.

Klimaretter.Info war auch sofort davon begeistert, nur „kaltesonne“ brachte eine Kritik und wies auf eine große Ungereimtheit der Parametrierung hin: CO2 in der Atmosphäre ist nicht so extrem langlebig. Setzt man die Verweilzeit jedoch realistisch ein, „verpufft“ die „Eiszeit-Ausfall-Illusion“.
kaltesonne: „PIK warnt vor Ausfall der nächsten Eiszeit. Mojib Latif cool: “100 Jahre bleibt CO2 in der Luft

Die Eiszeiten ganz kurz gefasst

„Die Eiszeiten“ kennt jeder, die Daten dazu und was diese für die Zukunft bedeuten haben aber wohl wenige parat, deshalb anbei eine kurze Darstellung.

Zitat: Eiszeit – Zyklen dauern etwa 100 bis 125.000 Jahre, dazwischen liegende Interglaziale bzw. Warmzeiten nur etwa 15 bis 20.000 Jahre. Die letzte Eem-Warmzeit dauerte jedoch nur 11.000 Jahre. Der letzte Eiszeit-Zyklus ist vor etwa 11.500 Jahren zu Ende gegangen.
Wann waren Eiszeiten

WISSEN DIGITAL: Eiszeiten
Donau-Kaltzeit vor mehr als 600.000 Jahren – Günz-Kaltzeit um 550.000 – Günz-Mindel-Warmzeit um 500.000 – Mindel-Kaltzeit um 400.000 – Mindel-Riss-Warmzeit um 300.000 v.Chr. – Riss-Kaltzeit um 200.000 – Riss-Würm-Warmzeit um 100.000 – Würm-Kaltzeit um 80.000, mit zwei Erwärmungsperioden um 60.000 und 40.000 v.Chr. Ende der Eiszeit, von Süden nach Norden abklingend, um 15.000-12.000 v.Chr. Nach stärkerem Wärmevorstoß (Alleröd-Schwankung um 10.000 v.Chr.) erfolgte der Durchbruch zu gemäßigtem Klima um 8.000 v.Chr. (Boreal), doch wurde eine vorübergehende Warmperiode (Atlantikum) noch um 6.000 v.Chr. verzeichnet.

Das hört sich einfach an. Doch die Eiszeiten traten regional unterschiedlich und mit Zeitversatz auf. Selbst wenn sie zur gleichen Zeit waren, haben sie dann unterschiedliche Namen, die teilweise auch noch „veralten“ und durch neue ersetzt wurden. So hat Norddeutschland zum Beispiel drei „Kern-Eiszeiten“, während Süddeutschland (mit den Alpen) in der gleichen Zeit deren vier ausweist. Dazu kommen noch die „Kleinen“ von „Zwischendurch“. Will man eine Zeitzuordnung vornehmen, stellt man fest, dass diese zwischen den Publikationen ebenfalls deutlich voneinander abweichen.
Fazit: Will man sich mit solchen Datendifferenzen eine Zeittabelle (zum Rechnen) zusammenstellen, kann man verzweifeln.
Ein Auszug der letzten Großen Eiszeiten alleine für Deutschland sieht wie folgt aus:

Bild 1 [2] Die jüngeren Eiszeiten in Deutschland (Bildausschnitt), ©Institut für Länderkunde 2002Um es anschaulicher zu machen, hat der Autor im folgenden Bild des Temperaturverlaufs der letzten 450.000 Jahre die vier großen Eiszeiten der Alpen eingetragen. Dabei musste er feststellen, dass in der Literatur zwischen den Datierungsangaben Zeitdifferenzen von 50.000 – 100.000 Jahren „normal“ sind, die Zeiten selbst teils aber fast auf das Jahrtausend genau angegeben werden, Beispiele:

Lexikon der Geowissenschaften: Holstein Interglazial: … Entsprechend unsicher ist die Datierung. Es kommt bei einer Dauer von ca. 15.000 Jahre eine Zeitspanne von 180.000 bis 400.000 Jahre in Frage. In diesem Zeitraum hat es mehrere Interglaziale gegeben, so daß auch vom Holstein-Komplex gesprochen wird.
Universität Tübingen Geographisches Institut, M. Mattes: Das Holstein-Interglazial
Der Beginn des Holstein-Interglazials wird auf etwa 425.000 v. h. (= vor heute) datiert mit dem Höhepunkt um ca. 406.000 vor heute… weist das Holstein-Interglazial eine Dauer von rund 25.000 bis 30.000 Jahren auf …

Man beachte: Alleine zwischen diesen zwei Publizierungen ergibt sich eine Zeitspanne der Dauer des „Holstein-Interglazials“ zwischen 15.000 … 30.000 Jahren, von der Datierung, wann sie begann, gar nicht zu reden. Dabei ist gerade diese Warmzeit die wichtigste.
Der Autor ist sich somit nicht sicher ist, ob seine Zuordnungen stimmen. Da die Benennungen für die folgenden Betrachtungen unwichtig sind, wurde das Datierungsproblem jedoch nicht weiter vertieft.

Bild 2 Temperaturverlauf der letzten 450.000 Jahre. Quelle: climate4you.com – Ole Humlum – Professor, University of Oslo Department of Geosciences. Vom Autor um Angaben zu den letzten vier Eiszeiten der Alpen ergänzt

Bild 2 zeigt nur einen Ausschnitt der viel längeren Eiszeitgeschichte. Deshalb das folgende Bild inclusive der davor liegenden und unerklärlicher Weise nicht so warmen Zwischenzeiten. Was man zudem an diesem Bild bei genauerem Hinsehen zuätzlich sieht ist, dass die Warmzeitlängen deutlich von den verwendeten Rekonstruktionsproxis abhängen (im Bild sind es vier verschiedene).

Bild 3 [3] Eiszeiten der letzten 1 Millionen Jahre. Die rote Linie kennzeichnet die aktuelle Temperatur
Um einen ganz kleinen Eindruck der Zeit-Differenzen aufzuzeigen, hat der Autor aus Bild 2 und 3 Daten tabelliert:

Bild 4 Vom Autor aus den Bildern 2 und 3 entnommene Daten

Wann die aktuelle Warmzeit enden wird, weiß niemand

Daraus ergibt sich für die aktuelle Warmzeit in der wir uns befinden: Bei zyklischer Betrachtung kann der Zenit bereits überschritten sein. Und da die kommende Kaltzeit auch lokal begrenzt beginnen kann, ist ein Start (irgendo auf dem Nordteil des Globus) jederzeit möglich.

Mittelbayerische Zeitung: Warmzeit in der Eiszeit Nächste Kaltzeit in 10.000 bis 20.000 Jahren
… Wann genau die nächste Kaltzeit einsetzen wird, sei „sehr, sehr unsicher“, räumt Klages ein. Zu komplex ist das Gefüge und Zusammenspiel möglicher Ursachen für Kalt- und Warmzeiten …

Allerdings gibt es parallel die Theorie, dass man nach Ähnlichkeiten verfahren muss. Die aktuelle Warmzeit passt danach am besten zu der des Holstein-Interglazials vor über 400.000 Jahren, Beispiel:
Eberhard-Karls-Universität Tübingen Geographisches Institut, M. Mattes:
Das Holstein-Interglazial
Das besondere an der Holstein-Warmzeit ist, das zu dieser Zeit dieselben Orbitalparameter geherrscht haben wie heute. Deshalb ist sie am besten geeignet um Anhaltspunkte über die Dauer und den natürlichen Temperaturverlauf des jetzigen Interglazials zu erhalten (Wilson 2000, S. 156f). Im Gegensatz zur üblichen Dauer der Interglaziale von rund 11.000 Jahren (Wilson 2000, S.156) weist das Holstein-Interglazial eine Dauer von rund 25.000 bis 30.000 Jahren auf (Klotz 2005, S.41). Sollte also das Holozän analog zur Holstein-Warmzeit verlaufen, so würde das Holozän noch für einige Tausend Jahre andauern.
Allerdings ist unklar, ob der menschliche Einfluss auf das Klima nicht doch stark genug ist um eine „Neuausrichtung“ des Klimas, entgegen des „natürlichen“ Verlaufs zu bewirken (Wilson 2000, S. 156ff). Der Beginn des Holstein-Interglazials wird auf etwa 425.000 v. h. (= vor heute) datiert mit dem Höhepunkt um ca. 406.000 vor heute. Charakterisiert wird das Klima der Hostein-Warmzeit durch hohe Temperaturen der Oberfächenwasser, einer stabilen thermohalinen Zirkulation und einem um 20 m höher Meeresspiegel.
… Aus diesem System an Faktoren genaue Wirkungsbeziehungen herauszulesen, welche nicht nur die Klimaänderungen der Vergangenheit erklären, sondern auch zukünftige Klimaentwicklungen zuverlässig prognostizieren können ist sehr schwierig und die Forschung hat hier immer noch viel zu tun.

Daraus leiten diese Forscher ab, dass die aktuelle Warmzeit ebenfalls länger dauert, eventuell sogar ausfallen könnte.
Uni Heidelberg, Foliensatz Max Camenzind 3.2016:
Das Klima der Erde II. Paläoklima & Klimazyklen
Kernaussagen 1: Keine Eiszeit in den nächsten 100.000 Jahren, Auch ohne antropogene Einflüsse war das Klima in vergangenen Warmzeiten bis zu 8° C wärmer (!) und der Meeresspiegel bis zu 5m höher Schwingungen um die Gleichgewichtslage „Warmzeit“ arktisches Eis war geschmolzen! antarktisches nicht.

Andere sehen “nur” eine Verlängerung zwischen 20.000 … 50.000 Jahren, Expertenzitat: Dann könnte es so sein, weil die Situation heute ähnlich ist, dass wir auch eine lange Warmzeit haben.

Wie beim Klima üblich, nicht alle Experten sind der gleichen Meinung. Andere sagen, es könnte unter Bedingungen auch ganz anders kommen:
Nature Geoscience Tzedakis et al. 09 January 2012: Determining the natural length of the current interglacial
Assuming that ice growth mainly responds to insolation and CO2 forcing, this analogy suggests that the end of the current interglacial would occur within the next 1500 years, if atmospheric CO2 concentrations did not exceed 240±5 ppmv.
Man beachte den in der Klimawissenschaft nie fehlenden Vertrauensbereich. Zwar hat man den Eiszeitmechanismus noch nicht entschlüsselt (weshalb man mehrere in Kombinationen annimmt), die Simulation kann aber trotzdem auf +-5ppmv genau die Auswirkung berechnen. Ein Beleg für die Leistungsfähigkeit moderner Computer und deren Programmierer, eine Schande für die Statistiker, die solche Angaben ungeprüft verwenden.

Getroffen werden diese Aussagen trotz großer Streuungen der Datierungen (15.000 … 30.000 Jahre für das Holstein-Interglazial) und einen Zeitbereich der anderen Warmzeiten zwischen 1.500 … 15.400 Jahre. Man kann sich aber schon einmal merken: Wenn die Hypothese mit der Ähnlichkeitsbetrachtung falsch ist, kann die aktuelle Warmzeit anhand der Zyklik auch schon zu Ende sein.

Das PIK hat nun mit dem CO2-Forcing die Lösungsformel gefunden

Wiederholung:
PIK: [4] Menschgemachter Klimawandel unterdrückt die nächste Eiszeit
Mit einem ausgeklügelten Computermodell des Erdsystems, in dem die Dynamik von Atmosphäre, Ozean, Eisschilden und der globale Kohlenstoffzyklus simuliert werden, haben die Wissenschaftler den Effekt menschgemachter CO2-Emissionen auf das Eisvolumen der Nordhalbkugel untersucht. „Weil Kohlendioxid in der Atmosphäre extrem langlebig ist, haben vergangene wie künftige Emissionen großen Einfluss darauf, wann ein neuer Eiszeitzyklus beginnt“, sagt Ko-Autorin Ricarda Winkelmann. „Unsere Analyse zeigt, dass schon geringe zusätzliche Kohlenstoff-Emissionen die Entwicklung der Eisbedeckung auf der Nordhalbkugel wohl auf zehntausende Jahre beeinflussen würde, während künftige CO2-Emissionen von 1.000 oder 1.500 Gigatonnen Kohlenstoff die nächste Eiszeit um mindestens 100.000 Jahre verschieben könnten.“

Dieses Institut stellt damit eine neue, zusätzliche These auf, indem es sich sicher ist, alleine mit dem CO2-(Simulations-) Verhalten eine Warmzeitzukunft berechnen zu können, womit die Dabatte der Warmzeiten gelöst sei.
Weil dies eine überaus positive Nachricht ist (zumindest der Autor würde ungern die Kälte einer Eiszeit durchleben müssen, auch wenn es den Neandertalern mehrmals gelang) sollte man diese Theorie zumindest als Laie nicht anzweifeln, sondern allerhöchstens grob plausibilisieren.

Gibt es in der AGW-Klimawissenschaft auch nur eine Hypothese, in der Einigkeit besteht oder ein eindeutiger Nachweis gelingt? Kaum. Und so ist es auch bei dieser (simulierten) Hypothese. Wie so oft: Würde das Eine stimmen (CO2 ist der Antrieb der Eiszeiten), widerspricht es den “sicheren” Angaben, dass der CO2-Anteil in der Atmosphäre zu vorindustriellen Zeiten noch nie so hoch war wie aktuell:
kaltesonne:
Die tatsächliche Klimawirksamkeit von CO2 liegt deutlich unter 1,0 Grad pro Verdoppelung des atmosphärischen CO2-Gehaltes
Ein natürlicher CO2-Antrieb für den Temperaturverlauf des Paläoklimas hätte also mindestens eine Schwankung des atmosphärischen CO2-Gehaltes zwischen etwa 65 und 460 ppm erfordert, was die gemessenen CO2-Gehalte der Paläoatmosphäre mit etwa 180 bis 300 ppm CO2 aber nicht abbilden; plausiblere Werte für die Klimasensitivität von CO2 unter 4,5 [°C/2xCO2] würden die erforderliche Schwankungsbreite für einen rechnerischen CO2-Klimaantrieb sogar noch deutlich erhöhen.

Damit kann also CO2 eindeutig nicht der natürliche Paläo-Klimaantrieb sein, wie uns die politisierte Klimawissenschaft ständig einzureden versucht.

Wieviel Einfluss könnte der Mensch auf die Eiszeiten haben

Nach dem PIk bestimmt er diese. Allerdings musste dessen Computer(Programm) diese Vorhersagefähigkeit noch nie belegen. Sehen wir an, wie viel der Mensch bisher wirklich am Klima “drehen” konnte. Auf WUWT gibt es dazu eine kleine Animation, anbei Screenshots daraus.

Bild 5.1 Globaltemperatur seit 1400 n. Chr. Animationsbild. Quelle: [5]
Bild 5.2 Globaltemperatur seit 800 n. Chr. Animationsbild. Quelle: [5]
Bild 5.3 Globaltemperatur seit 8000 v. Chr. Animationsbild. Quelle: [5]

Bild 5.4 Verlauf der bisherigen Warmzeit (seit ca. 17.000 Jahren). Quelle: C3 Headlines Climate Conservative Consumer

Bild 5.5 Globaltemperatur seit ca. 45.000 Jahren. Animationsbild. Quelle: [5]
Bild 5.6 Zeitbereich der jüngeren Eiszeiten. Animationsbild. Quelle: [5]
Wenn man sich diese Änderungsverhältnisse ansieht, kommen vielleicht auch manchem Leser Zweifel, ob es den Simulationen (und damit den Menschen) wirklich gelingen wird, die seit mehreren Millionen Jahren eisern ablaufenden Eiszeitzyklen auszuhebeln.

Ein dazu immer wieder vorgetragenes Argument ist die „Einmaligkeit“ der aktuellen Situation:
PIK, Rahmstorf: [6] ... Wir kennen in der Erdgeschichte auch keine so rasche globale Erwärmung wie die, die wir derzeit verursachen. Bei der Erwärmung aus der letzten Eiszeit stieg die globale Temperatur um ca. 5 °C innerhalb von 5.000 Jahren, das sind 0,1 °C pro Jahrhundert. Wir reden jetzt von 2, 3 oder 4 °C im 21. Jahrhundert, je nach Erfolg der Klimapolitik.
Diese Argumentation sollte man jedoch mit den gezeigten Bildern vergleichen und bewerten. Das „Hockey-Stickchen“ geht im Rauschen unter. Aber nicht nur in den bisherigen Bildern, sondern auch im Datenchaos der Temperatur-Rekonstruktionsversuche. Weil man mit diesen Daten nichts wirklich anfangen kann, geht man inzwischen so weit, diese zu simulieren und zu behaupten, damit die „richtigen“ ermitteln zu können! – mit Algorithmen, welche anhand der Chaosdaten „kalibriert“ wurden.

Bild 6 Proxirekonstruktionen der Temperatur der letzten 1200 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies

Bild 7 Proxirekonstruktionen der Temperatur der letzten 12.000 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies


Bild 7 Proxirekonstruktionen der Temperatur der letzten 12.000 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies

Beten, damit die Kälte früher kommt

Unter diesen Gesichtspunkten ist es fast schon unheimlich, wie massiv sich die Kirche vom AGW-Klimawandel vereinnamen lässt, anstelle ein neutrale Position einzunehmen, zumindest, bis die Klimawissenschaft wieder zu einem wissenschaftlichen Charakter zurückgefunden hat.
EIKE: Papst warnt Trump: Ziehen Sie sich nicht aus dem UN-Klima-Pakt zurück – ruft eine ,Krise des Klimawandels‘ aus
… Der Papst verlangt nach Gebeten zur Annahme des UN-Klimavertrages! Er drängt die Gläubigen „Gott um ein positives Ergebnis“ für das Paris-Abkommen zu bitten .
William M. Briggs: The Pope Is Wrong About Global Warming
Man stelle sich vor, der Globus und die Kreisbahnzyklen setzen sich doch weiter durch, die neuen Hypothesen basieren auf Datenfehlern, und die Gebete beschleunigen damit zusätzlich den Weg in die nächste Eiszeit.
Gar nicht so selten In der Geschichte haben „verwirrte“ Gläubig versehentlich ihren eigenen Untergang „herbeigebetet“, natürlich in der festen Überzeugung, das Richtige zu tun. Vom Papst wurde es bisher nicht
„ex cathedra“ (unfehlbar) ausgesprochen, womit es nicht mehr Gewicht als das jedes sonstigen (Klima-)Laien hat. Falls der Papst sich darin als Privatmann täuscht (er hat es als Privatmann ausgesprochen, also ohne göttliche Eingebung), bleibt es nur eine der vielen Fußnoten in der Kirchengeschichte, würde aber ein großes Problem für die Menschheit.

Fazit

Was wurde gelernt: Die eisigen Zeiten sind das Normale und die darin nur für eine verdammt kurze Zeit heraus ragenden Warmzeiten das Seltene. Und gegen diese nur für eine kurze Zeit gegönnte Wärme kämpft die Menschheit in einem kollektiven „Untergangswahn“ an, alleine mit der Begründung, Computersimulationen hätten dies angeordnet.

Es wird spannend werden, wer Recht behält: Der seit 2,6 Millionen Jahre währende Zyklus oder die speziellen CO2-Rechenmodelle des PIK.
Der Autor ist inzwischen aber auch in der Lage, eine präzise Aussage zur nächsten Eiszeit zu tätigen: Sie beginnt bereits aktuell, oder zwischen den nächsten 1.500 … 50.000 Jahren, dass sie ganz ausfällt, glaubt er persönlich nicht.

In ca. 50.000 Jahren weiss man dann ziemlich sicher, wer heute recht hat. Entweder ist dann der kälteste Zeitpunkt der Eiszeit erreicht, oder sie ist ausgefallen. Leider wird es keiner mehr erleben, selbst wenn die nächste Eiszeit vielleicht doch schon begonnen hätte. Da der Weg in die Kälte nicht ganz so steil (wie der in die Wärme) verläuft, wird man den Beginn lange Zeit gar nicht bemerken, sondern mit Freude als Ergebnis der CO2-Vermeidung feiern.
Was wieder auffällig ist:
Die moderne Klimawissenschaft behauptet (anhand ihrer Ergebnisse), dass selbst katastrophalste Ungenauigkeiten bezüglich der Datierungen für ihre Simulation(-Erkenntnisse) kein Problem darstellen. Und sie behauptet, dass diese damalige Warmzeit unserer aktuellen so ähnlich sei, dass sie als Korrelationspaar dienen könne, obwohl der Meeresspiegel 20 m höher lag und heute um Zehntel mm / pa jährlichem Anstieg gerungen wird.
Es passt argumentativ einfach zu Vieles nicht zusammen.

Quellen

[1] EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!

http://www.eike-klima-energie.eu/news-cache/faellt-die-naechste-eiszeit-aus-pik-chef-schellnhuber-behauotet-ja-so-sicher-wie-das-amen-in-der-kirche/

[2] Herbert Liedtke: Deutschland zur letzten Eiszeit
[3] ScienceSkepticalBlog: Der Klimaberater der Kanzlerin HJ Schellnhuber verkündet, die nächste Eiszeit in 60.000 Jahren fällt durch Menschenhand aus
http://www.science-skeptical.de/klimawandel/der-klimaberater-der-kanzlerin-hj-schellnhuber-verkuendet-die-naechste-eiszeit-in-60-000-jahren-faellt-durch-menschenhand-aus/0014656/

[4] PIK: Menschgemachter Klimawandel unterdrückt die nächste Eiszeit
https://www.pik-potsdam.de/aktuelles/pressemitteilungen/menschgemachter-klimawandel-unterdrueckt-die-naechste-eiszeit

[5] WEB-Animation: Alley, R.B. 2004 GISP2 Ice Core Temperature and Accumulation Data. IGBP Pagges/World Data Center for Paleoclimatology, Boulder CO, USA
https://wattsupwiththat.files.wordpress.com/2009/12/noaa_gisp2_icecore_anim_hi-def3.gif

[6] EIKE: Das Golfstromsystem. Rahmstorf vs. Krüger. Und er versiegt doch!
http://www.eike-klima-energie.eu/2016/12/12/das-golfstromsystem-rahmstorf-vs-krueger-und-er-versiegt-doch/