Neue Klimamodelle – sogar noch falscher

Im IPCC-Report AR5 wurde das folgende Diagramm gezeigt, woraus hervorgeht, wie sehr die Modelle die jüngste Erwärmung übertreiben:

Dabei handelt es sich um die Abbildung 11.25, die auch in der Technical Summary als Abbildung TS-14 erschien. In Kasten TS3 wird darüber Folgendes ausgeführt:

Eine Analyse sämtlicher historischer Simulationen der CMIP5-Modellkette (ergänzt für den Zeitraum 2006 bis 2012 mittels RCP4.5-Simulationen) zeigt, dass 111 der 114 Realisationen von 1998 bis 2012 einen GMST-Trend zeigen, der höher ist als der Trend im gesamten HadCRUT4-Ensemble (Kasten TS.3, Abbildung 1a; der mittlere Trend des Ensembles laut CMIP5 beträgt 0,21°C pro Dekade). Diese Differenz zwischen simulierten und gemessenen Trends könnte zustande kommen durch eine Kombination von a) der internen Klima-Variabilität, b) fehlendem oder falschem RF und c) Fehler der Modell-Reaktion“.

Nun könnte man denken, dass die neuen Modelle besser sind als ihre Vorgänger. Dies ist mathematische Modellierung 101: Falls ein Modell nicht zu den Daten passt, verbessert man das Modell entsprechend, um die Daten besser zu repräsentieren. Aber diese elementare Logik kommt im Bereich Klimawissenschaft in keiner Weise zum Tragen.

Das Hauptmerkmal (-fehler?) der neuen Modelle ist deren hohe Klima-Sensitivität. Man erinnere sich an die Aussage des IPCC, dass die Gleichgewichts-Sensitivität 1,5 bis 4,5°C beträgt, also eine Bandbreite, die sich über 30 Jahre nicht geändert hat. Die Studie des Met.-Office wartet mit einer Graphik von 5,4°C auf und die GFDL-Gruppe mit rund 5°C. Beide liegen also weit außerhalb der vom IPCC angegebenen Bandbreite. Natürlich haben die nützlichen Idioten in den Medien nichts Eiligeres zu tun als zu posaunen, dass sich die Erde noch schneller erwärmt als ursprünglich gedacht (hier). Aber solches wird nicht einmal in den Studien selbst behauptet.

Angesichts des Umstandes, dass die früheren Modelle zu warm laufen, wie es aus obiger IPCC-Graphik hervorgeht, und des Umstandes, dass in die neuen Modelle eine viel höhere Sensitivität eingeht, lautet die offensichtliche Frage, wie gut die Modelle sind hinsichtlich der Reproduktion im 20. Jahrhundert. Nun, man muss sich durch die gesamte UKESM1-Studie wühlen, um die Antwort auf diese Frage zu finden, aber vielleicht geht sie auch aus Abbildung 29 hervor, in welcher das neue Modell verglichen wird mit HadCRUT4 von 1850 bis zur Gegenwart:

(Die GFDL-Studie zeigt eine sehr ähnliche Grafik in Abbildung 12). Das Modell zeigt eine Erwärmung in jüngster Zeit, die erheblich über derjenigen der Beobachtungen liegt. Das Modell ist eindeutig viel zu sensitiv. Und was sagen die Autoren dazu? Es ist unglaublich, aber sie behaupten gleich oben in der Studie im Abschnitt „key points“:

UKESM1 zeigt gute Ergebnisse, mit einem stabilen vorindustriellen Zustand, und es zeigt eine gute Übereinstimmung mit Beobachtungen in einer breiten Vielfalt von Zusammenhängen.

Dann wiederholen sie diese Falschaussage im Abstract und behaupten, dass die Übereinstimmung genau dort besonders gut ist, wo sie besonders schlecht ist:

Alles in Allem zeigt das Modell gute Ergebnisse, mit einem stabilen vorindustriellen Zustand und guter Übereinstimmung mit den Beobachtungen im späteren Teil seiner historischen Simulationen.

Und noch einmal wiederholen sie das in der „plain language summary“ darunter. Vermutlich ist beabsichtigt, dass diese Lüge von den ahnungslosen Medien immer wieder herausgewürgt wird.

Selbst der alarmistische Klimawissenschaftler und BDS-sufferer [?] James Annan spottet über die Behauptungen in der Studie (hier) und schlägt die Formulierung vor „UKESM1 funktioniert großartig in jeder anderen Hinsicht als in seine primären Funktion“.

Betrügen sich diese Klima-Schussel am Met.-Office wirklich so sehr, dass sie von einer guten Übereinstimmung ausgehen? Hierzu kann man nur Richard Feynman mit seinen Worten zitieren:

Oberste Priorität muss es haben, sich nicht selbst zu betrügen – denn man selbst kann sich am leichtesten betrügen. [Siehe Bild oben!]

Link: https://cliscep.com/2019/11/05/new-climate-models-even-more-wrong/

Übersetzt von Chris Frey EIKE




Warum wir Schauer-Nachrichten lieben, genau wie Kinder Süßig­keiten lieben

Im Jahre 2017 begann eine neue Phase in der „Debatte“, mit welchen politischen Maßnahmen man dem Klimawandel entgegen treten soll, und zwar mit der Veröffentlichung einer Publikation mit dem Titel „The Uninhabitable Earth“ von David Wallace-Wells im New York-Magazin. „Hunger, wirtschaftlicher Kollaps, eine Sonne, die uns kocht: Was Klimawandel bewirken kann – rascher als man denkt“, liest man darin. Es ist natürlich typische alarmistische Propaganda – Übertreibungen, Falschinterpretationen und ohne einen Zusammenhang, mit welcher Wahrscheinlichkeit diese schrecklichen Ereignisse eintreten.

Das war die primäre Methode der Linken, seit Anfang der 1970er Jahre die Amerikaner zu beeinflussen. Sie haben die Endzeit gepredigt durch Verschmutzung, ausgehenden Ressourcen, globalen Hunger und anderen schon lange vergessenen Schrecknissen. Auch die Rechten bedienen sich dieses Verfahrens, allerdings mit anderen Themen: Kriminalität, nationaler Bankrott, übelwollende Minderheiten-Gruppen und Terrorismus. Warum tun sie das? Dieses neue Kapitel der Klima-Kriege gibt die Antwort. Das New York-Magazin veröffentlichte einen Folgebeitrag, der damit begann, was für Journalisten am Wichtigsten ist, und in welchem erklärt wird, warum wir Untergangs-Stories so sehr lieben.

Wir veröffentlichten ,The Uninhabitable Earth‚, und die Reaktionen darauf waren außerordentlich – sowohl hinsichtlich Umfang (es ist bereits jetzt der meistgelesene Artikel im New York-Magazin jemals) als auch hinsichtlich der Art und Weise“.

Also goss man es in ein Buch: „The Uninhabitable Earth: Life After Warming“. Dem folgten noch viele weitere, als da wären: The Big Heat: Earth on the Brink der Journalisten Jeffrey St. Clair und Joshua Frank (2018). “The five ways the human race could be WIPED OUT because of global warming” von Rod Ardehali in der Daily Mail, ein Werbevideo für Falter: Has the Human Game Begun to Play Itself Out? von Bill McKibben. “Planet Earth Is Doomed. How Do I Go On?” von Liza Featherstone in The Nation. “Where our New World Begins: Power, politics, and the Green New Deal“ von Kevin Baker in Harper’s, Mai 2019 (widerlegt hier). Der jüngste Beitrag ist “World Scientists’ Warning of a Climate Emergency” in Bioscience (ein den Klima-Untergangspropheten freundlich gesonnenes Portal).

Allen gemeinsam sind die fast völlig fehlenden Quellenangaben, und sie haben auch höchstens geringe Berührungspunkte mit irgendetwas von der NOAA oder dem IPCC Veröffentlichtem. Aber zum Teufel mit der Wissenschaft – Angst verkauft sich gut! Was in der realen Welt zählt sind Klicks sowie die daraus fließenden Dollars und die politische Macht. Heutige Herausgeber in ganz Amerika schlagen mit der Faust auf ihre Schreibtische und verlangen von ihren Reportern, dass diese gefälligst Stories abliefern über den sehr bald eintretenden, sehr sicheren Tod für uns alle. Interessengruppen von Küste zu Küste [in den USA ein Synonym für ,von der Pazifik- bis zur Atlantikküste‘, Anm. d. Übers.] bereiten Presseerklärungen vor bzgl. der dräuenden Katastrophen, weshalb wir den Eliten Macht und Geld geben sollen.

Die heutigen Klimaaktivisten lassen Champagner-Korken knallen – in der Überzeugung, dass das Interesse der Öffentlichkeit an Klima-Untergangsstories mehr Unterstützung für ihre politische Agenda bedeutet. Haben sie recht?

Warum wir Untergangs-Stories lieben: „Der Schlüssel zu einer guten Story ist nicht wer, was, oder wann, sondern warum“ – Eliot Carver, Medienmagnat in Tomorrow Never Dies.

Diese Stories haben kaum einmal zu einer Änderung der US-Politik geführt (siehe Konzentration auf Worst-Case-Klimaszenarien der Zukunft funktioniert nicht – sollte es auch nicht {hier}). Aber warum lieben wir dann alarmistische Propaganda, wenngleich wir auch nicht darauf eingehen? Peter Moore lieferte einen Hinweis in der Ausgabe des Playboy im März 1987 (ja, es waren auch sehr schöne Bilder darin), und zwar mit seinem Beitrag „The Crisis Crisis“ [etwa: Die Krise der Krise]. Die Einleitung sagt alles:

Das heutige Amerika leidet unter einer epidemischen, die ganze Nation überschwemmenden Kette von Ereignissen, welche es seit den Biblischen Plagen in Ägypten nicht mehr gegeben hat. Am Montag werden wir Angriffen von Killer-Trends ausgesetzt, und zwar in Gestalt einer Krise, von der wir am Freitag zuvor noch gar nichts wussten, und das düstere Vorzeichen vom Montag wiederum bahnt den Weg für die Hysterie in der nächsten Woche.

Auf schreckliche Art und Weise folgt der Angst vor Herpes die Plage AIDS, diese wiederum gefolgt von dem schockierenden Schreckgespenst der Schulden der Dritten Welt. Nach einem kurzen, aber eisigen nuklearen Winter sind wir bedroht durch unsere eigene nationale Schuldenkrise und erschüttert über die Hungersnot in Äthiopien; dann geht es zurück zu unserer schwächelnden Ozonschicht. Plötzlich befinden sich Terroristen mitten unter uns, dann die Obdachlosen – bis alles durch eine Crack-Verrücktheit hinweg gespült wird.

Die Probleme erscheinen, die Alarmsirenen schrillen, die Titelstories und Sonderberichte wuchern. Dann verlieren die Medien das Interesse und wenden sich der nächsten Katastrophe zu. Das Phänomen ist so bösartig, dass es eigentlich eine eigene Titelstory wert ist. Man kann es die Krise der Krise nennen“.

Das ist der Schlüssel, um diese Angst-Ausbrüche zu verstehen: wir ändern nicht unser Verhalten als Reaktion auf diese Krisen, weil diese für uns Entertainment sind!

Das erklärt das seltsame Desinteresse der Amerikaner an der Liste von Experten bzgl. gescheiterter Prophezeiungen und schlechtem Rat (z. B. Paul Ehrlich bei den Linken, Larry Kudlow bei den Rechten). Es ist uns egal, ob das, was wir über die Welt lesen, stimmt oder nicht, da wir nicht beabsichtigen, diese Informationen irgendwie zu verwerten. Ein Sammler von Landkarten fragt nicht, ob diese Karten korrekt sind, sondern er will hübsche alte Karten – mit bunten Drachen an den Ecken. Nur jene, die einen bestimmten Ort erreichen wollen, verlangen genaue Karten.

Die meisten Medien-Firmen zielen auf die Massenpartei der Amerikaner – also auf die riesige Gruppe Amerikaner, die an aktuellen Ereignissen interessiert sind und deren Einkommen attraktiv für Werbetreibende sind (z. B. Profis, Manager, Geschäftsinhaber). Sie verstehen, was wir wollen, und halten uns so einen Spiegel vor, in welchem wir uns selbst sehen können. Wir wollen einfache, begeisternde Stories, die unterhaltsam sind und Entspannung bringen. Horrorstories sind dafür sehr gut geeignet, egal ob es darin um Naturkatastrophen geht, um vom Menschen ausgelöste Katastrophen oder Katastrophen durch übernatürliche Übel. Wir lieben sie alle!

Also fabrizieren spezielle Interessengruppen Visionen des Untergangs in der Hoffnung, Aufmerksamkeit für ihr Anliegen zu wecken. Journalisten machen daraus begeisternde Stories zu unserer Unterhaltung. Die 1% schauen zu und lachen. Politisch ineffektiv wollen wir uns für engagiert halten. Also konsumieren wir diese „Nachrichten“, um gut informiert zu sein und schreiben Beiträge oder Kommentare – Spaß, verehrte Bürgerschaft! Details zu diesem Prozess finden sich hier. Man betrachte die Vergangenheit, um eindeutig zu erkennen, wie das geht:

Visionen aus dem Jahr 1971 über die zerstörte Welt von heute. Bei Amazon noch erhältlich.

Am 15. Januar 1971 verfolgten die Amerikaner die Fernsehsendung „L.A. 2017“ [L.A. = Los Angeles, Anm. d. Übers.], eine Episode der Sendereihe The Name of the Game. Unter der Regie von Steven Spielberg wurde darin eine schreckliche Welt in 46 Jahren beschrieben (also im Jahre 2017), nachdem Verschmutzung die Ökologie der Erde zerstört und die Überlebenden der Menschheit in den Untergrund gezwungen hat. Mehr dazu hier. Geschrieben wurde das Ganze von Philip Wylie, der es in eine Novelle goss mit dem Titel „Los Angeles: A.D. 2017“. Eine Rezension gibt es hier.

Im Jahre 1971 lasen wir etwas über die schreckliche Zukunft im Jahre 2000 in einem seriösen Journal, nämlich dem New Scientist: „In Praise of Prophets“ von Bernard Dixon:

Falls sich die derzeitigen Trends fortsetzen, wird das Vereinigte Königreich einfach nur noch aus einer Handvoll verarmter Inseln bestehen, bevölkert von etwa 70 Millionen hungriger Menschen, die sich kaum oder gar keine Sorgen machen über die anderen 5 bis 7 Milliarden Menschen in einer kranken Welt … wäre ich ein Zocker, würde ich sogar um Geld wetten, dass England im Jahr 2000 nicht mehr existieren wird“. – Paul R. Ehrlich in einer Rede vor dem Institute of Biology in London.

Ehrlich prophezeite auch weltweite Klagen, einen thermonuklearen Krieg, den Tod der Weltmeere, hoch schießende Todesraten und ökologische Katastrophen. Dixon berichtete, dass „die Zuhörerschaft begeistert war und nach mehr davon verlangte“. Genauso ist es heute: wir applaudieren und rufen nach noch mehr Untergangsstories über das Klima-Armageddon.

Diese Taktiken der Verängstigung haben nichts erreicht. Die ersten der großartigen Gesetze bzgl. der Verschmutzung von Luft und Wasser wurden in den 1960er Jahren in Kraft gesetzt, bevor diese Taktiken sich weiter Verbreitung erfreuten. Die EPA wurde im Jahre 1970 ins Leben gerufen (hier). Diese Stories schienen auch gut belegt, weil sie Trends der Vergangenheit in die Zukunft extrapolierten, wobei Gegenmaßnahmen ignoriert werden, die bereits begonnen haben. Genau wie die heutigen Klima-Untergangsjünger den Ersatz von Kohle durch sauberere und sogar bessere Quellen, die derzeit entwickelt werden (Details dazu hier).

Damals wie heute – ängstigende Stories machen einfach Spaß. Aber ein Mensch, der sie ernst nimmt, und sei es als eine Leitlinie für Politik, ist zu bedauern.

Folgerung:

Sonder-Interessengruppen fabrizieren Propaganda, um uns zum Narren zu halten. Wir halten sie zum Narren, indem wir uns daran erfreuen, wild unter uns selbst darüber diskutieren, voller Angst aufschreien – aber nichts dagegen tun. Das ist eine erbärmliche Story. Es ist das Verhalten von Sklaven und nicht von mündigen Bürgern. Die Lösung liegt in unseren Händen – Bürger zu werden, die an der Wahrheit interessiert sind und sich für Amerika verantwortlich fühlen. Die rationelle Beurteilung von Bedrohungen und die entsprechenden Reaktionen müssen ebenso mutig wie entschlossen sein:

1. Wichtiger Ratschlag: Lernen, skeptisch zu sein – eine Fähigkeit der Bürgerschaft im 21. Jahrhundert (hier)

2. Wir leben in einem Zeitalter der Ignoranz, haben es aber in der Hand, das zu ändern – heute (hier)

3. Sich erinnern ist der erste Schritt zum Erlernen. Leben in den Tag hinein ist Ignoranz (hier)

4. Wir stehen vor zu vielen Bedrohungen. Reagieren wir rational darauf! (hier) – ein einfacher erster Schritt.

Link: https://wattsupwiththat.com/2019/11/07/why-we-love-scary-news-stories-just-as-children-like-candy/

Übersetzt von Chris Frey EIKE




„Der Spiegel“ wieder mit völlig falschen Darstellungen

Von: Prof. Dr. Klaus-D. Döhler <doehler@curatis-pharma.de>

Betreff: AW: Zu Ihrem Artikel „Wie der Klimawandel krank macht“

Datum: 14. November 2019 um 13:27:20 MEZ

An: <Nina.Weber@spiegel.de>

Kopie: <axel_bojanowski@spiegel.de>, <alexander.jung@spiegel.de>,

Sehr geehrte Frau Weber,

ich schließe mich den Ausführungen von Herrn Dietze an. Wie alle bisherigen SPIEGEL-Artikel zur Klima-Thematik basiert auch der Ihre auf falschen Recherchen und Fehleinschätzungen:

Sie schreiben u.a. „Möglicherweise hat es Zeiten erlebt, in denen das Essen knapp wurde, weil die steigenden Temperaturen die Erträge von Mais, Soja und Reis gesenkt haben“.

Ihnen ist nicht bekannt, dass warme Luft mehr Feuchtigkeit speichern kann und somit – gemeinsam mit höheren CO2Werten, dem „Atmungsgas“ für die Pflanzen – die Vegetation wachsen, blühen und gedeihen lassen kann. Im Laufe der Erdgeschichte gab es fast immer höhere Temperaturen und auch höhere atmosphärische CO2-Werte als heute:

Zahllose Fossilien belegen, dass sich die Tier- und Pflanzenwelt früherer Zeiten trotz eines um bis zu 2.000 % höheren CO2-Gehaltsim Groβen und Ganzen bester Lebensbedingungen erfreute.

Die von den Medien verwendete Bezeichnung „Klimaschädliches CO2“ entspricht nicht der wahren Bedeutung dieses Gases. Eine korrekte Bezeichnung wäre „CO2 das Gas des Lebens“.

Ohne CO2 wäre ein Leben auf der Erde nicht möglich!!!

Ohne Kohlenstoff wäre die Entstehung des Lebens nicht möglich gewesen!!!

Frage: Weshalb glauben Sie und der SPIEGEL dass es das CO2 ist, das den Klimawandel verursacht?

Es gibt keine einzige wissenschaftlich fundierte Studie, die den Zusammenhang zwischen CO2 und Klimawandel beweisen würde! Es gibt aber viele Studien, die beweisen, dass CO2 nichts mit Klimawandel zu tun hat!

Der österreichische Ingenieur Walter Hopferwieser aus Salzburg hat demjenigen 100.000 Euro zugesagt, der ihm als Erster einen schlüssigen naturwissenschaftlichen Beweis vorlegt, dass das von uns Menschen freigesetzte CO2 eine Klimaerwärmung bewirkt, die uns Menschen und unsere Erde nachhaltig schädigt. Dieses Geld hat sich noch niemand abgeholt, selbst der geldgierige IPCC und die Klimafolgenforscher des PIK nicht. Das ist der beste Beweis dafür, dass CO2 nichts mit Klimawandel zu tun hat!

Klimaschwankungen verlaufen seit 545 Mio Jahren im Einklang mit dem kosmischen Strahlenfluss, nicht mit den CO2-Konzentrationen in der Atmosphäre. Die meisten deutschen Politiker und Journalisten samt ihren ahnungslosen Mitläufern und Sympathisanten verfolgen und verteufeln seit vielen Jahren – wider besseres Wissen – ein unsichtbares, farbloses, geruchloses, nicht brennbares und ungiftiges Phantom: das Gas CO2 (Kohlendioxid).

Der Mindest-CO2-Gehalt der Luft liegt bei circa 160 bis 180 ppm. Das ist ein Tiefwert, der im Mittelalter auch mal real erreicht wurde und der dann neben aller Not der Kälte auch noch Hungersnöte auslöste, weil die Landwirtschaft darnieder lag.

Heute liegen wir mit ca. 400 ppm gut doppelt so hoch wie im Mittelalter, und seit der CO2-Gehalt der Luft wieder steigt, ergrünen Gegenden auf der Erde, die zuvor mit Wüste bedeckt waren:

Aber unsere Ernteerträge könnten bei mehr CO2 noch weiter gesteigert werden. Die Zufuhr von 300 ppm C fördert das Pflanzenwachstum um 15 – 49 Prozent:

Mehr CO2 in der Atmosphäre = weniger Hunger in der Welt!

Seit 18 Jahren hat sich selbst der „Weltklimarat“ von den immer wieder behaupteten, aber jeder Statistik widersprechenden, angeblich vom „Menschen gemachten“ Unwetter-Trends verabschiedet. Schon 2001 schrieb er „Jüngste Analysen von Veränderungen bei lokalem Unwetter (Tornados, schwere Gewitter und Hagel) in einigen ausgewählten Regionen liefern keine zwingenden Beweise für weit verbreitete systematische langfristige Veränderungen“ (IPCC 2001, TAR-02-2, Chapt.2.7.4., Summary S. 163-164).

So wie Sie fordern auch die evangelische und die katholische Kirche mehr Engagement fürs Klima. Beide Kirchen betonen: „Gott hat uns den Auftrag gegeben, die Schöpfung zu bewahren“. Hat er das?

Die Schöpfung bewahren kann nur der Schöpfer!“sagte bereits 2008 der damalige Vorsitzende des Lutherischen Konvents im Rheinland, Pfarrer Reiner Vogels. Es gibt Dinge, die der Mensch tun kann um „den Garten zu bebauen und zu bewahren“ (1. Mose 2, 15), z.B. Umweltschutz!!! Bewahrung der Schöpfung – und hierzu gehört auch das Klima – ist allein unserem Schöpfer vorbehalten.

Leider rennt die Menschheit – der „Weltklimarat IPCC“, Fridays for Future und die christlichen Kirchen eingeschlossen – derzeit mit voller Wucht gegen die Intentionen unseres Schöpfers an. Gott hat uns das CO2 gegeben, aus gutem Grund, denn ohne CO2 wäre kein Leben auf der Erde möglich. Als Gott die Welt erschuf gab er unserer Atmosphäre 2.000 Prozent (!) mehr CO2 als wir heute haben. Ich wiederhole: 2.000 Prozent. Wir haben derzeit mit 400 ppm 20 Mal weniger CO2 als noch vor 500 Millionen Jahren.

Wenn wir weiterhin versuchen, der Luft das Lebensgas CO2 zu entziehen, versündigen wir uns an der Schöpfung. Ohne CO2 wäre die Entstehung des Lebens vor etwa 4 Milliarden Jahren nicht möglich gewesen, denn von allen auf der Erde verfügbaren Elementen wie Sonne, Wasser, Mineralstoffe, Stickstoff und CO2 hat nur das CO2 den lebensnotwendigen Kohlenstoff (C) im Molekül. 

Es ist die Aufgabe des Menschen, „den Garten zu bebauen und zu bewahren“, also das zu tun, was in des Menschen Macht steht, z.B. den Schutz der Umwelt vor der vom Menschen gemachten Vermüllung. CO2 ist keine Vermüllung! Plastik und Feinstaub sind Vermüllung! CO2 ist das von unserem Schöpfer zur Bewahrung zur Verfügung gestellte Lebensgas, ohne das es kein Leben auf der Erde gäbe. Wir sollten nicht so überheblich und anmaßend sein, zu behaupten, wir könnten unserem Schöpfer ins Handwerk pfuschen. Das ist Blasphemie!

Der Mensch ist verantwortlich für seine Umwelt. Für den Umweltschutz gibt es genug zu tun.

Auf das Klima, jedoch, hat der Mensch keinen Einfluss, denn er kann der Sonne, den Wolken und den kosmischen Strahlen nicht befehlen, was sie zu tun und zu lassen haben! Das entscheidet einzig und allein unser Schöpfer!

Zu der Schöpfungs-Bewahrungs-Hype schrieb bereits 2008 Pfarrer Reiner Vogels seinen Amtsbrüdern eine vernichtenden theologische Kritik ins Brevier:

Es ist eine unglaubliche Selbstübersteigung, geradezu eine anmaßende Hybris des Menschen, wenn er meint, er habe den Auftrag, die Schöpfung zu bewahren. Die Schöpfung bewahren kann nur der Schöpfer! Wir sind dazu viel zu klein und unbedeutend. Der angebliche Auftrag zur Schöpfungsbewahrung beruft sich immer auf 1. Mose 2, 15, wo Gott dem Adam den Auftrag gibt, den Garten zu bebauen und bewahren. Den Garten, also den von Gott für den Menschen eingerichteten und auf seine Bedürfnisse zugeschnittenen Lebensraum zu bewahren, ist offensichtlich etwas völlig anderes als die Bewahrung der Schöpfung.“ (Klimawandel, Wasserwandel, Lebenswandel – Die Synode der EKD, der christliche Auftrag, der Klimawandel und die Realität!).

„Warnungen aus dem letzten IPCC-Report [1] vor zunehmenden Extremereignissen wie Hurrikanen, Tornados oder Stürmen etwa wurden mittlerweile als „wenig vertrauenswürdig“ eingestuft und in der neuen Zusammenfassung des Reports nicht mehr erwähnt.“ …u.w.a.a.0.: „Anhaltenden Alarm vor zunehmenden Flusshochwassern, Dürren, Hurrikanen und Tornados bezeichnet Pielke [2] angesichts der mittlerweile glimpflichen Forschungs-Ergebnisse zu den Themen als ‚Zombie-Wissenschaft“:

1. SPIEGEL-ol 06.10.2013: https://www.spiegel.de/wissenschaft/natur/vorhersagen-im-5-ipcc-bericht-2013-kritik-am-uno-klimareport-a-926348.html; Orig.-Quelle: IPCC AR5 WGI Chapter 2 (2013/14)

2. Prof. Roger Pielke, Klimaforscher; Univ. of Colorado, Boulder, USA

Liebe Frau Weber, ich füge zu Ihrer Information das PDF eines 2-stündigen Vortrags von mir bei, der Ihnen bei weiteren „Recherchen“ zum Klimawandel nützlich sein dürfte, es sei denn, Sie wollen sich mit Absicht der echten Wissenschaft widersetzen und stattdessen auch weiterhin die Bevölkerung mit „Zombie-Wissenschaft“ in Angst und Schrecken versetzen.

Mit freundlichen Grüßen

Prof. Dr. Klaus D. Döhler

Curatis Pharma GmbH

Karl-Wiechert-Allee 76

D-30625 Hannover

Phone: +49-511-5458749

Fax: +49-511-651735

www.curatis-pharma.de

Klimawandel oder Klimalüge, 136 pages




Wie schlechte Wissenschaft und Horror-Journalismus Buschbrände und Klima falsch darstellen

Dem entsprechend posaunte CNN im Sommer 2019 die Schlagzeile hinaus, dass Buschbrände in Kalifornien wegen des Klimawandels eine um 500% größere Landfläche betreffen (hier). Man behauptete: „Die Ursache für die Steigerung ist einfach. Höhere Temperaturen trocknen das Land mehr aus, was eine trockene Atmosphäre mit sich bringt“. CNN zitierte als Grundlage seiner Behauptungen eine wissenschaftliche Studie der Leitautoren Park Williams und John Abatzoglou mit dem Titel „Observed Impacts of Anthropogenic Climate Change on Wildfire in California“. Die Autoren haben sehr viel Wissen, scheinen aber ihren Ruhm und ihr Schicksal daran angeheftet zu haben, eine sehr einfache Behauptung voranzutreiben, wonach der Klimawandel größere Buschbrände antreibt. Wie wir sehen werden, hat sich dieses ihr Eintreten dazu geführt, dass sie sich von objektiven wissenschaftlichen Analysen verabschiedet haben.

Hätten sich Williams und Abatzoglou nicht so besessen davon gewesen, eine Verbindung zu globaler Erwärmung herzustellen, hätten sie sich zumindest die Frage stellen müssen: „Warum war es in kühleren Dekaden zu viel größeren Bränden gekommen?“ Bei dem Großfeuer in New Brunswick im Jahre 1825 (hier) sind 3 Millionen Acres verbrannt [ca. 12.000 km²]. In Idaho und Montana verbrannten bei dem Great Fire of 1910 weitere 3 Millionen Acres. Und im Jahre 1871 verbrannten beim Great Michigan Fire nochmals 2,5 Millionen Acres. Jene Brände waren nicht nur etwa 6 mal größer als das größte Feuer in Kalifornien, sondern sie waren auch in feuchteren Gebieten aufgetreten – in Gebieten, in denen nicht das mediterrane Klima Kaliforniens vorherrschte mit seinen sicher zu erwartenden Monaten der Dürre in jedem einzelnen Sommer. Falls jene verheerenden Brände in viel kühleren Zeiten aufgetreten waren – welche anderen treibenden Faktoren für große Brände gibt es noch?

Schlechte Analysen gebären schlechte Gegenmaßnahmen, und die Gründe, warum die jüngste Studie von Williams und Abatzoglou eine schlechte wissenschaftliche Analyse ist, sind Folgende. Nach der Analyse von Änderungen der verbrannten Landfläche in Kalifornien von 1972 bis 2018 behaupteten sie: „die eindeutigste Verbindung zwischen Buschbränden in Kalifornien und dem anthropogenen Klimawandel bisher war eine von der Erwärmung getriebene Zunahme der Lufttrockenheit“. Aber natürliche Zyklen geringer Regenmengen infolge von La Nina-Ereignissen führt ebenfalls zur Austrocknung. Die Zunahme der verbrannten Fläche ist außerdem fahrlässigen menschlichen Einflüssen geschuldet wie etwa nicht funktionierende Grills, nicht ausgedünntem Totholz in den Wäldern, was sich immer mehr akkumuliert sowie Änderungen der Vegetation. Außerdem sind die Temperaturen in einigen Gebieten, in denen die größten Brände aufgetreten waren, seit 50 Jahren nicht mehr gestiegen (siehe die Temperaturgraphiken unten mit den Daten vom Western Regional Climate Center).

All diese Faktoren sorgen für rapide Brandausbreitung und größere verbrannte Flächen. Obwohl ordentliche Wissenschaft zwingend verlangt, jene beitragenden Faktoren zu separieren, bevor man eine mögliche Korrelation zwischen Temperatur und verbrannter Fläche analysiert, haben Williams und Abatzoglou das komischerweise nicht getan! Das ist schlechte Wissenschaft.

Obwohl Williams und Abatzoglou einräumten, dass andere Faktoren die Auswirkung von Erwärmung in verbrannten Flächen modulieren, bekannten sie, dass ihre statistischen Korrelationen diese Auswirkungen nicht „kontrolliert“. Um all jene beitragenden Faktoren zu „kontrollieren“, hätten sie einfach Schätzungen der verbrannten Fläche in Verbindung mit diesen Faktoren subtrahieren können. Zum Beispiel findet sich in einer Studie aus dem Jahr 2018 die Schätzung: „Seit dem Jahr 2000 kam es zu einer halben Million Acres verbrannter Flächen aufgrund von Funkenflug beschädigter oder schlecht gewarteter Stromleitungen. Das ist fünf mal so viel als wir während der 20 Jahre zuvor erlebt haben“ (hier). Haben Williams und Abatzoglou die erforderlichen Subtraktionen anderer gut belegter Faktoren nicht vorgenommen, weil es ihre Korrelation mit globaler Erwärmung abgeschwächt hätte?

CNN-Journalisten waren genauso schnell zur Stelle, um einfach den Klimawandel verantwortlich zu machen. Allerdings hätten angesichts zunehmender Verheerungen aufgrund von Bränden verursacht durch schadhafte Stromleitungen gute investigative Journalisten den ehemaligen Gouverneur von Kalifornien Jerry Brown fragen können, ob er es nicht bedauere, sein Veto gegen das überparteiliche Gesetz eingelegt zu haben, dem zufolge das Stromnetz sicherer gemacht werden sollte – eine Maßnahme, die so viele Leben und so viel Eigentum hätte retten können. Stattdessen plapperte CNN einfach Browns persistente Klima-Angtserzeugung nach mit seinen Worten „Das ist nur ein Vorgeschmack der Schrecken, die in Jahrzehnten auf uns zukommen“ (hier).

Unter Ignoranz der komplexen Auswirkungen menschlicher Brandauslösung plapperte CNN auch Behauptungen nach, wonach die globale Erwärmung die Brandsaison über das gesamte Jahr sich ausdehnen lässt. Aber wie man in der Graphik unten erkennt – sie stammt aus einer Studie zu Buschbränden aus dem Jahr 2017 – ist die Hauptursache der natürlichen Brandsaison in den USA Blitzschlag, und sie ist nur dominant während der Monate Juli und August, wenn es in Kalifornien nur selten zu Starkwind-Ereignissen kommt. Im Gegensatz dazu ist es die menschliche Brandauslösung, welche die Brandsaison verlängert. Vor allem in den Wintermonaten nimmt die Brandauslösung dramatisch zu, wenn die Luftfeuchtigkeit höher ist, und in Zeiten, wenn die sich abkühlende Wüstenluft kräftige Episoden von Santa Ana- und Diablo-Winden erzeugt*. Diese starken Winde sorgen für die rapide Ausbreitung von Bränden, wobei 2 bis 3 mal so viel Fläche verbrennt als bei Bränden mit geringer Windgeschwindigkeit. Die jüngsten und destruktivsten Brände wurden durch derartige Starkwind-Ereignisse begünstigt. Wie andere Forscher auch berichteten Williams und Abatzoglou jedoch von keinem Trend jener Starkwind-Ereignisse in Kalifornien. Außerdem geht aus Klimamodellen hervor, dass ein wärmeres Klima zu schwächeren Winden führt. Folglich können ohne Änderung der Windverhältnisse in Kalifornien starke Winde nicht verantwortlich gemacht werden für die zunehmenden verbrannten Flächen. Weil es jedoch im Winter mehr menschlich verursachte Brandauslösungen gibt, nimmt die Wahrscheinlichkeit zu dafür, dass die starken Winterwinde mehr Brände verstärken. Ein Brandspezialist des US Geological Survey stellt fest: „Einige werden argumentieren, dass das Klimawandel ist, aber dafür gibt es keine Beweise. Es ist vielmehr die Tatsache, dass jemand ein Feuer anzündet während eines Extremwind-Ereignisses“ (hier).

[*Santa Ana-Winde: Bei bestimmten Wetterlagen strömt die Luft aus den relativ hoch gelegenen Halbwüsten Kaliforniens auf den Pazifik hinunter, wobei die Luft in den Tälern durch Düsenwirkung stark beschleunigt wird. Es handelt sich um trocken-kalte Fallwinde nach Art der Bora südlich des Alpenhauptkammes. Eine solche Wetterlage stellt sich stark bevorzugt in den Herbstmonaten ein. Anm. d. Übers.]

Das Timing von vom Menschen ausgelösten Bränden ist jedoch nur ein Treiber von mehr und größeren Feuern. Zunehmende Ansammlung von brennbarem Material sind ein weiterer gewaltiger Faktor. Es ist wohlbekannt, dass sich durch Unterdrückung von Feuern während der Vergangenheit viel Totholz in den Wäldern akkumuliert hat, was zu größeren und verheerenderen Bränden führt. Aber die Änderungen derartiger Umstände sind komplexer. Einige Wissenschaftler weisen darauf hin, dass bestimmte Praktiken des Holzeinschlags zur Ausbreitung „invasiver Gräser führen. Nach der Fällaktion breiten sich diese Gräser aus und formen eine echt dicke Matte in dem Gebiet, und das trockene Gras lässt sich die Flammen sehr rapide ausbreiten“ (hier). Der demokratische Kongressabgeordnete von Kalifornien Ro Khanna argumentierte, dass die Politik des US Forest Service dafür sorgt, dass sich leicht entflammbares Material am Waldboden sammelt, wodurch die Waldbrände in Kalifornien sich schneller ausbreiten und heißer brennen. Er sagt „Weil wir nicht die richtige Wissenschaft haben, kostet uns das Menschenleben, und darin besteht auch die Dringlichkeit, hier etwas zu ändern“.

Die Kontrolle sich ausbreitender bestimmter Gräser [Cheat Grass] ist dringend erforderlich. Trockene Gräser sind „Brandbeschleuniger“, die sich am leichtesten entzünden. Das Carr Fire im Jahre 2018 war der siebtgrößte Brand und bedrohte die Stadt Redding in Kalifornien. Es entzündete sich, als an einem Auto-Anhänger der Reifen platzte und das über den Asphalt rutschende Radinnere Funken schlug. Dadurch geriet das Gras am Straßenrand in Brand. Diese Gräser trugen das Feuer in das Buschland und in die Wälder. Gräser sind als Brandbeschleuniger Nummer 1 klassifiziert, was bedeutet, dass sie unter warmen und trockenen Bedingungen hoch entflammbar innerhalb nur einer Stunde werden. Klimawandel ist dabei vollkommen außen vor. Es spielt keine Rolle, ob es feucht und kühl oder warm und trocken war während der Tage, Wochen und Jahre zuvor. Nur eine Stunde lang warmes, trockenes Feuer-Wetter bildet die Grundlage für einen explosiven Grasbrand, welcher sich dann in die Wälder hinein ausbreitet. Feuerwetter tritt in jedem Jahr auf und erklärt teilweise, warum Buschbrände im kalten 19. Jahrhundert 3 Millionen Acres Land verbrannten.

Nicht menschliche Fahrlässigkeit, sondern Blitzschlag war Ursache für das Rush Fire im Jahre 2012. Es war das viertgrößte Feuer in Kalifornien, dem 272.000 Acres [~1000 km²] eines Beifuß-Habitats verbrannten. Dieses Feuer griff auch noch auf Nevada über. Historisch brennen wegen fehlender brennbarer Materialien am Boden Beifuß-Habitate nur selten (etwa alle 60 bis 100 Jahre). Aber invasive Gräser haben inzwischen für eine sehr leicht entflammbare Unterlage gesorgt, um kleine, durch Blitzschlag ausgelöste Brände in ein riesiges Flammeninferno zu verwandeln. 11 der 50 größten Brände in den USA während der letzten 20 Jahre entzündeten sich im Great Basin, wo sich derartige invasive Gräser stark ausgebreitet hatten (hier). Der größte Brand in Nevada war das Martin Fire im Jahre 2018. Sich rapide durch die Gräser ausbreitend verbrannten dabei 439.000 Acres. Grasbrände machen Biologen große Sorgen, die versuchen, das bedrohte Sage Grouse [Beifußhuhn] zu schützen, da das von invasivem Gras dominierte Beifuß-Habitat jetzt alle 3 bis 5 Jahre in Brand gerät. Habitate mit einem hohen Anteil derartiger Gräser sind „zweimal so brandanfällig wie Gebiete ohne solche Gräser, und viermal so anfällig dafür, immer wieder zwischen 2000 und 2015 in Brand zu geraten (hier).

Wenn Experten die drohende Feuergefahr abschätzen, berechnen sie, wie schnell sich das Feuer voraussichtlich ausbreiten wird. Diese Ausbreitungs-Komponente berücksichtigt die Auswirkungen von Wind, der Neigung des Geländes und tägliche Änderung des Feuchtegehaltes im Boden. Große tote Bäume könnten nach 1000 Stunden warmer und trockener Bedingungen entflammbar werden, entzünden sich aber dennoch erst, wenn rasch brennbare Materialien am Boden genügend Hitze erzeugen. Folglich berücksichtigt die Ausbreitungs-Komponente nur kleinere Materialien wie Gräser, die innerhalb einer Stunde austrocknen können, ebenso wie Zweige und kleine Äste, die innerhalb von 10 bis 100 Stunden austrocknen. Zentral- und Südkalifornien werden dominiert von buschigen Habitaten, wo sich Feuer sehr rasch ausbreiten kann. Das Thomas Fire im Dezember 2017 war der zweitgrößte Brand in Kalifornien. Dessen Auslösung durch Menschen fiel mit einem Starkwind-Ereignis zusammen, was zu einer verbrannten Fläche von 282.000 Acres in Südkalifornien führte.

Dagegen fanden Williams und Abatzoglou heraus, dass die Korrelation zwischen verbranntem Gebiet im heißeren und trockeneren Klima der kalifornischen Mittel- und Südküste „relativ schwach“ ist. Dementsprechend berichteten sie, dass sich die jährliche Brandfläche in Mittel- und Südküste nicht wesentlich verändert habe. Diese unbedeutende Klimaauswirkung über der Hälfte Kaliforniens entging den Journalisten, die nur die alarmierenderen Klimanarrative der Forscher herausgegriffen hatten. Am interessantesten war, dass Williams und Abatzoglou das Fehlen eines Zusammenhangs zwischen Klimawandel und den verbrannten Gebieten an der Zentral- und Südküste Kaliforniens als Folge der „starken Manipulation durch Menschen durch Entzündungen, Unterdrückung und Landnutzungsänderungen“ ansahen.

An der Küsten von Zentral- und Südkalifornien kommt es nur sehr selten zu Gewittern. Folglich sind fast 100% jener Brände vom Menschen verursacht. Mit der Verdoppelung der kalifornischen Bevölkerung seit den 1970er Jahren um 20 Millionen Menschen hat die Wahrscheinlichkeit von vom Menschen ausgelöster Brände zugenommen. Anders als in Waldgebieten, wo sich durch Unterdrückung von Feuern am Boden brennbares Material ansammelt, müssen an Kaliforniens Mittel- und Südküste Brände unterdrückt werden. Aufgrund der häufigeren Brände durch Menschen wandeln sich die Buschlandschaften in Graslandschaften um. Die viel leichter entzündlichen Gräser der Wiesen lassen Feuer sich viel schneller ausbreiten. Darüber hinaus gibt es natürlicherweise in Kalifornien aufgrund von El Nino feuchte Jahre, gefolgt von trockenen La Nina-Jahren. In feuchten Jahren sind leicht entzündliche Stoffe häufiger anzutreffen. Daher ist eine Feuerunterdrückung erforderlich, um häufigere Brände durch die Umwandlung von Buschland in Grasland zu verhindern.

Im Gegensatz zu den unbedeutenden Veränderungen der verbrannten Fläche in Südkalifornien berichteten Williams und Abatzoglou von einem Anstieg der verbrannten Fläche in der Sierra Nevada und an der Nordküste um mehr als 600%, der auf den vom Menschen verursachten Klimawandel zurückzuführen sei. Sie schrieben: „Während der Jahre 1896–2018, März – Oktober, stieg die durchschnittliche Höchsttemperatur in den vier kalifornischen Untersuchungsgebieten um 1,81°C, mit einem entsprechenden Anstieg der VPD [Dampfdruckdefizit {Vapor Pressure Deficit} – ein Maß für die atmosphärische Trockenheit] um 1,59 hPa (+ 13%)… Die beobachteten Trends dieser beiden Parameter stimmen mit Trends überein, die von Klimamodellen im Rahmen der CMIP5-Experimente simuliert wurden. Dies stützt die Interpretation, dass der beobachtete Anstieg der Temperatur in Kalifornien während der warmen Jahreszeit und der VPD größtenteils oder vollständig durch anthropogene Faktoren verursacht wurden.“

Aber wie kann nur die Hälfte der Brände in Kalifornien auf die globale Erwärmung zurückzuführen sein und die andere Hälfte nicht? Ganz Kalifornien wird „durch Zündung, Unterdrückung und Landnutzungsänderung stark von Menschen manipuliert“? Sind Williams und Abatzoglou von der objektiven Wissenschaft abgewichen?

Teil des Problems ist ihr unüberlegtes Heranziehen einer über ganz Kalifornien gemittelten Maximumtemperatur. Aus vielen Studien geht hervor, dass Maximumtemperaturen in Nordkalifornien nicht über über die hohen Temperaturen der 1930er Jahre hinaus gegangen sind. Weil die Temperaturen zu Beginn des 20. Jahrhunderts als natürlich angesehen werden, dann ist eine menschlich verursachte Erwärmung unwahrscheinlich, solange die derzeitigen Temperaturen nicht über das Niveau der 1930er Jahre steigen. Seltsam, seltsam, in Südkalifornien waren Temperaturwerte über denen der 1930er Jahre aufgetreten. Aber trotzdem haben Williams und Abotzoglou keine signifikante Auswirkung durch Klimawandel gefunden.

Ungeachtet dessen behaupteten Williams und Abatzoglou: „Der bislang eindeutigste Zusammenhang zwischen Buschbränden in Kalifornien und dem anthropogenen Klimawandel ist die durch die Erwärmung bedingte Zunahme der Lufttrockenheit, die dazu beiträgt, brennbares Material auszutrocknen und sommerliche Waldbrände zu fördern“. Aber die in der Umgebung der großen Brände gemessenen maximalen Sommertemperaturen wurden von März bis Oktober gemittelt und deuten nicht auf eine globale Erwärmung hin. Beispielsweise war das Rim Fire im August 2013 im Gebiet des Yosemite-Nationalparks das fünftgrößte Feuer in Kalifornien und das zweitgrößte in Nordkalifornien, dem 257.000 Acres zum Opfer fielen. Es wurde durch das illegale Lagerfeuer eines Jägers ausgelöst, der sich dann nicht mehr darum kümmerte. Leider gibt es kein Heilmittel für Dummköpfe. Dennoch lagen die Höchsttemperaturen von Yosemite Anfang des 20. Jahrhunderts höher. Eine eingehende Untersuchung des Rim Fire (hier) ergab jedoch eine starke Korrelation mit der Größe des mit Bäumen durchsetzten Buschlandes.

Das Camp Fire im November 2018 war der bislang tödlichste Brand in Kalifornien, welcher die Stadt Paradise zerstörte. Es war auch das 16-größte Feuer mit einer verbrannten Fläche von 153.000 Acres. Ausgelöst wurde wurde es durch ein schadhaftes Stromnetz während eines Starkwind-Ereignisses. Wetterdaten der nahe gelegenen Stadt Chico zeigen, dass die Höchsttemperaturen während der 1930er Jahre höher lagen:

Das komplexe Mendocino Fire war der größte Brand in Kalifornien (seit 1932). Im Juli 2018 verbrannten dabei 459.000 Acres. Ob menschliche Fahrlässigkeit dafür die Ursache war, wird noch untersucht. Die Brände konzentrierten sich um die Stadt Ukiah, wo es jedoch seit 1930 ebenfalls einen Abkühlungstrend gab:

Im Oktober 2017 war das Tubbs Fire im wine country das vierttödlichste Feuer. Zwar verbrannten nur 37.000 Acres Land, doch trieben starke Winde die Glut bis in Wohngebiete der stark bevölkerten Gegend um Santa Rosa. Auch hier war globale Erwärmung völlig irrelevant, trat doch dort ebenfalls seit 1930 ein Abkühlungstrend auf:

Dennoch sind einige Menschen fest entschlossen, katastrophale Brände mit dem Klimawandel in Verbindung zu bringen. Sie geben daher vor, dass verspätete Herbstregen mehr Auslösung in der Spätsaison zulassen oder dass die Herbstbrände länger dauern. Im Abstract von Williams und Abatzoglous Studie behaupten die Autoren: „Im Herbst sind Windereignisse und der verzögerte Beginn von Winterniederschlägen die Hauptverursacher von Waldbränden.“ Aber aus ihren Ergebnisse „geht von 1915 bis 2018 kein allgemeiner Trend der Winterniederschläge oder die Häufigkeit nasser Tage im Oktober und November hervor“. Wie die folgende Graphik der Winterniederschläge in Santa Rosa zeigt, beträgt die Wahrscheinlichkeit eines Oktobers ganz ohne Regen etwa 10%. Zu Beginn es 19. Jahrhunderts gab es mehr gänzlich trockene Oktober-Monate. Dass globale Erwärmung eine Verzögerung der Herbstniederschläge bewirkt, konnte bislang nicht belegt werden.

Wenn ich also mein Bestes gebe, um Greta Thunberg zu imitieren, rufe ich den Klima-Alarmisten entgegen: „Wie könnt ihr es wagen, die Ursachen von Waldbränden falsch darzustellen! Wie könnt ihr es wagen zu implizieren, dass weniger CO2 die Brandauslösung seitens der Menschen reduziert, ebenso wie sich am Boden akkumulierendes Totmaterial und die Ausbreitung invasiver Gräser. Schlechte Analysen führen zu schlechten Abhilfemaßnahmen! Eure schlechte Wissenschaft raubt die Träume Kaliforniens, und eure falschen Maßnahmen halten uns von wirklichen Lösungen ab. Junge und alte Menschen gleichermaßen müssen eine bessere Wissenschaft und besseren Journalismus fordern!“

Jim Steele is Director emeritus of San Francisco State’s Sierra Nevada Field Campus and authored Landscapes and Cycles: An Environmentalist’s Journey to Climate Skepticism

Link: https://wattsupwiththat.com/2019/11/09/how-bad-science-horrific-journalism-misrepresent-wildfires-and-climate/

Übersetzt von Chris Frey EIKE




Windturbinen-Wahnsinn gefährdet Spezies

Extinction Rebellion schreibt auf ihre Banner „Klima-Notstand = Massenmord“. … Die Klima- und Biodiversitäts-Krise erfordert dringende und drastische Maßnahmen zur Dekarbonisierung“.

Shellenberger fragt dazu: „Falls sich Greta Thunberg und Extinction Rebellion wirklich solche Sorgen darum machen, das Aussterben gefährdeter Spezies zu verhindern, warum treten sie dann so gewalttätig für den Ausbau von Erneuerbaren ein? Schließlich hat sich herausgestellt, dass Windturbinen eine der größten Bedrohungen für Fledermaus- und Vogelarten sind, ebenso wie für Insekten, und das auf der ganzen Welt“.

Tatsächlich zeigen die Daten, dass Windturbinen die größte Einzelgefahr für Fledermäuse nach dem Habitat-Verlust darstellen. Als Beispiel führt Shellenberger die Warnung eines Wissenschaftler-Teams im Jahre 2017 an, die in Science Direct schrieben, dass die wandernde Grau-Fledermaus [migratory hoary bat] aussterben wird, wenn der Ausbau von Windparks wie bisher weitergeht. Paul Cryan, ein Biologe am US Geological Survey, schrieb: „Windenergie-Anlagen töten in so großer Zahl Fledermäuse, dass es weit über jedwede dokumentierte natürliche oder vom Menschen verursachte Todesrate der betroffenen Spezies hinausgeht“.

Der Tod von Fledermäusen ist dabei nur die Spitze des Eisbergs. Shellenberger schreibt weiter, dass sich Windturbinen nach dem Verlust von Habitaten auch als die größte Bedrohung für viele Vogel-Spezies herausgestellt haben, darunter gesetzlich geschützte Greifvögel wie Steinadler, Weißkopfseeadler, Kaninchenkauze, Rotschwanzfalken, Prärie-Bussarde, amerikanische Turmfalken, Weißschwanzaare, Wanderfalken und Präriefalken. Forschungen zeigen, dass die fortgesetzte Expansion von Windturbinen zum Aussterben des Königsadlers in den westlichen USA führen dürfte“.

Windturbinen töten Vögel und Fledermäuse nicht nur direkt, sondern auch auf indirekte Art, indem sie nämlich Billionen der Fluginsekten pro Jahr töten, welche für die Vögel die Nahrungsgrundlage sind. Zwar redet Extinction Rebellion von Bedenken hinsichtlich eines dramatischen Rückgangs der Insekten, ignoriert aber dabei die starken Belege dafür, dass die Expansion von Windparks eine tragende Rolle bei diesem Rückgang der Insekten spielt.

Shellenberger schreibt:

Deutschlands führendes Technologie-Forschungsinstitut veröffentlichte im Oktober eine Studie, die zu dem Ergebnis kam, dass die rapide Erweiterung von Windparks Insekten-Populationen bedroht.

Dr. Franz Trieb am DLR folgert, dass ,eine grobe, aber konservative Schätzung des Einflusses von Windparks auf Fluginsekten in Deutschland zu einem Verlust von 1,2 Billionen [Hervorhebung von Autor Burnett] Insekten verschiedener Spezies pro Jahr führt. Dies kann relevant sein für die Stabilität der Population’“.

Da Befürworter der Windenergie genau die Technologien vorantreiben, welche Spezies am meisten gefährden, die zu schützen sie angeblich vorgeben, folgert Shellenberger, dass es diesen Leuten nicht um das Verhindern von Aussterben geht, sondern nur darum, das Leben und den Lebensstil der Menschen zu kontrollieren.

Quelle: Forbes

Übersetzt von Chris Frey EIKE




HGÜ A – Nord: Die Windstromverbindung von Emden bis nach Philippsburg

OFF Shore Windanlagen in Richtung Nordsee – Foto Bernd Kehrmann

Das Problem ist nur, dass man Wechselstrom nur mit großen Verlusten durch Kabel transportieren kann. Ab ca. 40 km sind die Verluste ( kapazitäre Verluste ) dann so groß, dass sich eine Übertragung des Windstroms zum Festland nicht mehr rechnet. Wählt man jedoch eine Übertagung mit Gleichstrom, fallen diese Verluste nicht an. Hierbei wird der erzeugte Windstrom auf See durch einen Konverter in Gleichstrom umgewandelt, um ihn später auf Land wieder in Wechselstrom umzuwandeln. Das Problem ist nur, das bei der Umwandlung von Gleichstrom in Wechselstrom nicht unerhebliche Oberschwingungen entstehen. Hierbei entstehen bei voller Leistung regelmäßig Brände im Konverter. Selbst Angela Merkel, als studierte Physikerin, spricht hier von Oberschwingungen, die man schwer kontrollieren kann.

Im Moment hilft man sich, in dem man nur geringe Mengen des Windstroms zu diesem Konverter an Land schickt. Das heißt, bei viel Wind werden einzelne Windanlagen einfach abgeschaltet. Die Investoren des Windparks werden hier auch für den nicht erzeugten Windstrom bezahlt. Der Dumme ist hier der einzelne Stromkunde, bei dem die Stromrechnung immer höher wird.

Eine Dauerlösung kann dieses Verfahren aber nicht sein. Das gilt besonders für den Fall, dass man im Rahmen der Energiewende weiterhin auf Offshore Windstrom setzt.

Hier hätte man eigentlich klüger sein können. Schon 2017 hatte man enorme Probleme, den Windstrom aus der Nordsee mittels eines Konverters ins Verbundnetz einzuspeisen. Der damals zuständige Minister Gabriel veranlasste darauf hin, den Windstrom über ein 623 km langes Kabel bis nach Norwegen zu leiten. Sein Argument war, in Norwegen gibt es riesige Wasserspeicher. Dort könnte man den Windstrom dann zwischenspeichern, um ihn dann bei Bedarf wieder nach Deutschland zu leiten. Die Stromtrasse Nordlink war geboren.

Konverterhalle, Enden-Ost, von hier soll die HGÜ A – Nord bis Kaarst verlaufen, Foto: Bernd Kehrmann

Das es in Norwegen aber gar keine Speicherseen gibt, verschwieg er vorsichtshalber. Dort gibt es wegen der nördlichen Lage eine Reihe von hochgelegenen Süßwasserseen, die sich im Winter mit Wasser füllen und ausschließlich der Trinkwasserversorgung dienen.

Sicherlich wird mit dem Trinkwasser aus diesen hoch gelegenen Seen auch Strom erzeugt, in dem man das Wasser über Generatoren nach unten leitet. Aber für eine Speicherung von Strom benötigt man einen Ober- und einen Untersee. Über die enormen Stromverluste, die bei einer zwei mal 623 km Leitung und der notwendigen Konverter entstehen und den Strom dann fast unbezahlbar machen, schwieg er vorsichtshalber.

Da man heute mit der Übertragung des Windstroms an Land wieder die gleichen Probleme hat, erinnert man sich gerne an die Finte Gabriels. Nur jetzt versucht man den unsauberen Windstrom über 600 km lange Leitungen bis in den Süden zu schicken, in der Hoffnung, dass durch die Kabelverluste dort so wenig Strom ankommt, dass man ihn ohne Probleme mittels eines Konverters ins Verbundnetz einspeisen kann.

Der Energiewende geschuldet sind in der Nordsee mehrere Windparks gebaut worden. Dieser Strom soll jetzt durch Seekabel zum Festland geschickt werden und ins Verbundnetz eingespeist werden.

Geplant sind drei große HGÜ Trassen ( Hochspannungs-Gleichstrom-Übertragung ) von der Küste bis weit in den Süden. Durch NRW ist die HGÜ A–Nord durch Amprion geplant. Diese Trasse soll von einem Konverter südlich von Bremen, durch Niedersachsen und NRW bis nach Kaarst am linken Niederrhein verlaufen.

Von Kaarst ist dann eine Weiterleitung des Windstroms als Freileitung über Hochspannungsmaste bis nach Baden-Württemberg geplant, um dann das nach der 2022 geplanten Abschaltung des KKW Philippsburg, zu ersetzen. Bei einer weiteren Erdverlegung befürchtet man wohl enorme Proteste der Anwohner.

Lageplan des noch im Bau befindeten Konverters Emden Ost, Foto Bernd Kehrmann

Hier ist wohl die gleiche Hoffnung wie bei der Nordlink, dass in Philippsburg so wenig Strom ankommt, dass man ihn ohne Probleme ins Verbundnetz einspeisen kann. Das man mit volatilem Windstrom gar kein Kraftwerk, das in der Grundlast läuft ersetzen kann, verschweigt man. Das Beispiel des Ministers Gabriel hat man wohl noch gut in Erinnerung.

Die HGÜ A – Nord soll ca. 327 km durch Niedersachsen und dann 296 km durch NRW verlaufen. Wenn man hier von einer verlustarmen Übertragung spricht, ist das Unsinn. Bei einer Übertragungsspannung von nur 320 KV hat man bei einer Leitungslänge von 600 km wohl die Hoffnung, dass in Philippsburg nur noch so wenig Strom ankommt, dass man ihn ohne Probleme durch den Konverter in das dortige Verbundnetz einspeisen kann. Das durch diese Maßnahme eine weitere Strompreiserhöhung zu erwarten ist, spielt hier keine Rolle. Die Energiewende gilt es zu retten, koste es was es wolle.

Der für die Stromtrasse A-Nord zuständige Netzbetreiber Amprion hat für die Verlegung der HGÜ- Kabel in NRW einen Korridor mit einer Länge von 296 km und einer Breite von 1 km beantragt. Auf dieser Trasse sollen die HGÜ Kabel in einer Breite von 24 m verlegt werden. Zusätzlich ist eine Versorgungsstrasse vorgesehen. Eine spätere Bewirtschaftung dieses 30 m breiten Streifens ist nicht möglich. Den betroffenen Landwirten wurde auf vielen Veranstaltungen hier eine großzügige Entschädigung für entgangene Ernteverluste versprochen.

Diese Trasse soll von Niedersachsen über das Münsterland nördlich von Hamminkeln bei Rees den Rhein queren und dann vorbei an Kalkar, Uedem, Xanten nach Kempen verlaufen und westlich von Krefeld schließlich bei Osterath/ Kaarst am linken Niederrhein enden. Dort soll ein Doppelkonverter errichtet werden. Die Größe eines Konverters wird mit einer Grundfläche von ca. 180m x 80m und einer Höhe von 25m angegeben. Zusätzlich zu den 2 notwendigen Konverterhallen ist eine aufwendige Schaltanlage mit den notwendigen.Leistungstransformatoren vorgesehen. Nach Besichtigung der Konverterhallen östlich von Emden wird hier eine Fläche von der Größe mehrere Fußballfelder vorgesehen, die durch einen hohen Sicherheitszaun geschützt sein wird.

Die extrem hohe Strahlung in den Hallen verbietet ein Betreten im laufenden Betrieb. Es ist davon auszugehen, dass die Leistungstransformatoren im Betrieb einen enormen Lärmpegel verursachen. Eine Unterbringung dieser Trafos in einer Halle ist wegen der enormen Hitzeentwicklung nicht möglich bzw.vorgesehen. Auf der 24 m breiten Kabeltrasse sollen die HGÜ Kabel in einer Tiefe von 1,20m bis 2,00m verlegt werden. Die einzelnen Kabelabschnitte müssen in einem Muffenhaus miteinander verbunden werden.

Je nach Gewicht der einzelnen Kabelabschnitte müssen diese Muffenhäuser in Abständen von 800m bis 1000m errichtet werden. Es ist davon auszugehen das diese Muffenhäuser aus Stahlbeton und mit stählernen Türen ausgestattet werden. Diese Muffenhäuser müssen wegen der nicht unerheblichen Wärmeentwicklung im Normbetrieb mit einer Klimaanlage ausgestattet sein. Ein Eindringen von Grundwasser muss auf jeden Fall vermieden werden.

Die Kabel im Erdreich zwischen den Muffenhäusern erreichen im Normbetrieb eine Temperatur von 70 Grad Celsius. Hier ist eine Austrocknung der Böden in diesem Bereich zu befürchten. Bei hohem Grundwasserstand, was ja am Niederrhein oft vorkommt, ist eine enorme Änderung der Bodenkultur zu befürchten. Heimische in der Erde lebende Tiere werden hiervon besonders betroffen sein.

Der beantragte Streifen mit einer Breite von 1 km wird für die Lagerung des Aushubs und der Lagerung des notwendigen Materials wie Kabeltrommeln, Material für die Muffenhäuser und weiteres Installationsmaterial benötigt.

Bei der Anlieferung der Kabeltrommeln sind Tieflader notwendig, die weit über 50 t transportieren können und wohl auch müssen. Die Größe der Kabeltrommeln und somit das Gewicht ist direkt abhängig von den Zufahrten. Hier ist besonders die Belastung der einzelnen Brücken zu berücksichtigen und die Höhe der Unterführungen.

Mit diesen Maßnahmen sind nicht unerhebliche Bodenverdichtungen verbunden. In wie weit das später auf den Ertrag der Bewirtschaftung Einfluss hat, muss noch festgestellt werden. Den betroffenen Landwirten ist bei den Infoveranstaltungen eine großzügige Entschädigung für Ernteverluste zugesagt worden.

Die Kosten für die ca. 300 km langen Leitung wird mit über zwei Milliarden Euro angegeben, wobei die notwendigen drei Konverterhallen nocheinmal mit 1,5 Milliarden Euro veranschlagt werden.

Die HGÜ soll 2025 in Betrieb gehen und das Kernkraftwerk Philippsburg ersetzen, dass nach dem Beschluss der Regierung dann vom Netz gehen soll. Wie ein Kernkraftwerk, dass in der Grundlast 24 Stunden läuft, durch volatilen Windstrom ersetzt werden kann, sollte noch geklärt werden.

Bernd Kehrmann, Dip. Ing., Elektrische Netze, Kraftwerkstechnik




Propaganda der LA Times vertuscht das kolossale Scheitern des Paris-Abkommens

[LA = Los Angeles] Die neueste klima-alarmistische Propaganda der LA Times vertuscht eklatant das kolossale globale Scheitern des verlogenen Paris-Abkommens (hier) und versucht, die Story rund um den gescheiterten Hype zu manipulieren, dem zufolge die USA die Fähigkeit haben, bedeutend auf zukünftige globale Emissions-Reduktionen einwirken zu können, ohne natürlich die horrenden Kosten, die ausufernde Bürokratie und die Irrelevanz bzgl. globaler Emissionen beim Namen zu nennen, welche immer Bestandteile derartiger Programme sind.

„Trotz der Entscheidung von Präsident Trump, sich aus dem Paris-Abkommen zu verabschieden, haben die USA das internationale Eckpunkte-Abkommen noch nicht vollständig verworfen“, sagte David Victor, ein klimapolitischer Forscher [?] an der UC San Diego.

Tatsächlich katalysierte der Präsident unabsichtlich hektische Klima-Maßnahmen von Städten, US-Staaten, Industrien und anderen Organisationen, als er vor zwei Jahren seine Absicht kundtat, sich aus dem Abkommen zurückzuziehen (hier). Diese blieben der Reduktion von Kohlenstoff-Emissionen verpflichtet, um die schlimmsten Auswirkungen der globalen Erwärmung zu vermeiden.

„Das war schon im Gange, aber die Trump-Regierung hat das sehr befeuert“, sagte Victor. „Über 400 Stadtpolitiker sind der Climate Mayors-alliance [etwa: Allianz der Klima-Bürgermeister] beigetreten, und 17 US-Staaten und Territorien schlossen sich der U.S. Climate Alliance an. Beide Organisationen haben sich dafür ausgesprochen, das in Paris gegebene Versprechen des Landes aufrecht zu erhalten“.

Der Artikel in der Times verschweigt irgendwelche und alle globalen Daten, die zeigen, was die übrige Welt hinsichtlich ihrer Emissionen zu tun gedenkt. Es wird darin im Grunde die Tatsache ignoriert, dass das Paris-Abkommen ein „globales Abkommen“ ist.

Globale Energie- und Emissions-Daten belegen eindeutig, dass das Paris-Abkommen vollständig gescheitert ist und keine möglichen Ergebnisse möglicher globaler Emissionen bietet, außer immer weiter steigenden und höheren Niveaus von CO2-Emssionen, die konsistent sind mit dem zunehmenden und nicht aufzuhaltenden Energieverbrauch seitens der Entwicklungsländer der Welt. Kein einziges dieser Länder hat aus dem politisch künstlich zusammen geschusterten Abkommen irgendwelche Verpflichtungen.

Über das Jahr 2018 sind die globalen Emissionen um fast 8 Milliarden metrische Tonnen seit dem Jahr 2005 gestiegen (hier). Das war das Jahr, welches Obama als Wendepunkt festgeklopft hat, also das Jahr, in welchem sein inzwischen ebenfalls gescheiterter CPP [Clean Power Plan] in Kraft treten sollte mit dem Mumpitz von Emissions-Reduktionen – gescheitert, weil die gesamte Zunahme auf das Konto der Entwicklungsländer der Welt geht.

Das Paris-Abkommen wurde im Jahre 2015 unterzeichnet, aber dennoch sind während der drei Jahre bis zum Jahr 2018 die globalen CO2-Emissionen um fast 1,6 Milliarden metrische Tonnen gestiegen. Fast alles davon ist den Entwicklungsländern geschuldet, während sich die US-Emissionen kaum verändert haben (und nach wie vor unter dem Spitzenwert des Jahres 2007 liegen). Die EU-Emissionen sind über dieses Zeitintervall leicht zurückgegangen:

Dazu im Vergleich: Die CO2-Eissionen von China und Indien stiegen während der drei Jahre von 2015 bis 2018 um über 770 metrische Tonnen. Dies spiegelt den kontinuierlichen und über Jahrzehnte währenden steigenden Trend bzgl. Emissionen, wie es auch für alle Entwicklungsländer gilt:

Außerdem zeigen die Prognosen der EIA (hier), dass die globalen Emissionen bis zum Jahr 2050 um weitere etwa 8 Milliarden metrische Tonnen verglichen mit dem Niveau 2018 steigen werden, wobei die gesamte Zunahme auf das Konto der Entwicklungsländer gehen soll. In den entwickelten Ländern sollen die Emissionen über diesen Zeitraum leicht rückläufig sein, wie die folgende Graphik der EIA zeigt:

Präsident Trump traf die bestmögliche und einzig richtige Entscheidung für die Bevölkerung der USA, als er sich aus dem absurden Paris-Abkommen zurückzog und weiterhin Emissions-Reduktionen der USA zu erreichen mittels eines kosteneffektiven und energieeffizienten Ersatzes von Kohle durch Erdgas.

Die unnötigen und kostspieligen Programme zu Emissions-Reduktionen im Paris-Abkommen sind getrieben durch politisch festgelegte Ergebnisse gescheiterter Klimamodelle, welche nicht in der Lage sind, globales oder regionales Klima zu repräsentieren. Falls die Welt wirklich versuchen will, das zu erreichen, dann ist es an den Entwicklungsländern, diesen Bemühungen voranzugehen.

Das Paris-Abkommen ist ein kolossaler Flop und muss in die Tonne getreten werden.

Link: https://wattsupwiththat.com/2019/11/06/l-a-times-propaganda-conceals-colossal-global-failure-of-the-paris-agreement/

Übersetzt von Chris Frey EIKE




Lächerlich: Wind-Apologeten behaupten, Fracking schädigt Wildtiere

Begutachtete Forschungen (hier) haben ergeben, dass Windturbinen in jedem Jahr allein in den USA 1,4 Millionen Vögel und Fledermäuse töten, obwohl Windenergie nur wenige Prozent des Energiebedarfs der Amerikaner deckt. Viele der getöteten Vögel und Fledermäuse sind bedrohte oder streng geschützte Spezies. Würde man wirklich die Windenergie so stark ausbauen, dass sie die etwa 80% derzeit durch Erdgas, Kohle und Wasserkraft erzeugte Energie ersetzt, würden zusätzlich etwa 20 Millionen Vögel und Fledermäuse in jedem Jahr getötet werden.

Nichtsdestotrotz postete die Website EcoWatch jüngst einen Artikel mit der Überschrift „We’re Just Starting to Learn How Fracking Harms Wildlife“ (hier). Der Artikel erscheint an prominenter Stelle fast ganz oben, wenn man in Google den Suchbegriff „Fracking“ eingibt.

Der Artikel schildert Anekdoten von zwei Austritten von Fracking-Lösung aus Pipelines während der letzten 15 Jahre. Der Artikel benennt aber keinerlei Zahlen, wie viele Wildtiere durch diese Lecks zu Tode gekommen waren – vermutlich weil die Lösung zu 90% aus Wasser und zu 9% aus Sand besteht (hier). Durch Wasser und Sand kommen aber keine Tiere zu Tode.

Weiter heißt es in dem Artikel: „Die offensichtlichste Bedrohung von Fracking für die Wildnis ist der Verlust von Habitaten“. Dazu wird lamentiert „der kumulative Fußabdruck einer einzigen neuen Fracking-Bohrstelle kann bis zu 30 Acres ausmachen“ [ca. 12 ha]. Bequemerweise wird nicht erwähnt, dass 300 Quadratmeilen [ca. 77700 ha {777 km²}] Landverbrauch für Windturbinen erforderlich sind, um auch nur ein einziges konventionelles Kraftwerk zu ersetzen (hier). Falls die Erhaltung von Land eine wichtige umweltliche Überlegung ist – und das sollte es – ist Windenergie exponentiell schlimmer für die Umwelt als konventionelle Energie.

Des Weiteren wird im Artikel behauptet, dass Pipelines Zugangswege zu den Bohrstellen „eine andere Art der Zerstücklung“ von Land seien. Der Artikel verschweigt bequemerweise, dass Wind- und Solarparks normalerweise weit entfernt von Bevölkerungszentren liegen, was oftmals die Konstruktion hunderttausender Kilometer neue Übertragungsleitungen erfordert, um den Strom auf die Märkte zu bringen. Konventionelle Kraftwerke dagegen befinden sich in der Regel nahe den Zentren, die sie mit Strom versorgen sollen. All die Übertragungsleitungen von Wind- und Solarenergie zerschneiden natürliche Ökosysteme weitaus stärker als die konventionelle Energieerzeugung.

Kurz gesagt, die Verfechter von Wind und Solar leben im Glashaus und werfen trotzdem mit Steinen auf konventionelle Energie. Falls die Auswirkungen auf Natur und Wildtiere sowie Landschaft ein zentrales Thema sind, dann sollten die Wind- und Solar-Verfechter eine solche Diskussion tunlichst vermeiden.

Autor: James Taylor is an American lawyer, senior fellow for environment and energy policy at The Heartland Institute and a CFACT contributor. James Taylor is a keen analyst of science and public policy and a competition level poker player.

Link: https://www.cfact.org/2019/11/03/wind-apologists-laughably-claim-fracking-harms-wildlife/

Übersetzt von Chris Frey EIKE




10 Jahre Klimagate: Meine schönste Stunde

Jeder Journalist träumt von dem Knüller, der seinen Namen allgemein bekannt macht. In diesem Monat vor 10 Jahren wurde endlich mir ein solcher Knüller zuteil – aber ich bin mir immer noch nicht ganz sicher, ob es das wert war. Positiv ist, dass sich meine Story wie ein Lauffeuer verbreitete und mir eine erheblich größere Leserschaft verschaffte – von den USA bis Oz – und meinen stacheligen, kantigen Ruf für Direkt-Kontrarianismus. Negativ schlägt jedoch zu Buche, dass ich für jeden eifrigen Fan wahrscheinlich einige andere verloren habe: ,Aber er ist normalerweise so lustig und clever. Jetzt ist er einfach einer jener antiwissenschaftlichen Spinner, welche den Klimawandel leugnen…‘.

Man kann sein ganzes Leben lang nach einem Knüller suchen, aber wenn er dann auftaucht, dann oftmals ungebeten. Mein Knüller fiel mir in den Schoß, als ich eines morgens an meinem Schreibtisch saß und mich fragte, was ich als nächstens in meiner Kolumne im Telegraph schreiben könnte. Da erregte eine interessante Story bei WUWT meine Aufmerksamkeit. Alles, was ich tat war, dieser Story Einleitung und Schluss zu verpassen und sie in eine allgemein verständliche Sprache zu bringen. Dabei brachte ich ein wenig Spannung, Zusammenhang und Effet ein. Dann übernahm ich den Titel von einem Kommentator jenes Beitrags, der sich ,Bulldust‘ nannte (rein zufällig ein Australier). Und siehe da, Klimagate war geboren.

Klimagate war sehr wichtig, weil damit der erste sichere und feste Beweis vorlag, dass das wissenschaftliche Establishment nicht ehrlich war hinsichtlich der vom Menschen verursachten globalen Erwärmung. Bis zu jenem Punkt hatten zwar Einige von uns einen gewissen Verdacht. Aber dies hier war der Durchbruch; der Moment, in welchem die Alarmisten auf frischer Tat ertappt worden waren. Irgendjemand – der bis heute anonym geblieben ist – hatte eine gewaltige Cache von Dokumenten und Korrespondenzen frei online gestellt. Sie stammten von der Climate Research Unit CRU an der University of East Anglia in UK – eine der weltweit führenden Institutionen der Klimaforschung. Endlich wurde offenbar, was die Wissenschaftler höchst beflissen untereinander hinter verschlossenen Türen besprachen, während sie nach außen das Angst-Narrativ des Klimawandels am Leben hielten.

Viele der Beteiligten waren Leitautoren der Zustandsberichte, welche periodisch vom IPCC erstellt worden waren. Dies waren die ,Experten‘, deren Worte Regierungen dazu brachten, die radikalen Maßnahmen zu ergreifen, die angeblich erforderlich waren als Medizin gegen eines der größten Probleme, vor denen die Welt je gestanden hatte: ,globale Erwärmung‘. So jedenfalls hieß es zu Beginn.

Was die E-Mails zeigten war, dass diese Wissenschaftler privat längst nicht so überzeugt waren hinsichtlich Ausmaß und Wesensart hinsichtlich der Bedrohung, die sie so laut hinaus posaunten. Einige hegten Zweifel an der Zuverlässigkeit ihrer Verfahren wie etwa der Interpretation verschiedener paläoklimatischer Proxies (Baumringe usw.), um die Temperaturen in ferner Vergangenheit abzuschätzen. Andere hatten Bedenken, dass der von den Computermodellen prophezeite starke Temperaturanstieg in der realen Welt ausbleiben könnte.

Als Nachspiel folgte dem Skandal eine Aufeinanderfolge von Weißwasch-Studien – wobei eine davon von einer Gestalt geleitet worden war, die so voreingenommen war, dass man sie verglich, als ob man ,Dracula mit der Verantwortung für eine Blutkonserve‘ betraut hätte. Diese Studien hatten einzig die Aufgabe, die Bedeutung dieses internen Austausches herunterzuspielen. Aber es handelte sich hier um mehr als nur um normale, ordentliche Wissenschaftler, welche vernünftige Zweifel in ihrem Forschungsbereich äußerten. Es handelte sich hier um Leute, die sich mehr als politische Aktivisten denn als leidenschaftliche Sucher nach Wahrheit verhielten.

Folgendes kam ans Tageslicht: Bemühungen, unpassende Daten zu vernichten, um Untersuchungen im Rahmen des FOI [Freedom of Information Law = Informationsfreiheits-Gesetz] zu umgehen; Versuche, missliebige Journale zum Aufgeben zu bringen, welche Studien veröffentlicht hatten, die ihrer Causa nicht dienlich waren; wütende Angriffe auf Dissidenten; sogar Versuche, die Historie umzuschreiben, beispielsweise durch die Eliminierung der allgemein bekannten Mittelalterlichen Warmzeit.

Zwar war Klimagate kein definitiver Beweis dafür, dass die vom Menschen verursachte Klima-Angst künstlich fabriziert worden ist. Aber es wurde etwas fast genau so Wichtiges belegt: Dass das von Untergang triefende Große Narrativ vom Klimawandel, womit Lehrer Kinder ängstigen, womit Politiker immer neue Steuern und Vorschriften rechtfertigen und womit Kapitalisten auf verschwörerische Weise sagen ,subventioniert meine den Planeten rettenden Windparks‘ – dass all das auf einer so fadenscheinigen Grundlage beruht.

All das viele Geld, welches wir dem ,Kampf‘ gegen Klimawandel opfern – konservativ geschätzt vor einigen Jahren 1,5 Billionen Dollar pro Jahr – könnte sehr gut komplett verschwendet sein. ,Globale Erwärmung‘ mag eine tödliche Bedrohung sein – aber wenn wir den Begriff ,Vorsorgeprinzip‘ in den Mund nehmen, könne wir alles Mögliche damit erschlagen, darunter auch eine Invasion von Außerirdischen. Heißt das, dass wir zwei Prozent der globalen Ökonomie opfern müssen, um den Planeten mit Anti-Alien-Lasern zu überziehen, nur für den Fall?

Hätte man mich zu dem Zeitpunkt der Aufdeckung von Klimagate gefragt, ob ich darüber in zehn Jahren immer noch schreiben würde, hätte ich gesagt: „Nein! Um Himmels willen, nein! Die Karawane ist bis dahin längst weitergezogen“. Aber das war nicht der Fall, oder? Stattdessen hat sich immer mehr Ladung akkumuliert, es gab immer mehr Trittbrettfahrer. Tatsächlich ist es in einer bizarren Umkehr von Logik so, dass mit immer weiter abnehmender Glaubwürdigkeit der großen Globale-Erwärmung-Angst der Klima-industrielle Komplex immer größer, lauter und mächtiger wurde.

Obwohl ich einst ein Buch geschrieben hatte, in welchem ich dieses Phänomen analysierte – das Phänomen ist eine Mischung aus follow the money-Gier, sich selbst geißelnder Gaia-Anbetung, welche das Vakuum des schwindenden Christentums füllte, sowie puritanischer, menschenfeindlicher Linken-Kontroll-Besessenheit – finde ich es immer noch außerordentlich, dass diese Idiotie unsere Kultur so eisern umklammert hat. Warum in aller Welt gestatten wir es den ungewaschenen Hippy-Clowns und übermütigen Möchtegern-Chaoten von Extinction Rebellion, unsere Straßen zu blockieren? Wie kommt es, dass das, was wir über die Umwelt zu denken haben, von einer braun gezopften, 16-jährigen autistischen Schulschwänzerin aus Schweden vorgebetet bekommen, welche ihre Klimafakten vielleicht aus dem Film Ice Age 2 bezogen hat?

Derzeit scheint der Kampf gegen diesen Unsinn ziemlich aussichtslos. Aber zwei Dinge haben wir Skeptiker auf unserer Seite: Zeit und Ökonomie. Die Zeit tut uns den Gefallen, unmissverständlich aufzuzeigen, dass keine einzige der Untergangs-Prophezeiungen seitens der Alarmisten eingetroffen ist oder einzutreffen bevorsteht. Die Ökonomie – von den Stromausfällen in Südaustralien infolge exzessiver Stützung auf Erneuerbare (alias Unzuverlässige) bis zu den derzeitigen Unruhen von Frankreich über die Niederlande bis nach Chile wegen der grünen Politik ihrer jeweiligen Regierungen – die Ökonomie zeigt, dass der gesunde Menschenverstand am Ende obsiegen wird. Aber zum Teufel – das braucht seine Zeit, oder?

Link: https://www.spectator.com.au/2019/11/my-finest-hour/

Übersetzt von Chris Frey EIKE




Trumps ehemaliger Wissenschafts­berater Will Happer wird beim Klima­forum bei COP25 in Madrid sprechen

Veranstaltung: Forum zur Zurückweisung der UN-Klima-Agenda

Wann: Dienstag, 3. Dezember 2019 von 13.00 bis 18.00 MEZ

Wo: Madrid, Intercontinental Hotel sowie im Livestream on YouTube.

Weitere Informationen: ClimateRealityForum.com

„Es ist dem Heartland Institute eine Ehre, Dr. Happer auf unserer Gegen-Konferenz zur UN-Konferenz vom 2. bis zum 13. Dezember als Referenten hören zu können“, sagte James Taylor, Direkor am Arthur C. Robinson Center on Climate and Environmental Policy. „Dr. Happer wird uns wertvolle Einsichten vermitteln in die starken wissenschaftlichen Beweise, welche den Klima-Realismus von Präsident Trump stützen. Die eindrucksvollen wissenschaftlichen Verdienste und Leistungen von Dr. Happer sind unübertroffen. Die Welt muss Dr. Happer zuhören, wenn er die reale Wissenschaft einer spekulativen und höchst zweifelhaften Klimakrise gegenüberstellt“.

Unter den anderen Rednern sind der NOAA-Klimawissenschaftler Stanley Goldenberg, der Meteorologe Anthony Watts, der chilenische Wissenschaftler Douglas Pollock, der Generalsekretär des EIKE Wolfgang Müller, der Berater der ehemaligen Premierministerin Margaret Thatcher Lord Christopher Monckton und James Taylor von Heartland. Wir hoffen auf noch weitere Redner.

The forum will be held at the Intercontinental Hotel from 1 p.m. to 6 p.m. local time (13:00 to 18:00 CET; GMT +1), 7:00 a.m. to noon Eastern Time.

The Heartland Institute is a 35-year-old national nonprofit organization headquartered in Arlington Heights, Illino Its mission is to discover, develop, and promote free-market solutions to social and economic problems.

Link: https://wattsupwiththat.com/2019/11/11/trumps-former-science-advisor-will-happer-featured-in-climate-forum-at-cop25-in-madrid/

Übersetzt von Chris Frey EIKE




Die Klima-Ignoranz prominenter Amerikaner

Was haben Gouverneur Cuomo und Bette Midler gemeinsam? (Hinweis: es hat etwas zu tun mit Ignoranz des Wetters der Vergangenheit – oder schlimmer)

Betrachten wir mal dieses Zitat:

Der Gouverneur (Demokraten) von New York Andrew Cuomo machte Klimawandel für die schlimmen Überschwemmungen im Staat New York verantwortlich und behauptete, dass es Naturkatastrophen dieser Art vor dem Klimawandel nie gegeben hat. Er sagte dem Moderator von MSNBC Ali Velshi: „Ali, jeder, der Extremwetter und Klimawandel in Frage stellt, hängt in dieser Hinsicht einem Wahn an. Wir haben es im Staat New York erlebt und auch anderswo – es ist etwas, dass es noch nie zuvor gegeben hat!“

Cuomo fügte hinzu: „Es gab keine Hurrikane oder Superstürme oder Tornados“.

Es ist unfasslich für mich, dass ein amtierender Gouverneur eines Küstenstaates sagt, es hätte früher keine Hurrikane gegeben. Dabei wurde sein eigener Staat im Jahre 1821 von einem Hurrikan der Stärke 3 heimgesucht bis hinauf zu dem Gebiet, in welchem sich heute der John F-Kennedy-Flughafen (JFK) befindet. (Auf ähnlicher Bahn folgte im Jahre 2011 der Hurrikan Irene, der sich jedoch bis zum Erreichen dieser Stelle zu einem Tropical Storm abgeschwächt hatte). Im Jahre 1938 zerstörte ein weiterer Hurrikan Gebäude im Ostteil von Long Island.das war damals beim Übertritt auf das Festland ein Hurrikan der Stärke 4. Und im Jahre 1954 zerstörte der Hurrikan Hazel (Stärke 4) Gebäude im Ostteil von Long Island. Winde in Hurrikan-Stärke traten bis hinauf nach Toronto auf! Falls der Gouverneur mal eine Landkarte heranziehen würde, würde er sehen, dass New York State zwischen Toronto und der Küste von South Carolina liegt.

Helfen wir dem Gouverneur mit einer Darstellung der Zugbahnen aller tropischen Zyklone seit dem 19. Jahrhundert:

Im Jahre 1821 sah es so aus:

Der Hurrikan des Jahres 1938:

Übrigens, wo war der Gouverneur im Jahre 1972, als der aus einem Hurrikan hervor gegangene Sturm Agnes Pennsylvania und die südlichen Gebiete des Staates New York heimgesucht hatte – mit viel schlimmeren Überschwemmungen als in der vorigen Woche?

[Umgerechnet: 19.00“ = 19,00 Inches = ~480 mm]

Und hier Zugbahnen einzelner starker Hurrikane an der Ostküste im Zeitraum 1954 bis 1960:

Hinsichtlich Häufigkeit und Stärke dieser an der Ostküste auf das Festland übergegriffenen Hurrikane kam seitdem nichts mehr den Vorgängen in jenem Zeitraum gleich.

Vor einigen Tagen hielt ich vor sehr erfolgreichen Menschen einen Vortrag, die meisten waren jünger als ich. Fakt ist, dass die meisten nicht wussten, wie schlimm das Wetter schon war. Sie hatten keine Ahnung von den 8 starken Hurrikanen, die während der 1940er Jahre Südflorida betrafen, oder von den 8 großen Hurrikanen zwischen 1954 und 1960 an der Ostküste, von denen 2 sogar mit einem Abstand von nur 11 Tagen aufeinander folgten (Carol und Edna 1954), also im gleichen Jahr wie der schon erwähnte Hurrikan Hazel. Kann man sich heute noch 3 schwere Hurrikane an der Ostküste innerhalb nur eines Jahres vorstellen?

Man betrachte im Einzelnen die Schäden, welche der Hurrikan Hazel in New York City im Jahre 1954 angerichtet hatte, dessen Zentrum ca. 300 km westlich der Stadt nach Norden zog.

Washington DC meldete Spitzenböen bis 120 km/h, während in New York State, also viel weiter nördlich, über 140 km/h registriert worden war. Im Battery Park am Südende von Manhattan wurde eine maximale Bö von 180 km/h gemessen.

Entweder weiß der Gouverneur folglich davon nichts, oder er betrügt oder wird betrogen hinsichtlich der Fakten.

Ich könnte noch ewig weitermachen. Er sollte sich mal die Historie von Tornados oder Überschwemmungen in New York vornehmen. Auch die meisten Menschen wissen nichts davon. Aber wenn er diese Dinge sagt, glauben und vertrauen die Leute ihm. Wer hat schon Zeit, sich eingehend damit zu befassen, wenn man seinen Lebensunterhalt verdient?

Jetzt zu Bette Midler und ihrer Tirade bzgl. Buschbränden:

Wie kann irgendein Autobauer vor dem Hintergrund der in ganz Kalifornien wütenden Buschfeuer so feige sein, sich nicht für weniger CO2 einzusetzen anstatt für noch mehr? Warum stellen sie sich hinter einen Klimaleugner und Dummkopf?“

Seit dem Jahr 1980 zeigen Buschbrände einen Aufwärtstrend:

Allerdings ist man noch weit entfernt davon, wo man vor 100 Jahren war. Sie haben lediglich die Graphik bequemerweise zu der Zeit anfangen lassen, in der diese Zunahme begann:

Außerdem liegt dieses Jahr deutlich unter dem gleitenden 10-jährigen Mittel hinsichtlich Anzahl der Brände und der verbrannten Landfläche:

Aber wenn etwas Schlechtes vor sich geht, überlasse man es den von Agenden getriebenen Menschen, es so aussehen zu lassen, als sei es das schlimmste Ereignis jemals. Nicht einmal die Mainstream-Medien machen sich noch die Mühe, zu recherchieren und nachzufragen. Falls aufgeschlossene Menschen selbst nachschauen, sehen sie es, aber wenn das nicht der Fall ist, wissen sie es nicht. Also entweder weiß es auch die Diva Miss M. nicht, oder sie weiß es es doch und will lediglich die Agenda bestimmter Herrschaften rechtfertigen.

Aber sehen wir es mal so: Das Wetter hat eine Art, Menschen zusammen zu bringen. Die Beweise zeigen eindeutig, dass der Gouverneur und Bette Midler dies gemeinsam haben. Entweder wissen sie nicht, was früher geschah, oder sie wissen es doch, aber es kümmert sie nicht weiter, weil es nicht zu dem passt, was sie kolportieren. Es bleibt der Leserschaft überlassen, bzgl. der Fakten nachzuschauen und zu entscheiden, was schlimmer ist. Wie auch immer, die Fakten werden einfach nicht in der richtigen Perspektive dargestellt durch Menschen, welche diese Agenda vorantreiben.

Unter dem Strich: Haben Sie Angst, große Angst! Aber nicht vor Klima und Wetter, das ist nicht anders als schon immer, und menschliche Fortschritte ließen eine immer bessere Anpassung daran zu. Aber man sollte Angst haben vor Mächtigen, die Klima als ein Mittel nutzen, um ein Ziel zu erreichen, um genau den Prozess zum Stehen zu bringen, dem wir Wachstum und Wohlergehen als Gesellschaft zu verdanken haben.

Autor:

Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore.

Link: https://www.cfact.org/2019/11/05/cuomos-and-midlers-climate-ignorance/

Übersetzt von Chris Frey EIKE




Das meiste Potenzial ergibt sich durch Verzicht auf den Schuldenabbau …

… habe ich schon die Hoffnung, dass wir uns noch ein bisschen Respekt von Fridays for Future erarbeiten können …

Beim Lesen des FOCUS-Artikels über den Bürgermeister von Konstanz [1], kommt man (als klimarealistisch eingestellter Bürger) zu der Frage, warum es einen Bürgermeister und einen Stadtrat braucht, wenn dieser sich von Kindern auf der Nase herumtanzen lässt und dafür sogar noch lobende Worte findet. Und was die nicht bedingungslos FfF-gläubigen Bürger über so ein Oberhaupt denken, welches sich in seinem Handeln auf das Wissensniveau von Kindern reduziert.

Seine Aussage: „Das erste Gespräch mit Fridays for Future – das noch vor dem Beschluss des Klimanotstandes stattfand – sei für ihn ein anstrengender Termin gewesen. „Die wissen über Klimaschutz mehr als ich, die haben richtig viel Ahnung“,
kann man zudem nur als eine einzige Bankrotterklärung seiner Führung und seiner Stadtverwaltung, die ein eigenes Umweltschutzamt ausweist [2] betrachten.

Wer jedoch weiß, mit welchem Pseudowissen kommunale Klimamanager*innen brillieren:
EIKE, 22.03.2017: Klimamönche*, alternativ: die Klimaelite unserer Behörden,
wundert sich nicht, dass Schulkinder das gleiche „wissen“ und da lauter vorgetragen, einen wohl inkompetenten Bürgermeister überraschen. Bei der herrschenden Greta-Anhimmelung sticht er dabei nicht einmal aus der „Inkompetenzmasse“ hervor. Und dass ein Bürgermeister aus Konstanz sich bei kaltesonne oder EIKE wenigstens ein bisschen Klima- und Energie-Kompetenz anliest, wäre sowieso nicht zu erwarten.

Kennt der Bürgermeister die eigenen Klimaschutzinfos seiner Stadt nicht?

Wenn ein Stadtoberhaupt von der Kompetenz von Klimahüpfern schwärmt, die mehr wissen als er selbst, schaut man natürlich auf der Stadthomepage nach, wer dafür zuständig ist. Und eine Information überrascht wirklich (nicht):

Bild 1 Screenshot von der Homepage der Stadt Konstanz

Natürlich trügt diese Information. Klickt man über die „richtigen“ Homepageseiten, wird die Information so umfangreich, wie man es von einer Stadt in Deutschland erwartet und gewohnt ist:

Bild 2 Screenshot von der Homepage der Stadt Konstanz

Selbstverständlich findet sich auch das obligatorische Klimaschutzkonzept:

Bild 3 Screenshot von der Titelseite des Klimaschutzkonzeptes der Stadt Konstanz

Bild 3 Screenshot von der Titelseite des Klimaschutzkonzeptes der Stadt Konstanz

Darin dreht und beschränkt sich wirklich jeder Satz alleine auf das „Wissen“: CO2 = Klimagift und deshalb mit allen Mitteln und ohne die geringste Rücksicht auf Kosten zu verhindern und es verzichtet auch nicht auf die kritiklose Wiederholung bekannter Floskeln, doch was sollen Ersteller solcher Studien machen, wenn der Inhalt ideologisch vorgegeben ist:
Klimaschutzkonzeptes der Stadt Konstanz: KURZFASSUNG: EINLEITUNG
Der Klimawandel und damit einhergehende Konflikte und Migrationsbewegungen gelten als die größte Herausforderung des 21. Jahrhunderts. Um die globale Erwärmung zu begrenzen sowie eine nachhaltige und langfristige Energieversorgung zu gewährleisten, sind gerade auch die Kommunen gefragt …
Die Stadt Konstanz hat diesen Sachverhalt früh erkannt – sie ist bereits seit dem 1992 erfolgten Beitritt zum Klima-Bündnis im Klimaschutz engagiert. Das nun vorliegende Klimaschutzkonzept baut auf dem ersten städtischen Klimaschutzkonzept von 1995 auf und berücksichtigt auch dessen Fortschreibung von 2007 sowie die Ziele des Stadtentwicklungsprogramms STEP. Mit den Konzepten des Landes Baden Württemberg und den regionalen energiepolitischen Zielen des Interreg-Programms „Alpenrhein-Bodensee-Hochrhein“ ist es ebenso abgestimmt.
Zusätzlich bildet die Zielsetzung der „2000-Watt-Gesellschaft“ eine wichtige Grundlage für die Klimaschutzaktivitäten der Stadt Konstanz. Laut dem Modell der 2000-Watt-Gesellschaft, welches ursprünglich an der ETH Zürich entwickelt wurde, stünde jedem Erdenbewohner eine durchschnittliche Dauerleistung von 2000 Watt bzw. ein Ausstoß von etwa einer Tonne
CO2 pro Jahr zu. Einbezogen werden dabei nicht nur am Wohnort verursachte Emissionen, sondern auch Emissionen, die anderswo entstehen – beispielsweise durch Konsumgüterproduktion oder Verkehr. Konstanz hat sich mit der Verabschiedung der „Charta der 2000-Watt-Städte in der Bodenseeregion“ die Aufgabe gestellt, das 2000-Watt-Ziel möglichst bereits bis 2050 zu erreichen …

Man fragt sich da, was die Freitags-Hüpfkinder mehr wissen, als in den 197 Seiten dieses Dokumentes steht. Es könnte ausschließlich dazu kritisch eingestelltes sein. Da der Autor selbst schon eine Freitagshüpfer-Diskussionsveranstaltung besucht und durchgestanden hat [3] , kann er dies jedoch mit Sicherheit ausschließen.

Wenn man schon über das Klima von Konstanz nachsieht, schaut man auch gleich mal rein, warum Konstanz den Klimanotstand ausgerufen hat:

Bild 4 Screenshot von der Beschlussvorlage zur Ausrufung des Klimanotstands

Und stellt fest, dass der alleinige Grund laut der Beschlussvorlage nur ist, dass die Stadt mithelfen möchte, die CO2-Minderungsziele, welche sich Deutschland freiwillig und ohne Zwang hat auferlegen lassen, beziehungsweise selbst auferlegt hat einzuhalten. Von einer Not des Klimas ist darin keine Rede. Allerdings von einer angeblichen Not, die Forderungen der Freitagshüpfer erfüllen zu müssen …
Begründung:
1. Hintergründe zum Klimanotstand und zum Klimaschutz in Konstanz
Die durch die Fridays for Future-Bewegung angeregte Ausrufung des Klimanotstands dient dazu, „alle Kräfte aus Politik und Bevölkerung zu bündeln, um gemeinsam sofortige und entschlossene Anstrengungen zum Klimaschutz zu leisten.“ …
Was die folgende, „Fachliche Begründung“ mit einer Klimanot zu tun hat, erschließt sich wohl nicht jedem. Das soll es wahrscheinlich auch nicht:
2. Fachliche Begründung der Beschlussvorschläge
Grundsätzlich ist im Falle einer kurzfristigen Umsetzung sämtlicher Maßnahmen mit Mehrkosten zu rechnen, die entweder durch Verschiebungen innerhalb des Haushalts 2019/20 oder durch zusätzliche Einnahmen (Steuern, Gebühren, Zuschüsse o.
Ä.) gedeckt werden müssen …

Da haben die Klimahüpfer recht: Was haben die Maßnahmen der Stadt mit dem Klima zu tun

[1] Eine der direkten Folgen des Beschlusses war zunächst, dass seit Juni jede Entscheidung, die im Konstanzer Gemeinderat getroffen wird, auf ihre Klimarelevanz geprüft wird. Zudem hat die Stadtverwaltung eine Art „Task Force“ zusammengestellt, die klimarelevante Maßnahmen koordiniert – von der Energieversorgung von Gebäuden über Mobilität bis hin zur Entsorgung.
Neben diesen klimawichtigen Globalmaßnahmen wird die Welt-Temperatur auch ganz konkret bekämpft, zumindest scheint jemand aus Konstanz das anzunehmen:
[1] Erwogen werden nach Angaben der Stadt zudem ein Testlauf für einen kostenlosen Busverkehr an Samstagen sowie Prämien wie zum Beispiel ein ÖPNV-Ticket für Bürger. Geplant ist auch ein Klimabürgerrat.

Den Autor würde es interessieren, wie die Stadt und der Klimabürgerrat die Klimarelevanz bewerten. Zwar haben alle Maßnahmen ausschließlich eine Prämisse: Jedes kg gespartes CO2 ist ein wichtiges Kilogramm. Doch ist das noch keine Relevanz. Wer nun die Relevanz zum Klima auch nur irgendwie berechnen würde, müsste doch irgendwann erkennen:
Wenn Deutschland insgesamt bei sofortigem, vollständigem Verzicht auf alle CO2 Emission die Temperatur im Jahr 2100 (wenn überhaupt) irgendwo zwischen vielleicht +0,02 und unwahrscheinlichen +0,09 °C vermindern könnte, dann kann die Relevanz von „Klimamaßnahmen“ der Stadt Konstanz sich nur ganz, ganz, ganz wenig, konkret: nicht von Null unterscheiden. Genauer: Das wirkliche Klima nimmt davon nicht im entferntesten irgendeine Notiz. Und wie sieht dazu dann das genau so einfach zu berechnende Kosten-/Nutzenverhältnis wohl aus?
Wohl ohne Übertreibung kann man behaupten, dass die Ratsherren und Bürger in der Geschichte von Schilda nicht weniger Kompetenz (oder die gleiche) auswiesen.

Wenn ganz harte Maßnahmen gefordert sind, bei der die Politik Angst hat, dass es Stimmen kosten könnte, lässt man schon mal lieber die Bürger entscheiden, zumindest befragt man sie. Und die Bürger von Konstanz wissen genau, wie man das Klima in den Griff bekommt: Nichts tun geht nicht, aber viel tun wollen sie auch nicht (vor allem, da die Stadt vorwiegend vom Tourismus lebt):
[1]Zudem hat die Stadt das Feuerwerk eines der größten Heimatfeste im Land in einer Umfrage zur Debatte gestellt. Ergebnis: Die Konstanzer wünschen sich auch künftig ein Feuerwerk beim Seenachtfest. Unter den wesentlichen Änderungsvorschlägen der Bürger ist aber auch die Verkleinerung des Feuerwerks.

Und so muss man die Freitagshüpfer fast ob ihres Klimawissens loben (wie es der Bürgermeister auch getan hat). Dass die Maßnahmen der Stadt am Klima nichts verändern, haben sogar die Kinder erkannt. Nur fehlt ihnen noch die Kenntnis der Dreisatzrechnung (oder die Nachschau bei EIKE [4]), um das zu ermitteln und wissenschaftlich konkret in Zahlen auszudrücken:
[1] …Das Halbjahres-Fazit fällt nicht bei allen Akteuren in Konstanz positiv aus – vor allem aus Sicht der Ortsgruppe von Fridays for Future könnte es mit größeren und schnellere Schritten vorangehen. Die bisher sichtbar gewordenen Maßnahmen seien wenige und zudem wissenschaftlich gesehen wenig klimawirksam, sagt der Sprecher der Gruppe, Manuel Oestringer. So habe beispielsweise das Feuerwerk beim Seenachtfest eine verschwindend geringe Klimawirkung.

Dreisatzrechnung nachgeholt

Es gibt zwei Erfolgsermittlungen von Klimawandelaktionismus:
-Eine, die auf einer rein fiktiven und vollkommen unbelegten CO2-„Schadenssimulation“ beruht und laut Umweltbundesamt 180 EUR/Tonne CO2 beträgt. Von unserer fürsorglichen Politikelite mit dem Startwert von 10 EUR/t als Steuer gerade umgesetzt,
-eine, die realistisch die Möglichkeit des CO2-Atmosphärenanteils auf die Globaltemperatur abschätzt.

Die Freitagshüpfer argumentieren mit dem vom UBA angegebenen Schadenswert. Nun bescheinigt dem UBA sogar der Bundesrechnungshof mangelnde Wissenschaftlichkeit [5]. Diese Rüge ist nachvollziehbar, denn den genannten CO2-Schadenswert hat es gar nicht selbst ermittelt oder wenigstens überprüft, sondern einfach aus einer Fremdstudie (und teils vom IPCC) abgeschrieben“. Das parallel „Klimawissen relevante“ Umweltministrium ist ähnlich zu betrachten. Es hat zwar ebenfalls viele teure Mitarbeiter, jedoch so wenig Kompetenz, dass es mit enormen Finanzmitteln sein „Wissen“ von externen Beratungsfirmen kaufen muss [6].

Mit der CO2-Bepreissung lässt sich der Klimaschaden von Deutschland leicht bestimmen:
Die jährliche CO2(Äquivalent)-Emission betrug laut UBA im Jahr 2017: 907 Mio. t.
Die neue CO2-Abgabe von 10 EUR füllt den Staatssäckel somit mit jährlich 9 Milliarden EUR,
Wird sie – wie es inzwischen sogar Industrieverbände fordern – auf 60 EUR erhöht, ergibt es jährlich 30 Milliarden EUR, die die Politik an die Fordernden als Subventionen ausschütten kann.
Laut Umweltbundesamt soll der wirkliche Schaden jährlich allerdings 54,4 Milliarden EUR betragen.

Skeptische, beziehungsweise nicht durch dogmatische Hysterie vernebelte Personen rechnen anders. Zuerst schauen sie nach der Physik:
Achgut: [7] Der Eiffelturm und ein Blatt Papier
Die Atmosphäre besteht zu 78 Prozent aus Stickstoff und zu 21 Prozent aus Sauerstoff – das sind 99 Prozent. Argon, Dämpfe und Spurengase machen 0,93 Prozent aus. Jetzt sind wir sozusagen beim DDR-Wahlergebnis: 99,93 Prozent, immer noch ohne CO
2.
Nur 4.000 von 10 Millionen Molekülen in der Atmosphäre sind CO
2, das sind 0,04 Prozent.
Von den 4.000 CO
2-Molekülen sind 120 menschengemacht.
Von diesen 120 menschengemachten CO
2-Molekülen stammen drei (3) aus Deutschland, das sind 0,00003 Prozent der Atmosphäre. Drei CO2-Gasmoleküle von 10 Millionen Gasmolekülen in der Atmosphäre sind Gasmoleküle aus Deutschland! Der deutsche Beitrag zum weltweiten CO2 ist so viel, wie ein Blatt Papier im Vergleich zum Eiffelturm.

Um sich das bildlich vorstellen zu können, machen wir mal einen Höhenvergleich daraus:
Wenn die Erdatmosphäre so hoch wie der Eiffelturm (324 m) wäre, dann wäre:
-Stickstoff etwa 253 m hoch, so wie der Messeturm in Frankfurt
-Sauerstoff wäre 68 m hoch, so etwa wie die Thomaskirche in Leipzig
-Argon und die Spurengase wären 3 m hoch, wie das Goethe-/Schiller-Denkmal in Weimar
CO
2 wäre so hoch wie ein Kugelschreiber, etwa 13 cm
Und der deutsche Anteil am CO
2 wäre so hoch wie ein Blatt Papier, nämlich 0,1 mm.

Dann nehmen sie einen Taschenrechner oder Excel zur Hand und rechnen:
Die vorherige Darstellung, dass Deutschland mit seinem gesamten CO2-Eintrag bis zum Jahr 2100 die Welt um vielleicht 0,02 (beim wahrscheinlichen Forcingwert von 1 K/Grad) und noch weniger vielleicht um 0,09 °C (mit dem IPCC-Forcingwert von 3 K/Grad) „erwärmt“, rechnet sich einfach mit der Formel: delta T [K] =(Forcingwert*1,4427*/ln(2))*ln(CO2 Endkonzentration/CO2 Startkonzentration). Wer es sich einfacher machen will, nimmt zum Abschätzen bereits umgesetzte Ableitungen [4].

Anzumerken ist, dass diese Formel die endliche CO2-Verweilzeit in der Atmosphäre nicht berücksichtigt. Diese Verweilzeit wird je nach publizierendem, „wissenschaftlichem“ Institut zwischen 30 … 5000 Jahre „gehandelt“. Das mag manchen wundern, doch solche Spannen an Unsicherheit sind in der „Klimawissenschaft“ nicht ungewöhnlich. Genau sind nur die daraus abgeleiteten Simulationsergebnisse, zumindest behaupten es dieselben. Sie werden auch „benötigt“, um den Erfordernissen entsprechend angepasste Untergans-Simulationsergebnisse liefern zu können.
Manche ahnen es schon: Nimmt man die realistische Verweilzeit von 30 … 100 Jahre, „verfliegen“ alleine dadurch alle Zukunftsängste. Ohne es zu beantworten, dazu die Frage: Welche Verweildauer stammt wohl vom PIK?

1.440 … 7.600 Milliarden EUR für vielleicht 0,03 Grad Temperaturminderung im Jahr 2100

Abschließend schätzen sie die Effizienz der von Deutschland angeblich lebenswichtigen und nicht mehr aufschiebbaren CO2-Minderungsmaßnahmen ab:
Um die wahrscheinliche Erhöhung der Erdtemperatur durch Deutschlands Emissionen im Jahr 2100 um weniger als 0,03 °C zu „verhindern“ (die Emissionen sollen ja erst im Jahr 2050 gegen Null gehen), bezahlen die deutschen Bürger derzeit jährlich 10 EUR/Tonne, steigend auf 35 EUR ab 2025 und dann konsequent weiter bis zur Deckelung von 60 EUR.
Nimmt man zur einfachen, groben Abschätzung für die nächsten 80 Jahre an:
CO-Preis Mittelwert: 40 EUR/t
Jährliche Emission (Äquivalent): 450 Mio/t (die Hälfte der aktuellen)
dann betragen die Kosten bis zum Jahr 2100 für die Bürger 1.440 Milliarden EUR. Und beachten: Das sind nur die offiziell direkt „abgezapften“ CO2-Gebühren, ein erheblicher, zusätzlicher Teil für die technische und gesellschaftliche Transformation kommen noch dazu. So rechnen andere mit 7.600 Milliarden EUR [8].

Ob das sinnvoll ist, mag sich vielleicht nicht einmal mehr für Kinder erschließen. Unsere Bundeskanzlerin findet es allerdings: [9] … „Wenn wir den Klimaschutz vorantreiben, wird es Geld kosten – dieses Geld ist gut eingesetzt“, sagte sie in der Generaldebatte zum Haushalt im Bundestag. Ein Ignorieren würde aber mehr Geld kosten …

Ob die Stadt Konstanz für ihre Klimamaßnahmen und den daraus abgeleiteten Vorschlag, zur Finanzierung auf eine weitere Schuldentilgung zu verzichten, dieses Kapitel zur obligatorischen Bewertung der „Klimarelevanz“ anzieht? Man wird es wohl nie erfahren, außer ein Konstanzer Bürger würde den Vorschlag einbringen und über den Bescheid berichten.

Wir wollen nicht Klimaneutralität, sondern eine Abkühlung …

Wenn Kinder erst einmal Oberwasser bekommen und merken, dass die Erwachsenen ratlos sind und zurückstecken, werden sie leicht übermütig. Sinn muss es ja keinen haben, aber wenn keine Gegenwehr kommt, kann man endlich einmal die Grenzen ausloten:
[1] …Vor allem bei der Forderung der Umweltaktivisten, dass Konstanz im Jahr 2030 klimapositiv sein soll – das heißt, dass sie nicht zur Klimaerwärmung beiträgt, sondern ihr sogar entgegenwirkt ..
Und man kann so tun, als wäre man besonders klug und grandiose Vorschläge machen (die an eine bestimmte Partei erinnern):
[1] Weitere Kritikpunkte der Umweltschützer: das Thema autofreie Stadt werde auf die Innenstadt beschränkt, zu einem geforderten Betonverbot gebe es keine Reaktionen …

Machen wir ja alles und ihr bekommt sogar noch unsere Schulden …

Was macht ein „guter“ Bürgermeister in einer solch verzwickten Situation, wo Weitsicht und Mut für Entscheidungen gefragt ist? Darauf hinweisen, dass sich ein Stadtmanagement den öffentlichen Raum nicht durch Kinderhysterie und –Unwissen kaputt machen lässt? Nein: (wenn auch etwas zerknirscht) zustimmen und dafür Schulden anhäufen:
[1] Burchardt bleibt bei der Kritik der jungen Aktivisten gelassen. „Für mich ist es auch bis heute noch nicht immer leicht, zu akzeptieren, dass nicht alles sofort geht“, sagt er. Zwar teile er die Ziele der Gruppe …
… Ein Punkt sei die Erhöhung des Budgets für den Klimaschutz, das derzeit bei 1,7 Millionen Euro liege. „Ich würde gerne auf bis zu 5 Millionen Euro gehen. Da arbeiten wir aber noch dran und müssen auch mit dem Gemeinderat reden, ob er diesen Weg auch gehen möchte.“ … Hinzu kämen Investitionen mit Klimarelevanz von rund 3,5 Millionen jährlich. Dafür sei er auch bereit, Mittel im Haushalt umzuschichten, sagte Burchardt.
Das meiste Potenzial liege im Bereich des Schuldenabbaus von derzeit rund 1,5 Millionen Euro im Jahr. Er wolle beim Gemeinderat dafür werben, diesen zu stoppen.

Die Kinder können einem leid tun

Wenn die heutigen Kinder einmal alt genug sind, um den Unsinn (sehr höflich ausgedrückt) vieler ihrer Forderungen zu erkennen (und zu erleiden), dem Land dann aber jegliche Möglichkeit ausreichender Wertschöpfung fehlt, um das angerichtete technische und finanzielle Drama zurückzudrehen, werden sie vielleicht wieder hüpfen und dabei skandieren: Warum haben unsere Eltern und die damaligen „Eliten“ unseren erkennbaren, kindlichen Unsinn nicht gebremst, nicht die falschen Berater, die ausschließlich an ihre Pfründe dachten fortgejagt und nicht mit Weitsicht uns zurechtgewiesen und einfach das weiter gemacht, was sich so gut bewährt hatte? Auch die reale Zukunft kann grausam sein, nicht nur in Klimasimulationen.

Quellen

[1] FOCUS 03.11.2019: Task Force für Klima

[2] Stadt Konstanz, Klimaschutz

[3] EIKE : In der Höhle der Löwinnen

[4] EIKE 11.06.2015: Mit CO2-Reduzierung retten wir die Welt – Einige Rechenspiele (nicht nur) für regnerische Nachmittage




Statt 80 sind plötzlich 300 Millionen Küsten­bewohner vom Klima­wandel bedroht

Das Meer ist nicht gestiegen, der Strand wurde niedriger …

steht in einer Studie. Das gibt erst einmal nicht viel Alarm her. Also berichteten entsprechende „investigative“ Medien diese Feststellung als „Land unter“, um die gewünschte Wirkung zu erzeugen:
Klimareporter (und andere) am 02. November 2019: [1] Steigender Meeresspiegel Land unter
Der Anstieg des Meeresspiegels durch den Klimawandel bedroht Millionen Menschen in den Küstengebieten. Eine verbesserte Datenanalyse von Satellitenbildern zeigt nun, dass die Zahl der Betroffenen wohl dreimal so hoch ist wie bislang angenommen.
Und dann kommt es ganz schlimm: Es können sogar bald eine halbe Milliarde Betroffene werden:
[1]Laut der Studie mit dem Titel „Flooded Future“ (Überflutete Zukunft), die in dieser Woche in der Zeitschrift Nature Communications erschien, werden sehr viel mehr Menschen als bisher angenommen von regelmäßigen Überflutungen durch den Klimawandel betroffen sein.
Zu dem Ergebnis kommen die Studienautoren
Scott Kulp und Benjamin Strauss durch eine verbesserte Datenanalyse von Satellitenaufnahmen. Bisherige Modelle hatten sich nach Angaben der Forscher um mehr als vier Meter vertan, da die Satelliten Dächer und Baumkronen als Basis genommen hatten und dadurch die Küstenlinien nicht korrekt berechneten …

Niedrigerer Strand bedeutet: Würde der Meeresspiegel steigen, wären mehr davon betroffen

Den Meerespegel messen Satelliten trotz teils riesiger Wellen und bis zu 150 m tiefen „Gravitationslöchern“ (angeblich) auf Zehntel mm genau, bei Strandhöhen vertun sie sich leider um 4 m. Bisher ist das den vielen Forschern nicht aufgefallen. Aber unermüdlicher Fleiß, bekommt eben irgendwann auch seinen Preis: Forscher haben gerade noch rechtzeitig zum Klimagipfel auch diesen Fehler erkannt und korrigieren können.
Und als Folgerung kann leider nur herauskommen: Wenn der Strand im Hinterland um bis zu 4 m niedriger ist als bisher ermittelt, sind – falls der Meerespegel steil ansteigen würde -, selbstverständlich viel mehr Landflächen und damit auch Küstenbewohner betroffen. Berechnen kann man das jetzt endlich ganz genau:
[1]Mit ihrer verbesserten Analyse können Kulp und Strauss nun genauer beziffern, wie viele Menschen tatsächlich in den betroffenen Regionen leben – nämlich deutlich mehr als bislang geschätzt.
Nach der neuen Schätzung sind dreimal mehr Menschen akut gefährdet. Falls die CO
2-Emissionen nicht sinken und der Meeresspiegel bis zum Jahr 2050 weiter steigt, erleben demnach 300 Millionen Menschen in Küstengebieten durchschnittlich einmal im Jahr Überflutungen. Bisherige Schätzungen lagen bei 80 Millionen.
Im Jahr 2100 wären sogar mehr als eine halbe Milliarde Menschen betroffen – entweder von permanenter Überflutung ihres Landes oder von regelmäßigen Überflutungen.

In der Studie steht auch, dass nicht der Meerespegel schlimm steigt, sondern Städte über 160 mal schneller einsinken …

Man erinnere sich an das wirkliche Problem, welches viele angeblich „Klima-Pegelwandel-“bedrohten Küsten ausweist: Das rapide Versinken in ihren sumpfigen Untergrund:
[4] EIKE 18.06.2019: Küstenstädte versinken, (auch) weil das Geld stattdessen zur CO2-Reduktion hinausgeworfen wird
[5] EIKE 31.12.2018: Verwirrter Lauterbach: Klimawandel am Vulkanausbruch schuld. Nachtrag

In der „Studie“ listen die Autoren ganz konkret genau das (was der Bundestags-Klimavulnerabilitäts-Recherchekommission bei ihren von Wissen völlig unbelasteten Besuchen vor Ort penetrant nicht auffiel [6]) und das auch mit verblüffend ehrlichen Zahlen; immerhin geben sie für Jakarta eine Sinkrate von 25 cm/pa an, wogegen der Tidenpegel nur um ca. 1,5 mm/pa steigt. Das bedeutet ein Versinken der Stadt im Küstensumpf mit einer Rate, die über 160 mal so hoch ist, wie der Meerespegel-Anstieg!

[1]Doch nicht allein das macht der indonesischen Hauptstadt zu schaffen. Wie so oft ist es auch der nicht nachhaltige Umgang der Menschen mit ihrer Umwelt, der zu einer Potenzierung der Probleme führt.
Seit Langem sackt die Stadt ab, weil zu viel Grundwasser entnommen wird. Um bis zu 25 Zentimeter pro Jahr sinkt stellenweise der Boden. Bereits heute liegen 40 Prozent des Stadtgebiets unter dem Meeresspiegel. Im Jahr 2050 könnte ein Viertel der Stadt überschwemmt sein.

Trotzdem bleibt der Gegner der Klimawandel. Denn wer mit 250 mm jährlich sinkt, dem machen 1,5 mm Anstieg ja viel mehr aus …

Und so fabuliert die Klimadialektik frisch und frei, was herauskommen muss:
[1]„Küstenregionen überall auf der Welt müssen sich auf eine sehr viel schwierigere Zukunft vorbereiten“, so die Autoren. Der Meeresspiegelanstieg werde weitreichende politische Konsequenzen haben – von schrumpfenden Steuereinnahmen in den betroffenen Regionen über wachsende Migration bis zu Konflikten um Fischereirechte und andere Ressourcen.

Würde man die Treibhausgasemissionen schnell und entschlossen senken, könnten die Gefahren durch den Meeresspiegelanstieg gemildert werden
… Aber auch für europäische Länder müssen die Zahlen laut Studie nach oben korrigiert werden. Bei ungebremst ansteigenden Emissionen sind etwa in Deutschland im Jahr 2050 1,6 Millionen Menschen betroffen

Für den angenommenen Pegelanstieg finden sich in dieser Pseudostudie leider keine direkten Zahlen. Allerdings ein Hinweis, dass Szenarien nach Kopp et al. 2014 verwendet werden.

Daraus Angaben zu Pegelprojektionen:
[3] Moderate emissions cuts (RCP 4.5), Kopp et al. 2014, median climate sensitivity

Bild 1 Pegelszenarien aus Kopp et al. 2014

Allerdings auch ein Hinweis, dass Pegelwerte auf die Studie [7] referenzieren. Und in dieser ist angegeben:

Bild 2 [7] Pegelszenarien
Alleine damit lässt sich nun beliebig spielerisch-kreativ simulieren und „Gefährdete“ wie am Fließband erzeugen.
Dazu der Hinweis, dass der bisherige Tidenpegel-Anstieg linear weitergeschrieben im Jahr 2100 zu +12 cm Pegelanstieg führt.
Wenn man nun das RCP 2.6 Scenario des IPCC nach Bild 2 anzieht, ist Jakarta in nur 2 Jahren (genauer: die letzten zwei Jahre) so tief gesunken, wie der gesamte Pegelanstieg zum Jahr 2100 ausmacht.
Diese Information kann man zwar mit etwas Einsatz im und über den Artikel von „Klimareporter“ erfahren, doch vermitteln will er es sicher nicht:
Klimareporter: [1] Steigender Meeresspiegel Land unter
Der Anstieg des Meeresspiegels durch den Klimawandel bedroht Millionen Menschen in den Küstengebieten …
… Wie viele Küstenstädte liegt Jakarta nur wenige Meter über dem Meeresspiegel. Wegen der steigenden Pegelstände durch den Klimawandel ist die Zehn-Millionen-Einwohner-Stadt in akuter Gefahr …

Wen wundert es? Die Protagonisten sind die gleichen, wie beim Vorgänger „Klimaretter“. Und auch hier sind ein Herr Grassl und Frau Prof. Claudia Kemfert als Kuratoriumsmitglieder gelistet. Und C. Kemfert ist genau die – unsere Politik beratende Professorin -, welche als hauptsächliche Reputation dafür nur die Eigenschaft hat, der Politik alles als machbar zu versprechen, was gewünscht ist.

Climate Central

Es erscheint nicht zufällig, dass diese (pseudo-)Studie von einem Herausgeber „Climate Central“ erschienen ist. Obwohl und weil dieses Institut von sich behauptet: An independent organization of leading scientists and journalists researching and reporting the facts about our changing climate and its impact on the public …
erkennt man schon daran, dass wie beim PIK weniger über Klima, sondern über Klimafolgen berichtet wird.

Ein Beispiel deckt es sofort auf. Und nicht zufällig ist die (Vorgänger-)Homepage von C. Kemfert wieder dabei:
Klimaretter, 09. November 2015: [2] Meeresspiegel bedroht Megastädte
Bis zu 800 Millionen Menschen könnten langfristig wegen Überschwemmungen ihre Heimat verlieren, wenn der Klimawandel ungebremst weitergeht. Zu dem Ergebnis kommt ein am Montag veröffentlichter Report der US-amerikanischen Wissenschaftsorganisation Climate Central. Die Autoren des Berichts, der auf ihrer in der Fachzeitschrift PNAS erschienenen Studie aufbaut, gehen von einem Meeresspiegelanstieg von bis zu elf Metern im kommenden Jahrhundert aus, sollte sich die durchschnittliche globale Temperatur um vier Grad erhöhen – als Folge ungebremster CO2-Emissionen.

Kommt einem dieser Text nicht sehr bekannt vor? Das wesentlich Andere dieses älteren Artikels ist nur, dass ein Pegel von 11 m zum kommenden Jahrhundert angegeben ist.
Und noch etwas findet sich in dieser geradezu hirnrissigen Studie
[9] „Carbon choices determine US cities committed to futures below sea level, Benjamin H. Strauss, Scott Kulp, and Anders Levermann. PNAS November 3, 2015 112 (44) 13508-13513; first published October 12, 2015“,
Herr Professor A. Levermann vom PIK war daran beteiligt. Eine Person, die vor keiner Blamage zurückschreckt [8].

In dieser Studie [9] findet sich als Pegelangaben:
Analysis based on previously published relationships linking emissions to warming and warming to rise indicates that unabated carbon emissions up to the year 2100 would commit an eventual global sea-level rise of 4.3–9.9 m …

Bild 3 [9] Fig. 2. Projections of committed global SLR (Left) and municipalities where more than half the population-weighted area would be affected (Right), under different emissions scenarios and assumptions about West Antarctica. The years shown relate to emissions and associated commitments, not to the timing of ensuing SLR. The 66% CIs are shown for the baseline Antarctic case only.
Die im damaligen Artikel von Klimaretter genannten, 11 m möglicher Pegel fand der Autor in der Studie [9] nicht, er fand allerdings etwas ähnliches im darin zitierten Bericht von Climate Central [10]. Aber bei diesen Pegelangaben kommt es wirklich nicht mehr auf die letzten Meter an:

Bild 4 [10] Figure 2 illustrates the complete global distribution of long-term coastal threats from 4 °C warming and 2 °C warming, and the differences, across all nations. China has the most to lose from business as usual, with a median of 145 million citizens today on implicated land. China also has the most to gain from limiting warming to 2 °C, which would cut the total to 64 million. The six most at-risk nations, as measured by total 2010 population on threatened land (Table 2a), and 9 of the 10 most at-risk nations, as measured by percent of population in the same places (Table 2b), are in Asia. More broadly, 74% of the global population on implicated land live in Asia, a larger share compared to the 59% of global population inhabiting Asia overall.

Wie wahrscheinlich sind 11 m Pegelanstieg zum Jahr 2100?

Um diese Aussagen, unterstützt von einem leibhaftigen Professor vom PIK getätigt in einer Studie zu verdeutlichen, anbei Pegelprojektionen, mit dem Hinweis, dass um Platz zu sparen nicht die 11 m, sondern nur der niedrigere Wert aus den Bildern 3;4 mit 6,9 … 8,9 … 10,8 m eingetragen ist.

Zuerst das Bild mit Pegelprojektionen verschiedener Studien und Institute, unter anderem vom PIK (Schellnhuber und Rahmstorf):

Bild 5 Pegelprojektionen. Anm.: Schellnhuber und Rahmstorf sind vom PIK

Und nun die Pegelprojektion laut dem Artikel und der darauf basierenden Studie [10], an der Prof. Levermann vom PIK mitgearbeitet hat:

Bild 5 mit den in der Studie [10] (Bild 2) als möglich angegebenen, maximalen Meerespegeln
Mancher wird bei dieser Pegelprojektion etwas staunen. In der Statistik ist allerdings im Gegensatz zur Physik nichts unmöglich, es wird nur immer unwahrscheinlicher. Dass alle hier gelisteten „investigativen“ Seiten, Personen und der Professor vom Pik allerdings fernab jeglicher Seriosität agieren und die es ihre „Information“ lesen, hemmungs- und gnadenlos belügen mit absolut sicher nie so kommenden Pegeln in Panik treiben wollen, ist offensichtlich. Komischer Weise (oder gerade deshalb?) berät Frau Prof. Kemfert, die solche Informationspolitik mitträgt, unsere Regierung – und diese (und die Abgeordneten) duldet(n) es, unsere Medien glorifizieren sie weiterhin als sogenannte Fachperson; das ist der eigentliche Skandal.

Ausgerechnet beim Schreiben dieses Artikel meldet gerade unser Bundespräsident, Herr Steinmeier:
BR24, 08.11.2019: Fridays for Future: Steinmeier kritisiert Demokratie-Verständnis
„Apokalypse lähmt“

„Wir kommen aber nicht weiter, wenn wir jede Woche apokalyptische Bedrohungen beschreiben, die kaum zu bewältigen scheinen. Denn Apokalypse lähmt.“ Frank-Walter Steinmeier, Bundespräsident

Er sollte einfach an den wichtigen Stellen damit beginnen …

Fällt das sonst niemandem auf?

Doch, aber nicht Klima(folgen)wissenschaftlern und Politikberater*innen, sondern ganz normalen Redakteuren die ebenfalls sich noch eigenständiges Denken und den Mut zur Recherche bewahrt haben:
Achgut 08.11.2019: Meeresspiegelanstieg: Forscher vergaßen Deiche an der Nordseeküste
Eine vielbeachtete Studie der renommierten Princeton University, wonach es bereits in 30 Jahren an der deutschen Nordseeküste regelmäßig zu Überschwemmungen kommen könnte, ist durch eine aktuelle Meldung aus dem Niedersächsischen Landesbetrieb für Wasserwirtschaft, Küsten- und Naturschutz (NLWKN) relativiert worden. Laut einem Bericht der „Nordwest Zeitung“ haben die amerikanischen Forscher offenbar schlicht und einfach die Deiche als Küstenschutzmaßnahme ignoriert.
Die auf Satellitenmessungen basierenden Forschungsergebnisse hätten zudem keinen „Erkenntnismehrwert“, so Prof. Frank Thorenz vom NLWKN. In Niedersachsen würden bereits jetzt sehr viel genauere Höhendaten verwendet, was am Beispiel der Ostfriesischen Inseln sehr deutlich werde. In der US-Studie wurden sogar Dünengebiete mit Höhen von zum Teil mehr als 20 Metern als überflutungsgefährdet dargestellt, so Thorenz.
Anm.: Auf NWT-Online lautet es: Amerikanische Forscher rechnen mit regelmäßigen Überflutungen in unserer Region bereits in 30 Jahren. Doch in Niedersachsen wird mit viel genaueren Daten gearbeitet.

Nordsee

Zur Erinnerung, was die Autoren über Deutschland als Nordseeanrainer schrieben und die „investigativen“ Medien und angeblichen Fachpersonen skrupellos weiterleiteten:
[1]„Küstenregionen überall auf der Welt müssen sich auf eine sehr viel schwierigere Zukunft vorbereiten“, so die Autoren. Der Meeresspiegelanstieg werde weitreichende politische Konsequenzen haben …
… Aber auch für europäische Länder müssen die Zahlen laut Studie nach oben korrigiert werden. Bei ungebremst ansteigenden Emissionen sind etwa in Deutschland im Jahr 2050 1,6 Millionen Menschen betroffen …

Nun der Zustand direkt vor Ort, wie ihn der niedersächsische Küstenschutz beschreibt:
Niedersächsischer Landesbetrieb für Wasserwirtschaft, Küsten- und Naturschutz NLWKN: Küstenschutz Band 2, Mai 2010:
Zuerst ein Bild des Tidenpegelverlaufs aus dieser Publikation. Anstelle eines seit dem Beginn des besonders schlimmen Klimawandel um 1950 zunehmend steigenden Pegels zeigt es seitdem einen mit leichten Schwankungen abnehmenden:

Bild 6 Quelle: NLWKN Publikation. Schwarze Linien sind vom Autor zugefügt

Weil man schon dabei ist, noch Daten die Grafik der Sturmflutdaten aus der Publikation. Die schlimmsten Sturmfluten waren danach im Jahr 1967 und 1974. Eine stetige Zunahme ist nicht entfernt erkennbar, eher eine Abnahme.

Bild 7 Quelle: NLWKN Publikation

Dem Klimawandel konnten sich die Autoren nicht ganz „verschließen“, obwohl nach den eigenen Darstellungen nicht entfernt Anlass oder ein Beleg dazu besteht. Aber sie schreiben es in der Möglichkeitsform:
In den vergangenen 100 Jahren ist das mittlere Tidehochwasser an der niedersächsischen Küste um ca. 25 cm angestiegen …
Von zunehmender Bedeutung für den Küstenschutz auch auf den Inseln werden die Auswirkungen einer Klimaänderung in Form eines verstärkten Anstiegs des Meeresspiegels und einer Zunahme von Stürmen sein.
In Niedersachsen wird deshalb bereits heute ein Vorsorgemaß von 50 cm für die Bemessung von Küstenschutzanlagen …
Aufgrund von Studien des IPCC kann davon ausgegangen werden, dass ein verstärkter Anstieg des Meeresspiegels erfolgen wird. Deshalb werden für zukünftige Planungen und Maßnahmen des Küstenschutzes folgende Ansätze verfolgt:

  • als Vorsorgemaß für den Meeresspiegelanstieg und zukünftige Auswirkungen des Klimawandels wird bei der Ermittlung des Bemessungswasserstandes ein Wert von 50 cm in 100 Jahren berücksichtigt.

Nicht ein Sterbenswörtchen einer künftigen, schlimmen Gefahr ist im gesamten Dokument zu finden. Man geht davon aus, mit 50 cm zusätzlichem Höhenvorhalt alle Gefahren bis 2100 ausreichend gebannt zu haben.
Sind diese verantwortlichen Fachpersonen vor Ort vollkommen unwissend und bewusst fahrlässig? Mit Sicherheit nicht. Aber dann …

Fazit

Steinmeier könnte viel direkt in seinem Umfeld tun, wenn er wirklich wollte.

Quellen

[1] Klimareporter, 02. November 2019: Steigender Meeresspiegel Land unter

http://www.klimaretter.info/umwelt/nachricht/20013-meeresspiegel-bedroht-megastaedte

[2] Klimaretter, 09. November 2015: Meeresspiegel bedroht Megastädte

[3] Climate Central, October 29th, 2019: Report: Flooded Future: Global vulnerability to sea level rise worse than previously understood

[4] EIKE 18.06.2019: Küstenstädte versinken, (auch) weil das Geld stattdessen zur CO2-Reduktion hinausgeworfen wird

[5] EIKE 31.12.2018: Verwirrter Lauterbach: Klimawandel am Vulkanausbruch schuld. Nachtrag

[6] EIKE 30. April 2019: Claudia Roth auf Forschungsreise zum Klimawandel

[7] Scott A. Kulp & Benjamin H. Strauss, 29 October 2019: New elevation data triple estimates of global vulnerability to sea-level rise and coastal flooding

[8] EIKE, 12. Dezember 2018: Der Levermann Skandal im deutschen Bundestag

[9] PNAS November 3, 2015 112 (44) 13508-13513; first published October 12, 2015. Benjamin H. Strauss, Scott Kulp, and Anders Levermann: Carbon choices determine US cities committed to futures below sea level,

[10] Climate Central, November 2015: MAPPING CHOICES CARBON, CLIMATE, AND RISING SEAS OUR GLOBAL LEGACY




Umwelt-Wissenschaft ist zu einer Religion geworden

Das Chaos der katholischen Inquisition ist ein sehr gutes Beispiel für durchgedrehte Zeloten, die nach Macht streben und ihren Glauben NICHT-Gläubigen aufoktroyieren wollen. Die Unmenge der von diesen geisteskranken Zeloten verbreiteten Schrecken ist gut dokumentiert und wurde über Jahrhunderte hinweg genau beschrieben als ein Verbrechen gegen die Menschheit. Und jetzt werden wir wieder von RELIGIÖSEN Zeloten schwer bedrängt.

Ich werde sagen, was niemand sonst sagt: Umweltwissenschaft ist zu einer Religion mutiert. Die Zeloten beharren darauf, ALLES ZU WISSEN und dass wir, die wir nichts wissen, das glauben müssen und ihrem einseitigen Glauben folgen sollen – einem Glauben, dem blind nachzulaufen von uns verlangt wird.

Führungseliten der katholischen Kirche verschreiben sich jetzt zusammen mit Möchtegern-Gelehrten der heutigen Zeit und mit von Agenden getriebenen Individuen begeistert der globalen Erwärmung (oder zu was auch immer dieser Terminus mutiert ist). Darüber hinaus verlangen sie ALLE, dass JEDERMANN ihre Sichtweise des Ganzen akzeptiert und NICHT LEUGNET. Sie verlangen die Übernahme des Glaubens, und genau das macht es zur Religion. SIE sind es, die uns die Wahlmöglichkeit rauben und jetzt verlangen, dass wir glauben sollen. Glaube aber ist etwas, das man hat, wenn man an etwas glaubt wie Gott oder eine Religion. Glaube ist aber für das Leben nicht unabdingbar.

Über die gesamte Historie hinweg erwartete die katholische Kirche von deren Anhängern, die Tiefgründigkeit der Kirchenführer nebst deren Doktrinen anzuerkennen und zu übernehmen. Individuelle Katholiken folgten dem blind, und viele waren ergebene Anhänger der Kirchendoktrin und deren Vorgaben, während Andere mitspielten und alles Notwendige taten, um summary DEATH [?] zu vermeiden.

Miteinander konkurrierende Religionen wie die der Protestanten, Baptisten, Muslime oder New Age oder was auch immer einem in den Sinn kommt, haben alle auch ihre teuflischen Seiten. Trotzdem wurde Religion lange NACH der strengen Inquisition nach und nach zu einer persönlichen Wahl, und es ist kein Muss, vor allem in Amerika. Verfolgte Hugenotten und andere Sekten durchquerten Ozeane und nahmen viele Gefahren auf sich, um dem Tod zu entkommen. Heute haben sich viele Menschen dafür entschieden, Nichtgläubige hinsichtlich irgendeiner Religion zu sein. In den USA konnten wir uns den Schutz vor religiöser Verfolgung leisten, und die FREIHEIT der Wahl ist GESETZLICH garantiert … oder?

Senator Robert Kennedy Jr. und seine Erfüllungsgehilfen wollen jeden verfolgen, der es ablehnt, „deren Sichtweise“ der globalen Erwärmung zu akzeptieren oder an diese zu glauben. Es ist ihre Glaubens-Doktrin. Das macht es de facto zu einer Religion. Daher wird jeder, der dies leugnet, auf religiöser Grundlage verfolgt, weil wir uns nicht in vollem Umfang dem Glauben an ihre Doktrin verschreiben.

Tut uns leid, BOBBY*! Wir können selbst denken, und wir müssen uns nicht eurer religiösen Doktrin beugen. Bobby kann glauben, was er glauben will, und wir können glauben, was wir glauben wollen. Aber können wir das wirklich? Er nutzt seinen Einfluss und seine Macht, um uns zu bedrohen, falls wir nicht endlich konvertieren! Es ist eine Wiederauferstehung der Inquisition! Er will uns bestrafen dafür, dass wir nicht an das glauben, an was er glaubt. Es ist eine eklatante, kapriziöse und willkürliche Diskriminierung, die hier UNVERHOHLEN als religiöse Verfolgung daherkommt.

[*Damit ist jetzt natürlich immer Senator Robert Kennedy gemeint. Anm. d. Übers.]

Es ist höchste Zeit für ein Eingreifen der Regierung. Wir brauchen den Schutz vor den ungeheuren Verstößen gegen die Religionsfreiheit, der uns eigentlich zusteht. Freiheit wird von der US-Verfassung garantiert. Kein Repräsentant der Regierung darf darauf bestehen, dass deren Wille über den Schutz hinausgeht, welcher in den Gründungsdokumenten dieser Nation [= der USA] festgeschrieben wurde. Bobby ist ein religiöser Terrorist!

Es ist KEINE Wissenschaft, ES IST EINE RELIGION!

Link: https://www.iceagenow.info/environmental-science-has-evolved-into-a-religion/

Übersetzt von Chris Frey EIKE




Der Giga- und Tera-Betrug von Offshore-Windenergie

Offshore-Windenergie deckt derzeit gerade 0,3% der globalen Energieerzeugung“, sagte der geschäftsführende Direktor der IEA Fatih Pirol. Aber „Windfarmen“, welche sich nicht weiter von der Küste entfernt befinden als 60 km und wo das Wasser nicht tiefer als 60 m ist, könnten 36.000 Terawattstunden Strom pro Jahr erzeugen, wie er uns versichert. Das ist deutlich mehr als der derzeitige globale Bedarf von 23.000 Terawattstunden, heißt es seitens Birol und dem neuen IEA-Report.

Tatsächlich sei das Potential für Offshore-Windenergie den Behauptungen der IEA zufolge so groß, dass die entsprechende Industrie in 20 Jahren von heute an15 mal größer sein wird als im Jahre 2019 – und dass pro Jahr 1 Milliarde Dollar an Investitionen fließen werden (womit wohl die Brosamen der Regierung in Gestalt von Garantien und Subventionen gemeint sind). Der Boom wird sich ergeben aus niedrigeren Kosten pro Megawatt, größeren Turbinen und Technologischen Entwicklungen wie etwa schwimmende Plattformen für die Turbinen, sagt die IEA.

Wind-„Farmen“? Wie eine niedliche, rustikale Familienfarm wie Old McDonald? Will man mich veralbern? Es wären massive Offshore-Stromfabriken mit Tausenden, wenn nicht Millionen von Turbinen und Rotorblättern 150 bis 200 m über den Wellen. Nur ein einschlägig Verrückter, ein geborener Lügner, ein wahrer Gläubiger oder ein nach Kampagnen-Geld Gierender könnten sich vielleicht hinter diesen IEA-Hype stellen – oder diese Windenergie-Fabriken erneuerbar, nachhaltig oder öko-freundlich nennen.

Sie alle müssten dringend einen weiteren Eimer eiskalter Energie-Realitäten über ihren Kopf gegossen bekommen – zusätzlich zu diesen hier, hier und hier [die letzten beiden in deutscher Übersetzung jeweils hier und hier]. Falls die Welt dieses idiotische Schema abkauft, müssen wir alle in Zwangsjacken gesteckt werden.

Ich habe schon sehr oft betont, Wind und Sonnenschein mögen gratis, erneuerbar, nachhaltig und öko-freundlich sein. Aber die Turbinen, Solarpaneele, Fernleitungen, Landverbrauch, Rohmaterialien und tote Vögel sind keineswegs gratis, um diese weit verstreute, intermittente und vom Wetter abhängige Energie abzugreifen, und das ist absolut nicht vorteilhaft für die Menschheit.

Eine einzige 1,8-MW-Onshore-Windturbine erfordert über 1000 Tonnen Stahl, Kupfer, Aluminium, seltene Erden, Zink, Molybdän, auf Petroleum basierende Kunststoffe, Beton und andere Rohmaterialien. Eine 3-MW-Version erfordert sogar 1550 Tonnen dieser nicht erneuerbaren Materialien.

Mit groben Überschlags-Rechnungen (hier und hier) braucht man als Ersatz nur für die jetzigen Erzeugungsarten von Strom mittels Kohle- und Gaskraftwerken für Benzinfahrzeuge, Hochöfen usw. Folgendes: etwa 14 Millionen 1,8-MW-Onshore-Turbinen, die sich über 1,8 Milliarden Acres erstrecken, etwa 15 Milliarden Tonnen Rohmaterialien, Tausende neuer oder erweiterter Minen weltweit sowie Tausende zumeist mit fossil erzeugtem Strom betriebene Fabriken, die an 365 Tagen, 7 Tagen pro Woche und 24 Stunden pro Tag in verschiedenen auswärtigen Ländern (da wir sie in den USA nicht genehmigen würden) laufen müssen, um diese gesamte Ausrüstung herzustellen.

In jenen Übersee-Minen sind derzeit Zehntausende Väter, Mütter und Kinder „beschäftigt“ – zu Sklavenlöhnen.

Kann sich jemand vorstellen, was man braucht, um Offshore-Windturbinen mit 36 Milliarden Megawattstunden zu errichten, zu installieren und zu warten … in 6 bis 60 m tiefem Wasser … viele auf schwimmenden Plattformen und stabil genug, um monströse, 180 m hohe Turbinen tragen zu können … angesichts von Wind, Wellen, Salzgischt, Stürmen und Hurrikanen?

Die Auswirkungen auf festen Boden … und Meere … wären monumental, unerträglich – und sehr nachhaltig.

Außerdem kam eine neue Studie – erstellt durch das Unternehmen, welches mehr industrielle Offshore-Windanlagen hergestellt hat als jedes andere Unternehmen auf der Welt – zu dem Ergebnis, dass Offshore-Windturbinen in Wirklichkeit viel weniger Strom erzeugen als zuvor berechnet, erwartet oder behauptet! Ursache hierfür ist, dass jede Windturbine die Windgeschwindigkeit für jede andere Turbine verringert. Natürlich bedeutet das sogar noch mehr Turbinen, schwimmende Plattformen und Rohmaterial.

Mehr Turbinen bedeuten, dass zahllose Seevögel geschreddert werden und ungezählt und unzählbar unter den Wellen verschwinden. Der wuchernde Dschungel fester und schwimmender Turbinen wird den Schiffsverkehr massiv behindern, und der konstante Lärm durch Vibration der Türme wird das Navigationssystem von Walen und anderen Meeressäugern durcheinander bringen. Die Sicht-Beeinträchtigung wird signifikant sein. Und dann sind da auch noch die tausende Kilometer langen Unterseekabel, welche den Strom in Fernleitungen auf dem Festland einspeisen.

Karten der Gebiete mit den besten Windbedingungen in den USA zeigen, dass sich diese Gebiete konzentriert in der Mitte des Kontinents befinden – genau entlang der Flugrouten von Monarchfaltern, Gänsen, Schreikranichenn und anderen fliegenden Spezies; entlang der Küsten des Pazifiks und des Atlantiks.

Küstennahe Staaten und dort vor allem die großen Städte neigen dazu, Brutstätten der Klima-Angst und Wind/Solar-Aktivismus zu sein. Tatsächlich haben viele Green New Deal-Gouverneure der Demokraten vorgeschrieben, dass bis zum Jahre 2040 oder 2050 zu 100% „saubere, erneuerbare, nachhaltige, öko-freundliche“ Energiequellen zu nutzen seien. Kalifornien, Oregon und Washington im Westen … und Maine, New York, New Jersey, Connecticut und Virginia im Osten sind bemerkenswerte Beispiele. Die Liebesaffäre der IEA mit Offshore-Windenergie ist also sicher verständlich. Natürlich wären auch die Anrainer-Staaten der Großen Seen exzellente Kandidaten für feste und schwimmende Turbinen auf den Seen.

Wenn soweit ist, diese ambitionierten „Erneuerbare-Energie-Ziele“ zu implementieren, werden Widerstand und Verzögerungen exponentiell zunehmen. Ein Windprojekt in Massachusetts für 170 Offshore-Windturbinen sollte eigentlich im Jahre 2001 in Betrieb genommen werden. Man ist jetzt bei 130-MW-Riesenturbinen angekommen, wobei das US-Innenministerium Genehmigungen erneut verzögert und nach „weiteren Untersuchungen“ verlangt. Die Reaktion der Küstenanwohner auf die Realität Tausender Turbinen könnte sehr gut die Hinwendung zu fossilen Treibstoffen und Kernkraft für immer sein.

Der tatsächliche Strom-Ausbeute erreicht kaum einmal die Höhe der in der Werbung angegebenen Leistung. Oftmals beträgt die nur 20% oder noch weniger, abhängig von den Aufstellorten – und sie versagen vollständig an den heißesten und kältesten Tagen, wenn der Strombedarf am höchsten ist. Während der Hitzewelle des Jahres 2006 in Kalifornien beispielsweise erzeugten Turbinen lediglich 5% der Nennwert-Kapazität. In Texas liegen die Wind-Kapazitätsfaktoren allgemein bei 9% bis 12% (wenn sie nicht auf Null bis 4% während heißer Sommermonate sinken).

Die tatsächliche Leistung des Stromes von Turbinen sinkt um 16% pro Betriebs-Dekade – und offshore sieht es noch schlimmer aus wegen Stürmen und Salzgischt. Das Entfernen obsoleter Offshore-Turbinen erfordert gigantische Schwimmkräne und fast perfektes Wetter. Kosten und Schwierigkeiten multiplizieren sich mit der Größe der Turbine, mit zunehmender Distanz von der Küste und je nachdem, ob Beton-Fundamente und Stromkabel entfernt und/oder der Meeresboden in seinen ursprünglichen Zustand gebracht werden muss, wie es heute für Öl- und Gas-Operationen vor den Küsten vorgeschrieben ist.

Das Zerlegen von 90 Meter hohen Türmen (oder noch höher) und von 60 Meter langen Rotorblättern (oder noch länger) der Offshore-Turbinen sowie der Transport der Bruchstücke zu Mülldeponien und Schrottplätzen ist kein Kinderspiel. Auch das Recycling der Rotorblätter ist schwierig, weil sie aus Fiberglas, Karbon-Fasern und Ölharzen bestehen. Sie zu verbrennen setzt gefährlichen Staub und giftige Gase frei und sollte daher verboten werden.

Die Kosten für Rückbau und Entsorgung können leicht Millionen Dollar pro Offshore-Turbine erreichen, und viele Milliarden Dollar für jede Wind-„Farm“ von industrieller Größenordnung. Aber man sollte es den Windenergie-Betreibern nicht einfach gestatten, ihre Hinterlassenschaften einfach liegen zu lassen,wie sie es mit kleineren Turbinen in Hawaii und Kalifornien schon gemacht haben.

Unter dem Strich: Aus jedweder ökonomischen, umweltlichen, Rohmaterial- und Energie-Perspektive ist Offshore-Windenergie einfach unhaltbar. Es ist an der Zeit für Politiker, Umweltaktivisten und Industriebosse, Offshore-Wind nicht länger als Zaubermittel für den Ersatz fossiler Treibstoffe zu verkaufen (genauso wie Onshore-Wind und Solar).

Autor

Paul Driessen is senior policy advisor for CFACT and author of Cracking Big Green and Eco-Imperialism: Green Power – Black Death

Link: https://www.cfact.org/2019/11/04/the-giga-and-terra-scam-of-offshore-wind-energy/

Übersetzt von Chris Frey EIKE