Wie „grünes“ Großkapital und linke Journalisten gemeinsame Sache machen – Teil 1: US-Stiftungen

In den USA bringen Superreiche traditionell ihr Vermögen vor dem Finanzamt in Sicherheit, indem sie Stiftungen gründen. Dazu werden diese als gemeinnützig deklariert und verfolgen angeblich philantropische Ziele. Umweltschutz und seine heute modernste Variante, der „Klimaschutz“, stehen dabei häufig im Vordergrund. In diesen Stiftungen sind teils enorme Geldmengen gespeichert, man denke nur an Rockefeller Brother, Bill Gates, die Familien Hewlett und Packard sowie zahlreiche weitere. Diese Stiftungen brauchen keine nennenswerten Belegschaften zu finanzieren, müssen keine Investitionen tätigen oder Aktionäre auszahlen – und brauchen sich auch kaum Gedanken über Steuern zu machen. Den Stiftungsverwaltern stehen daher Summen zur nahezu freien Verfügung, die weit über das hinausgehen, was normale Industriebetriebe, kleinere Banken und selbst viele Nationalstaaten aufbringen können.

Bild 2. In vielen „wohltätigen“ US-Stiftungen geben die Stifterfamilien weiterhin den Ton an (Quelle: United States Senate Committee on Environment and Public Works – Minority Staff Report)

Die Macht des US-Großkapitals

Die freie Verfügung über solch immensen Reichtum ist gleichbedeutend mit enormer Macht. Und diese setzt das US-Großkapital – viele der Stifter bzw. ihre Nachkommen üben weiterhin bestimmenden Einfluss auf die Führungsgremien aus – konsequent ein, um ihren Einfluss und den Zugriff auf die Vermögen der Bevölkerungen der ganzen Welt rücksichtslos zu erweitern. Man kann den Eindruck gewinnen, dass sie die vom „Club of Rome“ in die Welt gesetzten Untergangsszenarien tatsächlich ernst nehmen und versuchen, sich und ihre von Norden, Osten und Westen her nahezu unangreifbare „Festung USA“ gegen den befürchteten Untergang zu sichern. Dazu passend dreht sich eine der Diskussionsrunden am diesjährigen World Economic Forum in Davos um das Thema „How to survive the 21st century“.

Rezept: Andere schwach machen, um selbst stark zu bleiben?

Nach den bitteren Erfahrungen in Südostasien, Afghanistan und Nahost scheinen sich die US-Eliten weitgehend von „Weltregierungs“-Illusionen verabschiedet zu haben. Stattdessen verfestigt sich der Eindruck, dass sie als Plan B jetzt das Ziel verfolgen, den Rest der Welt in Chaos und Zersplitterung zu stürzen. Wenn dann das befürchtete Armageddon der Bevölkerungsexplosion losbricht, könnte ihnen dann von dort niemand ernsthaft entgegentreten. Wie sonst soll man es interpretieren, dass überall dort, wo sich die USA in den letzten Jahrzehnten eingemischt haben, anstelle des angeblich beabsichtigten „Nation Building“ weitgehend zerrissene und machtlose „failed States“ zurückgeblieben sind, die von den USA nach Belieben herumgeschubst werden können. Beispiele hierfür sind die südostasiatischen Länder Laos und Kambodscha, sodann Afghanistan, Irak, Somalia und Libyen, aber auch solche Länder, in denen die USA mit anderen Mitteln Bewegungen wie z.B. den „arabischen Frühling“ auslösen konnten. Um auch die offene Südflanke zu sichern, will man jetzt in Richtung Lateinamerika, wo viele schwache und korrupte Regierungen nicht zuletzt dank amerikanischer Interventionen an der Macht sind, jetzt eine gigantische Mauer errichten. Die Zukunft wird zeigen, ob dies nicht nur eine Marotte von Trump ist. Es wäre nicht verwunderlich, wenn angesichts der Elendskarawanen, die sich seit einiger Zeit in Richtung US-Grenze in Bewegung setzen, auch ein zukünftiger demokratischer Nachfolger dieses Bauwerk eher noch komplettieren als abreißen würde.

Auch Europa ist Angriffsziel

Im Rahmen dieser Globalstrategie gehört es augenscheinlich zu den vorrangigen Zielen der USA, potenzielle Rivalen auch unter den entwickelten Nationen möglichst zu schwächen und sie vor allem davon abzuhalten, sich untereinander zu verständigen und so Koalitionen zu bilden, die Amerika gefährlich werden könnten. Im Visier befinden sich insbesondere mögliche Annäherungen zwischen Europa und Russland oder China. Hier findet eine verbissene und sehr intensive Wühlarbeit statt, um mögliche Initiativen in diese Richtung zu unterbinden. Deutlich wurde dies erst kürzlich bei den groben Einmischungen der USA gegen das Erdgas-Pipelineprojekt „North Stream“, das durch massive Sanktionsdrohungen selbst gegen Verbündete torpediert werden soll. Und auch hierbei gibt es kaum Unterschiede zwischen Demokraten und Republikanern. Man braucht sich nur den Spruch „Fuck the EU“ der US-Politikerin Victoria Nuland in Erinnerung zu rufen, als die Europäer nicht so aggressiv in den vom Westen geschürten ukrainischen Bürgerkrieg einsteigen wollten, wie es die USA gerne gehabt hätten.

Bild 3. Wenn Sie wieder jemand im Pandakostüm um eine milde Gabe bittet: World Wildlife Fund Headquarters in Zeist (Quelle: siehe Bild 2)

US-Stiftungen nutzen Klimaangst als entscheidenden Hebel

Dass hinter den in westlichen Bevölkerungen erweckten Klimaängsten massive US-Kapitalinteressen stecken, kann man sehr anschaulich am Beispiel des Rockefeller Brothers Fund (RBF) erkennen, der schon seit über 35 Jahren diese Bewegungen mit enormen Summen fördert. Einem RBF-Rechenschaftsbericht aus dem Jahr 2010 ist zu entnehmen, dass mit der Förderung von Klimawandelinitiativen bereits 1984 begonnen wurde und diese Aktivitäten seither konsequent aufrechterhalten wurden. Begonnen wurde zunächst auf höchsten internationalen Ebenen, indem man einige der frühesten Treffen von Befürwortern des Klimawandels organisierte und finanzierte. In dieser Zeit (1988) wurde bereits das Intergovernmental Panel on Climate Change (IPCC) der Vereinten Nationen gegründet, und im Juni 1992 in Rio de Janeiro kam es zu einer Rahmenkonvention der Vereinten Nationen über Klimaänderungen (UNFCCC). Bereits in dieser wurden spezifische Ziele des RBF-Programms umgesetzt, bevor es dann in Richtung der Verabschiedung des Kyoto-Protokolls (1997) weiterging. Stolz vermerkt der Rechenschaftsbericht, dass sorgfältig inszenierte Medien- und Kommunikationsstrategien, die vom Fonds beim Treffen in Kyoto selbst unterstützt wurden, eine hilfreiche Rolle bei der Förderung von Verhandlungsfortschritten führten. Diese Kampagne hatte zur Folge, dass Al Gore während des vorletzten Tages der zweiwöchigen Verhandlungen eine ungeplante Reise nach Kyoto unternahm, um die Unterstützung der USA für ein Reduktionsziel anzukündigen. Nach diesem Erfolg wurde damit begonnen, auch unterhalb der Ebene höchster staatlicher Organe zu arbeiten, zunächst mit Gouverneuren und Bürgermeistern.

Wie Jugend und Kirchen zu Hilfstruppen gemacht wurden

Im Jahr 2005 begann der RBF dann, seine Klimapropaganda auch auf Ebene der US-Innenpolitik ernsthaft zu verfolgen. Bei der Verfolgung dieses Ziels erkannten die Mitarbeiter, dass dies nur dann möglich sein würde, wenn die Mehrheit der Handlungsaufrufe von außerhalb der etablierten Umweltbewegung erfolgte. Deshalb sucht man nach Möglichkeiten, weitere Kräfte zum Handeln gegen den Klimawandel zu mobilisieren. Damals begann die Unterstützung sogenannter Klimaschützer in der Zivilgesellschaft: Unternehmen, Investoren, Evangelikale, Bauern, Sportler, Arbeiter, Militärführer, Falken der nationalen Sicherheit, Veteranen, Jugendliche sowie Gouverneure und Bürgermeister. Besonderes Interesse gilt der Jugend, da diese leicht zu motivieren ist. Die jungen Menschen sind begeisterungsfähig und mobil und bringen vor allem ein moralisches Element in die Debatte ein, weil man sie als Erben des Planeten darstellen kann. Den durchschlagenden Erfolg dieses Konzepts kann man an der heutigen „Fridays for Future“- Bewegung sehen. Als ebenso wichtig wurden auch die Kirchen angesehen, da sich mit Appellen an die „Bewahrung der Schöpfung“ viele Gläubige dazu bringen ließen, sich für die „Rettung des Klimas“ zu engagieren. Über die finanzielle Förderung hinaus leistete der RBF auch technische Hilfe für die strategische Entwicklung, die Kommunikationsplanung und die Ausbildung von Interessenvertretern. In diesen Zielgruppen unterstützt der RBF zahlreiche NGO´s wie die Energy Action Coalition, Focus the Nation, 350.org, Ceres oder das Clean Economy Network.

Bild 4. Die Finanzierungspfade von Umwelt- und Klimaschutzbewegungen weisen oft eine hohe Intransparenz auf (Quelle: wie Abb. 2)

Mit Stolz vermerkt der Rechenschaftsbericht, dass man energisch daran gearbeitet habe, diese zahlreichen Kräfte untereinander zu koordinieren, um auf diese Weise mehr politischen Druck erzeugen zu können. Einen weiteren Schwerpunkt habe man darauf gelegt, auch die innerhalb der Wirtschaft vorhandenen Bedenken bezüglich nachteiliger Auswirkungen von klimabezogenen Maßnahmen auf die wirtschaftliche Entwicklung zu zerstreuen. Diesen „Mythen“ sei man entschieden entgegengetreten. So habe man es geschafft, wesentliche Vertreter wie McKinsey and Company, Deutsche Bank und die HSBC sowie Publikationen wie die „The Financial Times“ oder die „Business Week“ ins eigene Lager zu holen.

Bild 5. Viele „grüne“ Geldgeber der Klimaschutzbewegung haben ihr Kapital in entsprechenden Branchen investiert (Quelle: wie Abb. 2)

Soros

Eine weitere Stiftungsgruppierung, die sich seit Jahren – selbstverständlich nur aus reiner Menschenfreundlichkeit – für die „Klimarettung“ engagiert, ist die Open Society Foundations des Börsenspekulanten George Soros, der zu Ruhm gelangte, als er die britische Währung in die Knie zwang und dabei ein Vermögen erwarb. Die wirtschaftlichen Auswirkungen dieses Coups auf die betroffenen Firmen und die Arbeitsplätze interessieren heute niemanden mehr. Soros rühmt sich, dass die Stiftung unter seiner Leitung weltweit in anderen Ländern aktiv ist. Anders ausgedrückt, er betrachtet sich als berechtigt, sich weltweit in innere Angelegenheiten anderer Länder einzumischen. Sobald ihm ein politisches System nicht passt, beginnt er damit, dort Kräfte zu unterstützen, die „für Meinungsfreiheit, Verantwortlichkeit von Regierungen und eine Gesellschaftsform eintreten, die Gerechtigkeit und Gleichheit befürworten“. Zu seinen umstrittensten Engagements gehörten Maßnahmen zur Destabilisierung Jugoslawiens, die in die Balkankriege mündeten, sowie sein maßgeblicher Beitrag zum gegen den Einfluss Russlands gerichteten Umsturz in der Ukraine. Sobald er nach dem Maidan dazu Gelegenheit hatte, begann er massiv mit Übernahmen ukrainischer Firmen.

Zu den Zielen der Open Society Foundations gehört selbstverständlich auch die Klimarettung, die mithilfe zahlreicher Beiträge auf ihrer Webseite sowie der Förderung entsprechender Projekte und Organisationen erfolgt. Seinen Milliarden-Investitionen in „Cleane“ Branchen dürfte dies nicht geschadet haben. Darüber hinaus rief er ein Climate Policy Initiative (CPI) genanntes Forschungsnetzwerk ins Leben, das die Wirkung der bisherigen Klimaschutzmaßnahmen untersucht. Von den jährlich 10 Mio. US-$ für die CPI profitiert auch das Deutsche Institut für Wirtschaftsforschung (DIW), bei dem die deutsche CPI-Zweigstelle angesiedelt ist. Und am DIW wirkt mit Fr. Prof. Claudia Kemfert eine der wortgewaltigsten deutschen Vertreterinnen der Klimahysterie und der Dekarbonisierung.

Hervorzuheben ist, dass Soros auch besonders enge Beziehungen zu Journalisten-Netzwerken wie Reporter ohne Grenzen und dem Internationalen Netzwerk investigativer Journalisten (ICIJ) unterhält. Seine tatsächliche Macht lässt sich u.a. daran ermessen, dass dieser Großkapitalist und Hedgefonds-Manager als Privatmann ohne amtliche Funktion vom damaligen EU-Kommissionspräsidenten Juncker fast wie ein Staatsoberhaupt zu Gesprächen empfangen und vor laufenden Kameras mit Küsschen begrüßt wurde.




In Davos triumphieren Fakten über Furcht*

„Davos-Leute“ – die abwertende Kurzbezeichnung für die reiche Links-Elite, welche in jedem Jahr die Schweizer Alpen heimsuchen – kontrollieren immer noch die elitärste Konferenz der Welt. Die vagen Schlagworte, welche Davos-Leute so lieben – Inklusion, Widerstandsfähigkeit, Klima-Maßnahmen, Nachhaltigkeit – waren das Pfeffer in der Agenda, die diese Woche ihren Vollausschlag erreichte mit über 3000 Delegierten aus aller Welt.

Aber ihre politische Macht schwindet, was nachdrücklich illustriert worden ist, als auf der Konferenz die beiden diametral entgegengesetzten Protagonisten – Donald Trump und die schwedische Tennie-Aktivisten Greta Thunberg – aufeinander trafen und alles andere waren als zusammenhaltend.

Trump, die Personifizierung wieder auflebender populistischer Politik im Westen und für die konventionelle Annäherung an Wirtschaft und ökonomisches Wachstum, stieß mit Thunberg zusammen, welche zu Ruhm kam als die frustrierte Personifizierung bzgl. „Klima-Maßnahmen“ – und die nach Art einer Jeanne d’Arc den sofortigen Ausstieg aus allen fossilen Treibstoffen forderte.

Der deutsche Ökonom Klaus Schwab gründete das World Economic Forum im Jahre 1971. Nicht profitorientiert ist es die Mission des Forums, „den Zustand der Welt zu verbessern mittels Einbeziehung des Geschäftslebens, sowie politischer, akademischer und anderer Führer der Gesellschaft, um globale, regionale und industrielle Agenden auf Vordermann zu bringen“.

Kein Ereignis zieht eine so prestigeträchtige Schar politischer und wirtschaftlicher Führer an. Neben dem US-Präsidenten sah man u. A. Prince Charles, den spanische Premierminister Pedro Sanchez und den Direktor von Alphabet Sundar Pichai sich auf die Schultern klopfen.

Und vielleicht emittiert auch kein anderes Ereignis so wortreiche, wenn nicht banale Bemerkungen. „Wir sind als Führer total der Änderung verpflichtet. Es ist ein Rennen ohne Ziellinie, aber wir werden inkrementelle Fortschritte erzielen, wenn wir weitergehen“, sagte der US-Geschäftsmann Peter Grauer einer andächtigen Zuhörerschaft.

IBM-Direktorin Ginni Rometty hieb in die gleiche Kerbe: „Dies wird eine Dekade des Vertrauens … falls diese Ära florieren soll, müssen die Menschen der Technologie vertrauen und auch darauf, dass die Ära integrativ sein wird“.

Es ist ein Forum, auf welchem der australische Finanzminister Mathias Cormann normalerweise nicht aufgefallen wäre, aber in diesem Jahr war das anders. Cormann, welcher die Regierung vertrat, wischte Bemerkungen der australischen Künstlerin Lynette Wallworth vom Tisch, die da gesagt hatte, dass die Koalition [in Australien] nicht genug tue, um den Klimawandel zu bekämpfen.

„Ja, Klimawandel macht es vielleicht schlimmer … aber wir müssen alles auch in der Gesamt-Perspektive sehen. In gewisser Weise war Australien ein Land, welches immer von Extremwetter-Ereignissen heimgesucht worden ist“, sagte Cormann bei einer Anhörung bzgl. der globalen Auswirkungen der Buschbrände in seinem Land.

„Australien leistet definitiv seinen Beitrag. Aber die von Manchem in den Raum geworfene Bemerkung, dass wir uns nicht effektiven Maßnahmen gegen Klimawandel verpflichtet fühlen, ist falsch“, fügte er hinzu.

Für Trump war die diesjährige Konferenz eine Plattform, um seinen Erfolg der Elite der Welt unter die Nase zu reiben, hatten diese ihn doch weitgehend abgeschrieben, als er sich im Jahre 2016 um das Weiße Haus bewarb, und ihn dann während seiner Anfangsjahre als Präsident verspottet – während er jetzt vor seiner wahrscheinlichen Wiederwahl steht, gerade rechtzeitig vor dem nächsten Wirtschaftsgipfel in Davos im Januar 2021.

„Der amerikanische Traum ist wieder da – größer, besser und stärker denn je … und niemand profitiert davon mehr als die amerikanische Mittelklasse“, sagte Trump vor dem Forum.

Obwohl für die Zuhörerschaft schmerzvoll ist es aber eine Behauptung, die zu widerlegen immer schwieriger wird. Lohnzuwachs ist unter seiner Präsidentschaft gestiegen, und zwar um etwa 3%, was eine über ein Jahrzehnt lange Periode realer Stagnation des Einkommens beendete.

Die USA scheinen den Handelskrieg vor dem Hintergrund eines Deals mit China, unter welchem die Tinte der Unterschriften gerade erst getrocknet war, zu gewinnen. Der Aktienmarkt, Trumps bevorzugtes Maß des Erfolges, erreicht ständig neue Rekorde. Und die USA schwelgen in der längsten ökonomischen Wachstumsphase ihrer Geschichte.

America first does not mean America alone“ hatte Trump bei seinem ersten Besuch auf dem Forum als Präsident im Jahre 2018 gesagt. Voriges Jahr war er nicht gekommen inmitten eines partiellen Stillstands der US-Regierung. Dieses Jahr war das Timing besonders pikant, nahm doch sein Amtsenthebungs-Verfahren im Senat zur gleichen Zeit seinen Lauf.

Trump sandte eine Botschaft nicht nur an die Welt, sondern auch an seine Widersacher bei den Demokraten. „Wir werden niemals zulassen, dass radikale Sozialisten unsere Wirtschaft zerschlagen, unser Land zerstören oder unsere Freiheit eliminieren werden“, betonte Trump in einem nicht allzu verschleierten Wortspiel mit der Forderung, den Verbrauch fossiler Brennstoffe auszumerzen oder Steuern zur Eindämmung von Kohlendioxid zu erheben.

„Furcht und Zweifel sind schlechte Gedanken, weil dies eine Zeit für große Hoffnungen, Freude und Optimismus ist“, fuhr Trump fort und appellierte an de Delegierten „die endlosen Litaneien der Untergangspropheten und deren Herbeireden einer Apokalypse zurückzuweisen“.

Auf einer Konferenz, die unter der Prämisse des dringenden Handlungsbedarfs zur Rettung des Planeten einberufen wurde, traf Trump den richtigen, positiven Ton und offenbarte die neu gefundene Position der USA als weltweite Nr. 1 unter den Erdöl- und Erdgasproduzenten.

———————————

Die ganze Story steht hier (Zahlschranke). Der Link zu einem Video mit der Rede von rump einschließlich Transskription steht hier.

Link zum Original dieses Beitrags: https://www.thegwpf.com/adam-creighton-in-davos-facts-trump-the-fears/




Im Würgegriff des hohen Luftdrucks – warum der Winter im Januar 2020 ausblieb

Fast ständig zu hoher Luftdruck – aber an der falschen Stelle

Während im Sommer Hochdruckwetter meist sonnig-warmes Wetter garantiert, bringt es im Winter trockene Kälte. Aber diese Regel gilt nur eingeschränkt. Denn sobald das Hoch dicht südwestlich, westlich oder nordwestlich von Deutschland liegt, strömt im Winter milde, im Sommer kühle, wolkenreiche Atlantik- oder Nordseeluft ein. Zwar jagte im Januar 2020 ein Winter-Hoch das nächste, aber sie befanden sich alle in der ungünstigen Position. Außerdem sorgten auch kurze Unterbrechungen durch West-, Südwest- und Nordwestlagen immer wieder für windige Phasen; da konnte sich die Luft nicht wirklich abkühlen. Ein weiterer Umstand muss noch erwähnt werden, denn im Winter gibt es zwei Arten von Hochdruckgebieten. Die dynamischen, hochreichend warmen hatten wir in diesem Januar; sie entstehen durch massive Warmluft-Advektion in höheren Luftschichten und können lediglich unterhalb einer mehr oder weniger kräftigen Inversion etwas Frost in bodennahen Luftschichten durch Ausstrahlung bringen. Die Kälte-Hochs, welche sich durch Ansammlung sehr kalter Luft in den unteren Luftschichten bilden, fehlten in diesem Januar, weil sich die troposphärischen Kältepole stets über Nordostkanada und in Nordasien befanden – viel zu weit entfernt von Mitteleuropa. Die folgenden Wetterkarten-Beispiele zeigen vier typische Wetterlagen-Situationen des Januars 2020:

Abbildungen 1a bis 1d: Mit einem Hochkern über Südwestdeutschland begann der Januar 2020 (1a, ganz oben). Am 5. Januar lag der Hochkern über Westeuropa (1b). Am 15. Januar reichte eine Hochdruckzone von Nordafrika bis zur Ukraine; eine milde, sonnige SW-Strömung erfasste Deutschland (1c). Am 20. Januar hatte sich ein extrem starkes Hoch über den Britischen Inseln entwickelt, das später unter Abschwächung südostwärts zog (1d, unten). Man erkennt an den gelb-roten Farbtönen der ersten drei Abbildungen das fast stets zu hohe Geopotential über West- und Mitteleuropa; die Kältepole (violett) sind weit entfernt. Quellen 1a bis 1c wetterzentrale.de, 1d Archiv wetter3.de

Es hätte auch anders kommen können

Im Januar 2017 dominierte ebenfalls hoher Luftdruck unser Wettergeschehen, doch mit zwei entscheidenden Unterschieden. Erstens wurden damals die Hochdruckphasen durch kurze Einbrüche arktischer Kaltluft unterbrochen, und zumindest zeitweise lag das Hochzentrum nur 300 bis 500 Kilometer weiter nördlich, so dass sich die Kaltluft, welche bevorzugt Süddeutschland traf, länger halten konnte; der Einfluss von Atlantik und Nordsee war unterbrochen:

Abbildung 2: Wetterkarte vom 17. Januar 2017. Schon eine Verschiebung der Hochdruckzone um wenige hundert Kilometer nordwärts reichte aus, und Deutschland lag an der kalten Südostflanke des Hochs, obwohl sich auch damals der troposphärische Kältepol weit entfernt über Grönland/Nordkanada befand.

Man erkennt aus diesem Vergleich der Januare 2017 und 2020, wie schon geringe Abweichungen in der Lage der Druckgebiete zu großen Temperaturunterschieden führen können – ein wesentlicher Grund, weshalb Langfrist- und Klimaprognosen oftmals scheitern.

Sehr milder Januar 2020 – doch nicht überall

Wer in diesem Januar die Wettermeldungen verfolgte, bemerkte ein deutliches Temperaturgefälle zwischen dem extrem milden Nordosten und einem besonders nachts oft frostigen Südwesten Deutschlands. Denn während vor allem nordöstlich der Mittelgebirge fast stets wolkenreiche Nordsee- oder Atlantikluft einströmte und selbst während der Hochdruckphasen auch ein gewisser Wind die Abkühlung bremste, sorgten im Süden und Südwesten, stets näher am Hochzentrum gelegen, oft klarer Himmel und Windstille für ideale Ausstrahlungsbedingungen – hier zeigte sich eindrucksvoll, dass die hohe CO2-Konzentration die winterliche Ausstrahlung nicht bremsen kann. In den süddeutschen Flussniederungen entwickelte sich mitunter Nebel und Hochnebel, der dort auch tagsüber stellenweise für Dauerfrost sorgte, während auf den Bergen mildes, klares, sonniges Wetter herrschte.

Abbildungen 3a und 3b: Temperaturabweichungen der ersten drei Januar-Wochen über Deutschland (Quelle: Bernd Hussing, oben, 3a) und Temperaturverteilung über Mitteleuropa am Morgen des 21.01.2020 (Quelle: wetterzentrale.de). Man erkennt die stärksten positiven Abweichungen mit über 5K nordöstlich der Elbe (violett hinterlegt), während sie in Süddeutschland nur 2 bis 4K erreichten. Südlich der Mittelgebirge herrschte oft leichter bis mäßiger Nachtfrost, je dunkelblauer die Farbe, desto kälter.

Der milde Januar 2020 – eine Folge der Klima-Erwärmung?

Wer sich ernsthaft mit Meteorologie befasst, wird den merklichen Temperaturanstieg der letzten Jahrzehnte in Deutschland nicht leugnen; doch ist er eine Folge der steigenden CO2-Konzentrationen? Das muss man bezweifeln, denn in den Wintern fand praktisch die gesamte Erwärmung bis zum Ende der 1980er Jahre statt; danach erwärmten sich Dank längerer Sonnenscheindauer und häufigerer Süd- und Südwestlagen besonders die Sommerhalbjahre stark, während im Januar, wie auch im Winter insgesamt, keine Erwärmung mehr zu beobachten war:

Abbildung 4: Keine Januar-Erwärmung mehr seit 1988 im Deutschland-Mittel, obwohl die CO2-Konzentration in diesem Zeitraum um gut 60ppm und damit so stark wie nie zuvor stieg. Der geringe Abkühlungstrend ist nicht signifikant.

Betrachtet man die deutschen Januartemperaturen seit dem regelmäßigen, flächendeckenden Aufzeichnungsbeginn (1881), so gab es sehr milde Monate gehäuft vor etwa 100 Jahren und in der Gegenwart:

Abbildung 5: Die Phasen gehäuft milder Januare wurden durch eine kältere Phase in der Mitte des 20. Jahrhunderts unterbrochen.

Und wer nun denkt, die gegenwärtige Nicht-Erwärmung im Januar sei auf Deutschland beschränkt, der irrt – auch in Zentralengland zeigt sich eine ähnliche Entwicklung, welche die spannende Frage aufwirft, ob die winterliche Klimaerwärmung seit gut 3 Jahrzehnten ausgereizt ist:

Abbildung 6: Keine Januar-Erwärmung auch in Zentralengland.

Weitere Aussichten: Warmjahr 2020?

Die Bauern-Regel „Januar milde, führt warmes Frühjahr und heißen Sommer im Schilde“ darf man nicht sprichwörtlich nehmen; dennoch hat sie einen wahren Kern. Dieser Januar wird auch eine überdurchschnittliche Höhenlage der 500-hPa-Fläche über Deutschland aufweisen, was in der Vergangenheit tendenziell, freilich bei großer Streuung, einen zu warmen Jahresrest (Mittel aus Februar bis Dezember) zur Folge hatte:

Abbildung 7: Je höher die 500hPa-Fläche im Januarmittel über Deutschland lag, desto milder fielen die folgenden elf Monate aus – freilich verbietet die hohe Streuung exakte Prognosen.

Und auch für den letzten Wintermonat, den Februar, sieht es, anders als 2018, momentan nicht nach tiefstem Winter aus; ein paar kältere Abschnitte sind freilich im Februar/März nicht völlig ausgeschlossen; doch zumindest für die erste Monatsdekade sehen die Mittelfrist-Modelle kaum Winter im Tiefland, und die Langfristmodelle sagen bei großer Unsicherheit einen merklich zu milden Februar vorher:

Abbildungen 8a und 8b: Mildes Westwetter um den 05.02. (oben) und ein in fast ganz Europa zu milder Februar 2020 (unten)? Bildquellen: NOAA

 




Gavins falsifi­zierbare Wissen­schaft

Nun hatten Gavin und ich schon früher einige Berührungspunkte. Wir begannen unsere Korrespondenz in Gestalt einer Klima-Mailing-Liste, moderiert von Timo Hameraanta etwa um die Jahrtausendwende, vor Facebook und Twitter.

Der interessante Teil unseres Austausches war das, was mich davon überzeugte, dass er ein miserabler Programmierer war. Ich befragte ihn bzgl. seines Programms, dem GISS globalen Klimamodell. Mich interessierte, wie in diesem Modell die Energieerhaltung sichergestellt wurde. Ich fragte, wie am Ende eines jeden Zeitschritts im Modell verifiziert wird, dass Energie weder erzeugt noch vernichtet wird.

Er erwiderte, was ich bereits aus meiner eigenen Erfahrung wusste beim Schreiben iterativer Modelle, dass es nämlich immer ein gewisses Energie-Ungleichgewicht gibt von Beginn bis Ende des Zeitschritts. Falls sonst nichts weiter stellt die diskrete digitale Natur jeder Berechnung sicher, dass es leichte Rundungsfehler geben dürfte. Falls diesen nicht Rechnung getragen wird, können sie sich leicht akkumulieren und das Modell herabziehen.

Er sagte, dass das GISS-Modell diesem Ungleichgewicht Rechnung trägt mittels gleichmäßiger Verteilung der überschüssigen bzw. der fehlenden Energie über den gesamten Planeten.

Nun, das scheint vernünftig für triviale Größen des Ungleichgewichtes durch Digitalisierung. Aber was ist bei größerem Ungleichgewicht, wenn es durch irgendwelche Probleme bei den Berechnungen auftritt? Was dann?

Also fragte ich ihn, wie groß dieses Energie-Ungleichgewicht typischerweise sei … und zu meinem Erstaunen erwiderte er, dass er es nicht wisse.

Verblüfft fragte ich, ob es irgendeine Computer-Version einer „Murphy Gauge“ bzgl. der überschüssigen Energie gibt. Eine Murphy Gauge (unten) ist ein Messgerät, welches das Murphy’sche Gesetz berücksichtigt, indem es Ihnen erlaubt, einen Alarm ertönen zu lassen, wenn die Variable außerhalb des erwarteten Bereichs liegt … was natürlich der Fall sein wird, Murphy gibt es vor. Im Computer wäre das Äquivalent etwas in seinem Modell, das ihn warnt, falls zu viel oder zu wenig Energie einen gewissen Wert überschreitet.

Nein! Nicht nur, dass er kein Murphy-Messgerät hat, sondern auch, dass er keine Ahnung hat, wie weit sich das Modell von der Realität entfernt hinsichtlich der Energieerhaltung, weder im Mittel noch bei individuellen Zeitschritten. Er brachte es einfach mit jedem Zeitschritt wieder zurück ins Gleichgewicht, drehte sich um und ließ es laufen.

An dieser Stelle kam ich zu der Überzeugung, dass Gavin gegenüber seinem Modell viel zu unkritisch war. Ich schrieb mein erstes Computer-Programm im Jahre 1963, etwa zu der Zeit, als Gavin geboren worden war. Und ich traue Computermodellen nicht ein bisschen über den Weg. Sie beißen die Hand desjenigen, der sie füttert, schon bei der kleinsten Gelegenheit, selbst wenn man sie mit Murphy-Messgeräten eingrenzt … und dieses grundlegende Problem hat Gavin nie verstanden.

Dieses Problem stellt sich besonders bei dem, was „iterative“ Modelle genannt wird. Hierbei handelt es sich um Modelle, die Schritt für Schritt durch die Zeit rechnen, wobei das Ergebnis eines jeden Zeitschrittes in die Berechnung des nächsten Zeitschrittes eingeht. In solchen Modellen neigen die Fehler dazu, sich zu akkumulieren, so dass sie sehr leicht außer Kontrolle geraten … und Klimamodelle sind durch die Bank iterative Modelle. Die folgende Graphik zeigt eine große Anzahl von Modellläufen eines iterativen Klimamodells:

Abbildung 1: 2017 Läufe eines Klimamodells von climateprediction.net

Abbildung 1b (unten) zeigt die Temperaturänderung. Man beachte, wie während der „Kontrollphase“, wenn es keine Änderung der Eingangsgrößen gibt, selbst ein kleiner kontinuierlicher Temperaturrückgang dazu führen kann, dass das Modell vom Boden des Graphen bis zur „Schneeball-Erde“ hinunterspringt, wie es die Kontrollphase der modellierten Temperatur in Abbildung 1a (oben) zeigt.

Also bin ich so argwöhnisch wie es nur geht hinsichtlich sämtlicher moderner iterativer Klimamodelle. Sie sind alle frisiert, um zur Vergangenheit zu passen … aber in allen davon sind die Klima-Sensitivitäten unterschiedlich. Wie kann das sein? Nun … es kann nicht sein. Es bedeutet, dass sie sich das nur ausdenken. Ich habe dieses Problem bereits hier beschrieben, und es ist ein großes Problem.

Als Nächstes möchte ich eine Kehrtwende vollziehen, um die Grundlage für eine Übersicht über Änderungen des Klimas in jüngerer Zeit zu bilden. Damals im Mittelalter, etwa im Zeitraum 1300 bis 1500 oder so, war es genauso warm oder sogar wärmer als heute. Aber dann im 17. Jahrhundert kühlte sich die Erde ab und trat in die „Kleine Eiszeit“ ein. Das war eine schwierige Zeit für Pflanzen, Tiere und uns Menschen gleichermaßen. Kürzere Wachstumszeiten, zugefrorene Flüsse und Häfen, Missernten.

Warum war es im Mittelalter so warm? Wir wissen es nicht. Warum gab es so relativ plötzlich den Übergang in die Kleine Eiszeit? Wir wissen es nicht. Warum kam die Abkühlung um das Jahr 1600 und nicht 1400 oder 1800? Wir wissen es nicht.

Nach einem sehr kalten Jahrhundert begann die Temperatur wieder zu steigen. Und seit etwa dem Jahr 1750 oder so setzte sich dieser Anstieg mit Unterbrechungen fort, etwa mit einem halben Grad pro Jahrhundert während der letzten zwei Jahrhunderte.

Warum wurde es nach der Kleinen Eiszeit nicht noch kälter? Wir wissen es nicht. Warum begann es nach der Kleinen Eiszeit wieder wärmer zu werden, anstatt dass die Temperatur auf dem niedrigen Niveau verharrte? Wir wissen es nicht. Warum begann es um das Jahr 1700 wärmer zu werden und nicht erst 1900? Wir wissen es nicht. Warum kam es zu der langsamen Erwärmung seit der Kleinen Eiszeit? Wir wissen es nicht.

Wie man sieht – obwohl wir viel über das Klima wissen … wissen wir aber auch NICHT viel über das Klima.

In jedem Falle, hiermit als Prolog folgt hier eine Kurzversion seiner „falsifizierbaren Wissenschaft“ aus seinem Tweet.

Wir entwickeln Theorien.

1) Strahlungstransport (z. B. Manabe and Wetherald, 1967)

2) Energiebilanz-Modelle (Budyko 1961 und viele nachfolgende Studien)

3) GCMs (Phillips 1956, Hansen et al 1983, CMIP etc.)

Wir geben falsifizierbare Prognosen aus. Hier sind einige davon:

1967: Zunehmendes CO2 wird zur Abkühlung der Stratosphäre führen

1981: Zunehmendes CO2 wird Erwärmung an der Erdoberfläche verursachen, die bis zu den 1990er Jahren messbar sein wird.

1988: Erwärmung durch zunehmende Treibhausgase wird den ozeanischen Wärmegehalt zunehmen lassen.

1991: Der Ausbruch des Pinatubo wird etwa 2 bis 3 Jahre Abkühlung bringen.

2001: Zunehmende Treibhausgase werden in Weltraum-Spektren erkennbar

2004: Zunehmende Treibhausgase werden zu einer fortgesetzten Erwärmung um ~0,18°C pro Dekade führen

Wir überprüfen die Prognosen:

Abkühlung der Stratosphäre?

Erkennbare Erwärmung? ✅

Zunahme des ozeanischen Wärmegehaltes? ✅

Abkühlung im Zusammenhang mit dem Pinatubo-Ausbruch? ✅

Weltraum-basierte Änderungen der IR-Absorption? ✅

Erwärmung nach dem Jahr 2004?

Beginnen möchte ich damit, darauf hinzuweisen, dass er drei sehr separate und unterschiedliche Theorien aufbläht:

● Theorie 1: Zunehmendes CO2 lässt die atmosphärische Absorption zunehmen, was die Temperatur insgesamt der verschiedenen atmosphärischen Schichten beeinflusst und die nach unten gerichtete so genannte „Treibhaus“-Strahlung zunehmen lässt.

● Theorie 2: Kurzfristig ändert eine große Änderung der abwärts gerichteten Strahlung die Temperatur am Erdboden.

● Theorie 3: Langfristig führen geringe fortschreitende Zunahmen der abwärts gerichteten Strahlung zu korrespondierenden geringen Steigerungen der globalen Temperatur in den bodennahen Luftschichten.

Und hier die Einwände: Ich denke, dass die ersten beiden zutreffend sind (mit Schwachpunkten), aber wir haben praktisch keinerlei Belege, ob die dritte wahr oder falsch ist.

Gehen wir also durch seine sechs Wege der Beweisführung; betrachten wir, von welche Theorie er gerade redet und sehen wir, ob diese Beweisführung einer kritischen Überprüfung standhält.

a) Zunehmendes CO2 wird zur Abkühlung der Stratosphäre führen. Dies soll offensichtlich Theorie 1 stützen. Der Verlauf der Temperatur in der Stratosphäre, ermittelt durch Mikrowellen-Sensoren an Bord von Satelliten, sieht so aus:

Abbildung 2: Globale Temperatur in der Stratosphäre, gemessen aus dem Weltall.

Wie man sieht, ist es zwar in der Stratosphäre tatsächlich kälter geworden, aber diese Abkühlung war ziemlich komplex. Die zwei Spitzen sind den in der Graphik markierten Vulkanausbrüchen geschuldet. Nach jedem davon ist es in der Stratosphäre etwa fünf Jahre lang wärmer geworden. Jedes Mal scheint sie sich auf einer niedrigeren Temperatur stabilisiert zu haben. Es gab einen geringen Rückgang seit der zweiten Eruption.Vielleicht kann man diese Änderungen Theorie 1 zuschreiben, obwohl das alles andere als klar ist.

b) Zunehmendes CO2 wird an der Erdoberfläche Erwärmung bringen, die bis zu den 1990er Jahren messbar sein wird. Das soll ein Beleg für Theorie 3 sein. Das ist zwar so, jedoch ist die Temperatur seit mehreren hundert Jahren gestiegen. Glaubt man nicht, dass es in der Kleinen Eiszeit schon SUVs gab, ist dies kein Beweis für die CO2-Temperatur-Theorie.

c) Erwärmung durch zunehmende Treibhausgase wird den ozeanischen Wärmegehalt OHC zunehmen lassen. Das Gleiche wie unter Punkt b) und der gleiche Einwand. Das soll Theorie 3 stützen, aber in einer sich erwärmenden Welt ist ein sich erwärmender Ozean für überhaupt nichts beweiskräftig.

d) Der Ausbruch des Pinatubo wird ~2 bis 3 Jahre Abkühlung bringen. Das soll Theorie 2 belegen … aber die Temperatur steigt auch nach Sonnenaufgang. Wir wissen, dass starke vorübergehende Änderungen der abwärts gerichteten Strahlung (in der Klimawissenschaft „forcing“ genannt) zu Änderungen der Temperatur in den bodennahen Luftschichten führen.

Allerdings waren die Modelle nicht gerade gut bei der Prognose des Ausmaßes der Abkühlung. Hier folgen einige Ergebnisse, die ich bereits vor zehn Jahren angesprochen habe:

Abbildung 3: Vergleich jährlicher Prognosen mit jährlichen Beobachtungen. Die Graphik oben ist Abbildung 2(b) aus der GISS-Prognosestudie, darunter ist meine Nachbildung aus digitalisierten Daten. Man beachte, dass sich vor dem Jahr 1977 die neue Version der GISS-Temperaturdaten von der Version 1992 unterscheidet. Ich habe eine Anomalie von 1990 = 0,35 in den neuen GISS-Daten angebracht, um zu der alten GISS-Version zu Beginn des Prognosezeitraumes zu passen. Alle anderen Daten entsprechen der Original-GISS-Prognose. Die Pinatubo-Prognose (blaue Linie) ist ein jährliches Mittel ihrer in ihrer Abbildung 3 dargestellten monatlichen Ergebnisse.

Man beachte, dass das Hansen/Schmidt GISS-Modell eine mehr als doppelt so starke Pinatubo-Abkühlung prophezeit hat als in der Realität tatsächlich eingetreten. Es wurde auch prognostiziert, dass die Abkühlung länger dauern sollte als es tatsächlich der Fall war. Ich komme gleich noch einmal hierauf zurück, aber für den Moment wollen wir festhalten, dass Theorie 2 zutreffend ist – kurzfristige Änderungen des Antriebs, erfolgen diese nun täglich, monatlich oder durch Vulkane, ändern in der Tat die Temperatur.

e) Zunahme von Treibhausgasen wird in Weltall-basierten Spektren erkennbar sein. Mit mehr Treibhausgasen in der Atmosphäre kann man erwarten, dass mehr IR-Strahlung absorbiert wird. Wir haben dies auf vielfältige Weise gemessen. Dies ist ein Beleg für Theorie 1.

f) Zunehmende Treibhausgase werden zu einer fortgesetzten Erwärmung von ~0,18°C pro Dekade führen. Das soll Theorie 3 stützen. Allerdings findet die Erwärmung bereits seit zwei oder mehr Jahrhunderten statt, und diese Prognose aus dem Jahr 2004 ist nichts weiter als eine Fortsetzung der dreißig Jahre Erwärmung zuvor. Noch einmal: die Tatsache einer nach wie vor stattfindenden Erwärmung ist kein Beweis für irgendetwas.

Zusammenfassung

Die Theorien 1 und 2 sind eindeutig zutreffend und durch eine Reihe von Belegen gestützt. Drei seiner sechs Punkte stützen diese beiden Theorien.

Die anderen drei Beweispunkte sagen, dass nach über zwei Jahrhunderten einer allmählichen Erwärmung … sich die Erwärmung fortsetzt. Das sagt genau gar nichts über Theorie 3.

Und das ist auch das ungelöste Problem mit der CO2-Theorie … es sind wirklich drei sehr unterschiedliche Theorien, zusammengeschustert zu einer Theorie. Während zwei dieser Theorien eindeutig zutreffen, gibt es kaum Belege für das dritte Standbein des Stuhls. Und kein Stuhl kann mit nur zwei Beinen stehen bleiben.

Gavin schließt seine Twitterfolge hiermit:

Wir können auch die überprüfbaren, falsifizierbaren überprüften Theorien betrachten, die sich als falsch herausgestellt haben.

Solarer Antrieb? Scheitert am Test einer stratosphärischen Abkühlung

Änderung der ozeanischen Zirkulation? Keine Zunahme des OHC

Orbitaler Antrieb? Scheitert auf multiplen Ebenen

Falls man eine Theorie hat, von der man nicht glaubt, dass sie falsifiziert worden ist, oder falls man glaubt, die Mainstream-Folgerungen falsifizieren zu können – wunderbar! Das können wir auch überprüfen. (Aber viele Leute haben das bereits versucht, so dass es hierzu demnächst eine Antwort geben könnte).

Tatsächlich ist es noch etwas schwieriger. Nicht nur, dass man eine Theorie finden muss, die genauso gut ist wie die derzeit bestehende Theorie, sondern auch, dass man zeigen muss, warum die bestehende Theorie nicht angewendet werden kann.

Nun, ich habe in der Tat eine Theorie. Ich habe auch einen Haufen Beweise für dieselbe. Aber ich bin kein Klimaskeptiker – ich bin ein Klima-Häretiker; jemand, der deren grundlegende Behauptung leugnet, der zufolge Änderungen der Temperatur einfach eine einfache lineare Funktion von Änderungen des Antriebs sind.

Man ist daran interessiert herauszufinden, warum sich die Temperatur des Planeten mit der Zeit ändert. Das ist das Zentrum der modernen Klimawissenschaft. Meine Theorie andererseits fußt auf einer total anderen Frage bzgl. Klima – warum ist die Temperatur so stabil? Zum Beispiel variierte die Temperatur über das 20. Jahrhundert nur um ±0,3°C. In der gigantischen Wärmemaschine, die das Klima nun einmal ist, die fortwährend die Sonnenenergie nutzt, um Ozeane und Atmosphäre zirkulieren zu lassen, macht diese Variation gerade mal 0,1% aus … für jemanden, der es schon mit vielen Wärmemaschinen zu tun hatte, ist das eine erstaunliche Stabilität. Das System wird durch nichts weiter gesteuert als durch Wellen, Wind und Wasser. Meine Frage lautet also nicht, warum sich das Klima so ändert wie es das tut.

Meine Frage lautet: Warum ist das Klima so stabil?

Und meine Antwort lautet, dass es eine ganze Palette dessen gibt, was „auftauchende Phänomene“ sind, die auftauchen, wenn lokale Temperaturen über eine bestimmte lokale Schwelle steigen. Darunter fällt auch Timing und Menge der sich in den Tropen entwickelnden Kumulusbewölkung, die Bildung von Gewittern, das Auftreten von Staubteufelchen, wenn es zu heiß wird, die Art und Weise, wie El Nino/La Nina warmes Wasser in Richtung der Pole pumpen sowie verschiedene „Oszillationen“ wie etwa die Pazifisch-Dekadische Oszillation PDO.

Diese Phänomene tauchen aus dem Nichts auf, dauern eine Weile und verschwinden dann wieder vollständig. Und im Zusammenwirken arbeiten diese Phänomene daran zu verhindern, dass sich die Erde überhitzt oder zu stark abkühlt. Wie oben schon erwähnt sage ich, dass diese Phänomene auf Länge und Stärke der Folgen des Pinatubo-Ausbruches ihren Einfluss ausübten.

Ursprünglich veröffentlichte ich diese Theorie im Journal Energy and Environment. Dem folgte ein Beitrag mit den gleichen Gedanken hier bei WUWT in einem Beitrag mit dem Titel The Thermostat Hypothesis.

Ich habe diese Mission mit der Abfassung einer Anzahl von Beiträgen während der letzten 20 Jahre fortgesetzt, wobei ich beobachtete Belege der Theorie hinzugefügt und deren Verzweigungen erkundet habe. Darunter sind Beiträge mit der Überschrift „Emergent Climate Phenomena“, in welchem beschrieben wird, was Auftauchen bedeutet und warum das so wichtig ist; „The Details Are In The Devil“, in welchem erklärt wird, warum eine Analyse nach Art von „Klimasensitivität“ in einem thermostatisch kontrollierten System nicht funktioniert; „Watching Thunderstorms Chase The Heat“ worin beschrieben wird, wie Gewitter agieren, um die warmen Gebiete der tropischen Ozeane zu kühlen; und zuletzt „Drying The Sky“, wo die Evolution verschiedener Phasen im tropischen thermischen Regulierungssystem diskutiert wird.

Alles in allem habe ich rund 40 Artikel geschrieben, in welchen es darum ging, mittels dieser Theorie zu erklären, wie das Klima funktioniert. Einen Index zu einer Anzahl davon gibt es hier. Andere Beiträge aus jüngerer Zeit von mir stehen hier.

Nun fürchte ich, dass im Klima-Establishment kaum Interesse an meiner Theorie besteht, weil man dort nach Schlagzeilen Ausschau hält wie THERMAGEDDON! KLIMA-NOTSTAND! In meiner Theorie gibt es dafür keinen Raum, vielmehr ist eigentlich das Gegenteil der Fall. Meiner Theorie zufolge ist die zukünftige Erwärmung langsam und gering. Folglich bin ich von den Mächtigen ausgegrenzt, wie es bei allen guten Häretikern der Fall ist.

Abschließend möchte ich noch sagen, dass ich keinerlei akademische Qualifikationen vorweisen kann. Physik und Chemie auf dem College – das war’s.

Seitdem jedoch habe ich mich selbst hinsichtlich vieler Themen weitergebildet. Neben vielem Anderen habe ich dafür Abertausende Stunden zugebracht, alles über Klima zu erfahren … ohne auch nur ein einziges Zertifikat an meiner Wand hängen zu haben.

Link: https://wattsupwiththat.com/2020/01/18/gavins-falsifiable-science/

Übersetzt von Chris Frey EIKE




Während NOAA/NASA behaupten, 2019 sei das „zweitwärmste Jahr jemals“ gewesen, …

Deren Präsentation, die das angeblich belegen soll, steht hier (PDF).

Meiner Ansicht nach ist die Presseerklärung von NOAA/NASA (nebst deren Diashow) inkonsistent. So können sie sich nicht einmal auf einen allgemeinen Referenz-Zeitraum für Vergleiche einigen. Einige Graphiken beziehen sich auf die Periode 1951 bis 1980, andere auf den Zeitraum 1981 bis 2010, um Anomalie-Plots zu erstellen. NOAA und NASA sind es der Öffentlichkeit schuldig, Klimadaten mit einem konsistenten Basiszeitraum zu präsentieren, widrigenfalls es sich nur um schlampige Wissenschaft handelt. NASA GISS hat sich permanent geweigert, den Basiszeitraum 1951 bis 1980 zu aktualisieren, wie es die NOAA getan hat, nämlich auf den Zeitraum 1981 bis 2010. Stur wie ein Panzer lehnt GISS eine solche Aktualisierung ab, obwohl sie wiederholt darob verurteilt worden ist.

Jener Zeitraum von 1951 bis 1980 war rein zufällig der kühlste Zeitraum im 20. Jahrhundert. Zieht man diesen Zeitraum also als Referenzperiode heran, kommt in den NASA GISS-Plots eine deutlich vergrößerte Erwärmung heraus. Die meisten Laien werden dem niemals auf die Schliche kommen. Ein einfacher Vergleich der beiden Graphiken zeigt die Differenz in den Spitzenwerten:

Quelle: NASA GISS

Quelle: NOAA NCEI

Die Differenz zwischen den beiden Analysen beträgt bei NOAA 0,95°C und bei NASA GISS 0,98°C.

Dabei wird zwischen einigen Jahren überhaupt nicht separiert:

Man fragt sich, ob NOAA/NASA die Temperatur der Erde überhaupt auf ein Hundertstel Grad genau messen kann. Meiner Erfahrung nach ist das nicht der Fall.

Damit man mich nicht der Haarspalterei beschuldigt, behalte man im Gedächtnis, dass während des letzten Dekaden-Übergangs die NASA Folgendes zum Jahr 2009 und zur Dekade 2000 bis 2009 gesagt hatte:

NASA-Forschung: letzte Dekade war die wärmste jemals, 2009 eines der wärmsten Jahre

Das vergangene Jahr war um einen Bruchteil eines Grades kühler als 2005, dem wärmsten Jahr jemals, mit dem Jahr 2009 gleich einer Anzahl anderer Jahre – 1998, 2002, 2003, 2006 und 2007 – als dem zweitwärmsten Jahr.

Während der letzten drei Jahrzehnte zeigt die Temperaturaufzeichnung des GISS einen Aufwärtstrend von 0,2°C pro Dekade. Insgesamt sind die Temperaturen seit dem Jahr 1880 um etwa 0,8°C gestiegen.

Das ist eine wichtige Zahl, die man sich merken muss“, sagt der GISS-Klimatologe Gavin Schmidt. „Die Differenz zwischen dem zweit- und dem sechstwärmsten Jahr ist trivial, weil die bekannte Unsicherheit bei Temperaturmessungen größer ist als einige der Differenzen zwischen den wärmsten Jahren“.

Quelle: https://www.nasa.gov/home/hqnews/2010/jan/HQ_10-017_Warmest_temps.html

Aha! Geringe Bruchteile von einem Grad spielen keine Rolle, wenn es darum geht, Behauptungen bzgl. Klima aufzustellen.

Aber in diesem Jahr sagt Dr. Schmidt:

Im Jahre 2015 wurde die 1-Grad-Celsius-Marke überschritten, und es sieht nicht so aus, als würde es wieder zurückgehen. Das zeigt, dass das, was vor sich geht, persistent ist und nicht eine Schwankung aufgrund irgendwelcher Wetterphänomene: wir wissen dass die langzeitlichen Trends getrieben werden von den zunehmenden Treibhausgasen in der Atmosphäre“.

Quelle: https://www.nasa.gov/press-release/nasa-noaa-analyses-reveal-2019-second-warmest-year-on-record

So viel bzgl. der Bedenken hinsichtlich „Unsicherheit“ und „trivialer“ Differenzen der Temperatur. Interessanterweise wissen die meisten Menschen das zwar nicht, aber NASA GISS ist keine wahrhaft unabhängige Analyse. Man zieht GHCN-Daten hera, die von NOAA NCEI aufbereitet worden waren. NASA GISS verwendet die gleichen Daten, doch kommen die Daten dort auf magische Weise etwas wärmer heraus, was es ihnen gestattet, diese Art Behauptungen Jahr für Jahr aufzustellen hinsichtlich des „wärmsten Jahres jemals“.

Da wir nun schon mal beim Thema Datensätze und geringe Temperaturdifferenzen sind, folgen hier ein paar unbequeme Daten, von denen niemals die Rede ist.

Das US Climate Reference Network (USCRN) verfügt über die qualitativ besten Daten des Planeten, aber dennoch werden diese Daten niemals in den NOAA/NASA-Presseerklärungen angeführt. Entsprechend im Jahre 2005 beauftragt hält man dort die genauesten, unverzerrten und nicht adjustierten Daten jedweder Klima-Datensätze.

Das USCRN weist keinerlei Verzerrungen auf, und es besteht kein Bedarf an Adjustierungen, was diesen Datensatz meiner Ansicht nach zur Grundwahrheit bzgl. Klimawandel macht.

In der folgenden Graphik aus den zusammenhängenden 48 US-Staaten [US48], aktualisiert bis zum Jahr 2019, zeigt sich, dass das Jahr 2019 um etwa 0,42°C kühler war als das Anfangsjahr des Datensatzes 2005:

Quelle: NOAA’s live online data plotter

Obige Daten sind nicht von mir geplottet und auch in keiner Weise adjustiert worden. Es sind zu 100% NOAA-Daten, und die Tatsache, dass das Jahr 2019 in den US48 kühler war als das Jahr 2005 ist unbestreitbar. Die zwei großen Spitzen hängen mit El Nino-Ereignissen zusammen, welche nicht nur die USA, sondern die ganze Welt erwärmt haben.

Nun sind die USA nicht die ganze Welt, und der Datensatz ist kürzer als die geforderten 30 Jahre bzgl. Klimadaten. Das aus der Graphik hervorgehende Fehlen jeder Erwärmung in den US48 seit 2005 zeigt, dass die von der NOAA und der NASA verwendeten Daten des antiquierten Global Historical Climate Network (GHCN) Warm-Verzerrungen aufweisen infolge Verstädterung und Adjustierungen der Daten. Das habe ich schon in einer früheren Arbeit von mir hier beschrieben.

Man stelle sich vor, es gäbe auf der ganzen Welt ein so hoch qualitatives und modernes Temperatur-Aufzeichnungsnetzwerk wie in den USA. Streit bzgl. Datenqualität, Adjustierungen, UHI, Zeit der Messung sowie vieler anderer Kleinigkeiten, welche die Daten beeinflussen und verzerren, würde verschwinden.

Aber noch etwas anderes ist hier interessant. Sämtliche Temperaturgraphiken, um den Klimawandel zu belegen, sind sehr stark vergrößert. Damit sollen Variationen von einem Grad oder weniger deutlich hervortreten. Unglücklicherweise ängstigen diese Vergrößerungen die Bevölkerung oftmals, wird doch damit bei ihr der Eindruck erweckt, es handele sich um „massive“ Temperaturanstiege.

Glücklicherweise gestattet der NOAA-Online-Plotter die Adjustierung der vertikalen Achse, und wenn man diese bzgl. Klimadaten so adjustiert, dass sie zum menschlichen Temperaturempfinden passen, sieht alles schon viel weniger alarmierend aus.

Hier folgen einige Vorher-Nachher-Beispiele, wobei die „Nachher“-Plots der menschlichen Erfahrung bzgl. Temperatur angepasst sind, die typischerweise von -18°C bis 38°C reicht. Die Null-Linie in diesem Anomalie-Plots geht von einer mittleren globalen Temperatur von 14,7°C aus:

US Climate Reference Network:

Contiguous USA Climate Divisions (GHCN/COOP) Network (old style weather stations):

Quelle: NOAA online data plotter

NASA GISS for the world (Land and ocean temperature):

Quelle: NASA 2020 Press release

Auf einmal sieht der „Klimawandel“ viel weniger ängstigend aus, wenn man die Temperaturänderung in der Größenordnung der menschlichen Erfahrung darstellt.

Aktualisierung

Für all jene, die nach einer Replikation fragen, folgen hier die USCRN-Daten von 2005 bis 2019, unabhängig zusammengestellt in einer Präsentation über die kontinentalen 48 US-Staaten (CONUS), aber mit einer anderen Referenzperiode. Das hat Dr. Mark Albright von der University of Washington getan und mir per E-Mail zugesandt.

Quelle: https://atmos.uw.edu/marka/crn.2016/usa48/usa48.crn.2005-2019.png

Dr. Albright schreibt:

Ich bezog mich auf den Referenzzeitraum 2002* bis 2018, um „normale“ oder klimatologische Werte an jedem CRN-Messpunkt zu bestimmen. Ich habe nicht versucht, diese auf 1981 bis 2010 zu adjustieren. Ich glaube, dass NCEI diese Art der Adjustierung bei den CRN-Daten vornimmt. Ich habe Adjustierungen so gering wie möglich gehalten, was ziemlich identisch ist mit gar keinen Adjustierungen.

*Das Anfangsjahr variiert eigentlich von 2002 bis 2008, abhängig davon, wann der Messpunkt eingerichtet worden ist.

Übrigens, am 3. Januar 2020 plottete ich auch die Daten aus Kalifornien im Zeitraum 2009 bis 2019. Man kann den großen Temperaturrückgang seit 2014 erkennen (hier).

Und an der Pazifikküste [Pacific Northwest] zeigt sich ein starker Rückgang seit dem Temperatur-Spitzenwert des Jahres 2015 (hier).

Am interessantesten ist hier zu beachten, dass wegen der unterschiedlichen Referenz-Zeiträume und des anderen Verfahrens von Albright die Spitzenwerte niedriger sind als die Spitzen in der NOAA USCRN-Graphik.

Beispiel: Das Jahr 2012

Der Spitzenwert [der Abweichung] bei NOAA beträgt 1,4°C, bei Albright 0,9°C.

Die Wahl von Referenzzeiträumen und die Verfahren zur Erzeugung derselben spielt eine Rolle, vor allem wenn es um ein einzelnes Jahr geht, welches das „heißeste jemals“ gewesen sein soll. Wenn eine Anomaliedaten präsentierende Gruppe ihre eigene Referenzperiode nebst des Verfahrens zur Erstellung derselben wählt, können sie essentiell die Spitzen-Amplitude größer oder kleiner machen.

Link: https://wattsupwiththat.com/2020/01/15/while-noaa-nasa-claims-2019-as-the-second-warmest-year-ever-other-data-shows-2019-cooler-than-2005-for-usa/

Übersetzt von Chris Frey EIKE




Halt du sie dumm, ich mach sie arm. Alternativ: Für Kinder nur so (wenig) Wissen vermitteln, dass es zum Wählen der „richtigen“ Partei(en) reicht

Klimawandel-Wissen für Kinder

Wer die Möglichkeit hat, die Kinder zu indoktrinieren, hat die Macht über sie als Erwachsene gewonnen. Das wissen alle Religionen und alle diktatorischen Regime. Seit der „Merkelzeit“, wird es auch in unserem Land umgesetzt, indem allerorten mit Steuergeldern Vereine und Institutionen unterstützt werden, welche für die „richtige“ Bildung der Bürger sorgen.

Ein solcher ist wohl auch die „Klimawissen“-Plattform, welche tatkräftig die Klimaschulung von Schulkindern unterstützt. Laut der Homepage-Info wird der Verein von Schülern und Studenten geleitet, die für Kinder schreiben. Der Vorstand besteht vorwiegend mit Student*innen. Unterstützung bekommt der Verein von verschiedenen Institutionen, unter anderem auch vom Umweltministerium.

Bild 1 Screenshot von der Homepage: Die Unterstützer der „Klimawissen-Plattform“. Mit dabei die Bundesregierung [3]
Wer das Schreiben und Verteilen von Information unterstützt – und die Information sogar anpreist, wie das Umweltministerium in einem Rundbrief [2]-, sollte darauf achten, ob diese Unterstützung auch zu einer gewissen Qualität der Arbeit führt. Anbei eine Sichtung, wie es bei diesem Verein darum steht.

Der Anspruch

Welches Klimawissen vermittelt dieser Verein den Kindern?
Schule Klimawandel: [3] Bildungswerk für Schülervertretung und Schülerbeteiligung e.V.: Schule Klimawandel: Klima-Workshops + Projekte an deiner Schule!
Klimaschutz lernen…
Klimawandel verstehen und Klimaschutz lernen, heißt vor allen Dingen erstmal eins: Fragen stellen, Informationen sammeln, durch komplexe Zusammenhänge steigen und: mehr, gezieltere Fragen stellen.
Einerseits ist es wichtig zu verstehen, was zum Beispiel schmelzende Eiskappen in dem einen Land mit Trinkwassermangel in einem anderen Teil der Erde zu tun haben …
Dem wollen wir an dieser Stelle ein wenig entgegen wirken.: z.B. mit leicht verständlichen Informationen über die wissenschaftlichen
Grundlagen des Klimawandels und mit einem Glossar zu den wichtigsten Begriffen im Nachhaltigkeitskosmos. Mit unseren 10 Klima-Tipps zum Sofort-Loslegen, und mit unseren erprobten Methoden, die jeden Klima-Workshop bereichern können.
Und natürlich mit uns Klima-Botschafter*innen und unseren
Klima-Workshops, aber das haben wir schon mal irgendwo erwähnt

Die Ausführung

Der Verein vermittelt zum Klima ein „Wissen“, bei dem man sofort versteht, warum es vom Umweltministerium gefördert wird und liest sich wie ein Parteiprogramm einer bestimmten Partei. Es beinhaltet und wiederholt kritiklos wirklich alle auch von unserer Politik, ihren Beratern und auch den GRÜNEN dazu verkündeten „Wahrheiten“. Genau genommen ist es eine Indoktrinierung zu einer politischen Ausrichtung:

Schule Klimawandel: Anthropo-hä?
… Da der rasante Anstieg der CO2-Konzentration nicht nur auf natürliche Art und Weise zu erklären ist, haben Forscher*innen nach Ursachen gesucht und herausgefunden, dass der Anstieg der CO2-Konzentration ungefähr mit dem Beginn der Industrialisierung zusammenfällt … Das führt zu einer Verstärkung des Treibhauseffekts. Es wird wärmer…
Wir Menschen sind also verantwortlich für den derzeit hohen CO
2-Anteil in der Atmosphäre und deswegen spricht man vom »Anthropogenen Klimawandel … Der jetzige Klimawandel ist also von Menschen verursacht.
Ursache 03: Politik + Macht
… Warum ist Klimawandel nur am Rande Wahlkampfthema, obwohl er eine der großen Zukunftsherausforderungen wird? Für wen wird hier Politik gemacht und warum sind die Autolobbyisten so häufig zu Besuch bei Frau Merkel oder bei der EU-Kommission? Warum nicht die Kinder und Jugendlichen – die zukünftigen Generationen? ›
Ein Anstieg der Temperatur führt
– zu einer Verschiebung von Klimazonen: Wüsten dehnen sich aus oder ergrünen, Regenfälle bleiben aus oder kommen zu anderen Zeiten, etc.
– zu einem erhöhten
Aufkommen von Wetterextremen: Stürme, Hochwasser, Orkane, Dürren, etc.werden zunehmen …
Es ist ganz klar, dass auch wir Menschen durch den Klimawandel betroffen sein werden. Denn wenn Regen ausbleibt, den der Mais zum Wachsen braucht, ist die ganze Ernte betroffen … So ungleich die Verursachung des Klimawandels ist, so ungerecht sind auch seine Auswirkungen verteilt. Länder im globalen Süden werden weitaus mehr betroffen sein, als wir in Deutschland und andere Industrienationen …

Klimaflucht

Bild 2 Unterstützendes Bild auf der Homepage „Karikatur von Gerhard Mester zum Thema Klimawandel“ CC-BY-SA-4.0

Der ansteigende Meeresspiegel und die Zerstörung von Lebensräumen führt schon jetzt dazu, dass Menschen fliehen müssen. Seit 2008 haben bereits über 26 Millionen Menschen wegen Naturkatastrophen ihre Heimat verlassen. Häufig ist das nicht die alleinige Ursache, sondern Verstärker des Elends.
Politik, Konferenzen und Verträge
Die Politik ist jetzt mehr gefragt denn je … Wir brauchen politische Entscheidungen, die eine klimaneutrale Zukunft versprechen.
Klimakonferenzen:
… Klima-Verträge sind nicht rechtlich bindend, sondern stellen lediglich Handlungsempfehlungen dar. Deswegen ist es umso wichtiger, dass »mächtige« und reiche Länder wie zum Beispiel Deutschland Vorbilder in der Umsetzung dieser Verträge sind, damit andere nachziehen …

Das vom Umweltministerium empfohlene Schulungsmaterial

„kaltesonne“ hat schon „vorgesichtet“ und den für Schulen gedachten „Methodenkoffer“ des Vereins betrachtet. Anbei Auszüge daraus:

Bild 3 [1]
kaltesonne, 11.01.2020: [2] Klima-Methodenkoffer für die Schule – Warum bleibt die vorindustrielle Klimageschichte Tabu-Thema?
Die Vorlagen-Karten sind jedoch recht dürftig. Bei der Karte „Natürlicher Klimawandel“ heißt es:
Das Klima unterliegt Veränderungen. Dies hat verschiedene Ursachen, vor allem Änderungen in der einfallenden, aufgenommenen und reflektierten Sonneneinstrahlung. Auch Ereignisse wie Meteoriteneinschläge oder Vulkanausbrüche sind natürliche Ursachen für einen.

Keine Mittelalterliche Wärmeperiode, keine Kleine Eiszeit. Mager. Vielleicht ist das Modul „Klima Anno Domini“ ergiebiger?
Bei dieser Methode wird Klimawissen über schon geschehene Ereignisse und Zukunftsprognosen ausgetauscht. Zusätzlich wird die Gruppe zur Diskussion angeregt … .
Das Problem: Der Zeitstrahl beginnt erst in der Kleinen Eiszeit um 1750. Die natürlichen Wärmephasen davor werden verschwiegen. Unbequeme Wahrheiten die den Schülern offenbar verschwiegen werden sollen. Entsprechend schmunzeln muss man beim Namen des nächsten Moduls: Klima Tabu!
Klima-Tabu eignet sich besonders dafür, um Wissen in der Gruppe wieder aufzufrischen und einen spielerischen Einstieg ins Thema zu finden …
Ob das Tabu-Thema Mittelalterliche Wärmeperiode wohl auf den Karten zu finden ist? Leider nein. …

Insgesamt passt der Methodenkoffer gut ins Bild. Er spart alle unbequemen Themen aus, gaukelt den Schülern vor, die Klimavorhersager hätten alles bestens im Griff. Bei dieser Fehldarstellung muss man sich nicht wundern, wenn indoktrinierte Schüler scharenweise zu den Freitagsdemos laufen.

Klimatipps, die „Weitblick“ vermitteln sollen

Schule Klimawandel: [3] Let´s get change started

Bild 4 Die „Klimatipps“ des Vereins

Von diesen „Tipps“ soll nur einer näher betrachtet werden: „07 Weniger Fleisch für wenige, weniger Hunger für viele
Es ist den selbsternannten Umweltschützern schon längst ein dicker Dorn im Auge, dass sich auch der gemeine Pöbel Fleisch leisten kann. Das war über viele hunderte von Jahren ein Privileg der „Besseren“. Nicht nur, weil „das gemeine Volk“ sie es sich damals selten leisten konnten, sondern auch, weil es in bestimmten Gegenden verboten war (Fleisch musste an den Gutsherrn und Kloster abgeliefert werden, erlaubt waren nur die Innereien und das auch nur außerhalb der vielen Zwangs-Fastenzeiten).

Einfach wieder verbieten, geht zur Zeit (noch) nicht, aber verteuern wird gelingen und in der Vorstufe kann man es gesellschaftlich schon „madig“ machen.
Dazu ist (wie beim Klimawandel) jeder Unsinn recht. Er muss nur grauselig genug klingen. Logisch muss er auch nicht sein, denn es soll ja nicht Denken geschult werden. Warum wären Rodungen für Gemüse-Anbauflächen, die man alternativ anstelle der Rinderweiden-Flächen benötigt, nicht waldvernichtend? Und dass es viele Gegenden auf der Erde gibt, in denen Gras wesentlich ertragreicher und problemloser als Gemüse wächst, kommt dazu:

Schule Klimawandel: [3] Klima-Tipps mit Weitblick

Bild 5 „Klimatipps“ des Vereins, Auszug

Diese Angabe zum Wasserverbrauch von Nutztierhaltung ist im Umlauf und wird regelmäßig „argumentiert“. Welcher Schwachsinn in Wirklichkeit dahinter steckt, hat ein Blog bereits herausgefiltert. Deshalb Auszüge daraus:

Ein Rind verbraucht ca. 7,5 Millionen Liter (oder 7.500 Kubikmeter) Wasser

[4] ... Jedes Kilo Rindfleisch, so lese ich in den Schriften der Umweltverbände, verbraucht 15.000 Liter – und im südlichen Afrika verdurstet das Vieh. Es ist ja alles so furchtbar.
… Prüfen wir doch mal die Berechnung … – klingt logisch, ist aber Unsinn.

Als Wiederkäuer frisst ein Rind vor allem Raufutter … Damit Gras, Mais und Futtergerste auf den Äckern und Weiden gedeihen, muss es natürlich erst mal regnen. Sobald der Regen auf Wiesen, Weiden und Äcker fällt, wird er in der Sprache der Ökopropaganda „verbraucht“. Und schon fließen ganze Sturzbäche in die Statistik ein. Der Regen fällt auch dann, wenn da nichts wächst. Das Wasser ist nicht einfach weg – sondern weiter im Naturkreislauf.
… Ein Bulle liefert etwa 500 Kilo. Mit je 15.000 Liter Wasser multipliziert, ergibt das aberwitzige siebeneinhalb Millionen Liter pro Tier … Und dabei fehlt immer noch bei den weiblichen Tieren der Verbrauch für die viele Milch, die sie jeden Tag liefern. Die Kuh – ein Fass ohne Boden. Doch die Umweltorganisationen künden auch Erfreuliches: Mit dem Wasser für ein Kilo Rindergoulasch oder für zwei Paar Schuhe ließe sich ein kompletter Kleinwagen fertigen. Alle diese „Zahlen“ der Umweltschützer gehen auf keine Kuhhaut.
… Immer wieder. Es löst sich kein Wasser in Nichts auf. Und es wird auch nicht verbraucht wie Erdöl, Teddybären oder Klopapier. Die Fähigkeit, Wasser zu klären und aufzubereiten ist eine der größten technischen Errungenschaften der Menschheit. Wasser kann sooft recycelt werden, wie man will. Ohne diese Technik gäbe es keine moderne Zivilisation.

Doch die Deutschen sparen Wasser. Wie zum Hohn steigt im Sommer der Mief aus den Kanaldeckeln, weil die Abwasserkanäle nicht mehr richtig gespült werden. Nun pumpen die Stadtwerke frisches Wasser hinein. Allein in Berlin rauschen an manchen Tagen bis zu einer halben Million – nicht Liter – einer halben Million Kubikmeter frisches, sauberes Wasser durch die Kanalisation. Es stinkt zum Himmel!
Mahlzeit!

Nach dieser „Berechnung“ benötigt auch Gemüse nicht viel weniger Wasser. Denn auch auf Gemüseflächen regnet es und teils muss man sie zusätzlich „tränken“, also gießen. Die „Qualität“ dieser Schulungen erinnert an die, welche das Umweltministerium selbst verbreitet:
EIKE 17. November 2017: [5] Der Train to Bonn ist angekommen – Abschlussinformation

Kein Wunder, dass es keine Probleme damit hat, wenn es ihr andere gleichtun.

Quellen

[1] Schule Klimawandel: Methodenkoffer

[2] kaltesonne, 11.01.2020: Klima-Methodenkoffer für die Schule – Warum bleibt die vorindustrielle Klimageschichte Tabu-Thema?

[3] Schule Klimawandel: Klima-Workshops + Projekte an deiner Schule!

[4] Deutschlandfunk Kultur, Beitrag vom 02.03.2013: Wasserverbrauch für Rindfleisch Propaganda mit Rechenfehler

[5] EIKE 17. November 2017: Der Train to Bonn ist angekommen – Abschlussinformation




How Dare You – das ist jetzt die Frage

Wie allgemein bekannt, ist derzeit nichts mehr normal, seit den Nachrichten über „globale Erwärmung“ und „Klimawandel“, welche zum Schlachtruf von Individuen wie James Hansen und Greta Thunberg geworden sind.

Egal, dass man eine stetige Stromversorgung 24 Stunden an 7 Tagen der Woche braucht, um das Handy bei Bedarf aufzuladen; how dare you?

Egal, dass alle Gretels und Hänsels ohne Wärme rasch zu Tode erfrieren würden, sogar in der Lebkuchenhütte der Hexe; how dare you?

Egal, dass nicht jeder in tropischen Klimaten lebt und noch nie einen zugefrorenen See erlebt hat; how dare you?

Egal, dass die Eismasse in Grönland derzeit größer ist als seit Jahrzehnten; how dare you?

Egal, dass das Meereis in der Arktis sehr lebendig ist, siehe z. B. hier; how dare you?

Egal, dass keiner der anderen hochgespülten Charaktere wie Luisa (Deutschlands „Cousine“ von Greta) nebst deren Freunden in gut miteinander verbundenen Einheiten den Lebensstil des Plebs leben muss; how dare you?

Egal, dass es auch dem Meereis um die Antarktis (siehe die folgende Graphik) richtig gut geht; how dare you?

Abbildung: Waxing and Waning des antarktischen Meereises im Lauf der Jahreszeiten. Quelle: NOAA

Link: https://www.iceagenow.info/how-dare-you-thats-the-question-now/

Übersetzt von Chris Frey EIKE




Claudia Roth gibt zugkräftige Rückendeckung …

Märchen darf man beliebig oft wiederholen und (nicht mehr) nur (Klein-)Kindern glauben, das seien Wahrheiten

Und was erzählte die Claudia ihren begeisterten Zuhörern:
C. Roth: „ … das sei heute wichtiger denn je, meinte Roth mit Blick auf die weltweite Klimakrise, die sich aktuell mit den Buschbränden in Australien und den Auswirkungen in Ländern wie Bangladesh augenfällig zeigt … Längst sei, so Roth, die Klimakrise auch bei uns greifbar: In Franken litten die Bauern an der massiven Trockenheit ... “ Der GRÜNE Nürnberger Bürgermeisterkandidat fügte hinzu: „ … in Stadeln (Anm.: Ein Vorort von Fürth) bereits „ein ganzer Wald“ gestorben sei …“

Zu den Buschfeuern in Australien, die schlimm sind, als wesentliche Ursachen aber bewusstes „Zündeln“ sowie GRÜNE Vorschriften haben, kam auf EIKE schon vieles. Mit „Bangladesh“ hat Claudia sicher ihre Lustreise auf Steuerzahlerkosten angesprochen, bei der sie sich von Aktivisten ihre Meinung bestätigen lies und tunlichst vermied, vor Ort wirkliche Ursachen zu erkennen:
EIKE 30. April 2019: [1] Claudia Roth auf Forschungsreise zum Klimawandel

Ihr Beispiel und die folgende Ergänzung des Nürnberger Bürgermeisterkandidaten zur Trockenheit in Franken zeigt exemplarisch, dass man auch in betroffenen Landstrichen auf vollständige Unwissenheit vertrauen kann.
Franken war schon immer trocken und in der kälteren Vergangenheit wohl noch stärker, zumindest lässt es der langjährige Niederschlagsverlauf von Bayern vermuten, wie es die Grafik (Bild 1) zeigt. Diese Grafik zeigt auch, dass Deutschland inzwischen nicht nur bei seiner Industrie beginnt, sich auf das Niveau von Entwicklungsländern zu reduzieren, auch der DWD macht es mit seinen Klimadaten.

Ausgerechnet im „Klimawandel-gebeutelten“ Mainfranken zeigt die wichtige Niederschlagsdatei eklatante Lücken, wie es aus Entwicklungsländern bekannt ist. Oder hat der DWD lückenlose Daten und gibt sie „fürs Volk“ nicht heraus?
Jedenfalls sieht man deutlich, dass der Niederschlag in Bayern dank dem Klimawandel stetig zunimmt, wie beim Niederschlag üblich, jedoch mit extremen Variabilitäten. Das sehr trockene Jahr 2018 war in Bayern bei Weitem nicht das trockenste. Und der Sommerniederschlag ist gleichbleibend, von einer „Sommeraustrocknung“ keine Spur. Allerdings müssten die Sommer nach der gängigen Theorie: mehr Wärme = mehr Niederschlag, feuchter werden. Stattdessen haben alle Angst vor einem Austrocknen. Doch Logik war noch nie eine Domäne der GRÜNEN.

Bild 1 Jahresniederschlag Würzburg ab 1947 und Bayern ab 1881. Grafik vom Autor teils erstellt, ergänzt und zusammengefügt. Quellen: DWD

Bild 2 Bayern, Sommerniederschlag seit 1881. Quelle: DWD Viewer

Nun zum Statement des GRÜNEN Bürgermeisterkandidaten, der sich so sehr um die Wälder sorgt. Er wiederholt nur, was die Stadtförster – vor allem ein ganz umtriebiger von Fürth – bei jeder sich bietenden Gelegenheit über die Lokalmedien verkünden: Wir sind ganz, ganz wichtig, denn ohne unsere Kenntnisse würden die Wälder den gesicherten Klimawandel bestimmt nicht überleben.

Dabei hat der letzte Waldzustandsbericht den Bayerischen Wäldern erst vor wenigen Jahren einen guten Zustand bescheinigt (den ein Vorgänger der aktuellen, Nürnberger Stadtförster damals bestätigt hat):
EIKE 16.11.2017: [2] Der Waldzustand in Bayern ist schlechter, obwohl er besser wurde

Es ist eben immer das Gleiche (Spiel): Lasse die schlimme Vergangenheit weg und sofort erscheinen Gegenwart und Zukunft trostlos – und es erscheinen Führergestalten, die dagegen die richtigen Rezepte haben.

Wer meint, Waldprobleme wären eine Erscheinung der Neuzeit, irrt gewaltig

Wann waren die Wälder um Nürnberg wirklich fast tot? Es war zu den angeblich „naturnahen Zeiten“, als die Natur dem Mensch ihre ganze Brutalität zeigte. Man stelle sich vor, heute wäre über solche riesigen Waldschäden wie damals zu berichten:

[3] Bayerns Wälder. 250 Jahre Bayerische Staatsforstverwaltung, Forstheft 3-4: „Anmutiges Waldland“, „Steckerleswald“, Wirtschaftswald, Naturreservat – ein (mehr historischer) Streifzug durch die bayerischen Waldungen

Bild 3 [3] Bildtext: Ende des 19. Jahrhunderts häuften sich in den mit robusten Fichten und Kiefern wieder aufgebauten Wäldern um München und Nürnberg die Katastrophen. Die ausgedehnten Nadelwälder waren anfällig für Insekten, Sturm und Schnee. Im Nürnberger Reichswald vernichteten die Raupen des Kiefernspanners zwischen 1892 und 1896 rund 10.000 Hektar Wald.
Bild 4 [3] Bildtext: Die großen Fichtenforste wie der Ebersberger Forst waren den Kräften der Natur nicht gewachsen. Der Nonnenfraßkatastrophe* des Jahres 1892 folgten Stürme, so dass nahezu der gesamte Ebersberger Forst am Boden lag. Die Wiederaufforstung dieser riesigen Kahlflächen dauerte fast vierzig Jahre. –  *Weit stärkere Einbußen aber als durch Streunutzung, Viehweide und Wildverbiss hatte der Ebersberger Forst durch Hagelschäden und Sturmwürfe zu erleiden – Katastrophen, die sich allerdings relativierten, als 1890 die Nonnenraupen nahezu die Hälfte des Waldes kahl fraßen.
Historie [3: (Nürnberger Reichswald) … Eine erste Waldordnung ist schon aus dem Jahr 1294 bekannt, sie forderte von den Reichswaldförstern eine geregelte Bewirtschaftung. Dennoch war der Reichswald zu Beginn des 14. Jahrhunderts derart ausgebeutet und durch Brände verwüstet, dass der Kaiser den „Verlust seiner Gnade“ androhte. Zwei Jahrhunderte später war der Wald bereits wieder in einem derart desolaten Zustand, dass eine neue Waldordnung energisch den verstärkten Schutz der stadtnahen Wälder befahl. Vor allem der überhöhte Wildbestand war es, der im 18. Jahrhundert den scheinbar endgültigen Niedergang herbeiführte. Als Nürnberg seine Reichsunmittelbarkeit verlor und 1806 der Krone Bayerns unterstellt wurde, bot der ausgeplünderte Wald ein Bild des Jammers. Eine Waldbestandsaufnahme in den Jahren 1818 bis 1820 zeigte, dass ein Fünftel nur noch aus Ödflächen bestand, die zum Großteil mit verkrüppelten Kiefern bewachsen waren. Die Forstleute leisteten großartige Arbeit, im Lauf der Jahrzehnte wurde ein kräftiger Bestand an Altholzreserven herangezogen, doch 1893/94 vernichteten Raupen des Kiefernspanners – wie eine Heuschreckenplage – all die Arbeit. 32 Prozent der gesamten Fläche des Reichswaldes mussten kahl geschlagen werden. Versuche zur Einbürgerung von Laubbäumen schlugen damals weitgehend fehl, nur die Kiefer überdauerte in ihren Beständen, aus denen schließlich der „Steckerleswald“ der Nürnberger heranwuchs …

Wie immer haben GRÜNE eine Lösung und wenn es nur viele Fragen sind

Selbstverständlich muss heutzutage in Stadtratssitzungs-Diskussionen und -Entscheidungen zu und vor allem erst einmal der Klimawandel berücksichtigt werden. Wer den obligatorischen, örtlichen Klima-Maßnahmen-Fortschrittskatalog dazu nicht ständig im Kopf präsent hat, dem fehlt das Wichtigste an Entscheidungsgrundlage.
So etwas muss man aber auch regelmäßig üben. Die GRÜNEN zeigen, wie es geht:

Bild 5 Screenshot von der Homepage

OA/0386/2019 Antrag: Kiefernsterben im Stadelner Wald
Zur Sitzung des Stadtrats am 18. Dezember 2019 stellen wir daher folgenden A n t r a g :
In der Stadtratssitzung am 18.12.2019 wird ausführlich über die notwendige Entfernung von ca. 1200 Kiefern im Stadelner Wald berichtet und Zeit zur Diskussion des Themas eingeräumt.
Insbesondere sollen folgende Fragen durch die Verwaltung beantwortet und in der Folge diskutiert werden:
– In den Fürther Nachrichten vom 18.11. war die Aussage des Stadtförsters zu lesen, dass die Hauptursache für das Sterben der Kiefern bei Stadeln niederschlagsarme Sommer sind, wie sie durch die Klimaerwärmung immer häufiger auftreten werden. Wird diese Analyse bestätigt?
– Es wurden breite Schneisen in den Wald geschlagen und Erntemaschinen eingesetzt.
Sind durch die Fällungen auch zum Teil nahestehende gesunde Laubbäume, u.a. große Eichen, beschädigt oder sogar entfernt worden?
– Wie soll der Stadelner Wald wieder revitalisiert und zukunftssicher gemacht werden? Sind Pflanzungen (ggfs. anderer, trockenheitsresistenterer Baumarten) geplant?
– Welcher wirtschaftliche Schaden ist entstanden (Abschätzung)?
– Sind nach Einschätzung der Verwaltung vergleichbare Krisenlagen auch in anderen Wäldern, Forsten, Biotopen und sonstigen Naturräumen zu erwarten?
– Welche Maßnahmen werden derzeit umgesetzt, um insbesondere die Fürther Wälder und Forste vor solchen Krisen zu schützen?
– Angesichts der fortschreitenden Klimaerwärmung muss die Stadt Fürth unserer Ansicht nach ihre bisher geplanten Anstrengungen zum Klimaschutz noch einmal deutlich beschleunigen.
Welche Möglichkeiten sehen die einzelnen Referate für solche vermehrte Anstrengungen?

So etwa hätten vielleicht die künftigen Sitzungen im Aufsichtsrat von Siemens-Energie verlaufen können, wenn Studentin Luisa den ihr von Joe Kaeser versprochenen Posten angenommen hätte …

Antworten zu einem Teil ihrer Anfrage standen allerdings schon in der Tageszeitung. Klar: Lesen und dabei noch denken, ist bei ihrem Klientel nicht gerade werbewirksam, „klug(scheißerisch)e“ Fragen scheinen es weit eher zu sein.
Jedenfalls fand sich darin ein wesentlicher Teil der Probleme beschrieben (dass die letzten beiden Jahre historisch gesehen trocken, aber nicht „extrem trocken“ waren, muss man dem Klima-hysterisch eingestellten Stadtförster nachsehen):
Nordbayerische Nachrichten, 18.11.2019: Extreme Trockenheit: 1200 Kiefern im Stadelner Wald verdorrt
Die damalige lang andauernde Trockenheit traf in Stadeln auf einen Boden, der „fast der ärmste im Stadtgebiet“ sei: arm an Wasser, aber auch an Nährstoffen. Im vergangenen Winter konnte der Förster dann beobachten, „dass viele Kiefern absterben“.
Der Sommer 2019 brachte naturgemäß keine Besserung, denn er fiel erneut viel zu trocken aus. Die Folge: Der blaue Kiefernprachtkäfer – er bevorzugt geschwächte Bäume – breitete sich weiter aus. Einzelnen Kiefern kann der Schädling durchaus den finalen Todesstoß versetzen, weiß Straußberger …

Der derzeit viel zitierte Klimawandel also? Ja, sagt Straußberger, für ihn stehe dieser Zusammenhang fest. Ein einzelnes Trockenjahr habe es auch schon in den 1970er Jahren gegeben; nie aber so viele in so kurzer Abfolge: 2003, 2005, 2006, 2015, 2018, 2019, beginnt er aufzuzählen. „Diese Häufung macht es aus.“

Nun noch nachgesehen, was von der Aussage „ … nie aber so viele in so kurzer Abfolge …“ des Stadtförsters zu halten ist:
In der folgenden Grafik sind für Bayern die Niederschlags-Mehrjahressummen von eins bis fünf Jahren dargestellt. Von der Jahres- bis zur 5-Jahressumme war sogar das Tief des Extremjahres 2018 früher oft erreicht und sogar unterschritten.
Auch zeigt sich kein Trend, jedoch eine stetige Zyklik. Von ca. 1980 – 2002 wurden die Bäume allerdings vom vielen Niederschlag „verwöhnt“, der von diesem Hoch seit ca. 2002 deutlich abgenommen hat.
Einen Stadtförster in Zeiten des „Klimawandels“ mag solches Wissen oder Nachsehen wohl überfordern. Zudem, wer als kommunaler Angestellter hat schon den Mut, gegen die GRÜNE Meinungshoheit mit Wissen „anzustinken“? Das könnte nur den Job gefährden.

Bild 6 Bayern, mehr-Jahresniederschläge seit 1881. Grafik vom Autor anhand der DWD-Daten erstellt

Quellen

[1] EIKE 30. April 2019: Claudia Roth auf Forschungsreise zum Klimawandel

[2] [7] EIKE 16.11.2017: Der Waldzustand in Bayern ist schlechter, obwohl er besser wurde

[3] Bayerns Wälder. 250 Jahre Bayerische Staatsforstverwaltung, Forstheft 3-4: „Anmutiges Waldland“, „Steckerleswald“, Wirtschaftswald, Naturreservat – ein (mehr historischer) Streifzug durch die bayerischen Waldungen

[4] Nordbayerische Nachrichten, 13. Januar 2020 (Lokalausgabe): Zugkräftige Rückendeckung




Physik-Professor Sigismund Kobe: „Deutsche Energie­wende wird wie Seifen­blase platzen“

Doch Deutschland möchte als erstes Land komplett aus der Kohle aussteigen und begründet dies mit dem Anspruch, als Vorreiter der Welt zeigen zu müssen, dass ein solcher Ausstieg technisch und ökonomisch realisierbar sei. Darüber hinaus sollen auch die Kernkraftwerke in Deutschland stillgelegt werden, die Strom nahezu CO2-emissionsfrei erzeugen können. Das Ziel ist es, Strom zu hundert Prozent aus regenerativen Energiequellen bereitzustellen. Professor Sigismund Kobe erklärt im EIFELON-Gespräch, dass dies in Deutschland aus physikalischen Gründen nicht möglich ist, solange es noch keine Speicher mit gigantisch großen Speicherkapazitäten gibt. Grundvoraussetzung für ein hochindustrialisiertes Land ist eine sichere stabile Stromversorgung, die auf Abruf jederzeit die Energie liefern kann, die gerade benötigt wird. Dr. Sigismund Kobe, Jahrgang 1940, ist emeritierter Physik-Professor an der Technischen Universität Dresden. Sein Forschungsschwerpunkt ist die Optimierung komplexer Systeme (magnetische Festkörper, neuronale Netze, Proteine, Windenergie).

„Einer der Fehler, den die meisten Befürworter der Energiewende machen, ist es, alle erneuerbaren Energiequellen in einen Topf zu werfen, anstatt sie differenziert zu betrachten“, sagt Kobe. Aber erneuerbar sei nicht gleich erneuerbar. Mit Wasserkraft- und Biogasanlagen lasse sich Strom weitgehend nach den Bedürfnissen der Verbraucher bereitstellen, Windkraft- und Solaranlagen dagegen seien aus physikalischen Gründen dazu nicht in der Lage. Ein weiterer Zubau von Wasserkraftwerken ist geologisch und meteorologisch begrenzt: Deutschland hat anders als z.B. Norwegen und die Schweiz aufgrund seiner Topologie nicht genügend Regionen mit den erforderlichen Höhenunterschieden. Zudem reicht die jährliche Regenmenge für diesen Zweck nicht aus. Auch die landwirtschaftlich nutzbaren Flächen in Deutschland seien bereits hinreichend aufgeteilt in solche für die Lebensmittel- und Futtermittelproduktion und solche für bioenergetische Nutzung. „Diese beiden erneuerbaren Energiequellen haben in Deutschland kein größeres Ausbaupotenzial mehr“, lautet das Fazit von Professor Kobe.

Windräder liefern zu einem Drittel der Zeit kaum bis gar keinen Strom

Für einen gedachten weiteren Zubau erneuerbarer Energiequellen in Deutschland verbleiben also nur Wind und Sonne. Diese haben allerdings die unangenehme Eigenschaft, dass der damit erzeugte Strom volatil sei, d.h. zeitlich schwanke, so Kobe weiter. Mal weht der Wind und dann drehen sich die Räder, mal weht er nicht und dann drehen sie sich nicht. Der letztgenannte Zustand ist sogar häufiger als allgemein bekannt. Statistisch gesehen ist der Beitrag aller Windenergieanlagen an der Stromerzeugung in Deutschland an einem Drittel der 8.760 Stunden eines Jahres gering bzw. sogar vernachlässigbar. Bei den Solaranlagen sieht es nicht besser aus. Der weitaus überwiegende Teil des jährlichen Anteils von Strom aus Photovoltaik-Anlagen an der Stromproduktion wird im Sommer und dann wiederum vor allem in wenigen Stunden um die Mittagszeit eingespeist, vorher und nachher ist der Anteil gering und nachts scheint die Sonne nie.

Seit jeher ist das Netz auf das Auftreten von Schwankungen ausgelegt, muss doch die Anpassung an den unregelmäßigen Bedarf durch die Verbraucher sichergestellt werden. Nun waren in der Vergangenheit bei geringem Anteil von Wind- und Sonnenstrom die dadurch bedingten zusätzlichen Schwankungen auch kein besonderes Problem. Professor Kobe:

Quantitativ sind wir allerdings an eine Grenze gelangt, an der das Netz diese zusätzlichen Erzeugungsschwankungen nicht mehr verkraften kann.“

Die aktuelle Grafik des Energiedaten-Sammlers Rolf Schuster zeigt die Situation für November 2019: Sonnenstrom (gelb) spielt fast keine Rolle. Zeiten mit geringer Einspeisung der volatilen Erzeuger, die sogenannten „Dunkelflauten“, und Zeiten mit hohem Windaufkommen (blau), in denen dieses einen großen Teil des Bedarfs der Verbraucher (Last, braun) abdeckt, wechseln sich ab.

Die folgende Grafik, die jeweils die Einspeisung von Wind- und Sonnenstrom im Monat November in verschiedenen Jahren zeigt, macht deutlich, dass trotz starkem Zubau, charakterisiert durch die installierte Leistung (hellblaue Fläche, rote Linie), die tatsächlich erbrachte Leistung vergleichsweise gering geblieben ist.

Professor Kobe fragt daher: „Was passiert, wenn, wie aktuell vielfach gefordert wird, noch mehr Wind- und Solaranlagen zugebaut werden? Lassen sich dadurch die Probleme bei Dunkelflaute und bei den Spitzenwerten der Einspeisung beheben?“ und liefert die Antwort gleich selbst: Null bleibe Null, d.h. die Probleme bei Dunkelflaute werden nicht dadurch gelöst, dass z.B. 10.000 statt 10 Windanlagen neu aufgestellt werden. Das zeigt auch die nachfolgende Grafik der Einspeisung für November, bei der simuliert wurde, dass jede einzelne Anlage in Deutschland am selben Ort durch drei gleichwertige ersetzt wird:

Wenn in ganz Deutschland kein Wind weht, bewegt sich kein einziges Windrad. Wenn andererseits zu viel Sonne scheint und zu viel Wind weht, die Anlagen also mehr produzieren als alle Verbraucher in Deutschland abnehmen können (in der letzten Grafik kommt dies mehrmals im Monat vor), dann ist die Versorgungssicherheit ebenfalls gefährdet. In einem solchen Fall müssten Sofortmaßnahmen getroffen werden, um zusätzliche Lasten zuzuschalten bzw. Erzeuger abzuschalten. Nur so kann das ganze System stabil gehalten werden.

Die Einbindung von volatilem Strom aus Wind- und Sonnenanlagen in das öffentliche Netz ist eine hoch komplexe Aufgabe. Die in jedem Moment durch die Verbraucher benötigte und abgerufene Leistung – die Last – ist zeitlich schwankend, aber natürlich folgen diese Schwankungen überwiegend nicht dem zur gleichen Zeit eingespeisten Energie-Angebot der Windräder und Solarpaneele. Für die Differenz zwischen momentaner Last, die von den Verbrauchern abgefordert wird, und der Leistung, die Wind- und Sonnenstrom liefern, wird der Begriff „Residuallast“ als verbleibende Lücke der Versorgung verwendet. Sie muss durch andere, insbesondere konventionelle Kraftwerke erbracht werden.

Lobbyisten täuschen Bürger

Die Residuallast in der Einheit Gigawatt ist eine Schlüsselgröße, wenn die Energiewende analysiert werden soll. Deshalb hat Rolf Schuster für jede Stunde des Jahres 2011 diese Größe als Punkt in einer Grafik eingetragen. Auf der zweiten Achse der Grafik wird der Börsenpreis des Stroms zur gleichen Zeit markiert. Dadurch entsteht für jedes Jahr eine „Punktwolke“ mit 8.760 Stunden-Punkten. Je mehr Wind- und Sonnenstrom in das Netz drängt, umso geringer ist die Residuallast und umso niedriger ist auch der Börsenpreis. „Dieser Sachverhalt wird von den Lobbyisten zur Täuschung der Öffentlichkeit verwendet und als Beweis dafür angeführt, dass Strom aus Wind und Sonne zu einer Verringerung des Strompreises führen würde“, meint Kobe. „Verschwiegen wird geflissentlich, dass Strom aus den Erneuerbaren überhaupt nicht am Marktgeschehen und somit auch nicht an der direkten Preisbildung an der Strombörse beteiligt ist, da dieser ja gemäß EEG mit einem subventionierten Festpreis vergütet wird.“

Die ganze Dramatik der aktuellen Situation wird deutlich, wenn die Schuster’sche Analyse für das Jahr 2019 wiederholt wird:

Der im Laufe eines Jahres auftretende Minimalwert der Residuallast ist seit 2011 von Jahr zu Jahr immer kleiner geworden und betrug 2019 nur noch 3 Gigawatt. Wind und Sonne können demnach zu einigen Stunden des Jahres bereits fast den gesamten Strombedarf Deutschlands decken. Wenn manche Befürworter der Energiewende dies als Zeichen für eine bald bevorstehende Vollversorgung mit Erneuerbaren werten, so ist das leider ein Trugschluss. Es wird dabei „vergessen“, dass zu anderen Zeiten kein Beitrag von Wind und Sonne kommt und diese Situation sich nicht im Geringsten dadurch ändert, dass immer mehr volatile Erzeuger zugebaut werden.

Ausland macht Reibach – Deutsche Stromkunden zahlen

Mit der Zunahme von Wind- und Sonnenstrom im Netz nehmen die Börsenpreise immer häufiger negative Werte an: „2019 musste an 232 Stunden überflüssiger Strom durch Zuzahlung einer Entsorgungsgebühr verklappt werden“, so Kobe. Immer dann, wenn zu viel Wind- und Solarstrom ins Netz drängt und dieser im Land nicht verbraucht werden kann, verkauft ihn Deutschland zu „negativen Preisen“ an das Ausland. So verdienen z.B. die Betreiber österreichischer Pumpspeicherwerke doppelt am deutschen Strom: Bei negativem Börsenpreis pumpen sie mit diesem Strom Wasser in die Oberbecken und werden für die Abnahme des Stroms auch noch von Deutschland bezahlt. Später, wenn bei uns Dunkelflaute herrscht, werfen sie die Turbinen an und verkaufen uns Strom zu höheren Preisen zurück. Verlierer sind die Stromkunden, denn sie müssen für die EEG-Umlage aufkommen, einer für die Dauer von 20 Jahren staatlich zugesicherter Festvergütung für die Betreiber von erneuerbaren Energiequellen.

Beim Betrachten dieser Schuster-Grafik werde Professor Kobe stets an den Fisch erinnert, der bekanntlich ‚zuerst vom Kopf und vom Schwanz her stinke‘. Sowohl die immer weiter ansteigende Zahl von Stunden mit negativen Börsenpreisen, als auch die anwachsenden Kosten für den Zukauf von teurem Regelstrom zum Kompensieren fehlender Erzeugerleistung bei Dunkelflauten werde letztlich das gesamte System kollabieren lassen.

„Als profunder Kenner und tiefgründiger Analyst der Energiewende“ weise Rolf Schuster in der folgenden Grafik auf ein weiteres ernstes Problem hin, fährt Kobe fort. Hierbei gehe es um die sogenannten Leistungsgradienten, d.h. die Änderung der Einspeiseleistung pro Zeiteinheit. Untersucht wurde die größte stündliche Zunahme (grün) bzw. Abnahme (rot) eines jeden Tages seit 2010. Beide sind sowohl in den Extremwerten, als auch im Mittel stetig angestiegen, so dass es immer schwieriger wird, die notwendige Kompensation durch konventionelle Erzeugung in immer kürzerer Zeit zu realisieren.

„Strom sei nun einmal die verderblichste Handelsware der Welt“, so Kobe. Im selben Moment, in dem der Strom erzeugt wird, muss er auch verbraucht werden. Da die Ausbreitungsgeschwindigkeit von Elektroenergie gleich der Lichtgeschwindigkeit ist, können Erzeuger und Verbraucher durchaus weit voneinander entfernt sein, wenn eine Verknüpfung durch das Stromnetz besteht. Allerdings können Stromüberschüsse im Netz selbst nicht gespeichert werden.

Deutschland hat nicht die benötigten Stromspeicher

Eine Lösung bestünde darin, den momentan zu viel erzeugten Strom zu speichern. Oft wird jedoch verschwiegen, dass Deutschland solche Speicher mit der notwendigen gigantischen Speicherkapazität weder jetzt zur Verfügung stehen, noch in absehbarer Zeit zur Verfügung stehen werden. „In den Medien werden manchmal große zusammengeschaltete Akkumulatoren als Beispiele für Großspeicher vorgeführt. Diese dienten in Wirklichkeit aber nicht der Stromspeicherung, sondern der Feinregulierung der Netzfrequenz“, erklärt der Physiker. Und was ist mit der Idee, die Akkus der Elektroautos als Stromspeicher einzusetzen? Unterstelle man eine maximal mögliche Speicherkapazität aller PkWs in Deutschland (vorausgesetzt alle diese 47 Millionen Autos wären bereits Stromer) von maximal 2.000 GWh und vergleiche diese mit dem Bedarf bei einer Dunkelflaute von z.B. zehn Tagen, komme man schnell zu dem Ergebnis, dass sie bei weitem nicht als Speicher ausreichten. Dazu komme, dass niemand ohne Entschädigung bereit sei, die Kosten für die Zwischenspeicherung von öffentlich benötigter Elektroenergie zu tragen, denn jeder Lade-Entlade-Vorgang lasse die Akkus altern. Kobe nennt Kosten von derzeit 3 bis 10 ct/kWh, die dabei zusätzlich entstehen. Der Autobesitzer müsse dann früher als geplant einen teuren neuen Akku kaufen.

Auch das Argument, die Akkus der E-Autos seien ja nicht als Langzeitspeicher gedacht, sondern sollten Regelenergie bereitstellen, lässt der Professor nicht gelten. Für diesen Zweck würde die Gesamtspeicherkapazität zwar reichen. Trotzdem sei die Idee unsinnig, weil Regelenergie im Bedarfsfall innerhalb von Minuten bereitstehen müsse. „Wie soll das realisiert werden? Vielleicht mit einem Alarm: ´Sofort alle E-Autos an die nächste Ladesäule zum Entladen!‘, fragt Kobe. Bevor in Deutschland die Speicherfrage nicht gelöst sei, nütze auch eine Nord-Südtrasse nichts. Der Flatterstrom aus dem Norden würde über diese Verbindung augenblicklich im Süden ankommen, aber natürlich wieder als Flatterstrom. Die Probleme würden damit nur verlagert, aber nicht gelöst.

Bliebe schließlich noch die Möglichkeit, volatile Stromerzeuger notfalls abzuregeln. Dass wir auch dabei längst an der Grenze des noch Vertretbaren angekommen sind, zeigt die Situation bei den zahlreichen Windenergieanlagen in Schleswig-Holstein. Diese allein sind bereits jetzt von mehr als der Hälfte aller Abschaltungen in Deutschland betroffen. Allein im ersten Quartal 2019 hätten in diesem Bundesland 1.800 GWh Strom mehr in das Netz eingespeist werden können. Aber auch dieser „Geisterstrom“ muss laut EEG den Anlagebetreibern vergütet werden. Nach Schätzungen der Bundesnetzagentur summieren sich die Entschädigungszahlungen für sogenannte Einspeisemanagement-Maßnahmen im ersten Quartal 2019 in Deutschland auf 394 Millionen Euro. Sie sind demnach gegenüber dem gleichen Vorjahreszeitraum um 60 Prozent gestiegen. Professor Kobe:

Welche Volkswirtschaft der Welt kann es sich auf Dauer leisten, mehr als eine Million Euro pro Tag zum Fenster hinaus zu werfen?“

Monitoringberichte sind Augenwischerei

Die größte Sorge bereite Professor Kobe die Versorgungssicherheit. Wenn Politiker den angeblichen Erfolg der Energiewende preisen, dem Bürger einen hohen jahreskumulierten Stromertrag von Wind- und Solaranlagen präsentieren und diesen mit dem von konventioneller Kraftwerke vergleichen, aber die nicht vorhandene sekundengenaue Verfügbarkeit von Wind- und Solarenergie verschweigen, begehen sie Augenwischerei. „Man schaue sich z.B. den Monitoringbericht des Bundesministeriums für Wirtschaft und Energie nach § 63 i.V.m. § 51 EnWG zur Versorgungssicherheit im Bereich der leitungsgebundenen Versorgung mit Elektrizität vom Juni 2019 an. Sofort fällt auf: Dieser Bericht ist anonym, niemand will vermutlich seine Hand für die dort getroffenen Schlussfolgerungen ins Feuer legen. Dort heißt es u.a.: ‚Insgesamt ist die Verfügbarkeit der Energieträger für die Stromerzeugung als gesichert einzuschätzen.‘ Fachkundige sind entsetzt und schlagen Alarm“, sagt Kobe. Das Energiesystem ist sehr komplex, die technologischen Anforderungen unter den Bedingungen von zeitlich schwankender Stromeinspeisung wurden in der Vergangenheit „sträflichst vernachlässigt“. Darin sieht Kobe den Hauptgrund für die aktuell immer deutlicher werdenden Konflikte bei der Umsetzung der Maßnahmen der Energiewende. Die Schuldigen seien eben gerade nicht diejenigen Bürger, sich gegen einen weiteren Ausbau von Windenergieanlagen organisieren und die sich deshalb auch schon mal mit dem Begriff „Anti-Windkraft-Taliban“ beschimpfen lassen müssen. Professor Kobe:

Wenn weiterhin wie bisher natur- und ingenieurwissenschaftlichen Prinzipien ausgeblendet werden, wird das gesamte bisherige Konzept der Energiewende platzen wie eine bunte Seifenblase. Die Energiewende hat nur einen einzigen Feind, die Unwissenheit über die physikalischen Gesetze, die ihr zugrunde liegen.“

Von 2000 bis 2019 betrug laut Bundesnetzagentur die durch das Erneuerbare-Energien-Gesetz (EEG) vergütbare Strommenge 1.926.676 GWh. Die Betreiber der durch das EEG subventionierten Wind- und Solaranlagen erhielten für diese produzierte Strommenge 296,257 Milliarden Euro. Tatsächlich war dieser Strom am Markt nur 68,024 Milliarden Euro wert. Die Mehrbelastung der Stromkunden betrug 228,233 Milliarden Euro. Ein Ende ist nicht in Sicht. Zum Vergleich: Die Ausgaben im Bundeshaushalt für das Jahr 2019 betrugen etwa 356 Milliarden Euro.

Dieser Beitrag war zuerst hier erschienen: https://eifelon.de/umland/physik-professor-sigismund-kobe-deutsche-energiewende-wird-wie-seifenblase-platzen.html




Studie, welche Modell­vorhersa­gen preist, beweist, wie sehr die Modelle über­treiben

Hier die Summary in „normaler Sprache“ aus der Studie mit dem Titel „Evaluating the performance of past climate model projections“ von Hausfather et al. (2019):

Klimamodelle stellen eine bedeutende Art und Weise dar, um zukünftige Änderungen des Klimas der Erde zu verstehen. In dieser Studie nehmen wir eine sorgfältige Evaluierung der verschiedenen Klimamodelle vor, welche von Anfang der 1970er Jahre bis zum Ende der 2000er Jahre veröffentlicht worden waren. Besonders betrachten wir, wie gut die Modelle die globale Erwärmung projiziert hatten über die Jahre nach deren jeweiliger Veröffentlichung und vergleichen sie mit beobachteten Temperaturänderungen. Modellprojektionen stützen sich auf zweierlei, um genau zu den Beobachtungen zu passen: genaue Modellierung der Klimaphysik und genaue Annahmen bzgl. zukünftiger CO2-Emissionen und anderer das Klima beeinflussender Faktoren. Das beste, auf physikalischer Grundlage stehende Modell wird ungenaue Ergebnisse liefern, falls zukünftige Emissionen eingehen, die nicht der Realität entsprechen. Um dem Rechnung zu tragen, betrachten wir, wie die Relation zwischen Temperatur und atmosphärischem CO2 (und anderen Klimatreibern) sich zwischen Modellen und Beobachtungen unterscheiden. Wir kommen zu dem Ergebnis, dass die während der letzten fünf Jahrzehnte veröffentlichten Klimamodelle ziemlich genau waren hinsichtlich der Vorhersage der globalen Erwärmung während der Jahre nach deren Veröffentlichung, besonders hinsichtlich Differenzen zwischen modellierten und tatsächlichen Änderungen des atmosphärischen CO2 und anderer Klimatreiber. Diese Forschung sollte helfen, die Verwirrung der Bevölkerung hinsichtlich der Genauigkeit von Klima-Modellierungen in der Vergangenheit aufzulösen. Außerdem lässt sie unter Vertrauen zunehmen, dass die Modelle die globale Erwärmung korrekt projizieren“.

Abbildung 1: Projektionen der general circulation models (GCMs; rot) des IPCC (1990, 1995, 2001) und Energiebilanz-Modelle (grün) im Vergleich mit der beobachteten Temperaturänderung (blau) in K pro Dekade – ausschließlich aus Datensätzen der Temperatur am Boden (Hausfather et al. 2019)

Wie Abbildung 1 belegt, haben einfache Energiebilanz-Modelle (wie dasjenige von Monckton of Brenchley et al. 2015) viel bessere Projektionen geliefert als die GCMs. In IPCC (1990) prophezeiten die Modelle eine mittlere Erwärmung von 2,78 oder 0,33 K pro Dekade. Bis 1995 waren die Projektionen sogar noch extremer. Im Jahre 2001 waren die Projektionen realistischer, wurden jedoch noch extremer in IPCC 2006 und 2013 in den jeweiligen Zustandsberichten. Die terrestrische Erwärmung seit 1990 von 1,85 K pro Dekade war nur etwa halb so groß wie die in jenem Jahr vom IPCC prophezeite Rate:

Abbildung 2: terrestrische Erwärmung von 1990 bis 2018 (Datensätze HadCRUT4, GISS und NCEI). Selbst wenn man das kleinere der beiden Intervalle von Globale-Erwärmung-Prophezeiungen des IPCC (1990) heranzieht und sogar annimmt, dass die terrestrische Temperaturaufzeichnung selbst nicht übertrieben ist, liegt die beobachtete Erwärmung am unteren Ende des Intervalls.

Abbildung 3: Erwärmung der unteren Troposphäre (UAH) von 1990 bis 2018. Sie leigt deutlich sogar noch unter der Untergrenze der Modellprojektionen, auf welche das IPCC seine Vorhersagen der mittelfristigen globalen Erwärmung gründete.

Hausfather et al. lassen es so aussehen, als ob die Modelle bzgl. von deren Projektionen akkurat waren nach dem Vergleich der beobachteten Erwärmung mit der Projektion des Energiebilanz-Modells in IPCC (1990). Allerdings stellte das IPCC seine Original-Projektionen auf die Grundlage der komplexeren und mehr für Übertreibungen anfällige GCMs – und macht das auch heute noch:

Abbildung 4: Wäre der El Nino 2016 nicht aufgetreten, läge die originale mittelfristige Prophezeiung aus dem Jahr 1990 immer noch exzessiver aussehen als es ist.

Ungeachtet der wiederholten Übertreibungen in den Projektionen der GCMs, welche zu minimieren Hausfather et al. in der Tat versucht haben, treiben die Modellierer das tote Pferd ,globale Erwärmung‘ in immer extremere Projektionen:

Abbildung 5: Projektionen der Charney-Sensitivität in 21 Modellen des CMIP5-Ensembles

Im Jahre 1979 prophezeite Charney eine mittlere Gleichgewichts-globale-Erwärmung pro CO2-Verdoppelung von 2,4 bis 3 K. Das IPCC (1990) wählte den höheren Wert als seine eigene mittelfristige Prophezeiung. Jetzt jedoch zeigen die neuen CMIP6-Modelle diese mittlere Prophezeiung als deren untere Grenze, und deren neue mittlere Projektion beträgt wie oben gezeigt 4,1 K.

Da die Erwärmung bei einer Verdoppelung der CO2-Konzentration in etwa gleich der Erwärmung ist, wie sie über das 21. Jahrhundert durch alle anthropogenen Einflüsse erwartet wird, projizieren die heutigen GCMs im Endeffekt eine Erwärmung um 0,41 K pro Jahrzehnt. Das wollen wir jetzt einmal in Abbildung 4 hinzufügen um zu zeigen, wie übertrieben die Projektionen sind, aufgrund welcher es Politiker und Banken derzeit ablehne, der Dritten Welt Kredite für die dringend benötigte Elektrifizierung zu gewähren:

Abbildung 6: Prophezeiung vs. Realität, dieses Mal mit der impliziten CMIP5-Prophezeiung.

Liniengraphiken wie Abbildung 6 neigen dazu, das wahre Ausmaß der Über-Prophezeiung zu verbergen. Abbildung 7 korrigiert die Verzerrung und zeigt das wahre Ausmaß der Über-Prophezeiung:

Abbildung 7: Projizierte mittlere Charney-Sensitivitäten (CMIP5 3,35 K orange, CMIP6 4,05 K rot). Sie liegen um das 2,5 bis 3-fache über den 1,4 K (grün), die erwartet werden können bei der gegebenen beobachteten globalen Erwärmung von 0,75 K von 1850 bis 2011 und einem erkannten anthropogenen Antrieb von 1,87 W/m² bis 2011. Der gesamt-anthropogene Antrieb von 2,5 W/m² bis 2011 wird auf die 3,45 W/m² geschätzten Antriebe skaliert als Reaktion auf eine CO2-Verdoppelung. Folglich würde die Charney-Sensitivität nach CMIP6 von 1850 bis 2011 eine Erwärmung um fast 3 K implizieren, also drei mal so hoch wie die zu erwartende und vier mal so hoch wie die beobachtete Erwärmung von 0,75 K.

Obwohl diese Analyse hier simpel ist, so ist sie doch kompliziert genug, um an den wissenschaftlich ungebildeten Politikern vorbeizugehen. Diese werden einfach von Klima-Kommunisten umschwärmt, die ihre Laufbahn bedrohen, falls sie es wagen, denjenigen beizuspringen, die sich gegen den Holocaust an den Machtlosen aussprechen.

Darum möchte ich schließen mit der Vereinfachung des Argumentes. Es ist das, was in keiner einzigen „wissenschaftlichen“ Studie bzgl. globaler Erwärmung angesprochen wird, was am aufschlussreichsten ist. Es ist das, von dem gesagt wird, dass es keine Rolle spielt. Ich konnte bislang keine einzige Studie finden, in welcher die ideale globale mittlere Temperatur festgestellt und glaubwürdig begründet wird.

Die Tatsache, dass Klima-„Wissenschaftler“ diese Frage anscheinend nie gestellt haben zeigt, dass das Thema globale Erwärmung ein politisches und kein wissenschaftliches Anliegen ist.

Die Tatsache, dass die Antwort auf diese Frage unbekannt ist zeigt, dass es keine rationale Grundlage gibt dafür, irgendetwas hinsichtlich des allgemein wärmeren Wetters zu tun, welches sich als höchst vorteilhaft dort herausgestellt hat, wo es am schnellsten dazu gekommen war – in den hohen Breiten und besonders an den Polen.

Es gibt mit Sicherheit keinen einzigen Grund, weder wissenschaftlicher, ökonomischer, moralischer oder anderer Natur, den 1,2 Milliarden Menschen den elektrischen Strom vorzuenthalten, die ihn nicht haben und die im Mittel 15 bis 20 Jahre früher sterben, weil sie ihn nicht haben.

Link: https://wattsupwiththat.com/2020/01/12/paper-praising-models-predictions-proves-they-greatly-exaggerate/

Übersetzt von Chris Frey EIKE




Erneuer­bare Energie hat bedeu­tende Schatten­seiten

Der beantragte Gemini-Solarpark nahe der Stadt Las Vegas in Nevada ist das jüngste Beispiel umweltschädlicher Vorhaben bzgl. erneuerbarer Energie.

Solar-„Parks“ verbrauchen Unmengen Land. Im Falle Gemini sind es über 2800 Hektar. Damit wäre dieses Projekt das größte des Landes und hätte die räumliche Ausdehnung einer kleinen Stadt.

Das US-Büro für Land-Management (BLM) ist bereit, das Gemini-Projekt zu genehmigen, welches 130.000 Haushalte mit Energie versorgen könnte. Jeder, der nachts in Las Vegas unterwegs ist, wird sicher erkennen, dass es viel mehr Energie bedarf als aus einem großen Solarpark, um die Lichter nicht ausgehen zu lassen, aber es ist ein Anfang.

Die eigenen Untersuchungen des BLM bzgl. Auswirkungen auf die Umwelt kommen zu dem Ergebnis, dass der Solarpark nicht nur gefährdete Spezies und Pflanzen beeinträchtigen wird einschließlich der Wüstenschildkröte, eines Wüstenfuchses und einer seltenen Pflanze, von der ich noch nie etwas gehört habe, nämlich die threecorner milkvetch.

Naturschutz-Organisationen sind nicht erfreut ob dieses Projektes, darunter auch die Defenders of Wildlife, obwohl diese in ihrem Abstract hinter erneuerbarer Energie stehen. Anstatt gefährdete Spezies und Pflanzen in großen Wüstengebieten zu stören, befürworten einige Organisationen die unrealistische Alternative von Solarpaneelen auf jedem Haus.

Solar- und Windenergie-Projekte haben außerdem das „NIMBY“-Problem [„nicht vor meiner Haustür“]. Während es in der Westhälfte der USA größere freie Wüstengebiete gibt, ist das NIMBY-Problem im Osten ein großes Thema wie etwa in ländlichen Landkreisen in Virginia und anderswo.

Im April vorigen Jahres genehmigte das County Board of Supervisors gegen starke lokale Opposition einen Solarpark auf einer Landfläche von 1200 Hektar. Mit der Einführung von Quoten des Anteils der Einspeisung erneuerbarer Energie in US-Staaten wie Virginia, Nevada und New York neben anderen dürfte der NIMBY-Kampf in Virginia nur der Anfang sein im Kampf gegen Vorschriften bzgl. Erneuerbarer in den gesamten USA. CFACT hat das hier [in deutscher Übersetzung beim EIKE hier] bereits diskutiert.

Das wohl berühmteste Beispiel eines NIMBY-Kampfes gegen erneuerbare Energie trug sich an der Küste von Cape Cod in Massachusetts zu, wo wohlhabende Anwohner, darunter Senator Ted Kennedy, gegen den Cape Wind-Offshore-Windpark kämpften. Nach einem Jahre langen Rechtsstreit hat Energy Management, das Unternehmen hinter dem Projekt, den Stecker gezogen.

Windenergie nimmt in den USA derzeit immer noch zu, erzeugt sie doch über sechs Prozent des Stromes der Nation. Die International Energy Agency IEA erwartet, dass die Zunahme weltweit exponentiell sein wird während der nächsten 20 Jahre. Genau wie Solarenergie weckt auch Windenergie ähnlichen Alarm hinsichtlich Landverbrauch und Schäden in der Wildnis.

Windmühlen töten Hunderttausende Fledermäuse und Vögel jährlich. Mehr Windmühlen bedeuten, dass weitere Millionen geflügelte Geschöpfe jedes Jahr zu Tode kommen. Windmühlen schädigen auch andere Tiere, darunter Hunde und andere Haustiere. Die Turbinen selbst verbrauchen erhebliche Mengen Energie für deren Herstellung und sind auch nicht so einfach zu entsorgen, was hinsichtlich der Umwelt noch weitere Bedenken hervorruft.

Windenergie kann auch für steigende Temperaturen sorgen, was eine witzige Ironie abseits der Ernsthaftigkeit des Themas wäre. Eigentlich ist ja der Hauptgrund des erzwungenen Wechsels von fossilen Treibstoffen zu Erneuerbaren die vermeintliche Umkehrung der „vom Menschen verursachten“ globalen Erwärmung. Jetzt stellt sich heraus, dass sich die Windenergie über einen Punkt hinaus ausweitet, wo sie zur Erwärmung beitragen kann.

Dann sind da noch die umweltlichen Bedenken hinsichtlich der Batterien als Ergänzung zu Erneuerbaren, wenn die Sonne nicht scheint und der Wind nicht weht. Batterien benötigen natürlich Zutaten aus dem Bergbau wie Kobalt und Lithium. Außerdem sind Kosten und Quantität für eine notwendige Batteriekapazität, um Wind und Solar tragfähig zu machen, erheblich, werden aber heruntergespielt, fahren doch Politiker damit fort, der Öffentlichkeit Vorschriften bzgl. Erneuerbarer überzustülpen.

Die umweltlichen Schattenseiten von Wind- und Solarenergie sind allein noch kein Grund, diesen Energiequellen zu entsagen. Vielmehr sind sie ein Argument für geringere Erwartungen und Realismus. Erneuerbare Energie wird uns in absehbarer Zukunft nicht in eine Kohlenstoff-freie Welt führen, unabhängig von den auf vielfältige Weise korrespondierenden Schäden. Infolgedessen sollten Wissenschaftler und politische Entscheidungsträger den wind- und solaren Güterzug abbremsen, um stärker Kosten und Nutzen für die Bevölkerung abzuwägen, ebenso wie für die Natur.

Autor: Peter Murphy, a CFACT analyst, has researched and advocated for a variety of policy issues, including education reform and fiscal policy. He previously wrote and edited The Chalkboard weblog for the New York Charter Schools Association, and has been published in numerous media outlets, including The Hill, New York Post and the Wall Street Journal.

Link: https://www.cfact.org/2020/01/05/renewable-energy-has-significant-downsides/

Übersetzt von Chris Frey EIKE




USA: Proteste gegen grüne Energie-Projekte breiten sich aus

Der Widerstand breitete sich von der Atlantik- bis zur Pazifikküste aus, und in Rathäusern und in lokalen Gremien bzgl. Gesundheit finden wahre Schlachten statt. Und es werden – falls alles andere vergeblich ist – Gerichte eingeschaltet.

29 US-Staaten und der District of Columbia [= die Hauptstadt Washington] schreiben vor, dass die Versorger einen bestimmten Prozentsatz des Stromes, den sie mittels Erneuerbarer erzeugen, einspeisen müssen – Strom, der gewöhnlich aus vom Steuerzahler subventionierter Wind- und Solarenergie besteht. Diese beiden Energieformen werden zusammen mit Energie aus Wasserkraft in Gebieten erzeugt, die weit entfernt von Wohnzentren liegen, und das bedeutet, dass der Strom mittels Fernleitungen übertragen werden muss, die oftmals hunderte Meilen lang sind. Industrielle Windmühlen sind oftmals viele hundert Fuß hoch [100 Fuß = 30 m] und so laut, dass deren Auswirkungen auf die Gesundheit der lokalen Anwohner immer sorgfältiger medizinisch untersucht werden.

Kein Wunder, dass die Anwohner unruhig werden

Die Bewohner in Wisconsin haben eine Menschenkette gebildet, um gegen eine geplante, 200 km lange Fernleitung zu demonstrieren, welche westlich von Milwaukee installiert werden sollte. Sie appellieren damit an die zuständige Behörde, den Bau dieser Fernleitung nicht zu genehmigen, ein Projekt der American Transmission Co.

In New Mexico haben lokale Anwohner, darunter der Schauspieler und Regisseur Robert Redford, ein erklärter Umweltaktivist, erfolgreich den Antrag von Hunt Power bekämpft, eine ca. 50 km lange Fernleitung zu legen, welche zusätzliche Kapazität für mehr erneuerbare Energie bereitstellen würde. Die Opposition war so heftig, dass das in Dallas ansässige Unternehmen im August das Handtuch warf und seinen Antrag auf Genehmigung zurückzog.

Das Wall Street Journal berichtete am 31. Dezember, dass die Opposition im Nordwesten der USA zunimmt gegen eine beantragte, 500 km lange Fernleitung, welche hauptsächlich Hydro- und Solarenergie aus dem Osten des Bundesstaates Washington durch Oregon nach Idaho bis zur Stadt Boise leiten soll. Das Energieprojekt von Idaho würde 1,2 Milliarden Dollar kosten und hat bei den Anwohnern Befürchtungen geweckt, dass die Leitung Pfade von Elch- und anderen Wildtierherden unterbrechen würde, dass die Bedrohung durch Waldbrände zunimmt und dass sie die Aussicht vom Oregon Trail [einem Weitwanderweg] schwer beeinträchtigen würde.

Idaho Power war bereits gezwungen, den ursprünglich geplanten Verlauf aufzugeben vor dem Hintergrund drohender Klagen von Landbesitzern. Man sieht sich jetzt nach zwei alternativen Routen um. Aber auch hier formieren sich Gruppen von Landbesitzern und drohen mit Klagen.

Widerstand im Empire State [= New York State]

Inzwischen haben gigantische Windturbinen in der Landschaft im Westen des US-Bundesstaates New York State den Zorn lokaler Anwohner erregt [dabei handelt es sich um eine wunderschöne, an unsere Mittelgebirge erinnernde und sehr waldreiche Landschaft. Anm. d. Übers.] Als Reaktion auf die zunehmenden Klagen über Beeinträchtigungen der Gesundheit überlegt die lokale Gesundheitsbehörde [Chautauqua County Board of Health] eine Reihe von Maßnahmen, um neue industrielle Windmühlen zu limitieren. Das Gremium könnte sogar ein Moratorium für die Errichtung neuer Windmühlen verhängen, solange man noch so wenig über die gesundheitlichen Auswirkungen weiß. Die größten Bedenken: Lärm.

„Es gibt zahlreiche Studien, die zu dem Ergebnis gekommen waren, dass industrielle Windenergie ernste negative Auswirkungen auf die Gesundheit hat, deren primäre Ursache Infraschall ist“, sagte der Physiker John Droz.

Anderswo im Westen des Bundesstaates formierten sich mehrere Organisationen in der Opposition gegen das beantragte, ca. 270 km² überdeckende Windprojekt Alle-Catt. Kommunalwahlen haben dort am 5. November dieser Opposition in zwei Städten eine Mehrheit verschafft in den Gremien, welche für Vorschläge zu Aufstellungsorten zuständig sind.

Der Projektträger Invenergy wollte 116 Turbinen mit einer Höhe von 180 m errichten, und zwar in vier kleinen Landkreisen nahe dem Eriesee.

Der Gouverneur von New York Andrew Cuomo (Demokraten) hat das unerreichbare Ziel gesetzt, den gesamten US-Staat bis zum Jahr 2050 durch 100% erneuerbare Energie zu versorgen. Das bedeutet weitere Monstrositäten à la Alle-Catt und noch mehr Widerstand seitens Menschen, welche die Opfer dieses Runs auf „saubere“ Energie wären.

Autor: Bonner Cohen, Ph. D. is a senior policy analyst with CFACT.

Link: https://www.cfact.org/2020/01/04/outcry-spreads-over-green-energy-projects/

Übersetzt von Chris Frey EIKE




Journalisten: Wir wollen Zensur!

Screenshot der Berichterstattung in der Encyclopedia Britannica über das Massaker bei Charlie Hebdo

Und was hat die gesamte Redaktion der kanadischen Zeitung Winnipeg Free Press am Tag vor diesem Jahrestag gemacht? Sie rief lauthals nach Zensur! Sie trat für Intoleranz ein. Sie publizierte ein längeres Editorial mit dem Titel „Time to silence voices of denial“. Hierbei handelt es sich dem Vernehmen nach nicht um die Meinung eines einzelnen Autors, sondern um eine offizielle „Konsens-Meinung“:

Das ganze Editorial steht hier.

Die Argumente des Editorials sind der übliche Einheitsbrei. Man sagt uns, dass der Klimawandel „zweifellos das drängendste Problem unserer Zeit ist“. Aber Achtung! Freeman Dyson, einer der brillantesten Physiker der Welt, widerspricht. Er sagte einem SalonInterviewer vor über einem Jahrzehnt:

Der Gedanke, dass die globale Erwärmung das wichtigste Problem ist, vor dem die Welt steht, ist absoluter Unsinn und sehr schädlich. Es lenkt die Aufmerksamkeit der Leute von viel ernsteren Problemen ab.

Im Editorial heißt es, dass „viele Menschen immer noch leugnen, dass er existiert“. Dazu noch einmal Dyson:

Ich sage nicht, dass es keinen Klimawandel gibt. Natürlich gibt es den. Er ist Bestandteil der ganz normalen Natur, und wir wissen, dass es Klimawandel schon lange vor dem Auftauchen der Menschen gegeben hatte. Es gibt auch einen vom Menschen induzierten Klimawandel. Aber ich denke nicht, dass man sich darob Sorgen machen muss.

Das Editorial behauptet, dass Wissenschaftler einen „nahezu universellen Konsens bzgl. eines vom Menschen verursachten Klimawandels gefunden hätten“. Dyson dazu:

In der Historie der Wissenschaft ist es schon oft vorgekommen, dass die Mehrheit falsch lag und es abgelehnt hatte, auf eine Minderheit zu hören, deren Standpunkte sich jedoch später als zutreffend herausgestellt haben.

In diesem Editorial taucht zwei mal der Terminus „Klimawandel-Leugner“ auf. Das ist bösartiger, schwerer Rufmord. Jeder, dessen Argumente von der Mehrheitsmeinung abweicht, ist verdorben. Moralisch giftig. Steht auf dem gleichen Niveau wie Holocaust-Leugner.

Der Menschheit war es noch nie möglich, die Zukunft genau vorherzusehen. Endlose Litaneien von Prophezeiungen, besonders pessimistischer Natur, lagen völlig daneben (siehe hier, hier und hier). Aber wehe, man äußert sich entsprechend im Zusammenhang mit Klima, dann wird man von Journalisten mit üblen Schimpfworten bedacht.

Wie seltsam mutet das an in einer Zeit, in welchen uns eingehämmert wird, dass wir nicht nur tolerant sein sollen, sondern auch religiösen, ethnischen, rassistischen und sexuellen Minderheiten zur Seite stehen sollen. Journalisten bei der Winnipeg Free Press sondern eine intellektuelle Minderheit aus – Klimaskeptiker – und wollen sie zum Schweigen bringen und verächtlich machen.

Schon vor einem Jahr habe ich erkannt, dass Regierungen, Medienportale, Wirtschaftsbosse, Kirchen und Schulen Jahrzehnte damit zugebracht hatten zu verkünden, dass es einen Klima-Notstand gebe. Unabhängige Denker, die diese Doktrin hinterfragen, schwimmen gegen den Strom. Sie sind eingekesselt von einer Weltsicht, die sie nicht mit ihrem gewissen in Einklang bringen können. Sie sind eine verachtete Minderheit, von denen die Mainstream-Gesellschaft denkt, dass es OK ist, sie zu dämonisieren.

Diesem Editorial zufolge jedoch haben Klimaskeptiker die Konversation beherrscht:

Klimawandel-Leugner, darunter jene, die direkt in die Industrie fossiler Treibstoffe investiert haben, sollten nicht länger diktieren, wo es lang geht(Hervorhebung hinzugefügt)

(Achtung, Sarkasmus): Weil die zehntausenden von Menschen, welche jüngst ihren Arbeitsplatz in der kanadischen Ölindustrie verloren haben, tatsächlich alles im Griff haben. Die Unternehmen, welche auf eine gegen sie gerichtete Regierungspolitik reagieren, indem sie Milliarden Dollar aus Alberta abziehen, sind in Wirklichkeit die Verantwortlichen.

Genau wie andere Minderheiten, denen früher schon ein geheimer, anti-gesellschaftlicher Einfluss vorgeworfen worden war, impliziert dieses Editorial, dass Klimaskeptiker verantwortlich sind für Hitzewellen, Dürren, Überschwemmungen und Buschbrände in Australien. Dass es die Skeptiker ablehnen, sich zu setzen und den Mund zu halten, ist – wie man uns eindringlich sagt – unerträglich:

Im Jahre 2020 gibt es keinen Raum mehr für Debatten über die Existenz des Klimawandels … Wir müssen dafür sorgen, dass unsere Führer dem Klimawandel oberste Priorität verleihen. Das ist jedoch nicht möglich, solange sie – und wir – unsere wertvolle Zeit mit im Kreis verlaufenden Debatten und Leugnungen verplempern, während die Welt um uns herum niederbrennt. (Hervorhebung hinzugefügt).

Zeitungen sollten an sich über viele Dinge berichten. Sie sollten Regierungen zur Verantwortung ziehen. Sie sollten sicherstellen, dass die Mächtigen nicht die Schwachen überrollen. Sie sollten die Debatte über die drängendsten Probleme der Gesellschaft voranbringen – und debattieren über die Art und Weise, mit der man diesen Problemen begegnen kann.

Die Winnipeg Free Press jedoch sagt, genug ist genug. Intellektueller Fundamentalismus ist angekommen. Es gibt nur eine Wahrheit.

Die Überlebenden des Charlie-Hebdo-Massakers wissen ganz genau, wo ein derartiger Fundamentalismus hinführt.

Links:

● 15 Stunden vor der Veröffentlichung dieses Beitrags habe ich drei leitenden Redakteuren der Winnipeg Free Press eine E-Mail geschrieben und um Informationen gebeten bzgl. der Zusammensetzung der Redaktion, deren Mitglieder auf der Website der Zeitung nicht genannt werden. Ich fragte, wie viele Personen „geschrieben bzw. zugestimmt hätten“, dass es an der Zeit ist, die Stimmen der Leugnung ruhig zu stellen? Bislang habe ich keine Antwort erhalten.

● Im Falle, dass dieses Editorial hinter einer Zahlschranke steht, bietet die Website eine Print-Option an. Diese habe ich zu einem PDF gemacht, welches von hier herunter geladen werden kann.

● Siehe hierzu auch meine früheren Kommentare Climate Skepticism is Free Speech

Climate Skeptics: The Despised Minority

Doubt is Not a Sin

In League with the Devil: (No Climate Free Speech, Part 2)

Aktualisierung vom 9. Januar: das oben diskutierte Editorial scheint inzwischen von der Website der Winnipeg Free Press verschwunden zu sein. Man bekommt beim Klick darauf nur noch eine Fehlermeldung.

2. Aktualisierung vom 9. Januar: Es scheint Duplikate dieses Editorials zu geben, eines veröffentlicht am 6. Januar, das zweite am 7. Januar. Ersteres ist immer noch aktiv, Letzteres scheint wieder verschwunden zu sein.

Link: https://nofrakkingconsensus.com/2020/01/08/journalists-we-want-censorship/

Übersetzt von Chris Frey EIKE




Der Ozean erwärmt sich ein winziges bisschen

Ihre bestechende Graphik sieht so aus:

Abbildung 1: Original-Inschrift: Ozeanischer Wärmegehalt OHC der oberen 2000 m Wassertiefe von 1955 bis 2019. Das Histogramm zeigt jährliche Anomalien (Einheit: ZJ), wobei positive Anomalien relativ zu einer Basis von 1981 bis 2010 als rote Balken dargestellt sind und negative Anomalien als blaue Balken. Die beiden schwarzen gestrichelten Linien sind die linearen Trends jeweils von 1955 bis 1986 bzw. 1987 bis 2019.

Nun, das wäre ziemlich informativ … wäre die gewählte Einheit nicht Zettajoules. Ich protestiere erneut gegen die Verwendung dieser Einheit, wenn es um derartige Ozean-Analysen geht. Nicht, weil sie nicht genau sind, das sind sie sehr wohl. Sondern weil niemand eine Ahnung hat, was das wirklich bedeutet.

Also wandte ich mich den Daten zu. In der Studie werden die Datenquellen angegeben als http://159.226.119.60/cheng/ und www.mecp.org.cn/ .

Der zweite Link ist in chinesisch, und obwohl ich es übersetzen ließ, konnte ich die Daten nicht finden. Auch auf dem ersten Link waren die Daten nicht zu finden, aber es wurde auf eine Daten-Site verwiesen unter diesem Link. Darauf geklickt, erhielt ich eine weitere Website mit einem erneuten Link – der mich glatt zur Website von Dr. Cheng zurückführte, wo ich begonnen hatte.

(Aktualisierung: Ein aufmerksamer Kommentator fand schließlich die Daten hier und hier.)

An diesem Punkt entschloss ich mich, Abbildung 1 händisch zu digitalisieren, was unglaublich akkurat ist. Die folgende Abbildung 2 ist meine Nachbildung ihrer Abbildung 1. Allerdings habe ich die Daten zu Grad Temperaturänderung konvertiert, weil uns diese Einheit viel vertrauter ist als Zettajoules:

Abbildung 2: Die Abbildung 1 von Cheng et al., umgewandelt in Grad Celsius. Die Fehlerbalken (dunkle schwarze Linien) stammen ebenfalls aus Abbildung 1, obwohl man eine Lupe braucht, um sie in deren Abbildung zu finden.

(Nebenbei: dass ich die Daten doch noch gefunden habe, gab mir Gelegenheit zu demonstrieren, wie genau eine Digitalisierung von Hand wirklich ist. Ein Scatterplot der tatsächlichen Daten von Cheng im Vergleich zu meiner händischen Digitalisierung sieht so aus:

Der RMS-Fehler der händischen Digitalsierung beträgt 1,13 ZJ, der mittlere Fehler 0,1 ZJ)

Und siehe da – diesen Herrschaften zufolge hat sich der Ozean während der letzten 60 Jahre um wenig mehr als ein Zehntel eines einzigen Grades erwärmt … und da versteht man auch, warum sie Zettajoules heranzogen – auf diese Weise sieht es viel alarmierender aus.

Und außerdem – es tut mir leid, aber dass man die Temperatur der oberen 2 Kilometer Ozean auf ±0,003°C (drei Tausendstel eines Grades) genau messen kann, ist schlicht und ergreifend nicht möglich. Für ihre Unsicherheits-Berechnungen verweisen sie auf eine frühere Studie, in der es heißt:

Wenn man den globalen Ozean in ein Monatsnetz einteilt von 1° zu 1°, liegt die monatliche Daten-Abdeckung vor dem Jahr 1960 unter 10%, <20% von 1960 bis 2003 und <30% von 2004 bis 2015. Die Abdeckung ist immer noch <30% während der Messung mit ARGO-Bojen, weil das ARGO-Netzwerk auf ein Netz von 3° mal 3° ausgelegt war.

Das ARGO-Bojensystem zur Messung der Ozeantemperature wurde im Jahre 2005 in Betrieb genommen. Es ist die verbreitetste und genaueste Quelle hinsichtlich Ozean-Temperaturdaten. Die Bojen sind neun Tage ruhig bis zu einer Tiefe von 1000 m und gehen dann in Betrieb, sinken bis 2000 m und steigen dann wieder zur Oberfläche, wobei sie kontinuierlich Temperatur und Salzgehalt messen. Danach sinken sie wieder bis 1000 m hinab. Der Zyklus sieht so aus:

Es ist ein wunderbares System, und derzeit sind knapp 4000 Bojen im Einsatz … aber der Ozean ist groß jenseits aller Vorstellung, und darum enthalten trotz der ARGO-Bojen über zwei Drittel ihrer Gitterquadrate Ozean genau Null Messungen.

Und auf der Grundlage dieser dürftigen Datenmenge, womit zwei Drittel der monatlichen Temperaturdaten gar nicht erfasst sind, will man uns glauben machen, dass sie die oberen 651.000.000.000 Kubikkilometer des Ozeans auf 0,003°C genau messen können … natürlich ist das total legitim.

Man kann es auf diese eine Art betrachten. Allgemein ist es so, falls de Anzahl der Messungen allgemein zunimmt, reduziert man die Unsicherheit des Mittelwertes. Aber die Reduktion geht nur mit der Quadratwurzel der Anzahl der Messungen einher. Das bedeutet, falls wir die Unsicherheit um eine Dezimalstelle reduzieren wollen, etwa von ±0,03°C auf ±0,003°C, müssen wir die Anzahl der Messungen um das Hundertfache erhöhen.

Und das gilt auch umgekehrt. Falls wir eine Unsicherheit von ±0,003°C haben, aber nur eine solche von ±0,03°C haben wollen, kommen wir mit einem Hundertstel der Messungen aus.

Das bedeutet, FALLS wir die Ozeantemperatur mit 4000 ARGO-Bojen auf ±0,003°C genau messen können, können wir die Unsicherheit nur mit einer Dezimalstelle weniger messen auf 0,03°C genau mit einem Hundertstel der Anzahl dieser Bojen,also 40 Bojen.

Glaubt irgendwer, dass dies möglich ist? Nur 40 ARGO-Bojen, also eine für jedes Gebiet von der Größe der USA, sollen in der Lage sein, die Wassertemperatur des jeweiligen Gebietes bis auf 2000 m hinab auf plus/minus drei Hundertstel Grad Celsius genau zu messen? Wirklich?

Selbst mit 4000 Bojen, das ist eine für ein Gebiet von der Größe Portugals und zwei Kilometer hinab. Aber ich vermag beim besten Willen nicht zu erkennen, dass ein einziges Thermometer in Portugal erschöpfend Auskunft gibt über die Temperatur des gesamten Landes … und Messungen im Ozean sind viel komplexer als auf dem Festland, weil die Temperatur vertikal auf unvorhersagbare Art und Weise variiert, wenn man dem Ozean in die Tiefe folgt.

Vielleicht gibt es ein paar Prozess-Ingenieure, die damit betraut worden sind, das Wasser in einem großen Becken bei einer gegebenen Temperatur zu halten, und zu berechnen, wie vieler Thermometer es bedarf, um die mittlere Wassertemperatur auf ±0,03°C genau zu messen.

Und zum Schluss möchte ich noch auf Folgendes hinweisen: Bei einer Erwärmung der Ozeane um etwas mehr als ein Zehntelgrad Celsius innerhalb von 60 Jahren wird es etwa fünf Jahrhunderte dauern, um den oberen Ozean um 1°C zu erwärmen …

Will man es konservativ sehen, könnte man davon ausgehen, dass sich die Erwärmung seit dem Jahr 1985 etwas beschleunigt hat. Aber auch mit dieser höheren Erwärmungsrate würde es immer noch drei Jahrhunderte dauern, um den Ozean um 1 Grad Celsius zu erwärmen.

Fazit: Trotz der alarmistischen Studie RECORD-SETTING OCEAN WARMTH können wir uns zurücklehnen. Thermageddon schielt nicht um die Ecke.

Zum Schluss noch einmal zurück zu dem Terminus „winziges bisschen“. Ich habe mich schon öfter darüber ausgelassen, dass mich bzgl. Klima nicht so sehr bewegt, um wie viel es sich ändert. Viel beeindruckender fand ich immer die erstaunliche Stabilität des Klimasystems trotz gewaltiger jährlicher Energieflüsse. In unserem Fall absorbiert der Ozean etwa 6.360 Zettajoules (1021 Joules) Energie pro Jahr. Das ist eine unvorstellbar immense Energiemenge – zum Vergleich, der gesamte menschliche Energieverbrauch aus allen Quellen von fossil bis nuklear beträgt etwa 0,6 Zettajoule pro Jahr …

Und natürlich gibt der Ozean fast genau die gleiche Energiemenge wieder ab – wäre das nicht der Fall, würden wir bald entweder kochen oder erfrieren.

Wie groß ist also das Ungleichgewicht zwischen der in den Ozean eindringenden und von diesem wieder abgegebenen Energie? Nun, im Zeitraum der Aufzeichnung betrug die mittlere jährliche Änderung des ozeanischen Wärmegehaltes 5,5 Zettajoule pro Jahr … was etwa ein Zehntel eines Prozentes (0,1%) der Energiemenge ausmacht, welche in den Ozean eindringt und von diesem wieder abgegeben wird. Wie ich sagte: erstaunliche Stabilität.

Folge: die lächerlich anmaßende Behauptung, dass ein derartig triviales Ungleichgewicht irgendwie menschlichen Aktivitäten geschuldet ist anstatt einer Änderung von 0,1% infolge Variationen der Wolkenmenge oder der Häufigkeit von El Nino oder der Anzahl der Gewitter oder einer kleinen Änderung von irgendetwas im immens komplexen Klimasystem, ist schlicht und ergreifend unhaltbar.

Link: https://wattsupwiththat.com/2020/01/14/the-ocean-warms-by-a-whole-little/

Übersetzt von Chris Frey EIKE




Die vergangene Klima-Dekade: Gescheiterte Prophe­zeiungen, Tour de Paris und die Gretas

Prophezeiungen von Al Gore

Auch das zweite Jahrzehnt dieses Jahrhunderts war gekennzeichnet durch das fortgesetzte Vermächtnis der Lügen von Al Gore. Im Gegensatz zu seinen Prophezeiungen in seiner berüchtigten Dokumentation An Inconvenient Truth hat die Population von Eisbären zugenommen, Arktis und Antarktis zeigten kaum Änderungen, und keine küstennahe Ökonomie wurde durch steigenden Meeresspiegel bedroht.

Gore müsste Alpträume gehabt haben, als die kanadischen Behörden im Jahre 2019 über den Abschuss von Eisbären nachdachten wegen ihrer exzessiven Anzahl, was für die Bewohner der Stadt Nunavut ein zunehmendes Problem ist.

Kein Schnee in Australien

In Australien mögen derzeit historische Waldbrände wüten – die meisten ausgelöst durch Brandstiftung (hier). Aber Klimawissenschaftler wurden auf dem falschen Bein erwischt, als sich deren Prophezeiungen von einem Australien ohne Schnee (hier) in Schall und Rauch auflösten, war es doch im vorigen Jahrzehnt zu massiven Schneefällen gekommen.

Die Gründe waren offensichtlich. Die Erwärmung war längst nicht so ausgeprägt wie prophezeit, und Schneefall in Australien wird durch lokale Wetterlagen bestimmt. Außerdem gab es seit dem 1. Weltkrieg keine signifikante Änderung der Anzahl besonders heißer Tage.

Paris-Abkommen

Das größte Klima-Ereignis des Jahrzehnts war im Jahre 2015 politischer Natur. Nicht gewählte Bürokraten der UN hatten Führer der Welt zusammen getrommelt, um das Pariser Klima-Abkommen zu unterzeichnen. Dieses als „Eckpunkte-Abkommen“ bezeichnete Abkommen sollte die globalen Treibhausgas-Emissionen auf ein Niveau senken, welches die globale Erwärmung in diesem Jahrhundert unter 2°C drücken sollte.

Aber abgesehen von Übermut fehlte diesem Abkommen alles andere. Die als Grundlage politischer Entscheidungen dienenden Vorhersagen beruhten auf falschen Computer-Klimamodellen, und Entwicklungsländer verlangten eine unsinnig und unrealistisch hohe Geldsumme, damit auch sie ihre Reduktionsziele erreichen können.

Danach ging es rasch abwärts. Im Jahre 2017 verkündeten die USA ihren Rückzug aus dem Abkommen. Eine ganze Reihe anderer Nationen – darunter Indien, China, Russland, Polen, Japan, Australien, Brasilien, Südafrika – fahren fort, ihre Grundlagen zu verteidigen mittels Zunahme von deren Abhängigkeit von fossilen Treibstoffen.

Heute sagen Experten, dass das Abkommen hinsichtlich des gegenwärtigen Klimatrends keinerlei bedeutsame Änderungen bewirken wird. Die UN selbst räumen ein, dass die im Jahre 2015 unterbreiteten Vorschläge den Klima-Untergang nicht verhindern würden. Deren jährliches Klima-Ritual endet immer mit Meldungen der Hoffnungslosigkeit oder des Scheiterns für die Welt.

Aufgeweckte Generation: Dank Greta

Der Star des Jahrzehnts schlechthin war das schwedische Schulmädchen Greta Thunberg, welche durch ihre berüchtigten Klima-Schulstreiks bekannt geworden war. Die globalen Medien hatten nichts Eiligeres zu tun als Greta zum Aushängeschild der Klimastreik-Bewegung zu machen.

Die UN hielten Sonderkonferenzen ab mit Greta als der Haupt-Rednerin. Dabei ergriff Greta jede nur mögliche Gelegenheit, die Führer der Welt zu bedrohen. Sie nannte sie „Feinde“ und „Verräter“.

Trotz ihrer Ignoranz der Klimawissenschaft ist Greta für die UN und andere Untergangs-Propheten die Stimme der nächsten Generation. Und so endet die Dekade damit, dass die globalen Mainstream-Medien ein intellektuelles Allzeit-Tief erreichten, indem sie ein seelisch krankes Kind als Autorität bzgl. Klima- und Energiepolitik hervorheben.

Trotz all der Dramatik zeigt das globale Klima selbst keinerlei Anzeichen irgendeiner Gefahr. Die Rate der Erwärmung blieb weitaus niedriger als prophezeit. Selbst einige hochrangige Untergangs- Propheten räumten eine Verlangsamung der Erwärmung ein.

So könnte man weiter und immer weiter machen mit weiterer amüsanter und interessanter Dramatik, zu welcher es in diesem Jahrzehnt gekommen war, aber hören wir hier einmal auf. Begrüßen wir das nächste Jahrzehnt – ein Jahrzehnt, welches sehr gut zu Ende gehen kann mit Untergangs-Propheten bzgl. globaler Abkühlung als dominanter Faktor in den Schlagzeilen.

Warum das? Nun, man betrachte den Himmel. Erkennt man den gleißend hellen Feuerball? Der befindet sich in einem Abkühlungs-Zyklus!

Vijay Jayaraj (M.Sc., Environmental Science, University of East Anglia, England), Research Contributor for the Cornwall Alliance for the Stewardship of Creation.

Link: https://wattsupwiththat.com/2020/01/08/the-climate-decade-that-was-failed-predictions-tour-de-paris-and-the-gretas/

Übersetzt von Chris Frey EIKE