Globale Temperatur um mindestens 40% übertrieben: Klimamodelle des IPCC sind statistischer Schrott [neue Studie]

“The result has obvious consequences also for the models’ warming expectations for the 21st century because, to make these models consistent with our proposed adjusted temperature record, their projected warming should be reduced by about 40% for all emission scenarios.”

Professor Scafetta ist niemand der sagt, es gäbe keinen anthropogenen Klimawandel. Er gehört zu den Wissenschaftlern, die tatsächlich am Thema interessiert sind und nicht bemüht sind, Forschungsarbeiten zu produzieren, die beim IPCC Wohlgefallen finden. Ein Wohlgefallen, das gemeinhin mit Forschungsgeldern belohnt wird. Als ernsthafter Wissenschaftler steht Scafetta vor einem Problem. Diesem:

Die Erwärmung beträgt derzeit genau 0,21 Grad Celsius. Nicht genug, um zu verbrennen, aber genug, um die Klimawandel-Nutznießer Torschlusspanik entwickeln zu lassen.
Roy Spencer

Die Abbildung, die Roy Spencer monatlich fortschreibt, zeigt die Temperatur, die in der Troposphäre gemessen wird. Die Daten werden bei der Universty of Huntsville, Alabama gesammelt und als Datensatz bereitgestellt. Scafetta hat sich diesen Datensatz besorgt und zudem hat er sich den Datensatz der Climate Research Unit der University of East Anglia (CRU-TS4.04) besorgt, der Temperatur-Messdaten für Messstationen weltweit kompiliert, die wiederum als Grundlage dienen, auf der die CMIP-Modelle des IPCC berechnet werden. Auch diese Daten, das komplette Datenset für CMIP-5 (Coupled Model Intercomparison Project Phase 5), mit dem die düsteren Prognosen des IPCC erstellt werden, hat sich Scafetta besorgt und dann angefangen, zu vergleichen.

Von den Klimamodellen, so schreibt Scafetta, werde erwartet, dass sie in der Lage seien, globale und lokale Klimavariationen, wie sie durch unterschiedliche Bewölkung, Flächennutzung, und -versiegelung, Aeorosole in der Luft und vieles mehr verursacht werden, adäquat abbilden. Das Problem: Sie tun es nicht. Sie tun es nicht einmal ansatzweise. ALLE, ausnahmslos alle Klimamodelle, die das IPCC vertreibt, überschätzen die Erwärmung, die sich seit 1940 ergeben hat (siehe Abbildung oben), und zwar um ein Vielfaches, was insofern rätselhaft ist, als die Klimamodelle angeblich so kalibriert sind, dass sie die vergangenen Temperaturen akkurat abbilden. Das tun sie offensichtlich nicht, und es kommt noch dicker: Scafetta findet, dass unterschiedliche Modelle des IPCC lokale Unterschiede quasi nach Lust und Laune produzieren, ohne Systematik, widersprüchlich, zufällig.

Normalerweise werden Modelle, die beliebige Ergebnisse auf lokaler Ebene produzieren, in den Mülleimer geworfen. Normalerweise. Aber die Modelle, die das IPCC verbreitet, um es dadurch Milliardären zu ermöglichen, dass sie ihren Reichtum steigern, sie dienen nicht dazu, die Realität akkurat abzubilden, sie dienen dazu, politische Munition zu liefern, mit der man dann nicht nur die Klimawandel-Hysterie anheizen kann, sondern mit der es auch möglich ist, diejenigen, die darauf hinweisen, dass der menschliche Einfluss auf das Klima, sofern er überhaupt in relevantem Ausmaß vorhanden ist, z.B. im Vergleich zum Einfluss der Sonne eher irrelevant ist, zu diskreditieren.

Wie schlecht die Modelle des IPCC sind, das zeigt die folgende Abbildung:

In beiden Abbildungen sind Klimamuster dargestellt. Beide Abbildungen unterscheiden sich darin, dass unterschiedliche Klimamodelle des IPCC zum Einsatz gekommen sind. Wären diese Modelle auch nur ansatzweise reliabel, dann müssten die Farbmuster in beiden Abbildungen identisch sein. Sie sind es offenkundig nicht. Sie sind willkürlich und widersprüchlich. Die Modelle sind absoluter Junk – oder, in der zurückhaltenderen Formulierung von Scafetta:

“…is shown in Fig. 6, which indicates that the various models show very different local patterns that contradict each other while they are supposed to reproduce climatic patterns on a 60-year period also locally.”

Nun stellt man solche Berechnungen nicht an, um zu zeigen, dass die Klimamodelle des IPCC Junk sind. Das ist allgemein bekannt, wird nur von Aktivisten und Politdarstellern aus den unterschiedlichsten Motiven heraus ignoriert. Nein, solche Berechnungen werden auf Basis einer Hypothese darüber angestellt, warum die Modelle des IPCC so daneben sind, wobei die Hypothese sich nicht auf die politische Motivation bezieht, die ist nicht fraglich, denn wenn jemand Hysterie verbreitet und gleichzeitig das Heilmittel gegen die Hysterie feilbietet, dann können nur Motive der eigenen Bereicherung oder Boshaftigkeit, der Wunsch, andere zu schädigen, dahinter stehen, nein, die Hypothese hat die Fehler, die systematischen Fehler zum Gegenstand, die – absichtlich oder unabsichtlich – in Klimamodelle integriert sind und dazu führen, dass die Erwärmung so hoffnunglso überschätzt wird.

Die Hypothese, die Scafetta gebildet hat, sieht Urban Heat Islands im Mittelpunkt. Es ist schön eine solche Hypothese zu lesen, denn rund 60 Jahre nachdem Garrett Hardin mit seinem Artikel, “The Tragedy of the Commons” darauf hingewiesen hat, dass die meisten Probleme, vor denen die Menschheit steht, eine Folge von ÜBERBEVÖLKERUNG sind, 60 Jahre später setzt sich wieder das Bewusstsein durch, dass die Menge, in der Menschen den Planeten bevölkern, vielleicht das eigentliche Problem sein könnte. Urban Heat Islands (UHIs) entstehen durch Urbanisierung und mit UHIs wird im Wesentlichen umschrieben, dass nächtliche Winde die Luft der Städte, die sich tagsüber aufheizen, ins Umland bringt und dafür sorgt, dass auch das Umland aufgeheizt wird. Die globale Temperaturzunahme, so die Hypothese, ist zumindest in Teilen auf solche UHIs zurückzuführen.

Messbar wird dieses Phänomen über die Minimaltemperaturen, denn im Gegensatz zu dem, was MS-Medien so gerne verbreiten, sind es nicht die Maximaltemperaturen, die in den letzten Jahren gestiegen sind, sondern die Minimaltemperaturen. Aus beiden, den Maximal- und den Minimaltemperaturen für die 2,5 Kilometer mal 2,5 Kilometer großen Flächen, die die Grundeinheit vieler Klimamodelle bilden, berechnet Scafetta den Diurnal Temperature Range (DTR), also die tägliche Temperaturspannweite für die jeweiligen Messeinheiten, die gleichmäßig über die Erde verteilt sind und stellt auf dieser Grundlage zunächst fest, dass die Klimamodelle des IPCC nicht in der Lage sind die Veränderung in den DTR, die sich in den 60 Jahren bis 2014 ergeben haben, abzubilden.

DTR sind ein direktes Ergebnis der Urbanisierung, der sich daraus ergebenden Urban Heat Islands, und die Erwärmung der letzten Jahrzehnte schlägt sich darin nieder, dass die tägilche Temperaturspannweite um Städte herum geringer geworden ist. Das ist zunächst einmal eine Hypothese, aber eine, die Scafetta schnell bestätigen kann. Die daraus folgende Beobachtung, dass Klimamodelle des IPCC diese Veränderung nicht erfassen, dass sie willkürliche und in jedem Fall in Richtung einer erheblichen Überschätzung der Erwärmung gehende Ergebnisse produzieren, führt zum Masterstroke: Wenn es in Klimamodellen einen “Erwärmungs-Bias” gibt, dann sollten diese Modelle die globale Erwärmung in Gegenden, in denen es keine Urban Heat Islands gibt, die die Überschätzung reduzieren, erheblich überschätzen, dann sollten die Modelle deutlich von den Messdaten abweichen. Scafetta prüft diese Hypothese für Grönland und siehe da, das Ergebnis ist dramatisch:

Die rote Linie bildet die Beobachtungsdaten ab, die blaue Linie gibt die Modell-Simulation wieder, die auf Basis dieser Beobachtungsdaten errechnet wurde. Die Abweichung ist erheblich.

“Thus, the models (which are calibrated to reproduce, on average, the observed global warming trend since 1900) hindcast almost twice the warming than what has been recorded in Greenland since 1930-1950.

In den Modellen des IPCC wird die tatsächliche Erwärmung eben einmal verdoppelt. Wer daran wohl ein Interesse haben könnte?
Aber damit ist Scafetta noch nicht am Ende. Nachdem er gezeigt hat, dass die Erwärmung, die in den Klimamodellen des IPCC berechnet wird, die tatsächliche Erwärmung um ein Vielfaches übertreibt, selbst dann, wenn tatsächliche Beobachtungsdaten den Ausgangspunkt der Modellierung bilden, nachdem er gezeigt hat, dass in der Erwärmung, die die Klimamodelle abbilden, nicht klimatische Erwärmung enthalten ist, die sich als Ergebnis von Urbanisierung einstellt, geht Scafetta daran, den entsprechenden Fehler, der in den Klimamodellen des IPCC enthalten ist, zu quantifizieren.

Das Ergebnis sieht so aus:

Die grünen Linien, es sind 106 an der Zahl, geben die Entwicklung der globalen Temperatur an, wenn die unterschiedlichen Modelle des IPCC genutzt werden, um die entsprechende Modellierung vorzunehmen. Die orange Linie stellt den Mittelwert der 106 Modelle dar. Die rote Linie zeigt die tatsächlich in der Troposphäre gemessene Temperatur, und die schwarze Linie zeigt die Rekonstruktion der Temperatur, die Scafatta auf Grundlage der Daten aus East Anglia vorgenommen hat. Wie von Geisterhand geführt, kommen alle Modelle des IPCC im Verlauf der Zeit zu Temperaturen, die weit über den tatsächlichen Temperaturen liegen, während die Berechnung von Scafetta die tatsächliche Temperatur, die über den Datensatz der University of Huntsville zugänglich ist, sehr gut abbildet.

Daraus ergibt sich nur ein Schluss: Die von Scafetta formulierte Hypothese, dass in den Modellen des IPCC nicht nur die globale Temperatur als viel zu hoch berechnet wird, sondern die Ergebnisse auch deshalb falsch sind, weil der Einfluss, den Urbanisierung und daraus entstehende Urban Heat Islands auf die globale Temperatur haben, nicht berücksichtigt wird, ist bestätigt. Fehlt noch die Angabe, um wie viel sich die Panik-Zahl der Erwärmung die das IPCC so gerne verbreitet, reduziert, wenn diese Fehler aus dem Modell beseitigt werden:

“In the light of the above findings, and under the assumption that the SST [Sea Surface Temperature] warming since 1940–1960 is accurate, the models can be scaled on the SST record and used to estimate an expected land warming. Corrected in such a way, we determined that 25–45% of the recorded 0.97±0.05 °C land warming from 1940 to 1960 to 2000–2020 is likely due to urbanization and other unidentifed non-climatic factors biasing the available climatic records.”

Mit anderen Worten: Unter der Annahme, dass die Temperaturangaben, die in den Modellen des IPCC für die Meeresoberfläche enthalten sind, korrekt sind, eine Annahme, die dem IPCC sehr entgegen kommt, beläuft sich der Fehler in den Modellen des IPCC auf mindestens 25%-45% im Verlauf der letzten 60 Jahre. Im Durchschnitt, so schreibt Scafetta einige Zeilen weiter, überschätzen die Modelle des IPCC die tatsächliche Erwärmung des Planeten um 40%. Und diese Schätzung von Scafetta basiert auf der Annahme, dass die Modellierung der Temperatur der Meeresoberfläche richtig ist, eine Annahme, die man nicht machen muss. Scafettas Schätzung von 40% ist somit eine sehr konservative Schätzung. Die tatsächliche Übertreibung liegt vermutlich deutlich darüber.

In jedem Fall wird uns nicht nur im Hinblick auf SARS-CoV-2 absoluter Unfug erzählt, wird nicht nur im Hinblick auf SARS-CoV-2 mit falschen Zahlen hantiert, auch im Hinblick auf die angebliche Klimakrise basiert die gesamte Geschichte auf mehr oder weniger frei erfundenen Zahlen. Dass man die Erfindung dann als Resultat einer Modellierung verkauft, ist nur sympbolische Kosmetik.


Scafetta, Nicola (2021). Detection of non-Climatic Biases in Land Surface Temperature Records by Comparing Climatic Data and their Model Simulations. Climate Dynamics.

Der Beitrag erschien zuerst bei ScienceFiles hier





Manipulation der Daten zum Meeresspiegel

Erstens: Warum zeigen die satellitengestützten Meeresspiegeldaten, dass der Meeresspiegel so viel schneller steigt als der Anstieg, der an Gezeitenstationen an den Küsten der Welt gemessen wird? Die Aufzeichnungen der Gezeitenstationen zeigen einen Anstieg in der Größenordnung von ein paar Millimetern pro Jahr, eine Rate, die sich über die etwa hundert Jahre, für die wir ausreichende Aufzeichnungen haben, kaum verändert hat. Die Satellitenaufzeichnungen (Abbildung 1) zeigen jedoch einen Anstieg von 3,3 mm/Jahr. Warum der große Unterschied?

Zweitens: Warum zeigt der satellitengestützte Meeresspiegel eine so deutliche Beschleunigung? Wie oben erwähnt, zeigen die Aufzeichnungen des Meeresspiegels von Gezeitenstationen, die viel länger sind, wenig oder keine Beschleunigung. Aber die Satellitenaufzeichnungen behaupten, dass die Rate des Meeresspiegelanstiegs um etwa einen Zehntel Millimeter pro Jahr zunimmt. Eine solche Beschleunigung würde den Anstieg des Meeresspiegels in etwa dreißig Jahren verdoppeln. Noch einmal: Warum der große Unterschied?

Zunächst einmal: Hier ist, was die Satellitendaten laut der University of Colorado Sea Level Research Group zeigen:

Abbildung 1. Meeresspiegeldaten der University of Colorado, die den Trend und die Beschleunigung zeigen. Beachten Sie, dass die Grafik keine Überschneidungen zwischen den einzelnen Satellitenaufzeichnungen zeigt. QUELLE: UCSLR-Gruppe

Ich habe diese Woche wieder über diese Fragen nachgedacht, also ging ich zu NOAA und holte mir deren Excel-Tabelle, die den kompletten Datensatz für jeden der vier Satelliten zeigt.

Ich habe die NOAA-Daten aufgezeichnet. Aber im Gegensatz zu den Colorado-Daten oben, habe ich die volle Überlappung zwischen den einzelnen Satelliten mit einbezogen. Dann habe ich die Rate des Meeresspiegelanstiegs, die von jedem der vier Satelliten angezeigt wird, separat betrachtet. Abbildung 2 zeigt das Ergebnis.

Abbildung 2. NOAA-Meeresspiegeldaten, die den Trend der einzelnen, vollständigen Satellitenaufzeichnungen und den Gesamttrend zeigen. QUELLE: NOAA-Excel-Tabelle

Es scheint, als hätte ich nach all den vielen Jahren der Verwunderung endlich eine Antwort auf meine beiden Fragen. Der Trend ist so groß und die Beschleunigung ist aus einem einfachen Grund so groß. Die beiden jüngsten Satelliten zeigen Trends, die deutlich größer sind als die der beiden früheren Satelliten. Die ersten beiden Satelliten stimmen recht gut überein, aber sie zeigen beide einen viel kleineren Trend als die beiden letzten Satelliten. Und keine der beiden Hälften der Satellitenaufzeichnungen zeigt eine Beschleunigung.

Was man oben sieht sind die Fakten, wie sie von der NOAA angegeben werden, und ich habe oben die Quelle dieser Fakten verlinkt. Und es scheint mir, dass diese Fakten mehr als ausreichend sind, um die Satellitenaufzeichnung des Meeresspiegels vollständig zu diskreditieren.

Und um zum eigentlichen Thema zurückzukehren, warum zeigen die NOAA-Daten einen Gesamttrend, der um 0,3 mm pro Jahr geringer ist als die Colorado-Daten? Das liegt daran, dass die Colorado-Daten das enthalten, was „GIA“ genannt wird, und die NOAA-Daten nicht.

„GIA“ steht für die „glaziale isostatische Anpassung“. Es gibt eine Beschreibung davon auf der Colorado-Seite hier. Sie bezieht sich auf die Veränderungen der Gesamtform der Erde aufgrund des Abschmelzens der riesigen und immens schweren Eisschilde der letzten Eiszeit.

Laut dieser Seite wird die GIA „unabhängig aus Modellen auf -0,3 mm/Jahr geschätzt (Peltier, 2001, 2002, 2009; Peltier & Luthcke, 2009)“.

Nun ist ein Computermodell nichts anderes ist als eine physikalische Umsetzung der Überzeugungen, Erkenntnisse und insbesondere der Missverständnisse der Person, die den Computer programmiert. Da Mr- Peltier an der Programmierung aller vier auf der Colorado-Seite aufgeführten Modellrealisierungen beteiligt war, ist ihre Behauptung, die vier Modelle seien „unabhängig“, lächerlich. Was wir haben, ist die Behauptung eines Mannes, dass er den GIA berechnen kann.

Welchen Effekt hat die GIA? Die Colorado-Seite sagt (Hervorhebung von mir):

Vor der Veröffentlichung 2011_rel1 haben wir die GIA bei den Schätzungen des globalen mittleren Meeresspiegels nicht berücksichtigt, aber diese Korrektur ist jetzt wissenschaftlich gut verstanden und wird von fast allen Forschungsgruppen auf der ganzen Welt auf die GMSL-Schätzungen angewendet. Die Einbeziehung der GIA-Korrektur hat den Effekt, dass frühere Schätzungen der globalen mittleren Meeresspiegelrate um 0,3 mm/Jahr erhöht werden.

Da sind also die fehlenden 0,3 mm/Jahr, angewandt von „fast allen Forschungsgruppen“ … Ich schätze, die NOAA hat das nicht mitbekommen.

Für mich ist die Behauptung, dass ein Computermodell die Veränderung des Gesamtvolumens aller verschiedenen Ozeanbecken der Welt auf die nächsten 0,3 mm pro Jahr des Meeresspiegels berechnen kann, unglaubwürdig, und zwar aus folgendem Grund.

Für den Landteil der Berechnung müssen diese „unabhängigen“ Computermodelle GPS-Höhen verwenden. Durch die Verwendung von Split-Phase-GPS und wiederholten Messungen können diese bis zu ± 10 mm oder besser genau sein, eine erstaunliche wissenschaftliche Leistung … aber das ist weit entfernt von einem Zehntel Millimeter, und das nur an Land. Nicht nur das, wir haben auch keine GPS-Messungen im ganzen Land. Sie konzentrieren sich auf die USA und Europa, während sie anderswo nur sporadisch genutzt werden.

Auf dem Meer müssen die „unabhängigen“ Modelle Satellitenmessungen verwenden, so dass sich die Frage nach der Genauigkeit und Präzision der Satellitenmessungen des Meeresspiegels selbst stellt. Diese Messungen werden durchgeführt, indem Radarwellen von der Meeresoberfläche zurückgeworfen werden und gemessen wird, wie lange es dauert, bis sie zum Satelliten zurückkehren. Hier sind wiederholte Messungen nicht möglich, da sich der Meeresspiegel an jedem Punkt ständig ändert und der Satellit selten zweimal an der gleichen Position ist. In einer aktuellen NASA-Pressemitteilung zum Sentinel-6-Satelliten, dem Nachfolger des Jason-3-Satelliten, wird der Ozeanograph Josh Willis zitiert:

Sentinel-6 wird in einer Umlaufbahn in etwa 1300 km Höhe kreisen und mit Hilfe von Radar die Oberfläche des Ozeans messen. Ein Instrument auf dem Satelliten sendet eine Radarwelle hinunter zur Erde. Die Radarwelle wird von der Meeresoberfläche reflektiert und kehrt zum Satelliten zurück. Durch die Messung der Zeit, die das Radar für den Hin- und Rückweg benötigt – und unter Berücksichtigung der Feuchtigkeit in der Atmosphäre, die das Radar verlangsamt – können die Wissenschaftler messen, wie weit die Meeresoberfläche vom Satelliten entfernt ist.

Mit anderen Worten: Der Satellit kann den Wissenschaftlern auf der Erde mitteilen, wie hoch die Ozeane sind und wie sich diese Höhe im Laufe der Zeit verändert.

Es ist wirklich eine unglaubliche technische Leistung“, sagt Josh Willis. „Wir können den Wasserstand mit einer Genauigkeit von 25 mm aus 1300 km Höhe messen.“

Eine Genauigkeit von 25 mm … und sie behaupten, sie kennen die jährliche Veränderung des Volumens der Ozeane aus dem GIA auf das nächste Zehntel eines mm der Meeresspiegelhöhe? Ich weiß, dass Genauigkeit etwas anderes ist als Präzision, und dass die Messung von Längenänderungen im Laufe der Zeit (Präzision) um eine Größenordnung besser sein kann als die Messung der Länge selbst (Genauigkeit), aber trotzdem … sorry, aber ich kaufe dem GIA die Behauptung nicht ab.

Schauen wir mal, ob ich Ihnen ein Gefühl für die Schwierigkeit der Satellitenmessungen des Meeresspiegels geben kann. Die Satelliten kreisen in einer Höhe von etwa 830 Meilen, das sind etwa 1,34 Milliarden Millimeter. Um also die Veränderung des Meeresspiegels auf ein Zehntel Millimeter genau zu messen, müssten wir in der Lage sein, den Abstand zwischen dem Satelliten und der Meeresoberfläche mit einer Genauigkeit von mehr als einem Teil in dreizehn Milliarden zu messen … und das ist selbst in einer kontrollierten Laborumgebung eine große Herausforderung.

Hier sind einige der Schwierigkeiten bei dieser Messung. Die erste ist die Messung der Höhe des Satelliten selbst. Wenn wir das nicht auf den Millimeter genau für jede Sekunde eines jeden Tages wissen, werden wir ungenaue Antworten erhalten. Der nächste Punkt ist die unterschiedliche Zusammensetzung, Temperatur, Bewölkung und Feuchtigkeit der Atmosphäre. All diese Faktoren verändern die Zeit, die das Radarsignal braucht, um zum Satelliten zurückzukehren. Dann gibt es die Meereswellen, die offensichtlich die Höhe des Ozeans um Tausende von mm verändern. Schließlich gibt es noch die „Instrumentendrift“, die unvermeidlichen Veränderungen, die bei elektronischen Messinstrumenten mit der Zeit auftreten.

Nettoergebnis? Nun, das Nettoergebnis ist in Abbildung 2 oben zu sehen, wo laut der Universität von Colorado ein Satellit sagt, dass der Meeresspiegel mit 2,5 mm/Jahr ansteigt, und nur 8 Tage nach dem Ende der Daten dieses Satelliten (das Intervall zwischen einem Satelliten und dem nächsten in der Colorado-Meeresspiegelaufzeichnung) sagt der Nachfolgesatellit, dass er mit 4,1 mm/Jahr ansteigt … no bueno. Sie behaupten, dass in 8 Tagen die Anstiegsrate um 1,6 mm pro Jahr gestiegen ist. Beachten Sie auch, dass es in beiden Hälften der Satellitenaufzeichnung absolut keine Beschleunigung gibt, sondern nur eine schrittweise Veränderung zwischen den Satelliten. Offensichtlich sind sie nicht in der Lage, jährliche Änderungen des Meeresspiegels auf den nächsten Millimeter genau zu messen, geschweige denn auf den nächsten Zehntelmillimeter.

Die Leute, die an dem Projekt arbeiten, sind jedoch alle wahre Gläubige. Im selben Artikel wird Josh Willis mit den Worten zitiert: „Wir wissen, dass die Ozeane wegen der vom Menschen verursachten Eingriffe in das Klima steigen.“

Verdammte Menschen, die sich immer in das Klima einmischen … zum Beispiel hat unser neuer „Klima-Zar“ John Kerry 5 Häuser, eine Reihe von Autos, eine Yacht und einen Privatjet, und er sagt uns, dass wir den Bus nehmen sollen, um die gefürchtete, „vom Menschen verursachte Störung des Klimas“ zu vermeiden … aber ich schweife ab.

Das Problem ist, dass der Start mit einer festen „wissenschaftlichen“ Überzeugung wie dieser dazu führt, dass die Leute, die an den Satelliten-Meeresspiegel-Datensätzen arbeiten, „befangen“ sind. Sie kleben die offensichtlich inkompatiblen Satellitenergebnisse zusammen, streichen Erdnussbutter über die Risse, damit sie nicht gesehen werden können, und verkünden der Welt, dass die Satelliten eine gefährliche Beschleunigung des Meeresspiegelanstiegs zeigen, so dass wir alle sehr besorgt sein sollten …

Ich habe schon seit einiger Zeit gesagt, dass wir den Satellitenergebnissen kein Gewicht beimessen sollten. Ich habe dies jedoch ausschließlich auf die sehr großen Unterschiede sowohl im Trend als auch in der Beschleunigung zwischen den Satelliten- und den Gezeitenstationsaufzeichnungen gestützt, sowie auf die bekannten Schwierigkeiten bei Satellitenmessungen, die oben diskutiert wurden. Ich habe diese Frage in mehreren Beiträgen untersucht, darunter „Inside The Acceleration Factory“ und „Accelerating The Acceleration“.

Aber jetzt, endlich, habe ich die Fakten, die meine Behauptung untermauern. Es gibt keine Beweise für eine Beschleunigung des Meeresspiegelanstiegs, weder in den Tidenmessungen noch in den schäbig zusammengeschusterten Satellitenaufzeichnungen. Er steigt seit geraumer Zeit in der Größenordnung von 200 mm pro Jahrhundert, und es gibt keine Anzeichen für eine Veränderung dieser Anstiegsrate.

Es steht einem also frei, das zu tun, was Obama und Bill Gates getan haben – Grundstücke am Meer kaufen. Sie verkünden lautstark, dass der Meeresspiegel gefährlich ansteigt, aber wie die Mehrheit der Klimaalarmisten überführen ihre Taten deren Worte als Scheinheiligkeit.

Link: https://wattsupwiththat.com/2021/02/21/munging-the-sea-level-data/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Einige ausschweifende Passagen Eschenbachs wurden bei der Übersetzung nicht berücksichtigt.

 




Verfehlte Corona-Politik in Deutschland: Die Daten schlagen zurück.

  1. Aktuelle Vorbemerkung

Nachdem dieser Artikel so gut wie fertig gestellt war, wurde die Corona-Welt in Deutschland  überrascht vom Wiederanstieg des berühmt-berüchtigten Inzidenzwerts. Dieser Wert war in den Wochen zuvor beim steten  Abstieg auf  die erstrebten Zielwerte 50 / 35 schon bei 57 angekommen, als die Bewegung für ein paar Tage ins Stocken kam und dann sich wieder umkehrte. Gegenwärtig ( 24. 2. ) steht der Inzidenzwert bei über 61.

Überwiegend wird der Wiederanstieg auf die englische Mutation des Virus zurückgeführt. Aber nichts Genaues weiß man nicht. Sollte der Wiederanstieg sich fortsetzen, wird er die ahnungslose Politik in ein großes Dilemma  stürzen.. Die Strategie des „weiter so“  funktioniert nicht mehr und kann gegenüber der zunehmend ungeduldigen Bevölkerung wohl auch nicht mehr durchgesetzt werden.

Die selbstgewissen radikalen Virologen wie Drosten und Wieler werden wahrscheinlich eine erneute Verschärfung des Lockdowns fordern. Obwohl diese Richtung mit der Kanzlerin und dem bayrischen MP überzeugte Anhänger hat, dürfte sie nach fast vier Monaten Lockdown nicht mehr exekutierbar sein. In Frankreich hat Präsident Macron sich  entgegen dem Rat seiner Berater geweigert,. einen weiteren Lockdown zu verfügen. In Deutschland blieben etwa  nächtliche Ausgangsbeschränkungen eine Option, deren Wirksamkeit aber sehr begrenzt sein dürfte.

Es könnte sein, dass der Frühling die Politik aus dem Entscheidungsdilemma befreit.. Im vergangenen Jahr war der R-Wert im Lauf des März rasant von über 3 auf unter 1 gesunken ( Nahamowiitz 2020 ). Ich halte eine Wiederholung des Vorgangs auch angesichts der infektiöseren Virusmutationen für wahrscheinlich.

Damit wäre die desorientierte Politik noch einmal um eine Grundsatzentscheidung herumgekommen. Da entgegen den Träumen der radikalen Virologen SARS-CoV-2 nicht vollständig eliminierbar ist, auch nicht durch Impfung, dürfte sich für die neu gewählte Regierung im kommenden Herbst bei wieder steigenden Fallzahlen die Notwendigkeit einer Grundsatzentscheidung zwischen alternativen Konzepten in aller Brutalität stellen. Mit dem von den Virologen  Hendrik Streeck und Jonas Schmidt-Chanasit sowie  dem Chef der Kassenärztlichen Bundesvereinigung  ( KBV ) Andreas Gassen vertretenen Konzept eines „fokussierten Schutzes“ zugunsten der vulnerablen Gruppen steht ein m. E. akzeptables Schutzkonzept bereit ( vgl. näher Nahamowitz 2021 ). Besser wäre es freilich, dem erfolgreichen schwedischen Modell ( s. u. ) möglichst zeitnah zu folgen und auf alle repressiven Anordnungen zur Krisenbekämpfung zu verzichten

Die gestiegene Inzidenzzahl ist in meinen Augen durchaus ein ( eher situatives ) Datum, welches im Sinn der Artikelüberschrift gegen eine fehlgeleitete Politik „zurückschlägt“, Im folgenden werden drei weitere Daten erörtert, welche auf einer grundsätzlichen Ebene gegen die Corona-Politik zurückschlagen.

 

  1. Die Sterbedaten 2020 und das Fehlen einer „epidemischen Lage von nationaler Tragweite“

 

Am 25. März 2020 stellte der Bundestag gem. § 5 Abs. 1 InfektionsschutzG eine „epidemische Lage von nationaler Tragweite“ fest, wodurch nach 5 Abs. 2  der Vorschrift der Bundesgesundheitsminister unbeschadet der Länderbefugnisse zum Erlass von weit reichenden Rechtsverordnungen ermächtigt wurde.

 

Die „epidemische Lage von nationaler Tragweite“ ist damit der zentrale Begriff des deutschen Infektionsschutzrechts. Sie liegt gem. Satz 4  von § 5 Abs. 1 vor, „wenn eine ernsthafte Gefahr für die öffentliche Gesundheit in der gesamten Bundesrepublik Deutschland besteht, weil

  1. die Weltgesundheitsorganisation eine gesundheitliche Notlage von internationaler Tragweite ausgerufen hat und die Einschleppung einer bedrohlichen übertragbaren Krankheit in die Bundesrepublik Deutschland droht oder
  2. eine dynamische Ausbreitung einer bedrohlichen übertragbaren Krankheit über mehrere Länder in der Bundesrepublik Deutschland droht oder stattfindet“.

Zentrale Voraussetzung für das Vorliegen „einer epidemischen Lage von nationaler Tragweite“ ist demgemäß die Einschleppung oder dynamische Ausbreitung einer „bedrohlichen übertragbaren Krankheit“. Ob eine Krankheit bedrohlich ist, bemisst sich in erster Linie nach ihrer Letalität, d. h. nach der Zahl der durch sie verursachten Sterbefälle.

Die Zahl aller Sterbefälle Deutschlands im vorigen Jahr hat das Statistische Bundesamt kürzlich mit 982 489 angegeben.. Damit liegt gegenüber 2019 eine Übersterblichkeit von 5 % und gegenüber dem Durchschnitt der Jahre 2016 – 2019 von 4, 9 % vor . Berücksichtigt man, dass aufgrund der veränderten Alterspyramide und – struktur gegenwärtig in Deutschland jedes Jahr statistisch grob 6 000 Menschen mehr sterben als im Jahr zuvor, reduzieren sich die Zahlen auf nur noch 3, 4 % mehr als 2016 – 2019 und 3, 5 % mehr gegenüber 2019 ( vgl. Casula 2021 ).

Damit liegt im Jahr 2020 eine nur leichte Übersterblichkeit vor und somit kann COVIT – 19 keine „bedrohliche übertragbare  Krankheit“ sein, womit wiederum das Vorliegen einer „epidemischen Lage von nationale Tragweite“  für das Jahr 2020 entfällt. Die Feststellung einer epidemischen Lage von nationaler Tragweite setzt m.E. eine Übersterblichkeit von zumindest 25 % voraus. Da sich an der Situation einer nur leichten Übersterblichkeit bis zum März nichts ändern wird, ist die Erneuerung des Feststellungsbeschlusses durch den Bundestag im kommenden Monat mangels Vorliegens der Tatbestandsvoraussetzungen des § 5 Abs. S. 4 InfektionsschutzG nicht möglich.

Ebenfalls die Euromomo-Daten vom Jahresende weisen auf eine nur leichte Übersterblichkeit des Jahres 2020 gegenüber den Vorjahren  hin ( Nahamowitz 2021 ).

Nach einer auf der Basis einer linearen Regressionsanalyse für die Jahre von 2006 bis 2019 vorgenommenen Berechnung kommt  außerdem Thomas Rießinger  zu dem Ergebnis, dass eine Gesamtsterbezahl von 982 000, wie sie das Statistische Bundesamt später amtlich festgestellt hat, sich durchaus im Rahmen des üblich Erwartbaren hält. Und damit nicht  des Rückgriffs  auf die „Jahrhundertkatastrophe“ Corona zur Erklärung ihres Zustandekommens  bedarf C Rießinger 2021 ).

Die mögliche Einwendung, dass die nur leichte Übersterblichkeit 2020 das Ergebnis der wirksamen Corona-Schutzmaßnahmen sei, kann nicht gelten, weil ab Sommer bis Jahresende 2020 die Fallzahlen gerade nicht gefallen, sondern drastisch gestiegen sind – und das bei tendenziell unveränderten Sterbezahlen.

Eigentlich wäre es angezeigt gewesen, dass die Kanzlerin und die Länder-MP bei ihrem kurz nach der amtlichen Bekanntgabe der 2020er Gesamtsterbezahl stattfindenden Treffen diese Information zum Anlass genommen hätten, einmal grundsätzliche Überlegungen zum abgelaufenen „Corona-Jahr“ anzustellen. Derartige grundsätzliche Reflexionen sind freilich sowohl für die politischen Akteure als auch ihre wissenschaftlichen Berater Tabu. Denn sie bergen die „Gefahr“ in sich, dass die von Beginn an bestehende epidemiologische und rechtliche Haltlosigkeit der offiziellen Corona-Politik evident würde.

Stattdessen wurde bei dem Treffen am 10. Januar Lockdown-Politik „as usual“ gemacht: So wurde der Lockdown bis zum 7. März verlängert mit der Maßgabe, dass es Lockerungen danach nur bei einer Inzidenz von  unter 35 geben könne. D. h. wenn sich in einer  Woche von 100 000 Menschen weniger als 35 neu mit dem Virus anstecken..

Friseursalons wurde die Öffnung ab dem 1. März gestattet. Die Öffnung der Schulen und Kitas wurde in die Entscheidung der Länder gestellt, eine einheitliche Regelung gibt es nicht.

Angesichts des Wiederanstiegs des Inzidenzwerts von schon erreichten 57 auf gegenwärtig über  61 erscheint ein Absinken unter 35 als ausgeschlossen. Man darf auf den Beschluss der Ministerpräsidentenkonferenz gespannt sein. Werden sich die Hardliner durchsetzen und wird auf einer  unveränderten Beschlusslage bestanden oder diese im Sinne der Strategie des „Zero COVIT“ sogar verschärft oder kommt es umgekehrt gar zu einer Neuausrichtung der Politik? Das schwedische Beispiel könnte einen Anstoß dazu geben. Dazu müsste die deutsche Politik freilich ihr notorisches Desinteresse an nicht „passenden“ Daten aufgeben.

 

  1. Schweden hat es besser. Der sensationelle Erfolg des liberalen Modells         . .

Weltweit stehen unter den größeren Ländern der übergroßen Mehrheit der Lockdown-Länder nur vier Länder gegenüber, die auf den Einsatz dieses repressiven Instruments bisher verzichtet haben : Schweden, Südkorea, Japan und Hongkong. Es handelt sich um Inseln epidemiologischer Aufklärung  in globaler Corona-Dunkelheit ( vgl näher Reiss, Bhakdi 2020. 106 ff ).

John Joannidis unterscheidet mit seinen Mitautoren ( Bendavid, Oh, Bhattacharya, Joannidis 2021 ) zwischen England, Frankreich, Deutschland, Iran, Italien, Niederlande, Spanien und den USA einerseits und Schweden und Südkorea andererseits. Während die erste Gruppe rechtlich verpflichtende Ausgangsbeschränkungen und Geschäftsschließungen zur Virusbekämpfung eingesetzt hat, sie werden als „stärker restriktive Interventionen“ bezeichnet, haben Schweden und Südkorea sich mit Maßnahmen begnügt, die „weniger restriktive Interventionen“ genannt werden. Zentrales Unterscheidungskriterium sind also die verpflichtenden Ausgangsbeschränkungen in Verbindung mit den Geschäftsschließungen, die in  Schweden und Südkorea nicht vorgenommen worden sind.

So hatte Schweden unter der Leitung seines Staatsepidemiologen Anders Tegnell sich auf Empfehlungen beschränkt, z.B. auf das Maskentragen zu Stoßzeiten, sowie auf Alkoholverbote in Bars und Restaurants ab 20 Uhr oder die Begrenzung der Teilnehmerzahl bei öffentlichen Zusammenkünften auf acht. Obwohl Schweden im Januar ein Pandemiegesetz verabschiedet hat, welches Lockdownmaßnahmen nun rechtlich ermöglicht, hat es diese bisher nicht umgesetzt. Der schwedische MP Stefan Löfven hat vielmehr den Sonderweg seines Landes am 8.  Januar d. J. ausdrücklich verteidigt.

Angesichts dieser Entwicklung waren die deutschen frohlockenden Abgesänge „Schweden verabschieden sich von ihrem Corona-Sonderweg“ ( Steuer 2021 ) nicht nur verfrüht, sondern glatte Fehleinschätzungen.

Wie sieht denn nun die epidemiologische Bilanz beider Länder im Vergleich aus? Deutsche Politiker und Journalisten verdammen zumeist fast reflexhaft den schwedischen Weg wegen seiner angeblich vielen Toten, Die Frage soll nun anhand der Daten von Euromomo ( European Mortality Monitoring ) sowie worldometer beantwortet werden.

  • Vergleich nach Maßgabe der „z-scores by country“ nach Euromomo: Gleichstand

Z-scores by country werden bei Euromomo  verwendet, um Vergleiche zu ziehen zwischen den Sterblichkeitsmustern verschiedener Bevölkerungen. Maßeinheit des z-score ist die Standardabweichung, welche in einem komplizierten Verfahren berechnet wird. Unterschieden werden sechs Stufen des „Excess in z-scores“: No excess, low excess, moderate excess, high excess, very high excess, extraordinary high excess.

Hier belegt Schweden am 23. 2. 2021 mit „No excesss“ die beste Stufe. Für Deutschland werden mit Germany ( Berlin ) und Germany ( Hesse ) zwei Bezugsorte angegeben, die ebenfalls auf der Stufe „No excess“ liegen. Auf der Ebene allgemeiner Mortalität ergibt sich also eine Gleichstellung zwischen  beiden Ländern – Schweden hat dies aber ohne Vornahme eines Lockdowns erreicht. Der „Sonderweg“ ist also erfolgreich bei der Erreichung geringer Sterbezahlen. Und zwar im selben Umfang wie das Lockdown -Land Deutschland.

Zusätzlich ist davon auszugehen, dass Deutschland den Status des „No excess“ bei der Sterblichkeit in den März 2021 hinüber nehmen wird, womit die in diesem Monat  fällige Erneuerung der Feststellung einer „epidemischen Lage von nationaler Tragweite“ durch den Bundestag nicht möglich ist ( vgl. Nahamowitz 2021). Man darf gespannt sein, wie sich die Regierung dieses Problems entledigt.

  • Vergleich nach Maßgabe der Daten von worldometer: sensationell niedrige schwedische Sterbezahlen

Für das nach Bevölkerung  gegenüber Schweden etwa 8 mal größere Deutschland gibt worldometer am 24: 2   2021  die insgesamt aufgelaufene Zahl der täglich neuen Fälle  mit 2.399.500 an, die aufgelaufene Gesamtzahl der Todesfälle mit 68.772. Für Schweden lauten die Zahlen 631.166 und 12.649. Die schwedischen Todeszahlen liegen grob bei knapp einem Fünftel der deutschen, dürften gemessen an der Bevölkerung aber nur bei einem Achtel liegen. Bei den aufgelaufenen täglichen Infektionszahlen liegt Schweden etwa bei einem Viertel. Bei dieser statischen Betrachtung ergibt sich also ein klarer Vorteil für das Lockdown-Land Deutschland..

Bei den aktuellen Fallzahlen weist Deutschland am 24. 2. d. J. im „7 day moving average“ 7.554 Fälle aus und Schweden 1.903 – also ebenfalls überproportional viel. Etwas ganz anderes ergibt sich bei  den letztlich entscheidenden Todeszahlen. Hier kommt Schweden am 24. 2. auf sensationell geringe  6 Todesfälle, Deutschland auf  403 – fast  70 mal so viel ( ! ). In Schweden haben sich also die Todesdaten systematisch von der Entwicklung der Falldaten entkoppelt.

Wie kann das sein? Nach den Daten von Euromomo liegen die beiden Länder doch gleich

auf. Bei worldometer hingegen, und zwar nur bei den Todeszahlen, findet sich der Riesenvorteil bei Schweden. Eine Erklärung könnte sein, dass Schweden es ab etwa Weihnachten entscheidend gelernt hat, bei den vulnerablen Gruppen Todesfälle zu vermeiden.

Wahrscheinlicher erscheint mir folgende Erklärung: Während Euromomo alle Todesfälle erfasst, erfasst worldometer nur die Corona-Toten. Deren Zahl aber hat das RKI maßlos aufgeblasen, folgend seiner von Beginn an verfolgten Strategie der Angsterzeugung und Überdramatisierung. So meldete es im Dezember an manchen Tagen über 1.000 „an und mit“ Corona Verstorbene. Bei 2.600 täglich durchschnittlich Verstorbenen ist das mehr als ein Drittel aller Verstorbenen. Corona verdrängt  damit die Herz -/ Kreislauferkrankungen als Todesursache vom 1. Platz. Das ist völlig unglaubhaft.

Hier dürfte – wahrscheinlich  mit Einverständnis der Bundesregierung – nach allen Regeln der Kunst manipuliert worden sein. Die tatsächliche deutsche tägliche Corona-Sterbezahl dürfte 70 oder 80 Tote nicht überschreiten. Dies ist der Fluch der bösen Tat: Die massive künstliche Aufblähung der eigenen Corona-Sterbezahlen hat Deutschland beim Vergleich mit Schweden in die ultimative Nachteilsposition befördert.

  1. Der nur geringe Erfolg von internationalen Lockdown-Maßnahmen

Ich komme zurück auf die oben erwähnte Untersuchung von Joannidis und seinen Mitautoren ( Bendsvid et al. 2021 ). Es geht in ihr um den Vergleich des Einflusses auf  die Ausdehnung der Corona-Fallzahlen von als „stärker restriktiv“ bezeichneten Interventionen, das sind Ausgangsbeschränkungen und Geschäftsschließungen, und „weniger restriktiven“ Maßnahmen, wie sie in Schweden und Südkorea vorgenommen worden sind.

Die Implementation  beider Arten von Interventionen führten zu signifikanten Reduktionen bei den Corona-Ansteckungen  in allen Ländern ( Ausnahme Spanien ). Die Autoren fanden aber keinen klaren, signifikanten  positiven Zusatzeffekt der „stärker restriktiven Interventionen“ auf das Wachstum der Corona-Fallzahlen im Vergleich zu den „weniger restriktiven“ Maßnahmen.

Als Beispiel wird im „Abstract“ Frankreich hervorgehoben. Dessen „stärker restriktive Interventionen“ hatten beim Vergleich mit Schweden nur einen Zusatzeffekt von + 7 %, beim Vergleich mit Südkorea von + 13 %.

Dieses ernüchternde Ergebnis spricht angesichts der damit verbundenen Kosten auf allen Ebenen der Gesellschaft sehr klar gegen eine Fortsetzung des Lockdowns in Deutschland.

 

  1. Fazit: Die Daten schlagen zurück

Die vom Statistischen Bundesamt für Deutschland für das  Vorjahr erhobenen Sterbedaten zeigen, dass sich in Deutschland seit Beginn der Pandemie zu keinem Zeitpunkt eine „epidemische Lage von nationaler Tragweite“ eingestellt hat. Eine solche wird sich auch in  diesem Jahr nicht einstellen.

Im Systemvergleich zwischen dem Lockdown-Modell und dem liberalem Modell bei der Pandemiebekämpfung hat das liberale schwedische Modell bei den Corona-Sterbezahlen gegenüber dem deutschen Lockdown-Modell einen spektakulären Sieg errungen.

Auch im umfassenderen internationalen Vergleich hat sich bei der Krisenbekämpfung das „stärker interventionistische“ Modell nicht als signifikant erfolgreicher als das liberale Modell erwiesen. Auf Lockdowns sollte daher zukünftig weltweit verzichtet werden.

 

Quellen:

Bendavid, Eran, Oh, Christopher, Bhattacharya, Jay, Ionnadis, John P. A. ( 2021 ) : Assessing Mandatory Stay-at-Home and Business Closure Effects on the Spread of COVID-19, doi: 10. 1111 /eci. 13484.

Casula, Claudio ( 2021 ) : Statistik-Bilanz für 2020: Pandemie ohne Übersterblichkeit, Achgut-Publikation vom 1. 2.

Nahamowitz, Peter ( 2020) :Sechs kurze Begründungen für die Verfassungswidrigkeit des Shutdown in Deutschland, EIKE-Publikation vom 17 Mai.

Nahamowitz, Peter ( 2021) : Corona in Deutschland 2020 : Die Rückkehr der harten Lockdowns, Unter- und Übersterblichkeit und der fällige Offenbarungseid der Corona-Politik, EIKE-Publikation vom 15. Januar.

Reiss, Karina, Bhakdi, Sucharit ( 2020 ) : Corona Fehlalarm? , Berlin.

Rießinger, Thomas (2021) :  Übersterblichkeit ? „Sehr weit weg von allen Katastrophenszenarien“. Eine mathematische Auswertung der Sterbefälle, EIKE-Publikation vom 22. Januar.

Steuer, Helmut ( 2021 ): Schweden verabschieden sich von ihrem Corona-Sonderweg, Handelsblatt vom 5. 1.

 

Zum Autor:

Peter Nahamowitz war Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Leibniz Universität Hannover. Er ist seit 2007 im Ruhestand.

 

 

 

 

 

 

 

 

 

 




Die Uhr tickt weiter bei der neuen Regierung in USA: Nun sind es noch neun Jahre, um die Welt zu retten

„Ich habe keine neue Zeitleiste, die ich dir von hier aus geben kann. Ich kann Ihnen jedoch bestätigen, dass der Präsident der Einschätzung von  John Kerry zustimmt, dass es sich um eine Krise handelt und dass die Zeit von entscheidender Bedeutung ist. Wir müssen schnell handeln. Und deshalb ist das Klima ein wichtiger Bestandteil seiner Agenda “, sagte Psaki.

Zum Thema: . (Treasury Department To Create New Climate Czar Role, Expand Climate Change Efforts)

[Finanzabteilung zur Schaffung einer neuen Rolle als Klimazar, Ausweitung der Bemühungen um den Klimawandel

Finanzministerin Janet Yellen macht den Klimawandel zur obersten Priorität der Finanzabteilung und plant Berichten zufolge die Schaffung einer neuen Führungsposition in der Abteilung, um ihre Klimabemühungen zu koordinieren.

„Sowohl die Auswirkungen des Klimawandels selbst als auch die Maßnahmen zu seiner Bekämpfung könnten erhebliche Auswirkungen haben, indem gestrandete Vermögenswerte entstehen, große Veränderungen der Vermögenspreise, Kreditrisiken usw. entstehen, die sich auf das Finanzsystem auswirken könnten“, sagte Yellen gegenüber den Senatoren. „Das sind sehr reale Risiken.“ ]]

 

„Nun, die Wissenschaftler sagten uns vor drei Jahren, wir hätten 12 Jahre Zeit, um die schlimmsten Folgen der Klimakrise abzuwenden. Wir sind jetzt drei Jahre weiter, also haben wir noch neun Jahre“, sagte Kerry zu Ben Tracy von CBS News.„ CBS This Morning “ und auch auf Twitter .

„Selbst wenn wir alles tun würden, was wir bei unserer Anmeldung in Paris angekündigt haben, würden wir einen Anstieg der Erdtemperatur auf etwa 3,7 Grad oder mehr sehen, was katastrophal ist“.

Präsident Joe Biden unterzeichnete am 20. Januar ein Dekret, mit der die USA erneut dem Pariser Klimaabkommen beitreten sollen. Damit schloss sich die USA am 19. Februar erneut offiziell den Abkommen an. [Wiederum ohne Zustimmung der Abgeordneten!?]

 

https://dailycaller.com/2021/02/23/psaki-wont-say-if-biden-agrees-with-kerry-that-there-are-only-9-years-left-to-save-the-world-from-climate-catastrophe/

Übersetzt durch Andreas Demmig




Zusammenfas­sung: Wetter­abhängige Erneuer­bare in UK 2019

Die Produktivität der erneuerbaren Energien (Wind- und Sonnenenergie) ist entscheidend. Nur wenn ihre tatsächliche Produktivität mit den Vergleichskosten kombiniert wird, können die wahren Kosten des effektiv ins Netz eingespeisten Stroms abgeschätzt werden.

Diese unkomplizierten Berechnungen beantworten die einfache Frage:

Wie viel würde es ungefähr kosten, die gleiche Menge an Strom zu erzeugen, die von der derzeitigen Flotte der wetterabhängigen erneuerbaren Energien in der EU(28) mit konventionellen Erzeugungstechnologien (Kernkraft oder Gasfeuerung) erzeugt wird, und wie sehen diese Zahlen im Vergleich aus?“.

Ende 2019 verfügte Großbritannien über eine Flotte von etwa 35 Gigawatt an wetterabhängigen erneuerbaren Energien, mehr als die Hälfte der installierten Flotte. Sie kostete etwa 62 Mrd. £ an Kapital und implizierte weitere langfristige Kosten von etwa 260 Mrd. £. Im Laufe des Jahres trugen Erneuerbare Energien etwa 7,3 Gigawatt bei, weniger als 23 %. Die kosteneffektivste Form der Stromerzeugung ist jedoch die Gasverbrennung mit weniger als 1 Mrd. £/Gigawatt. Bei der Verbrennung von Gas entsteht viel weniger CO2 als bei anderen fossilen Brennstoffen (als ob das wirklich ein Problem wäre).

Nach diesen groben Berechnungen hätte das Vereinigte Königreich durch den Einsatz von Gasfeuerungen anstelle von erneuerbaren Energien zur Erzeugung dieser 7,3 Gigawatt für das Stromnetz etwa 55 Milliarden Pfund an Kapital und langfristig etwa 230 Milliarden Pfund einsparen können.  Mit Kernkraft wären die Einsparungen zwar geringer, aber immer noch beträchtlich.  All diese zusätzlichen Kosten werden entweder von der Regierung (dem Steuerzahler) übernommen oder belasten die Stromrechnungen.

Es gibt weitere zusätzliche Kosten- und CO2-Implikationen der wetterabhängigen erneuerbaren Energien

Die obigen Vergleichszahlen berücksichtigen nur die direkten Erzeugungskosten und sind eine Unterschätzung der vollen Kosten, die durch die Nutzung wetterabhängiger erneuerbarer Energien entstehen. Die mit Erneuerbaren Energien verbundenen Nebenkosten ergeben sich aus:

● Die Unzuverlässigkeit der erneuerbaren Energien in Bezug auf Stromunterbrechungen und Stromschwankungen.

● Erneuerbare Energien sind nicht disponibel, d. h., die Wolken verziehen sich nicht und der Wind weht nicht immer dann, wenn Strom benötigt wird.

● Es ist unwahrscheinlich, dass das schlechte Timing der Erzeugung aus erneuerbaren Energien mit der Nachfrage übereinstimmt. Jede Windenergie unterliegt den Wetterschwankungen. Die Solarenergie fällt am Abend ab, also zu Zeiten des Spitzenbedarfs. Im Winter erbringt die Solarenergie nur etwa 1/9 der Sommerleistung.

● Viel zusätzliche technische Infrastruktur für den Zugang zu erneuerbaren Standorten wird benötigt.

● Die langen Übertragungsleitungen führen zu Leistungsverlusten und erhöhtem Wartungsaufwand.

● Erneuerbare Energien benötigen im Vergleich zur konventionellen Stromerzeugung (Gas- oder Kernkraftwerke) große Landflächen.

● Die fortlaufenden Kosten für die Reservekraftwerke, die zwar unverzichtbar sind, aber nur gelegentlich in der Backup-Reserve eingesetzt werden und trotzdem CO2 ausstoßen.

● Wenn genügend konventionelle Reservekapazitäten vorhanden sind, um das Netz zu stützen, dann macht es wenig Sinn, die Erzeugungskapazität mit vergleichsweise unproduktiven erneuerbaren Energien zu verdoppeln, auch wenn diese einen Teil der CO2-Emissionen ersetzen könnten.

● Jegliche Überlegungen zur Stromspeicherung mit Batterien, selbst wenn Langzeitbatterien (einige Stunden) im Netzmaßstab wirtschaftlich machbar wären.

● Erneuerbare Energien erzeugen eine unsynchronisierte Erzeugung, der es an Trägheit fehlt, um die notwendige Netzfrequenz aufrechtzuerhalten.

● Erneuerbare Energien können keine „Schwarzstart“-Erholung nach einem größeren Netzausfall bieten.

Außerdem wichtig: Diese Kostenanalyse berücksichtigt nicht:

Erneuerbare Energien sind sehr abhängig von großen Mengen an seltenen Erden und knappen Materialien, die größtenteils aus China bezogen werden.

Erneuerbare Energien verursachen unweigerlich Umweltschäden und die Zerstörung der Tierwelt.
Erneuerbare Energien „Kohlenstoff-Fußabdruck“, Wind- und Solartechnologien können während ihrer Lebensdauer niemals so viel CO2 einsparen, wie sie für ihre Materialbeschaffung,

Herstellung, Installation, Wartung und eventuellen Abriss emittieren.

Erneuerbare Energien sind von fossilen Brennstoffen abhängig, sowohl als Rohstoff für die Materialien als auch als Brennstoff für den Betrieb.

Renewables Energy Return on Energy Invested [ERoEI-Wert oder Erntefaktor], sie erzeugen während ihrer Lebensdauer möglicherweise nur einen begrenzten Überschuss an Energie, wie er für ihre Herstellung und Installation aufgewendet wurde.

Erneuerbare Energien liefern sicherlich nicht den regelmäßigen massiven Energieüberschuss, der ausreicht, um die vielfältigen Bedürfnisse einer entwickelten Gesellschaft zu decken.

Probleme der Energieerzeugung

Da die Regierung der Stromindustrie immer mehr erneuerbare Energien aufzwingt, stehen die Manager der Stromversorgungsunternehmen vor großen Problemen, da die politischen Entscheidungen auf der unpraktischen und unregelmäßig intermittierenden „erneuerbaren Energie“ beharren.  Der Berufsstolz und die Verantwortung der Stromversorgungsmanager werden versuchen, den konsistenten Service aufrechtzuerhalten, der für die Nation so wichtig ist, aber es wird immer schwieriger werden.

Konventionelle Stromerzeuger, die in Vollzeit produktiv sind, werden aus dem Geschäft gedrängt, da sie unrentabel werden.

Am Ende spielen die zusätzlichen Kosten keine Rolle, denn entweder übernimmt die Regierung (oder besser gesagt der Steuerzahler) die Rechnung, oder die zusätzlichen Kosten werden einfach über die steigenden Rechnungen an die Kunden weitergegeben: Die Kunden haben keine wirkliche Wahl, denn das Stromgeschäft ist effektiv ein Monopol.

Ein hervorragender Weg, die westlichen Volkswirtschaften zu untergraben, ist es, ihre Energieerzeugung unzuverlässig und teuer zu machen.  Dieses Ziel des grünen Denkens wird nach und nach durch die Regierungspolitik erreicht, jedoch ohne das Mandat der Wähler in der gesamten westlichen Welt.

[Alle Hervorhebungen in diesem Beitrag im Original]

Weather Dependent Renewables Productivity: what do the numbers mean?

Link: https://wattsupwiththat.com/2021/02/21/summary-uk-weather-dependent-renewables-2019/

Übersetzt von Chris Frey EIKE