Gibt es genug Platz für die Energiewende in Deutschland??

Gemäß dem Koalitionsvertrag wollen wir in Deutschland bis 2050 unseren Energieverbrauch im Vergleich zum Jahr 2017 halbieren und unsere Energie also nur in der Form eines CO2-frei hergestellten Stroms beziehen. Wer den Rechenweg nachvollziehen möchte, lese bitte hier weiter:
https://sway.office.com/vrjxC4G0fhC1ACi6?ref=Link

Berücksichtigt wurde für diese Berechnung, der bereits vorhandene Bestand an den sog. Erneuerbaren bzw. deren Stromproduktion im Jahr 2018.

Wir rechnen nicht mit dem Primärenergieverbrauch, sondern mit nennen wir sie mal „Nettoenergie“. Wir gehen von keinen Umwandlungsverlusten aus.

Bei dieser Berechnung geht es uns nicht darum ganz genau zu sein, sondern ein plastisches Bild zu vermitteln. Es wird immer nur von MW / MWh oder GW / GWh geschrieben, von Gigatonnen CO2 etc. ohne, dass man sich vorstellen kann. Wie viele Anlagen egal welcher Art sich hinter diesen Zahlen verbergen.

Ich erlaube mir vorzuschlagen, dass sich jeder einen kleinen Spickzettel macht, auf dem einige Schlüsselzahlen notiert sind, um in Diskussionen stets gewappnet zu sein.

Zum Schluss noch ein Vorschlag. Letztes Jahr habe ich auch eine kleine Abhandlung zum folgenden Thema verfasst „Strategische Aspekte der Erneuerbaren“, weil ich bisher keinen einzigen Beitrag zu dieser Thematik gefunden habe.
https://sway.office.com/uCV5DZudNuCwe7MB?ref=Link

 

Photovoltaik

Photovoltaik-Anlagen à 1 MW installierter Leistung, Jahresproduktion pro Anlage 1.100.000 kWh, Flächenbedarf 3 ha. Anzahl der Anlagen 585.075; Flächenbedarf 17.552 km2; Investitionsvolumen 643.582.500.000,- Euro; eine sehr grenzwertige Lösung. Keine Versorgungssicherheit.

 

Windkraft offshore:

Wir rechnen mit folgenden Parametern:

Offshore:

Anlagenbestand per Ende 2019 betrug 1.465 WKAs

Installierte Leistung 6.382 MW

Stromproduktion 24,3 TWh

Durchschnittliche installierte Leistung pro Anlage 4,356 MW

Durchschnittliche Stromproduktion pro Anlage 16,587 MWh

Durchschnittliche Produktion pro installierte MW beträgt 3.807 MWh

Die 2019 zugebauten WKAs offshore hatten im Durchschnitt eine installierte Leistung von 6.941 MW. Der Zubau betrug 160 Anlagen mit zusammen 1.110,7 MW

Offshore WKAs mit 5 MW Leistung, durchschnittliche Jahresleistung 2019 betrug pro Anlage 16.587.000 kWh, Investition pro 1 MW beträgt 4 Mill. Euro. (634.583.841.000 kWh: 16.587.000 kWh = 38.258 WKAs)

Anzahl Anlagen zu bauen 38.258; Wir rechnen hier nur mit WKAs mit einer installierten Leistung von 5 MW und einem Kostenpunkt von 4 Mio. Euro pro MW; Investitionssumme 765.160.000.000,- Euro.

Politisch wahrscheinlich die einzig mögliche Lösung. Wir hätten dann 196.672 MW etwa die gleiche Produktionskapazität offshore installiert, wie sie bis 2018 in Deutschland insgesamt bestand – alle Stromerzeugungs-Kapazitäten , nämlich 206.84 GW.

Der Zubau von 38.258 Anlagen à 5 MW würde einer Kapazität von 190.290 MW entsprechen. Unter dem Gesichtspunkt der Versorgungssicherheit ein „No Go“.

So viele WKAs würden nicht in die deutsche Wirtschaftszone bzw. die ausgewiesenen bzw. zugewiesenen Küstengewässer passen. D.h. es stehen maximal 11.550 km2 für die Windkraft zur Verfügung. Zusammen mit dem jetzigen 1.465 off-shore Anlagen müssten in der Deutschen Nordsee 39.723 WKAs stehen. D.h. in der Nordsee gäbe es ein Gedränge von 3,45 Anlagen pro km²

Wir vernachlässigen bewusst die Kapazität der Ostsee, weil diese sehr klein ist. Zumal es dort viele Anrainer, viel Schiffsverkehr und teilweise große Wassertiefen gibt.

Bei einer solchen Lösung müsste mindestens die 20-fache Strommenge über Stromautobahnen in Deutschland verteilt werden!

 

Windkraft onshore

Onshore WKAs mit den folgenden Parametern:

Bestand WKAs onshore per Ende 2019: 29.491 WKAs insgesamt installierte Leistung 53.867 MW;

Erzeugte Strommenge 103,7 TWh

Wir rechnen mit Werten auf der Grundlage der Leistungsdaten des Jahres 2019.

Dies ergibt eine durchschnittlich installierte Leistung pro WKA onshore: 1,826 MW

Durchschnittliche Produktion pro WKA 3,516 MWh

Durchschnittliche Produktion pro installierte MWh beträgt 1.925

Der Zubau onshore betrug 2019 folgende Zahlen: 278 Anlagen mit insgesamt 936,4 MW installierter Leistung. Es handelt sich um den Bruttozubau, d.h. es werden noch Anlagen stillgelegt werden bzw. aus der Statistik verschwinden.

Immerhin beträgt die durchschnittliche Leistung der neuen WKAs onshore 3,368 MW.

Wir haben uns entschlossen mit einem Durchschnittswert zu rechnen, da es eine zu große Vielfalt an Anlagen gibt und zudem liefert jeder Standort ohnehin andere Strommenge.

Wir rechnen mit aktuellen Leistungsdaten per Ende 2019. Die Daten wurden der Webseite vom BDEW e.V. entnommen.

Anzahl Anlagen zu bauen 180.485; Wir nehmen weiter an, dass man nur noch WKAs mit 3 MW installierter Leistung errichten würde, Kosten pro 1 MW liegen bei etwa 1,5 Mio. Euro Investitionssumme 812.182.000,- Euro; politisch nicht umsetzbare Lösung, 1 Anlage pro 1,6 km2 der Fläche Deutschlands! Auch hier wäre keine Versorgungssicherheit gegeben. Politisch ist eine solche Lösung nicht gangbar. Zumal man maximal 2% der Landfläche für Windkraft auszuweisen bereit ist. Zu einer ähnlichen Lösung hat man sich jetzt im Odenwald durchgerungen. Odenwald

Addiert man zu den 180.485 zu bauenden Anlagen den heutigen Bestand von 29.491 Anlagen, so müssten wir im Jahr 2050 mit 209.976 Anlagen in unsere Landschaft leben. D.h. eine Anlage pro 1,67 km².

Hierbei dürfen wir nicht vergessen, dass WKAs eine Betriebsdauer von etwa 15 bis 20 Jahren haben. D.h. der gesamte Bestand wird bis zum Jahr 2050 mindestens einmal erneuert.

 

Biogas:

Biogas-Anlagen mit einer installierten Leistung von 1 MW und Jahresproduktion pro Anlage von 9.000.000 Mill. kWh; Platzbedarf nur für die Maisproduktion pro Anlage 500 ha (5 km2).

Anzahl Anlagen zu bauen 70.509, Platzbedarf 352.546 km2; um 5.000 km2 weniger als die Fläche Deutschlands, diese Lösung ist nicht machbar.

Die oben aufgezählten Anlagen müssten selbstverständlich zum jetzigen Bestand noch dazu gebaut werden. Denn diese sind bereits mit ihrer Leistung in den 1773 PJ erfasst.

 

Wir machen darauf aufmerksam, dass es sich um eine Stromversorgung handeln würde, die überhaupt nicht grundlastfähig wäre und vollkommen von Wind, Sonne und Wetter abhängig wäre.

 

 




Deutsche Energiewende: Planwirtschaft ohne Plan

Alle drei Jahre veröffentlicht die Bundesregierung anstelle des jährlichen Monitoring-Berichts einen ausführlicheren Fortschrittsbericht. Der zweite (auf der Basis des Berichtsjahres 2017) wurde im Juni 2019 veröffentlicht. Darin erscheint der Integrierte Nationale Energie- und Klimaplan (NECP) als Teil eines europaweit koordinierten Projekts. Alles auf dem besten Weg also?

Zu den Zielen des im vergangenen Jahr von der Bundesregierung beschlossenen „Klimapakets“ zählt auch die „Reduktion des Bruttostromverbrauchs“ um zunächst 10 Prozent. Dabei rechnen die Betreiber örtlicher Stromverteilernetze schon jetzt damit, dass der Strombedarf für das Laden der Li-Ion-Batterien der e-Autos schon bald zu einer Überlastung der Ortsnetze im ländlichen Raum führen wird, so dass der Ladestrom schon ab 2021 rationiert werden muss. Die Regierungskampagnen für das Stromsparen und für den Ersatz von Fahrzeugen mit Verbrennungsmotor durch Elektro-Fahrzeuge passen offenbar schlecht zusammen.

Im Unterschied zum letzten Monitoring-Bericht beschäftigen sich der auf Daten von 2017 beruhende 2. Fortschrittsbericht und das im Herbst 2019 verabschiedete Klimaschutzprogramm 2030 der Bundesregierung auch mit dem Planungszeiträumen bis 2030 und 2050. Daraus geht unter anderem hervor, dass Deutschland, das zurzeit im Jahresmittel mehr Strom exportiert als importiert, zum reinem Stromimportland werden soll. Zu diesem Zweck soll die Kapazität der der Kupplungen mit ausländischen Stromnetzen auf insgesamt 38 Gigawatt erhöht werden. Das ist mehr als die Hälfte der derzeit im Durchschnitt benötigten Gesamtleistung. Die Bundesregierung vertraut offenbar darauf, jederzeit genügend Elektrizität importieren zu können. Da zumindest die westlichen Nachbarn Niederlande und Frankreich ähnliche Ziele verfolgen wie die Berliner Regierung, bleibt es aber fraglich, wieweit diese Hoffnung begründet ist. Aktuell folgt zum Beispiel der Ende 2019 erfolgten Stilllegung des Kernreaktors Philippsburg 2 bei Karlsruhe die Stilllegung des französischen Kernkraftwerks Fessenheim im Elsass, die schon am 22. Februar 2020 mit der Abschaltung des ersten Reaktors beginnt. Dadurch die ohnehin schon angespannte Stromversorgungslage in Südwestdeutschland kritisch zu werden. Im Endeffekt wird der Strom im europäischen Verbundnetz immer weitere Strecken zurücklegen müssen, was die Übertragungsverluste erhöht und grünen Lippenbekenntnissen zur Dezentralisierung Hohn spricht.

Um den von der Kommission Wachstum, Strukturwandel und Beschäftigung zur Reduktion der Kohleverstromung (Kohlekommission) erzielten Kompromiss zum Kohle-Ausstieg umzusetzen und dennoch die Versorgungssicherheit zu gewährleisten, favorisiert die Bundesregierung offenbar den Bau zahlreicher Gaskraftwerke mittlerer Leistung. Da Erdgas der teuerste Energieträger ist, sind dadurch weitere Steigerungen der Verbraucherpreise programmiert. Schon jetzt zahlen die deutschen Privathaushalte die höchsten Strompreise in Europa. Aber schon fordern deutsche Grüne, nach dem Kohle-Ausstieg auch noch die Verstromung von Erdgas zu beenden…

Das deutet an, dass die deutsche Energiepolitik vielleicht gar nicht so planmäßig konzipiert ist, sondern vielmehr von ideologischen Vorurteilen und wahltaktischen Überlegungen bestimmt wird. Diese werden von der Politik nachträglich für planmäßig erklärt. Als Bundeskanzlerin Angela Merkel die von einem Tsunami ausgelöste Reaktor-Katastrophe von Fukushima zum Anlass nahm, den mit der Energiewirtschaft geschlossenen Kompromiss über eine beschränkte Laufzeitverlängerung der Kernkraftwerke aufzukündigen und die gestaffelte Abschaltung aller Kernkraftwerke bis 2022 zu verfügen, war die Abschaltung von Kohle-Kraftwerken noch kein Thema, weil so gut wie allen Beteiligten klar war, dass Deutschland sich nicht gleichzeitig von der Kernkraft und der Kohle verabschieden kann. Es ging vordergründig lediglich darum, angesichts nahender Regionalwahlen den Grünen Wind aus den Segeln zu nehmen. Dann bauten grüne NGOs mithilfe ihnen gewogener Massenmedien Druck auf, um unter Berufung auf das Pariser Klima-Abkommen von 2015 die Kohle als Standbein der deutschen Energiewirtschaft in Frage zu stellen. Das ist ihnen gelungen. Gerade hat die Bundesregierung das Kohleausstiegsgesetz verabschiedet. Sollten nach den Kohlekraftwerken auch noch die Gaskraftwerke abgeschaltet werden, dann hätte Angela Merkel mit dem von ihr verfügten unbedachten Atomausstieg den Abschied von allen zuverlässigen Energiequellen eingeleitet.

 




Kühe können nicht für den menschengemachten Klimawandel verantwortlich sein.

Dass Kühe nicht am Klimawandel schuld sein können, zeigt sich an drei separaten empirischen Hinweisen:

  1. Zwischen 2002 und 2012 hat ein Satellit der ESA erstmals die Methankonzentrationen der Erdatmosphäre erfasst. Die gemessenen Werte sind nicht mit den bekannten Standorten der großen Rinderherden korreliert.
  2. Methanemittierende Huftiere und andere Großfauna hat es bereits vor der industriellen Revolution gegeben. Zum Beispiel die Bisonherden und Elche in Nordamerika, und nicht weniger als 26 Millionen Elefanten alleine nur in Afrika. Diese inzwischen stark dezimierten Bestände, die vermutlich ähnlich groß waren wie die heutige Rinderherde, haben damals die Erdatmosphäre mit ihren Methanemissionen nicht überhitzt, und daher können es die aktuellen domestizierten Bestände auch nicht.
  3. Die bekannten Einträge von Methan in die Erdatmosphäre sind um ein Vielfaches größer als die vermuteten Methansenken, sodass die Methankonzentrationen ebenfalls um ein Vielfaches größer sein müssten als gemessen wird. Da die Messungen stimmen, müssen folglich die Modelle grundsätzlich falsch sein.

 

Der aktuelle Stand der Wissenschaft:

Es herrscht eine erhebliche Konfusion über die mögliche Treibhausgaspotenz von Methan. Meist wird behauptet – auch in wissenschaftlichen Publikationen – dass Methan ein 23 bis 26-fach wirksameres Treibhausgas als Kohlendioxid ist, und dass es für 12 Jahre in der Atmosphäre verbleibt. Das sind aber derart drastische Vereinfachungen des Sachverhaltes, die diese beiden Zahlen faktisch falsch werden lassen.

Methan ist kein stabiler Bestandteil der Atmosphäre. Es reagiert mit einem anderen chemischen Molekül, dem Hydroxyl OH, und löst sich damit zu CO2 auf. Andererseits, verbleiben rund ein Drittel aller CO2 Emissionen auf ewig in der Atmosphäre (jedenfalls für Millionen von Jahren, was nach menschlichen Maßstäben unendlich ist). Daher ist die Wirkung einer Methanemission in der Atmosphäre eine vollständig andere als die einer Kohlendioxidemission.

Nach einer kurzen Zeit, nämlich nach der Reaktion mit dem OH, ist die CH4 Methanemission verschwunden, und kann daher nicht mehr das Klima beeinflussen. Andererseits, eine mögliche Klimabeeinflussung durch eine CO2 Emission verbleibt für immer. Das bedeutet, aus zwingend mathematischen Gründen, dass nur ein Anstieg der Methankonzentration in der Luft zu einer Klimaerwärmung führen kann. Stabile Methankonzentrationen sind nicht in der Lage das Klima weiter zu erwärmen. Daher, zum Beispiel, falls die globale Rindviehherde etwa denselben Platz eingenommen hat, wie die vorherigen mittlerweile stark reduzierten Wildtierherden, dann sind auch die Mengen der Methanemissionen dieselben, und dann können sich daraus unmöglich menschengemachte Klimaerwärmungseffekte ergeben haben. Aus anderen Gründen mag die Reduktion der Wildtierherden eine Tragödie sein, aber an dieser Stelle geht es um das Klima.

Das sind nicht die einzigen Konfusionen und Missverständnisse. Als das UNFCCC Kyoto Protokoll 1997 unterschrieben wurde, wollte man sich zu spezifischen Reduktionszielen von Treibhausgasen verpflichten. Damit nicht jeder Staat spezielle Ziele für jedes einzelne der sechs wesentlichen Gase erstellen müsste, erfand man eine künstliche Einheit, die „GWP 100 CO2 Äquivalenz“, in die alle Gase umgerechnet würden. Über Sinn und Zweck dieser Einheit streiten sich die Klimawissenschaftler seitdem fortlaufend.

Weil der Zeithorizont eines möglichen Klimaeinflusses für CO2 und CH4 so unterschiedlich sind, vergleicht die Berechnung die Größe des Klimaerwärmungspotentials (global warming potential = GWP) innerhalb von 100 Jahren. Das ergibt für GWP 100, dass 1 Kilogramm Methan genauso viel Potential hat wie 23 Kilogramm Kohlendioxid. Für diese Berechnung wurde davon ausgegangen, dass Methan für 12 Jahre in der Atmosphäre verbleibt. Am Anfang dieser 12 Jahre wäre es 120-mal klimaschädlicher, was dann schnell abnimmt da die Methanmenge graduell kleiner wird. Über einen Zeitraum von 100 Jahren gerechnet, ergibt das dann einen Wert von 23-fach (oder auch 26-fach oder 32-fach, je nach Quelle). Der 100 Jahre Zeitraum wurde für das UNFCCC Kyoto Protokoll recht willkürlich gewählt – für einen 20-jährigen Zeitraum wäre es der Faktor 87, für einen 500-jährigen Zeitraum wäre es Faktor 11.

Selbst diese Zahlen sind stark vereinfacht. Zunächst, niemand weiß wie lange Methan wirklich in der Atmosphäre verbleibt – der chemische Reaktionsprozess kann nicht direkt beobachtet werden. Also hat man sich auf die Annahme geeinigt, dass die insgesamte Menge an Methan in der Atmosphäre, geteilt durch die jährliche Senkenstärke, die Verweildauer ergibt. (Mathematisch würde das bedeuten, dass die durchschnittliche Verweildauer eines Methanmoleküls nicht 12 Jahre ist, sondern 6 Jahre.) Für das Jahr 1998, waren diese beiden Werte respektive 4850 Tg CH4 in der Atmosphäre (entsprechend 1745 parts per billiion ppb), geteilt durch eine Senkenstärke von 576 Tg pro Jahr, sodass es 8.4 Jahre benötigen würde bis alles in 1998 existierende Methan aus der Atmosphäre verschwunden ist. Da es aber noch vermutete Rückkopplungseffekte gibt, wurden diese 8.4 Jahre etwas arbiträr auf 12 Jahre Wirkungsdauer aufgerundet.

Hinzu kommt, dass es unter Klimawissenschaftlern keineswegs Konsens gibt ob Methan überhaupt einen Klimaeinfluss haben kann, unabhängig davon wie lange es in der Atmosphäre verweilt. Denn die Infrarot Wellenlänge, bei der Methan die Erdwärmestrahlen absorbiert, sind deckungsgleich mit Wasserdampf. Selbst in der trockensten Atmosphäre bei -40 Grad C, gibt es noch 1300 mal mehr Wasserdampf als Methan – im globalen Durchschnitt sind es etwas 15000 mal mehr Wassermoleküle als Methan. Dieser Wasserdampf würde daher die mögliche Infrarotstrahlen bereits in den unteren Atmosphäreschichten absorbieren, sodass für das Methan gar nichts mehr übrig bleibt. In diesem Fall wären die Methanauswirkungen auf das Klima erheblich reduziert oder sogar Null.

Unabhängig davon was man über die Wärmestrahlenwirkung des Methans annimmt, wird die Zahl 12 Jahre Verweildauer fast immer falsch verwendet, selbst in wissenschaftlichen Publikationen. Zunächst ist es eben nicht die Verweildauer, sondern die Zeit die es benötigen würde alles bestehende Methan in der Atmosphäre bei gleichbleibender Senkenstärke des OH-Reservoirs aufzulösen. Das bedeutet, die 12 Jahre sind nicht ein Halbwertszeit mit dem man üblicherweise solche Prozesse beschreibt. Zweitens, die 12 Jahre sind nur eine großzügig aufgerundete Annahme über die Wirkungsdauer, die eigentliche Kalkulation ergibt nur 8.4 Jahre. Drittens, im Jahr 2018 haben sich die Werte bereits verändert. Mittlerweile gibt es 5140 Tg Methan in der Atmosphäre, und die Senkenstärke wird jetzt auf nur noch 548 Tg geschätzt, sodass sich die neue Gesamtverweildauer jetzt auf 9.4 Jahre berechnen würde. Dementsprechend müsste man jetzt die Wirkungsdauer und den GWP100 Wert nach oben anpassen.

Allerdings ist die Senkenstärke des OH Reservoirs nicht bekannt und lediglich eine rückgerechnete Annahme. Sie ist, vereinfacht gesagt, lediglich die Differenz aus dem recht gut bekannten jährlichen Anstieg an Methankonzentration in der Atmosphäre, und den nur ungenau bekannten jährlichen Methanemissionen in die Atmosphäre. Die Senkenstärke ist demnach ebenfalls nur ungenau bekannt. Vor allem ist aber nicht bekannt was die Stärke der Senke beeinflusst.

Hier sagt eine weit beachtete wissenschaftliche Autorität Dr Kirschke in 2013 dasselbe, nur auf wissenschaftlich:

«The photochemical sink of CH4 is large and difficult to quantify, given the very short lifetime of OH (~1 sec) and its control by a myriad of precursor species. Direct measurements of atmospheric OH radicals do not have the required accuracy and coverage to derive global OH concentrations and consequently the magnitude of the CH4 sink. We estimated CH4 loss due to OH from the output of nine numerical CCMs, which are categorized here as an atmospheric bottom-up approach.»

Es gäbe auch eine andere Theorie, die die ansteigenden Methanwerte erklären könnte. Nämlich dass diese wenig oder gar nichts mit der Menge des ausgestossenen Methans zu tun hat, sondern das Ergebnis eines laufend verändernden atmosphärischen Äquilibriums ist, dessen Einflussfaktoren noch nicht verstanden sind. Dieser Theorie zufolge, würde eine Reduktion der Methanemissionen per Logik nichts bewirken können.

Tatsächlich ist zu wenig darüber bekannt wie stark die Senkenstärke für Methan ist, was die faktische Wärmestrahlenwirkung von Methan ist, wie diese Faktoren alle zusammenspielen, wie sie sich ersetzen und ergänzen. Niemand kann ehrlichen Gewissens mit Gewissheit behaupten welche Nettoklimawirkung das Methan in einer echten Atmosphäre hat – alle Aussagen dazu basieren bislang lediglich auf unzureichenden, noch äußerst unscharfen mathematischen Modellen oder unter Laborbedingungen.

 




30 Jahre IPCC-Zustands­berichte: wie gut haben sie sich geschlagen?

Während der letzten 30 Jahre wurden 5 IPCC-Zustandsberichte bzgl. Klimawandel veröffentlicht. Ich wollte einmal jede jeweilige Erwärmungs-Prognose vergleichen, die zum Zeitpunkt des Erscheinens der jeweiligen Berichte abgegeben worden waren – vergleichen mit den nachfolgend gemessenen Temperaturen. Damit verfolgte ich zwei Ziele. Einmal wollte ich wissen, wie gut die Prognosen mit der Zeit waren. Zum Zweiten wollte ich der Frage nachgehen, ob und wenn ja was wir Neues über den Klimawandel erfahren haben während der letzten 30 Jahre.

1. Zustandsbericht FAR

Der erste Zustandsbericht wurde im Jahre 1990 veröffentlicht. Das war wahrscheinlich der erste öffentlich erhobene Alarmruf, dass sich die Welt aufgrund von CO2-Emissionen erwärmt. Es gab auch als Auszug ein sehr gutes Buch vom FAR-Chef John Houghton mit dem Titel „global Warming – the Complete Briefing“. Hier der Vergleich des „Modells“ mit den resultierenden Temperaturen:

Abbildung 1: Die erste Prognose globaler Erwärmung aus dem Jahr 1990. Die Daten sind meine eigene 3D-Version von HadCRUT4.6

Der Temperaturtrend ist zwar bestätigt, aber Ende 2019 war das Ausmaß der Erwärmung geringer als nach der Prognose im Jahre 1990. Die Emissionen sind zwar in Wirklichkeit der Trajektorie Business as Usual gefolgt, doch stellte sich die Erwärmung als 0,3°C geringer als vorhergesagt heraus.

2. Zustandsbericht SAR

Der zweite Zustandsbericht stammt aus dem Jahr 1995. Hier folgt der SAR-Vergleich meiner 3D-HadCRUT4-Ergebnisse (rot) mit denen des UKMO-Modells:

Abbildung 2: Meine 3D-Ergebnisse für HadCRUT4.6 sind rot dargestellt. Die Ergebnisse sind die Gleichen wie bei Cowtan & Way.

Man sieht, dass das Modell, welches den CO2-Effekt reduziert mittels Einbeziehung von Aerosolen ziemlich gut zu den Daten passt. Allerdings ist das Ergebnis nicht so gut, wie es aussieht, weil die Aerosole seit dem Jahr 1995 signifikant gesunken sind. Ich möchte dies mal als einen mittelmäßigen Erfolg für den SAR bezeichnen, aber nur unter der Annahme eines CO2-Antriebs ohne Rückkopplungen. Und wie sieht es nun beim 3. Zustandsbericht aus?

3. Zustandsbericht TAR

Der dritte Zustandsbericht wurde im Jahre 2001 veröffentlicht. Die TAR-Prognosen bzgl. Temperatur lagen tatsächlich sowohl unter denen des FAR als auch unter denen des SAR, was vielleicht die Reaktion auf eine Rückgang der gemessenen Temperaturen ist. HadCRUT4 hat nämlich bis damals einen definitiven Stillstand der globalen Erwärmung gezeigt nach dem Super El Nino des Jahres 1998. Nach 2001 wurden als Konsequenz viele weitere Stationen hinzugefügt (und einige auch ausgesondert), und zwar dergestalt, dass der Stillstand bis heute im Wesentlichen verschwunden ist. Hier folgt nun aber der Vergleich der TAR-,Projektionen‘ im Vergleich zu den gegenwärtigen Temperaturdaten (2019). Diese sind erneut eine eigene 3D-Version der HadCRUT4.6-Messungen.

Abbildung 3: Die blauen Punkte repräsentieren mittels Spherical Triangulation berechnete HadCRUT4.6-Werte.

Die Übereinstimmung zwischen Modellen und Daten sieht viel besser aus. Man beachte jedoch, dass die Änderung der absoluten Temperatur sich nur auf diejenige von 1990 bezieht, dem Jahr der Veröffentlichung des FAR. Aber auch hier ist mein Eindruck, dass der Verlauf höchstwahrscheinlich ihrer blauen B2-Ensemble-Kurve folgt.

4. Zustandsbericht AR4

Der vierte Zustandsbericht wurde im Jahre 2005 veröffentlicht und enthielt ein kurzfristigeres Prognose-Programm im Vergleich zu den damals verfügbaren HadCRUT4-Daten. Die aktualisierte Graphik unten zeigt den aktualisierten Vergleich bis Januar 2020. Die schwarzen Quadrate repräsentieren die jüngsten HadCRUT4.6-Daten, heruntergeladen von der Hadley-Site. Die kleinen schwarzen Kreise sind die alten H14-Datenpunkte (wie im Jahre 2005 verfügbar) aus dem Originalreport. Sie unterscheiden sich von den derzeitigen H4-Ergebnissen, weil die CRU in der Zwischenzeit alle ihre Stationsdaten aktualisiert hat. In diesem Zusammenhang beachte man, wie die Temperatur 1998 ein wenig niedriger liegt, während der Wert 2005 ausreichend genug gestiegen ist, um den Stillstand verschwinden zu lassen.

Abbildung 4: AR4-Modellvergleich mit den HadCRUT4.6-Daten, aktualisiert für 2019

Die schließliche Übereinstimmung ist nicht so schlecht, aber die Daten liegen nichtsdestotrotz immer noch unter dem Modell-Mittel bei allen vernünftigen SRES-Szenarien.

5. Zustandsbericht AR5

Dies bringt uns schließlich zum fünften Zustandsbericht bzw. dessen Vergleich. Als der AR5 im Jahre 2013 veröffentlicht worden war, zeigte sich der Stillstand immer noch eindeutig in allen Temperaturreihen, wodurch als Konsequenz alle Modelle im Vergleich viel zu hohe Temperaturen zeigten. Allerdings wurden bis dahin viele neue Stationen in der Arktis hinzugefügt, und der große El Nino 2016 hat den Stillstand inzwischen verpuffen lassen. Aber trotz all dem – wie machen sich die Modelle im Vergleich zu den gemessenen Temperaturdaten bis Januar 2020?

Hier ist der aktuelle Vergleich der Graphik 11.25a mit den Daten:

Abbildung 5: Abbildung 11.25a aus dem AR5 des IPCC, aktualisiert bis 2019. Der grüne Trend markiert HADCRUT4.6, der hellblaue Trend die 3D-Version. Die Daten schrammen am unteren Rand der Sensitivitäts-Bandbreite aller 45 CMIP5-Modelle entlang.

Eindeutig liegt der Erwärmungstrend am unteren Ende des CMIP5-Ensembles. Nur Modelle mit geringerer Sensitivität können die Temperaturdaten angemessen abbilden.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/30-years-of-ipcc-reports-how-well-have-they-done/

Übersetzt von Chris Frey EIKE




Die große Transformation: Potsdamer Forscher werden konkret

Es ist was faul im Staate Dänemark: John Schellnhuber beschrieb bereits 2011 in einer Schrift mit dem Titel Welt im Wandel – Gesellschaftsvertrag für eine Große Transformation, wie er und seine Mitstreiter unter dem Deckmantel des „Klimaschutzes“ das Land und seine Ressourcen unter die Kontrolle einer schein-technokratischen Elite bekommen wollen. Angela Merkel griff das Schlagwort ihres „Lyssenko“ (Zitat Michael Klonovsky) in Davos erstaunlich offen auf und verkündete unter Applaus anwesender Elitenvertreter, daß unsere Gesellschaften umgebaut werden müssten. Man merkt, die planen was. Etwas konkreter wird eine Arbeitsgruppe des Potsdam-Instituts für Klimafolgenforschung PIK in Proceedings of the National Academy of Science, PNAS, einem renommierten Wissenschaftsmagazin.

Ihre Große Transformation nennen sie hier sicherheitshalber aber „soziale Kippintervention“, angelehnt an die berühmten „Kipp-Punkte“ (tipping points), die seit 1988 immer mal wieder mit Frist von etwa zehn Jahren ausgerufen, aber dann vergessen werden (aktuell ist Gretas Kipp-Punkt in zwölf oder 13 Jahren).

Die PIKler definieren sechs Maßnahmen für die westliche Welt (Asien wird wie bisher nichts davon beachten).

  1. Energie-Erzeugung: Die Staaten sollten weg von zentralen Fossilkraftwerken und stattdessen dezentrale Wind-Solar-Anlagen weit verteilt errichten. Nun, dazu muß man dem geneigten EIKE-Leser wohl nichts weiter sagen. Es sei nur auf Prof. Lüdeckes Vortrag zur katastrophal niedrigen Leistungsdichte der Windräder und PV-Paneele hingewiesen.
  2. Kohlenstoffneutrale Städte: 20 % der weltweiten CO2-Emissionen sollen von den Gebäuden der Städte kommen, weswegen klimaneutral gebaut werden solle, zum Beispiel aus laminiertem Holz. Eine großartige Idee – die Rotorflügel unserer rund 40.000 Windräder in Deutschland bestehen nämlich auch aus mit Harz verklebten Holz- und Kohlefaserwerkstoffen, für die es bis heute kein überzeugendes Entsorgungskonzept gibt. Also verbrennen – schön, denn da entstehen jede Menge Giftstoffe und natürlich CO2.Hinzu kommt, daß die Thermo-Isolation von Gebäuden derart viel Energiekosten und CO2-Emissionen verursacht, daß sich die Einsparung bei den Heizkosten gar nicht mehr lohnt.
  1. Finanzsystem: Durch politischen Druck (?) und Strafgebühren wie die CO2-Steuer sollen Investoren dazu gebracht werden, angeblich klimafeindliche Industrien zu meiden. Aktuelles Beispiel ist die Siemens-Affäre um Joseph Käser und Luisa Neubauer. Die Konzernleitung hält ihre Verträge mit dem indischen Partner zwar ein, und Luisas Demo vor der Siemens-Zentrale in München war ein Reinfall. Aber wie lange noch? Die Medien versuchen, deutsche Konzerne sturmreif zu schießen und protegieren Neubauer & Co. Neben Käser sind auch die Chefs von Deutscher Bahn und Volkswagen schon auf dem Klima-Trip. Wie viele werden folgen? Hier zeigt sich die größte Gefahr der Klimahysterie: Die wertschöpfenden Industrien werden im Rahmen einer Zuteilungs- oder Planwirtschaft geschrumpft und abgewickelt, sofern sie nicht ins Ausland fliehen. Typisches Beispiel ist der VW-Konzern, der in zehn Jahren nur noch Elektro-Trabis („ID.3“) herstellen will. Daß das ein Fiasko werden wird, dürfte klar sein. Kaum jemand kauft ohne Not ein reichweitenschwaches Auto, für dessen Aufladung weder genug Strom noch genug Ladestationen vorhanden sind oder sein werden. Die Umstellung von Verbrenner auf Lithium-Akku/Elektromotor wird nur durch Steuerfinanzierung möglich sein.
  1. und 5. Normen und Werte; und Bildungssystem: Die Nutzung fossiler Brennstoffe sei laut PIK-Autoren „wohl unmoralisch“. Da müsse man dafür sorgen, daß der Klimaschutz als soziale Norm anerkannt werde. Insofern folgerichtig, daß die Autoren in der Schule eine „umwelt- und klimabewußte Lebensweise“ gelehrt sehen wollen. Nun, das nennt man Diffamierung Andersdenkender via Moralkeule, Propaganda und totalitäre Umgestaltung des kulturellen Überbaus. Läuft vor allem in den Massenmedien und in Gymnasien bereits auf Hochtouren; soll aber offenbar auf alle Bereiche der bürgerlichen Existenz ausgeweitet werden. Orwell läßt grüßen.
  2. Verbraucherinformation: Hängt mit 4./5. zusammen und bedeutet, ähnlich den Todesdrohungen und Krebsbildern auf Zigarettenschachteln „Hinweise“ zum CO2-Ausstoß bei der Produktion des Gekauften auf die Verpackung zu drucken.

Ein Kasseler Professor für Umweltsystemanalyse und -Psychologie, man könnte auch sagen: ein beamteter Klimahysteriker, findet die Transformationsideen seiner Potsdamer Mitstreiter „elegant“. Finde ich nicht; die vorgeschlagenen Maßnahmen sind antidemokratisch und wirken desindustrialisierend, wie wir es jetzt schon erleben. Aber man sieht, die Profiteure und Trommler der Transformierer aus Potsdam sitzen schon überall an den Schaltstellen der Gesellschaft.