Klimalatein für Laien

Fühlen Sie sich auch oft hilflos, wenn uns sogenannte Fachleute mit Horrormeldungen über den angeblichen Klima-Weltuntergang bombardieren? Für normale Bürger, die nicht mindestens einen Doktortitel in Atmosphärenphysik oder dergleichen haben, scheint es fast unmöglich zu sein, hierbei richtig von falsch zu unterscheiden. Reflektieren die sogenannten Treibhausgase wirklich so viel Infrarotenergie auf die Erde zurück, dass deshalb deren Temperatur dramatisch steigt? Keine Sorge, es gibt recht einfache Möglichkeiten, sich ein Bild davon zu machen, worum es tatsächlich geht. Auch ohne hochwissenschaftliche Ausbildung haben die meisten Menschen ausreichend gesunden Menschenverstand, um zu begreifen, wie heftig und chaotisch enorme Energieströme ständig zwischen Erdoberfläche und der Atmosphäre hin- und herschwappen.

Von Fred F. Mueller

Abb. 1. Die untergehende Sonne beleuchtet einen relativ dünnen Wolkenschleier von unten – und bringt so Energie in den Zwischenraum zwischen der Erdoberfläche und der Wolkendecke ein

Teil 1 – einige Grundlagen

Zunächst ist zu klären, woher die Wärme kommt, die es uns ermöglicht, in unseren Lebensräumen recht komfortabel zu leben, und wohin sie geht. Trotz des enormen Energiegehalts des geschmolzenen Kerns unseres Planeten stammt der Großteil dieser Energie von der Sonne, die uns vor allem mit drei Formen elektromagnetischer Strahlung versorgt: sichtbares, ultraviolettes und infrarotes Licht. In der oberen Atmosphäre erhält jeder Quadratmeter, der der Sonne zugewandt ist, eine ziemlich konstante Energiezufuhr von 1361-1362 W/m2. Obwohl dies keine echte Konstante ist, wird sie oft als Solarkonstante bezeichnet.

Der angebliche Treibhauseffekt

Der Begriff des „Treibhauseffekts“ in unserer Atmosphäre ist so unglaublich oft verwendet und auch missbraucht worden, dass er zu einem kaum noch entwirrbaren Durcheinander falscher Wahrnehmungen nicht nur in der Öffentlichkeit, sondern sogar in der wissenschaftlichen Welt geführt hat. Ein anschauliches Beispiel für eine offensichtliche Fehldarstellung findet sich im Einleitungsbild des Wikipedia-Kapitels zum Thema, Abb. 2.

Abb. 2. Das Einleitungsbild des englischen Wikipedia-Kapitels über den „Treibhauseffekt“ (Autor: Efbrazil2) , CC 4.0)

Dieses Bild verdeutlicht, wie sehr Wikipedia offenkundig dem Klimaaktivismus verfallen ist. Die komplexe Realität der Energieübertragungen und -umwandlungen auf unserem Planeten, an denen Böden, Gewässer, Gase, Wolken, Aerosole, Wärmespeicherung, Wärmeleitung und Konvektion, chemische Reaktionen und Phasenumwandlungen sowie eine Vielzahl weiterer Faktoren beteiligt sind, wird einfach unter den Teppich gekehrt, indem all ihre kombinierten Auswirkungen ausschließlich den bösen „Treibhausgasen“ zugeschrieben werden. Dieses Wikipedia-Kapitel ist ein trauriges Beispiel für den Niedergang einer vermeintlich wissenschaftlichen Enzyklopädie, die in Wirklichkeit unter dem Deckmantel der Aufklärung der Öffentlichkeit eine ziemlich krude Ideologie verbreitet. Das entsprechende Kapitel umfasst mehr als 7.000 Wörter und versucht, seinen Anspruch auf „Wissenschaftlichkeit“ durch eine Liste von 80 Zitaten zu untermauern, darunter Arbeiten über die atmosphärischen Bedingungen auf weit entfernten Himmelskörpern wie Titan und Venus. Dies kann jedoch nicht die Verwendung einer derart grob irreführenden Grafik als Aufmacherbild für die Zusammenfassung entschuldigen. Derartige Tricks, wie sie in Boulevardzeitungen oder Boulevardblättern üblich sind, entbehren schlichtweg jeder Berechtigung, diese Veröffentlichung als wissenschaftlich auszugeben. Wikipedia wirbt damit, eine Enzyklopädie zu sein, die sich nicht nur an Wissenschaftler, sondern auch an Laien und die breite Öffentlichkeit richtet, und sollte daher umso mehr darauf achten, keine Inhalte zu verbreiten, die von Menschen ohne wissenschaftlichen Hintergrund missverstanden werden könnten.

Abb. 3. Diese von der NASA erarbeitete detailliertere Darstellung der Energieströme auf der Erde ist in Bezug auf einige entscheidende Fakten immer noch irreführend (Picture by NASA3) , public domain) (Hinweis: Dieses Bild und der entsprechende Link wurden nach Fertigstellung des Artikels zurückgezogen. In einem späteren Teil werden die Ersatzgrafik und ihre Änderungen ausführlich behandelt. Diese Grafik und ihre Fehler wurden jedoch über einen längeren Zeitraum angezeigt, so dass eine angemessene Diskussion gerechtfertigt ist).

Obwohl die detailliertere Abbildung 3 der NASA einen besseren Eindruck von den vielen verschiedenen Faktoren vermittelt, die die Energieübertragungsflüsse zwischen der Erdoberfläche und dem Weltraum beeinflussen, führt sie immer noch auf subtile Weise in die Irre, so dass sie nicht geeignet ist, ein korrektes Verständnis der wesentlichen Fakten zu vermitteln. Schauen wir uns die wichtigsten Ungereimtheiten an.

Mittelwerte, die natürliche Schwankungen verdecken sollen

Einer der Lieblingstricks der Klimapropheten ist es, zu behaupten, dass alle wichtigen Faktoren, die unser Klima beeinflussen, mehr oder weniger konstant sind, mit der einzigen Ausnahme der „Treibhausgase“. Sie wollen sich die Tatsache zunutze machen, dass der CO2 -Gehalt der Atmosphäre steigt, während die Meteorologen zumindest in den letzten 150 Jahren auch einen mäßigen Anstieg der gemessenen Temperaturwerte beobachten. Obwohl beide Trends bei weitem nicht im Gleichschritt verlaufen, wurde diese gleichgerichtete Entwicklung zum Beweis einer Kausalität hochstilisiert. Dabei konnte bisher kein klarer Mechanismus oder ein quantitativer Beweis gefunden werden. (Genauso könnte man den gleichzeitigen Rückgang bei den Geburten und der Zahl der Störche in Deutschland als Beweis dafür ansehen, dass Kinder von Störchen gebracht werden). Trotz vieler eklatanter Diskrepanzen, z. B. in Bezug auf die natürlichen CO2-Zyklen oder die Aufnahme und Bindung von CO2 in unseren Ozeanen, wurde der Temperaturanstieg fast ausschließlich auf CO2 zurückgeführt.

Ein weiteres Ablenkungsmanöver ist die Behauptung, dass Wasserdampf lediglich die führende Rolle von CO2 verstärkt. Dies kann als ein wahres Meisterwerk der Realitätsverdrehung angesehen werden, da Wasserdampf nicht nur eine viel höhere Effizienz in Bezug auf die Absorption (und Wiederabgabe) von Infrarotstrahlung hat (siehe Abb. 4), sondern auch den CO2-Gehalt in der Atmosphäre um Faktoren zwischen 25 (= mittlerer Konzentrationswert auf Meereshöhe) und bis zu 100 übersteigt!

Abb. 4. Vergleicht man die spektrale IR-Strahlungsdichte einer Oberfläche bei 14 °C mit den überlappenden Absorptionsbanden von CO2 (bräunlich) und Wasserdampf (bläulich), so zeigt sich die stark überdurchschnittliche Absorptionsfähigkeit von Wasserdampf für die IR-Emission von Boden oder Wasser bei 14 °C – (das ist die „mittlere“ Temperatur der Erdoberfläche). (Bitte beachten Sie die unterschiedlichen Skalen der x-Achsen: linear für die spektrale Strahldichte, logarithmisch für die Absorption) (Grafik: SpectralCalc4) (oben), NASA, Robert Rohde5) public domain (unten)).

Zum Verständnis von Abb. 4. Ist noch anzumerken, dass die tatsächliche Absorptionswirksamkeit des Wasserdampfs für IR-Strahlung (blaue Flächen) im Vergleich zum CO2 noch viel größer ist, weil Wasserdampf in der Atmosphäre in teilweise bis zu 100fach höherer Konzentration vorhanden ist.

Ungeachtet dieser Ungereimtheiten hat sich die Klimawissenschaft in ihrer großen Mehrheit diesem Ansatz angeschlossen. Dies könnte darauf zurückzuführen sein, dass die Wasserdampfmenge in der Atmosphäre starken zeitlichen und örtlichen Schwankungen unterliegt, die zwischen nahezu Null – z. B. in großen Höhen und bei sehr niedrigen Temperaturen – und manchmal bis zu 4 % auf Meereshöhe liegen. Darüber hinaus neigt Wasserdampf, insbesondere bei der Umwandlung in Wolken, dazu, in einer Weise zu kondensieren oder aus der Atmosphäre zu gefrieren, die bisher jedem realistischen Versuch, sie mathematisch zu beschreiben, widerstanden hat. Der Versuch, realistische dreidimensionale Modelle der Wasserdampfverteilung über einem bestimmten Ort zu einem bestimmten Zeitpunkt zu erstellen und die sich daraus ergebenden Auswirkungen auf die Absorption und Re-Emission von IR-Strahlung zu berechnen, bleibt daher eine mühsame Aufgabe. Viel einfacher und bequemer ist es für den Wissenschaftler, stattdessen einen einzigen Wert zu finden, dem man den gesamten „Treibhauseffekt“ zuschreiben kann. Genau das wurde mit dem CO2 kurzerhand gemacht. Und schon konnte man sich ganze Wagenladungen von komplizierten Datenerfassungsgeräten sowie aufwendige Forschungsarbeiten zur Klärung der tatsächlichen Zusammenhänge einfach ersparen. Auch wird so der Aufwand für Datenerfassung, Personal, Computerzeit – sowie die Wartezeit bis zur Verleihung der ersehnten akademischen Auszeichnungen – erheblich reduziert. Der Vorreiter der Klimawissenschaft, das IPCC, macht es schließlich vor, indem er z.B. den Wasserdampf einfach aus seiner Aufzählung der „Treibhausgase“ weglässt, siehe Abb. 5.

Abb. 5. Beitrag zu den beobachteten Klimaänderungen durch 12 verschiedene Faktoren, entnommen aus der Zusammenfassung für politische Entscheidungsträger des sechsten IPCC-Bewertungsberichts, angepasst an Abbildung SPM.2c (Grafik: Erik Fisk, CC 4.0 )6)

Die zahlreichen Vorteile einer solchen wissenschaftlichen „Abkürzung“ des zu treibenden Mess- und Rechenaufwands könnten eine der Haupttriebkräfte für die beklagenswerte Tendenz zum „nur eine einzige Zahl“-Irrglauben sein, der von Kip Hansen7) wie folgt beschrieben wird: „Der Glaube, dass komplexe, komplizierte und sogar chaotische Themen und ihre Daten auf eine einzige signifikante und wahrheitsgemäße Zahl reduziert werden können“.

Zu unserem Leidwesen ist es genau das, was die offizielle Klimawissenschaft tut. Unter der Überschrift „Eine Zahl, um den Einfluss des Menschen auf das Klima zu verfolgen“ veröffentlichten Wissenschaftler der NOAA (National Oceanic and Atmospheric Administration der USA) im Jahr 2006 den ersten AGGI8) (aggregierter Treibhausgasindex), um „politischen Entscheidungsträgern, Pädagogen und der Öffentlichkeit zu helfen, die kumulativen Auswirkungen von Treibhausgasen auf das Klima über die Zeit zu verstehen“. Damit wurde der Grundstein für den blinden Glaube an den „alleinseligmachenden CO2 Gehalt der Atmosphäre“ gelegt. Über das Pariser Klimaabkommen droht dieser heute unsere Gesellschaft in den Untergang zu reißen.

Die winzigen treibenden Kräfte der „Treibhausgase“

Bei dem Versuch, die tatsächliche Auswirkung von „Treibhausgasen“ auf die Energiebilanz der Erde zu beurteilen, sollte der erste Schritt darin bestehen, die treibende Kraft zu bewerten, die sie auf die ins System Erde/Ozeane/Atmosphäre ein- und austretenden Energieströme ausüben. Entsprechende Parameter sind in einer von der NOAA9) geführten AGGI-Tabelle detaillierter dargestellt. Sie zeigen, dass nach Ansicht der führenden Klimawissenschaftler nur vier Gase einen relevanten Einfluss auf das Budget des Energieaustauschs zwischen ein- und ausgehender Strahlungsenergie seit dem angeblichen Beginn des „menschlich verursachten Klimawandels“ im Jahr 1750 haben. Die für 2020 angegebenen Zahlen sind:

 

Kohlendioxid + 2,111 W/m2

Methan + 0.520 W/m2

Distickstoffoxid + 0,206 W/m2

FCKW-Gase + 0,248 W/m2

===========

Gesamtbeitrag der Treibhausgase + 3,222W/m2 (einschließlich einiger zusätzlicher „nebensächlicher“ Treibhausgase)

Diese Zahl ist außerordentlich klein, wenn man sie mit der enormen zeitlichen und lokalen Variabilität der Energieströme im System Ozean/Atmosphäre/Boden unseres Planeten innerhalb kurzer Zeiträume vergleicht. An einem einzigen Sonnentag können mehr als 1.000 Wattstunden an Strahlungsenergie auf den Quadratmeter niedergehen. Der Beitrag der „Treibhausgase“ macht im Vergleich dazu nur einen niedrigen einstelligen Prozentsatz der täglichen Schwankungen aus. Dies wird im nächsten Kapitel ausführlicher behandelt.

Nebenbei bemerkt ist es interessant zu sehen, dass der IPCC eine außerordentlich breite Spanne für die Effizienz von Treibhausgasen angibt. Dabei unterscheidet er zwischen TCR (Transient Climate Response), dem angeblich zu erwartenden Temperaturanstieg nach einer Verdoppelung des atmosphärischen CO2 Niveaus im Vergleich zu einem gegebenen Startdatum und ECS, einer mutmaßlich deutlich höheren Gleichgewichts-„Klimasensitivität10)) von CO2, nachdem sich das Klimasystem auf ein neues Gleichgewicht „eingestellt“ hat. Dieser Unterschied wird damit erklärt, dass sich das Klimasystem noch einige Zeit nach dem TCR-Punkt erwärmen wird, vor allem weil die Ozeane nur sehr langsam reagieren. ECS soll also den Temperaturanstieg darstellen, der schließlich (nach Hunderten oder gar Tausenden von Jahren) eintreten würde, wenn sich das Klimasystem vollständig an eine anhaltende Verdoppelung des CO2 angepasst hat. In seinem jüngsten Bericht geht der IPCC davon aus, dass der ECS in einem „wahrscheinlichen“ Bereich von 2 – 5 °C liegt, während die Spanne für den TCR auf 1,2 – 2,4 °C geschätzt wird.

In Anbetracht dieser außerordentlich großen Spannen mag es überraschen, dass die Autoren des IPCC, der NOAA und von Wikipedia Temperaturanstiegswerte für Treibhausgase angeben, die mitunter mit drei bis vier „signifikanten“ Stellen angegeben werden. Auch diese regelrechte Vergewaltigung der Mathematik und der Naturwissenschaften könnte auf trügerische Gefühl von Gewissheit bezüglich klimarelevanter Zahlen zurückzuführen sein, das der Öffentlichkeit durch die in der heutigen Klimawissenschaft vorherrschende „eine Zahl besagt schon alles“-Mentalität vermittelt wird.

Referenzen

  1. https://en.wikipedia.org/wiki/Solar_constant
  2. https://en.wikipedia.org/wiki/Greenhouse_effect
  3. http://science-edu.larc.nasa.gov/energy_budget/pdf/Energy_Budget_Litho_10year.pdf (Hinweis: Dieser Link scheint vor kurzem deaktiviert worden zu sein).

https://www.spectralcalc.com/blackbody_calculator/blackbody.php

Datei:CO2 H2O Absorption atmosphärische Gase einzigartige Muster Energie Wellenlängen der Energie transparent für andere.png – Wikimedia Commons

https://commons.wikimedia.org/wiki/File:Physical_Drivers_of_climate_change.svg

https://wattsupwiththat.com/2023/01/03/unknown-uncertain-or-both/

https://research.noaa.gov/article/ArtMID/587/ArticleID/2877/Greenhouse-gas-pollution-trapped-49-more-heat-in-2021-than-in-1990-NOAA-finds

  1. https://gml.noaa.gov/aggi/aggi.html

https://www.metoffice.gov.uk/research/climate/understanding-climate/climate-sensitivity-explained

 




Die „100 Prozent Ökostrom“ Lüge

Von Günter Keil

Von angeblichen Lieferungen von 100-prozentigem Ökostrom hatte ich bereits verschiedentlich gehört; es aber nicht ernst genommen. Schließlich gibt es nur eine einzige Möglichkeit, das als Stromkunde wirklich zu erleben:
Man muss auf einer kleinen Insel leben, auf der die bewohnte Hütte ausschließlich durch Photovoltaik-(PV)-Solarzellen mit Strom versorgt wird, wobei ein Batteriespeicher dafür zu sorgen hätte, dass ich auch nach Einbruch der Dunkelheit wenigstens noch elektrisches Licht habe und Radio hören kann. Eine kleine Windkraftanlage würde mir ja bei Flaute nicht einmal am Tage Strom liefern. Und ein Diesel-Generator-Aggregat wäre ja kein Ökostrom- Lieferant.
Die Stromkunden dieses Landes leben jedoch nicht auf Atollen. Sie bekommen an ihren Schuko-Steckdosen zuverlässig, wenn auch nicht preiswert, Tag und Nacht ihren Strom. Als Zeitungsleser ist wohl fast allen völlig klar, dass eine Vielzahl von sehr unterschiedlichen Stromerzeugern – Kohle- und Gaskraftwerke, Kernkraft- und Wasserkraftwerke, sowie PV-Paneele, Biogasanlagen und Windräder- ihre Elektrizitätsmengen in der vorgeschriebenen Qualität (Spannung und Frequenz) in das Stromnetz einspeisen, in dem diese Anteile beim Verbraucher ununterscheidbar aus dessen Steckdose abzapfbar sind. Es ist Physik – und die Politiker leiden anscheinend darunter, dass sie deren Gesetze nicht „novellieren“, also ändern können. Die Leute wissen also bereits, dass sie niemals puren Ökostrom beziehen können.
Das ist schon mal die Lüge Nr.1.

Das Märchen von einem 100-Prozent-Ökostrom-Ersatz durch Verträge
Weil die Stromversorger wissen, dass nahezu alle ihre Kunden die Lüge Nr.1 durchschauen, haben sie eine indirekte Erklärung für eine vielleicht doch glaubhafte 100-prozentige Ökostromlieferung erfunden: Der den Kunden versprochene reine Ökostrom wird dem Kunden nicht geliefert, sondern an vielen Stellen des Stromnetzes von Ökostromerzeugern eingeleitet – und natürlich in der gleichen Menge, wie den Kunden versprochen. Weil auch das wohl niemand so einfach glauben würde, benutzt man eine Zertifizierung durch eine (bis dahin) vertrauenswürdige Institution. Das ist in dem konkreten Falle, über den hier berichtet wird, der TÜV Rheinland.

Die Mitteilung meines Stromversorgers
Mein Stromversorger, die Stadtwerke Sankt Augustin, haben mir am 1.Juli 2022 eine schriftliche Mitteilung in meinen Briefkasten geschickt.
Zitat der wesentlichen Teile:

Überschrift: „Stadtwerke Sankt Augustin setzen ab sofort auf 100 % Ökostrom – ohne Aufpreis…“.
Darunter als Grafik: „Wir sparen jährlich 14.138.000 kg CO2.“
Weiter im Text: „Vom 1. Juli 2022 an beliefert das Unternehmen alle… Kunden im Privat- und Gewerbesegment komplett mit reinem Ökostrom. Für die Kunden erfolgt die Umstellung (Unterstreichungen durch den Autor) automatisch und ohne Aufpreis…..Ökostrom für Sankt Augustin stammt aus Europa.“ Unter einer Umstellung versteht jedermann, dass die gelieferte Ware künftig eine andere ist. Und dass er diese jetzt erhält.
Es folgt ein Bericht zweier Geschäftsführer: „Unser Strom für St. Augustin stammt aus europäischen Anlagen zur Produktion von erneuerbaren Energien, die direkt an das west- und mitteleuropäische Stromverbundnetz angeschlossen sind. Dabei handelt es sich vornehmlich um Wind-, Photovoltaik- und Wasserkraftanlagen. Mithilfe von Herkunftsnachweisen lassen sich die Ökostrommengen ihren Ursprungsquellen eindeutig zuordnen. Dadurch ist sichergestellt, dass jede von den Kunden verbrauchte Kilowattstunde Strom auch tatsächlich aus erneuerbaren Quellen stammt. Darüber hinaus besteht zwischen den Herkunftsnachweisen und der physischen Lieferung des Stroms eine vertragliche Kopplung. Auf diese Weise ist die Lieferkette vom Stromerzeuger bis zu den Verbrauchern eindeutig nachweisbar. Das war uns sehr wichtig.“ (Ende des Zitats).

Es soll also eine „physische“, d.h. reale Lieferung sein, für die es eine Lieferkette gibt. Ein weiterer Trick im Verwirrspiel, der die Lüge Nr.1 wiederholt.

Am Ende dieses Schreibens sieht man eine Grafik, die 3 Elemente aufweist:

1. Eine Art Siegel des TÜV Rheinland mit der Unterzeile „Zertifiziert“.
2. Ein Text im Zentrum: „100% Erneuerbare Energie. Regelmäßige Überwachung. www.tuv.com. ID 0000081681.
3. Ein codiertes Text-Viereck für Smartphones.

Garantieversprechen des TÜV Rheinland

Der TÜV-Rheinland wird gefragt.
Die Rolle des TÜV in dieser Angelegenheit wird im Text der Stadtwerke nicht angesprochen, jedoch dessen Siegel mit den zugehörigen Schlagworten und insbesondere mit dem Wort „Zertifiziert“ wirft Fragen bezüglich dessen tatsächlicher Rolle und insbesondere nach den konkreten Inhalten dieser Zertifizierung sowie der Art und Weise der „physischen“ – und das kann doch nur bedeuten, der „realen“ – Lieferungen der Ökostromproduzenten auf.
Ebenso interessiert der Inhalt der „vertraglichen Kopplung“.

Deshalb wurde vom Autor ein Brief an den TÜV Rheinland geschrieben, dessen wesentliche Teile im Folgenden wiedergegeben werden.

Wesentliche Ausschnitte aus diesem Brief vom 26. Januar 2023:

Sehr geehrte Damen und Herren, ich bin als Elektroingenieur bereits mehrfach von Bekannten aus meiner Stadt St. Augustin befragt worden, wie es möglich war, die Stadt zu 100 Prozent mit Ökostrom zu versorgen, wie es die Stadtwerke der Stadt durch Rundschreiben an die Haushalte mitgeteilt haben.
Darin hatten die Stadtwerke darauf hingewiesen, dass der TÜV Rheinland diese Versorgung durch ein Zertifikat bestätigt hat – was auch in der Mitteilung abgebildet wurde………Das führt zu der naheliegenden Frage, wie der TÜV Rheinland eine Zertifizierung für eine 100-prozentige Stromversorgung mit Erläuterungen untermauert…….. Mithilfe von Herkunftsnachweisen ließen sich die zertifizierten Ökostrommengen, die vermutlich nach dem Stromverbrauch St. Augustins aus dem Vormonat berechnet werden, „ihren Ursprungsquellen eindeutig zuordnen.“ Das seien vornehmlich Wind-, PV- und Wasserkraftanlagen. Dadurch „sei sichergestellt, dass jede von den Kunden verbrauchte Kilowattstunde auch tatsächlich aus erneuerbaren Quellen stammt.“

Weiter in meinem Brief:

Diese Methode ist durchaus plausibel, unterliegt aber einer sehr konkreten Voraussetzung, von der in der o.e. Beschreibung leider keine Rede ist. Diese Voraussetzung wäre, dass diese per Zertifikat identifizierbaren Erzeuger den von den Stadtwerken St. Augustin bestellten Ökostrom zusätzlich genau zu diesem Zweck erzeugen und einspeisen. Die Erzeuger müssten daher bislang ungenutzte Reserven aktivieren.
Würden sie stattdessen ihrem zuvor ins Netz eingespeisten Ökostrom nicht die von dem neuen Kunden verlangten Ökostrom-Mengen durch die Aktivierung von zuvor vorhandenen, jedoch noch nicht genutzten Reserven hinzufügen, dann würden die deutschen Stadtwerke gar keinen Beitrag zu einer Steigerung der europäischen Ökostromerzeugung leisten und das TÜV-Zertifikat wäre gegenstandslos.
Insofern gibt es in der Beschreibung einer mit Zertifikat bescheinigten Ökostromerzeugung, die aber keine Garantie und Bestätigung ihrer zusätzlichen Erzeugung aufweist, eine ernsthafte Lücke.
Ich hoffe, dass Sie durch eine ergänzende Beschreibung Ihrer mir bisher nicht ausreichend plausiblen Zertifikats-Grundlagen meine Unklarheiten beheben können. (Ende des Zitats aus meinem Schreiben an den TÜV Rheinland).

Tatsächlich erhielt ich vom TÜV Rheinland eine Antwort vom 23. Januar 2023.
Dessen Passagen, die meine zentrale Frage betreffen sind folgende, wobei die wesentlichen Teile von mir unterstrichen wurden:

„Wie auf unserem Zertifikat vermerkt basiert die Ökostrom-Versorgung der Stadtwerke Sankt Augustin auf Herkunftsnachweisen aus gekennzeichneten erneuerbaren Stromerzeugungsanlagen. Dies ist ein seit Jahren regulativ etablierter Mechanismus, der von sehr vielen Stromanbietern genutzt wird. (Anm.: Das beschreibt ehrlich das Ausmaß dieser angeblichen „100-Prozent Ökostrom-Versorgungsmethode“.) TÜV Rheinland prüft dabei die Einhaltung der auf dem Zertifikat genannten Kriterien. (Anm.: Diese lauten – siehe oben – nur: „100% Erneuerbare Energie. Regelmäßige Überwachung.“ Auch das ist ehrlich, leider nur keine Antwort auf meine Kernfrage.)

„Die von Herrn Keil auf S . 2 seines Schreibens genannten systemmethodischen Implikationen sind im Grundsatz nachvollziehbar, aber außerhalb der genannten Prüfkriterien“.

(Anm.: Das ist der entscheidende Satz, der die Antwort auf meine konkrete Frage mit einem wirklich schönen sprachlichen Kunstwerk vermeidet.)

Wir weisen darauf hin, dass die Abgabe von Herkunftsnachweisen durch Betreiber erneuerbarer Stromerzeugungsanlagen in der Bilanzierung und Berechnung von Emissionsfaktoren von Stromnetzen Berücksichtigung findet……Bitte haben Sie Verständnis, dass Fachdiskussionen mit unseren Sachverständigen außerhalb eines Auftragsverhältnisses aufgrund der hohen Arbeitsauslastung nicht möglich sind.“ (Zitat-Ende).

Bewertung des TÜV-Schreibens
1. Meine Vermutung, dass mit einer „100-Prozent-Ökostromlieferung“ ein Vorgang behauptet und zugesagt wird, der gar nicht existiert, ist bestätigt
worden. Der TÜV selbst hat sich aber herausgeredet und ist auf die von mir angesprochene Nachweis-Lücke nicht eingegangen.
2. Der TÜV hat keineswegs die Unwahrheit gesagt, das ist anzuerkennen. Seine Bewertung meiner sehr einfachen Frage als „systemmethodische Implikation, die im Grundsatz (!) nachvollziehbar sei“, ist ein kleines Meisterstück einer Antwortvermeidung. Dafür könnte ich meinerseits dem TÜV ein Zertifikat für optimale Verschleierung erteilen.
3. Mit der Antwort hat der TÜV klugerweise das Risiko vermieden, sein Zertifikat dem Vorwurf einer Fälschung des wahren Sachverhalts auszusetzen. Seine sehr deutlich gewordenen Aussagen bedeuten im Klartext, dass er nicht speziell geprüft hat – und es vielleicht auch nicht prüfen sollte -, ob der betreffende Ökostromerzeuger zusätzliche, bislang ungenutzte Reservekapazitäten für den Lieferungswünsche der Stadtwerke Sankt Augustin sowie „sehr vieler Stromanbieter“ aktiviert hat- oder eben nicht. Dazu bedarf es keiner „Fachdiskussion mit unseren Sachverständigen“.
4. Die Feststellung, dass die angesprochenen und vermutlich auch mit ihrer Nennung als Ökostromerzeuger einverstandenen Unternehmen tatsächlich mit 100% ihrer Kapazität schon länger Ökostrom ins Netz liefern, ist nie von irgendjemand bestritten worden. Das beantwortet aber nicht die in diesem
Falle gestellte Frage, wie eigentlich der „von vielen Stromanbietern“ verlangte und verursachte Mehrbedarf befriedigt wird.
5. Eine wichtige Information ist dieser „von vielen Stromanbietern genutzte regulativ-etablierte Mechanismus“ – also die Methode. Das führt zu
der Frage, wer sich das wohl ausgedacht hat.

Die Schlussfolgerung: Das ist die Lüge Nr. 2
Sie hat nicht so kurze Beine wie Lüge Nr.1, weil sie besser getarnt und glaubhafter präsentiert wird. Das Ergebnis dieser Recherche ist deprimierend, denn es geht nicht profan um Geld – siehe die Versicherung „ohne Aufpreis“ der Stadtwerke St. Augustin – sondern „nur“ um eine Täuschung der Bürger. Dies ist allein aus politischen Gründen zu erklären.

Für die Erzeuger von Strom aus den so genannten Erneuerbaren Energien kann das nicht hilfreich sein. Schließlich haben sämtliche Stromerzeuger mit einer Vielzahl von Problemen technischer Natur und wirtschaftlicher Art zu kämpfen. Durch diese offensichtlich politisch gewünschte 100-Prozent-Veranstaltung ist niemandem sonst geholfen.

 

 

 

 




Das Gasdesaster: Warum die Energiewende gescheitert ist (JF-TV MEDIENMYTHEN 3)

(für den Fall, dass das Video hier nicht aufrufbar ist, hier der link dazu: https://www.youtube.com/watch?v=z_BE7l4vRpw)

Es ist einer unserer wichtigsten Energieträger: Erdgas. Im Jahr 2021 trug es 26,8 Prozent zum deutschen Primärenergieverbrauch bei, im Bereich der Wärmeerzeugung ist es gar der mit Abstand wichtigste Rohstoff, versorgt derzeit gut die Hälfte der Heizungen in deutschen Haushalten mit Energie. Zudem ist Erdgas sowohl zur Stromerzeugung, als auch als Rohstoff für die Industrie unverzichtbar. Doch mit einem Anteil von gut 50 Prozent war Rußland der mit Abstand wichtigste Erdgaslieferant. Mit Beginn des Kriegs in der Ukraine sanken die Fördermengen, seit Sommer 2022 kommt gar kein Erdgas mehr direkt aus Rußland nach Deutschland, auch weil die dafür nötigen Nord-Stream-Pipelines überwiegend zerstört wurden. Nichts desto trotz komme Deutschland „gut durch den Winter“, beteuerte Bundeskanzler Olaf Scholz in seiner Neujahrsansprache und bezog sich dabei unter anderem auf den Bau von Flüssiggas-Terminals in deutschen Häfen. Tatsächlich ist beachtlich, in welcher Geschwindigkeit hier neue Kapazitäten geschaffen werden. Doch reichen diese aus? Ein Blick auf die nackten Zahlen zeigt schnell das Gegenteil: von den Kapazitäten, die per Pipelines aus Rußland zur Verfügung standen, sind die zeitnah entstehenden LNG-Kapazitäten weit entfernt. Trotzdem machen grüne Kreise von der grünen Parteibasis über „Fridays for Future“ und ihre fragwürdige Frontfrau Luisa Neubauer bis hin zu pseudowissenschaftlichen Lobbyorganisationen gehörig Stimmung gegen Flüssiggas – und können dabei einmal mehr auf tatkräftige Unterstützung durch deutsche Leitmedien zählen. Zum Beispiel so: „Völlig überdimensioniert“ seien die geplanten LNG-Kapazitäten, so das Ergebnis einer Analyse des „New Climate Institute“, die im Dezember 2022 durch nahezu alle großen Medien ging. Daß jedoch vor allem die Zahl, die das grüne Institut angab, „völlig überdimensioniert“ -um nicht zu sagen: falsch – war, berichteten nur die wenigsten. Fakt ist: die bisher geschaffenen LNG-Kapazitäten können den Wegfall russischen Gases nicht im Entferntesten kompensieren – und werden auch auf Dauer nicht die gesamte Menge ersetzen können, erst recht nicht, wenn man bedenkt, daß nebst Deutschland auch andere europäische Länder an russischen Pipielines hingen. Die einzige Möglichkeit, die dann noch bleibt, ist das, was wir schon tun: Energie sparen. Ein Zustand, der von Medien und Politik seit Monaten als Notlage vermarktet wird – der aber deutlich länger andauern dürfte, als man es derzeit kommuniziert. Doch wo können wir überhaupt sparen? Was bedeutet der Rückgang an Erdgasimporten für die deutsche Industrie, die Versorgung mit Heizwärme un die Stromerzeugung? Erfahren Sie hier, wie es wirklich um die Ergas-Versorgung unseres Landes steht, wie wichtig dieser Rohstoff wirklich ist und was die Entwicklungen des Jahres 2022 für die deutsche Energiewende bedeuten. JF-TV MEDIENMYTHEN 3 – Folge 2: Das Gasdesaster – Warum die Energiewende gescheitert ist Eine JF-TV Dokumentation von Marco Pino mit Fritz Vahrenholt, Michael D. Shellenberger, Michael Limburg, Hinrich Rohbohm und Dieter Stein #energiekrise #erdgas #energiewende




Mikroreaktoren ante portas – Energiewender was nun?

Im US-Luftwaffenstützpunkt Eielson in Alaska soll bis 2027 der erste Mikroreaktor einsatzbereit sein. Er wird in das vorhandene Fernwärmenetz und die Stromversorgung des Stützpunkts integriert. Ein Vorbote für die zivile Nutzung – und eine industrielle Revolution ähnlich dem Übergang vom Rechenzentrum zum PC.

von Klaus-Dieter Humpich

Seit Jahrzehnten tauchen immer wieder Papiere auf, die sich mit der Energieversorgung des Militärs beschäftigen. Das US-Verteidigungsministerium (DoD) verbraucht ungefähr 30 Terawattstunden elektrische Energie jährlich und fast 38 Millionen Liter Kraftstoffe pro Tag. Das DoD ist der größte öffentliche Energieverbraucher der USA. Es gibt rund 3,5 Milliarden Dollar jährlich (Fiskaljahr 2020) hauptsächlich für Elektroenergie aus.

Der politische Druck zum Energiesparen und zur CO2-Minderung nimmt immer mehr zu. Die angestrebten Reduzierungen werden seit über einem Jahrzehnt beständig verfehlt. Es handelt sich zugegebenermaßen um eine Herkulesaufgabe, die 423 Standorte (346 in continental US, 6 in Alaska, 7 auf Hawaii, 4 in den US-Territorien und 60 international) zu sanieren. Der Median in den USA hat eine mittlere Leistung von 5,6 MW und zahlt 93,6 $/MWh – durchaus vergleichbar mit einem Industriebetrieb. Genau darin liegt die weit über das Militär hinausgehende Bedeutung.

Warum Kernenergie?

Der Kostendruck durch steigende Energiepreise nimmt weiter zu. Die Umweltauflagen bzw. Umweltkosten (z.B. CO2-Steuer, Wasserabgaben usw.) verschärfen sich ständig. Hinzu tritt ein völlig neues Problem: Die zunehmenden Ausfallwahrscheinlichkeiten durch die Nutzung von Wind und Sonne in den öffentlichen Netzen. Drastisch formuliert: Der Krieg muss auch bei Dunkelflaute stattfinden können. Der Bedarf an Ersatzstrom wird deshalb ständig größer und geht über eine klassische Notstromversorgung hinaus. Hinzu kommen die Anforderungen an die Versorgungssicherheit im Krisenfall und der Nachschub für die Überseestandorte, der erhebliche militärische Einheiten binden kann.

Im Abschnitt 327 des „John S. McCain National Defense Authorization Act for Fiscal Year 2019“ wird deshalb folgende Definition für Resilienz genannt: „Energieresilienz ist die Fähigkeit, erwartete und unerwartete Energiestörungen zu vermeiden, sich darauf vorzubereiten, (die Folgen) zu minimieren, sich anzupassen und sich von ihnen zu erholen, um die Energieverfügbarkeit und -zuverlässigkeit zu gewährleisten, die ausreicht, um die Mission bzw. die Bereitschaft aufrecht zu erhalten.“

Und in Abschnitt 101(e)(7) wird Energiesicherheit definiert als „gesicherter Zugang zu zuverlässigen Energielieferungen und die Fähigkeit, genügend Energie zu schützen und zu liefern, um die wesentlichen Anforderungen der Mission zu erfüllen“. Zusammen sorgen Energieresilienz und Energiesicherheit für eine gesicherte Energieversorgung.

Das sind nicht nur die ausdrücklich geforderten Anforderungen an einen „Kernreaktor“ zur Versorgung eines Stützpunktes, sondern lassen sich auch unmittelbar auf den zivilen Bereich (Rechenzentrum, Bank, Chemie etc.) einer Industriegesellschaft übertragen. Wird die „Energiewende“ weiter betrieben, müssen sich faktisch alle Sektoren der Gesellschaft der gleichen Herausforderung stellen. Ein Vorstand, der den Ausfall seiner Produktion durch Energiemangel riskiert, wird sich dafür verantworten müssen. Wer in Ländern mit häufigem Stromausfall investiert, muss die Kosten tragen.

Aus der Geschichte lernen

Der Gedanke der Nutzung von Reaktoren beim Militär ist nicht neu. Es gibt über 100 Druckwasserreaktoren (U-Boote, Flugzeugträger, Kreuzer) bei der Marine. Aber auch die Army unterhielt 1954 bis 1978 das Army Nuclear Power Program (ANPP) mit acht Reaktoren. Die Reaktoren hatten eine Leistung von 0,2 bis 10 MWe und erreichten zusammen 61 Betriebsjahre. Alle Reaktoren erforderten waffengrädiges Uran (Anreicherung 93 Prozent), was heute nicht mehr zulässig wäre. Die Konzepte heutiger Kleinreaktoren dürfen maximal noch 19,75 Prozent Anreicherung (Proliferation) haben. Alle Reaktoren waren verschieden und damit kostspielige Einzelanfertigungen. Dieses Manko schleppten sie über ihre ganze Betriebszeit mit sich herum (Ersatzteile, Schulung etc.). Sie waren damit ausnahmslos unwirtschaftlich und wurden deshalb durch Dieselmotoren mit vergleichbar geringen Investitionen ersetzt – zumal die Kraftstoffpreise vor den Ölkrisen extrem günstig waren. Die Gesamtkosten für das ANPP beliefen sich auf über 720 Millionen US-Dollar (2021). Gleichwohl lieferte das Programm – auch für die zivile Entwicklung – wertvolle Erkenntnisse.

Was aber heute überhaupt nicht mehr geht, ist schlampiger Umgang mit der Sicherheit (3 Tote beim SL-1 im Dezember 1960, verursacht durch eine Dampfexplosion). Schäden beim Transport auf die Baustelle und mangelnde Auslegung gegen Erdbeben (SM-1A: Fort Greely, Alaska) oder Umweltverschmutzungen. So mussten 14.000 t Boden aus der Antarktis (PM-3A: McMurdo Station, Antarctica) wegen Kontamination zurück in die USA verschifft werden.

Auch der Standort will wohlüberlegt sein: So versorgte der MH-1A Reaktor mit 10 MWel Leistung zwar 10 Jahre lang den Panamakanal kostengünstig mit Strom, wurde aber aus politischen Gründen (Übergabe des Kanals an Panama) wieder zurück in die USA geschleppt. Eine neue Verwendung fand sich für dieses schwimmende Kernkraftwerk nie mehr. Ein ähnliches Schicksal erlitt der PM-1 (731st Air Force Radar Squadron, Wyoming), weil die Sundance Radar Site vorzeitig geschlossen wurde. Das zugehörige Frühwarnsystem hatte sich durch Einführung der Interkontinentalraketen erübrigt.

Der erste Standort

Im Eielson Luftwaffenstützpunkt in Alaska soll nun bis 2027 der erste Mikroreaktor eingesetzt werden. Er wurde unter folgenden Gesichtspunkten ausgewählt:

  • Abgelegener Standort in einer kargen Umgebung. Die Unabhängigkeit der Technologie soll dadurch demonstriert werden und die Fähigkeit unter extremen Umgebungsbedingungen zu arbeiten.
  • Integration des „Kernkraftwerks“ in die vorhandene Infrastruktur eines Standorts.
  • Es handelt sich um einen für die Verteidigung strategisch wichtigen Standort, der von der Energieresilienz profitieren könnte.
  • Politische Unterstützung auf bundesstaatlicher und lokaler Ebene.

Der Luftwaffenstützpunkt Eielson liegt in einer Entfernung von etwa 50 km von Fairbanks. Die Tiefsttemperatur im Winter kann -62°C betragen. Im Sommer sind hingegen 26°C üblich. Wie lebenswichtig Wärme und Strom unter solchen Bedingungen sind, zeigen die in jedem Gebäude angebrachten Hinweisschilder: Bei Außentemperaturen unterhalb -40°C erfolgt eine Evakuierung innerhalb von 30 Minuten nach Ausfall der Heizung.

Der Mikroreaktor muss in das vorhandene Fernwärmenetz und die Stromversorgung des Stützpunkts integriert werden. Hauptsächlich wird der Stützpunkt durch ein eigenes Kohlekraftwerk (6 Kessel) versorgt, welches durchschnittlich 500 t Kohle pro Tag verfeuert. Im Winter steigt der Verbrauch auf bis zu 800 t täglich. Die Kohle wird durch die Eisenbahn angeliefert. Es wird ein Vorrat für 90 Tage auf dem Gelände vorgehalten.

Es ist ein Reaktor mit 1 bis 5 MWel ausgeschrieben, der mindestens zwei Jahre ohne Brennstoffwechsel läuft und über eine (geplante) Lebensdauer von 30 Jahren verfügt. Es wird eine Zulassung der Atomregulierungskommission (NRC) vor Inbetriebnahme gefordert, und es müssen alle Vorschriften und Regularien des Bundesstaats eingehalten werden. Dies ist bemerkenswert. Das DoD verzichtet ausdrücklich auf seine (möglichen) Sonderrechte und verlangt eine zivile Zulassung. Das könnte einerseits zu Kosten- und Terminüberschreitungen führen, andererseits wäre eine unmittelbare kommerzielle Nutzung möglich.

Genau dies ist ein wesentlicher Grund dieses Vorhabens. Es ist typische Industriepolitik der USA. Alle wissen, dass der Bau eines Prototyps unter den geltenden staatlichen Rahmenbedingungen kaum von der Industrie allein getragen werden kann. Deswegen unterwirft sich der Staat in der Funktion des Verteidigungsministeriums den eigenen – von ihm selbst geschaffenen – Fesseln. Zahlen muss eh der Steuerzahler. Hat das „Rüstungsprojekt“ den erwarteten Erfolg, kann die sofortige (dann kalkulierbare) wirtschaftliche Verwertung zum beidseitigen Vorteil von Militär und Industrie beginnen. Ein in den USA vielfach erprobtes Verfahren: Man denke nur an die gesamte Elektronik, Luftfahrt und Satellitentechnik.

Erfordernisse des Standorts

Im Einklang mit dem nicht-kommerziellen Charakter des Projekts werden die Prüfung und der Betrieb dieses Reaktorprototyps mit Genehmigung des Energieministeriums (DOE) durchgeführt. Die Atomregulierungskommission (NRC) beteiligt sich als unabhängige Sicherheitsaufsichtsbehörde an diesem Projekt. Bezüglich des Standorts müssen folgende Nachweise erbracht werden:
•    Geologie und Seismologie
•    Extreme Wetterbedingungen und ihre Verteilung
•    Ausschlussgebiete
•    Einwände und Bedenken der Bevölkerung
•    Notfallpläne
•    Sicherheitsvorkehrungen
•    Hydrologie
•    Industrie-, Militäranlagen und Transporteinrichtungen
•    Ökosystem und Biotope
•    Landnutzung und Ästhetik
•    Sozioökonomische Verhältnisse
•    Lärmbelastung

Ausgewählte Reaktoren

Für dieses Projekt wurden nur Reaktoren der sog. 4. Generation (GEN IV) zugelassen. Für eine stationäre Version wurde X-energy (bis 75 MWel) und für eine mobile Version BWXT (bis 5 MWel) ausgewählt. Bei beiden Reaktoren handelt es sich um gasgekühlte Hochtemperaturreaktoren. Beide verwenden TRISO (TRi-structural ISOtropic) Brennelemente mit erhöhter Anreicherung (HALEU, High-Assay Low Enriched Uranium).

BWXT (Babcock & Wilcox X-Technologies) ist der einzige US-Hersteller von TRISO-Kügelchen auf der Basis von Uran Oxycarbid. Sie sind mit mehreren Schichten aus Kohlenstoff und Siliciumcarbid ummantelt. Siliciumcarbid wird z.B. als Schleifmittel für optische Gläser eingesetzt. Dieser Brennstoff wurde im Dauerbetrieb unter Strahlung in Forschungsreaktoren bei über 1.000°C getestet. Er bleibt bei Temperaturen bis zu 1.850°C nahezu unverändert, alle Spaltprodukte bleiben eingeschlossen. Nach 15 Jahren Entwicklung ist nun die erste Fabrik zur Massenproduktion in Betrieb. Es ist eine Weiterentwicklung der deutschen Kugelhaufen-Elemente aus den 1980er Jahren. Die Weiterentwicklung und Anwendung wurde in Deutschland aus ideologischen Gründen eingestellt.

HALEU hat eine Anreicherung von U235 auf bis zu 19,75 Prozent. Zur Zeit wird es noch durch Verschneiden von waffengrädigem Uran gewonnen. Auf Grund der veränderten politischen Situation durch den Überfall der Ukraine – bisher verkaufte Russland billig solch höher angereichertes Uran – wird mit Hochdruck eine neue Zentrifugen-Kaskade speziell für HALEU gebaut.

Pele und BANR

BWXT hat den Entwicklungsauftrag (formal cost-sharing contracting) vom Energieministerium DOE für einen transportablen Kleinreaktor mit einer Leistung bis 50 MWth erhalten. Der BANR (BWXT Advanced Nuclear Reactor) dürfte mit seiner Leistung von etwa 17 MWel für das Militär schon zu groß sein. Für den BANR sind TRISO-Kügelchen mit einem Kern aus Urannitrid vorgesehen. Die erste Ladung für Tests im National Laboratory’s (INL) Advanced Test Reactor ist für 2024 eingeplant.

Das Verteidigungsministerium (DoD), vertreten durch sein Strategic Capabilities Office (SCO) und das Energieministerium (DOE), beauftragten den Bau eines mobilen Mikroreaktors mit einer Leistung von bis zu 5 MWel für die Eielson Luftwaffenbasis. Dieses „Kernkraftwerk“ soll in einen handelsüblichen 20-Fuß Container eingebaut werden. Parallel läuft die Begutachtung des Standorts durch die US Nuclear Regulatory Commission (NRC). Bei Lichte betrachtet, geht es hier um eine Übung für den Bau eines Kernkraftwerks mit einem völlig neuen Reaktortyp auf der Überholspur. Kernforderung ist wirklich die Mobilität (20-Fuß-Container).

Dies muss man im Zusammenhang mit der Elektrifizierung des Kriegs sehen: Die Entwicklung der Laser zur „munitionslosen“ Raketen- und Drohnenabwehr macht unerwartete Fortschritte. Hybridfahrzeuge (kleine Infrarotsignatur, nahezu geräuschlos) sind weltweit im Gespräch. Was aber bisher fehlt, ist eine adäquate Stromversorgung. Deshalb liest sich auch das Konsortium für Pele wie das Who is Who der amerikanischen Rüstungsindustrie: Hauptauftragnehmer ist BWXT (baut unter anderem alle Reaktoren für die Navy). Die führenden Unter-Auftragnehmer sind Northrop Grumman Aerojet, Rocketdyne, Rolls-Royce LibertyWorks und Torch Technologies, Inc.

Nachbetrachtung

Unter dem Radar – zumindest unserer woken Medien – vollzieht sich hier eine kleine industrielle Revolution. Sie erinnert fatal an den Übergang vom Rechenzentrum zum PC oder vom „Handy“ zum Smartphone. Gerade die geringe Leistung ergibt völlig neue Märkte: dezentrale Strom- und Wärmeproduktion für Industrie und (kleine) Städte. Der alte Gedanke vom Blockheizkraftwerk erlebt eine Renaissance, aber diesmal mit preisgünstigem Brennstoff und ohne Abgase und Lärm. Durch die Mobilität ergibt sich eine völlig neue Geschäftsidee: das Kernkraftwerk zum Mieten. Es ist kein Kapitaleinsatz für eine notwendige Wärmeerzeugung mehr nötig.

Der Gedanke der Dienstleistung könnte Einzug in die Energiewirtschaft halten. Das E-Auto und der E-LKW könnten Realität werden, wenn es erst die Autobahntankstelle mit Mikroreaktor gibt (Ladezeiten). Und Vorsicht, wir reden hier nicht über Science Fiction, der erste Reaktor soll bis 2027 – also in nur vier Jahren – in Eielson laufen. Schauen wir mal, wie viele Windmühlen unser Robert bis dahin gebaut hat.

Dieser Beitrag erschien zuerst auf nukeKlaus.net

 




Tiefengeothermie – wie könnte Schleswig-Holstein von der Erdwärme profitieren?

von Bernd Packulat

Wir schreiben Januar 2023, uns Bürger bewegen aktuell die Energiepreise und die Sparaufrufe der Bundesregierung wegen des Erdgasembargos und die Bemühungen um die kurzfristige Schaffung einer Infrastruktur für LNG-Importe.

Die lokale Politik-Prominenz unserer Gemeinde möchte als „Klimaschutzmaßnahme“ ein Fernwärmenetz aufbauen, um durch Stilllegung der Gasthermen in den Einzel-, Doppel- und Reihenhäusern die Welt zu retten.

Damit ist es an der Zeit, sich mit den aktuellen Gegebenheiten der Geothermie zu beschäftigen!

Der NDR berichtete sehr ausführlich am 24.01.2023 von der Tagung des Bundesverbandes Geothermie in Neumünster, der Beitrag

„Tiefengeothermie: So können wir von Erdwärme profitieren“

ist hier abrufbar.

Inga Moeck – Professorin für Angewandte Geothermik und Geohydraulik – …sagt: Verlässliche Daten [der Gesteinsstrukturen mit Geothermie-Potential im tieferen Untergrund] sind da – jetzt brauche es den nächsten Schritt. „Wir warten jetzt nur noch auf die Stadtwerke, die sich diese Daten angucken und sagen: Wo deckt sich der Wärmebedarf mit dem Angebot aus dem Untergrund?“, sagt die Fachfrau. Sie kennt die große Hürde bei der Geothermie: Am Anfang koste es ziemlich viel Geld – doch danach sei das alles sehr wartungsarm. „Dann hat man es eigentlich geschafft“, meint Moeck und verweist auf die Unterstützung durch den Staat. „Da muss man als Kommune nur willig sein, dann kriegt man eine Förderung vom Bundeswirtschaftsministerium.“

Ebenfalls berichtete das Hamburger Abendblatt am 27.01.2023 unter der Überschrift „Energieexkursion ins Erdreich“ von den zu erwartenden Erfolgen des Geothermie-Projekt in Wilhelmsburg, der Beitrag ist leider nur als Print und e-paper verfügbar. Von diesem Projekt berichtete ich bereits auf EIKE am 01.08.2022 unter dem Titel „Der Ausbau der Geothermie in Wilhelmsburg stockt“.

Als Literaturquelle bietet sich hierfür zusätzlich zu den Artikeln der Internetauftritt Norddeutsche Geothermie-Tagung an, hier sind die Fachvorträge aller Jahrestagungen ab 2008 gelistet.

Bereits 2011 hielt Claudia Thomsen den Vortrag „Geothermische Potenziale in Norddeutschland am Beispiel Schleswig-Holsteins“.

Bild 1: Potentielle Gebiete in Deutschland für die hydrothermische Nutzung

Potentiell nutzbare Sandsteine sollen Dogger, Oberer Keuper und Mittlerer Buntsandstein sein.

Wie nachfolgendes Bild 2 zeigt, weisen um Hamburg herum die Kreise Pinneberg, Segeberg und Bad Oldesloe, also die Region nördlich Hamburg keine Vorkommen dieser Sandsteine auf.

Ein Bild, das Text enthält. Automatisch generierte Beschreibung

Bild 2: Potentialgebiete für hydrogeothermische Nutzung in Schleswig-Holstein

Eigentlich stellt Schleswig-Holstein im Gegensatz zum nördlichen Niedersachsen kein potentielles Nutzungsgebiet dar. Die Landschaft ist von geotektonischen Verwerfungen gekennzeichnet, wasserführende Sandsteinschichten werden durch diese Verwerfungen sehr häufig unterbrochen.

Bild 3 Geotektonische Verwerfungen in Schleswig-Holstein

2022 halten Frank Kabus und Rafael Mathes den Vortrag „Tiefe Geothermieprojekte mit Großwärmepumpen im Norddeutschen Becken“.

Im Bild 4 werden auf Folie 7 die Bedingungen für zu erwartenden Wärmequellleistung gelistet:

Ein Bild, das Text enthält. Automatisch generierte Beschreibung

Bild 4 Wärmequellleistungen von Wärmepumpen

Im Bild 5 werden auf der Folie 8 die 3 Varianten der Hydrothermalen Technologie beschrieben.

Bild 5: Hydrogeothermale Technologien

Unter dem Aspekt, das in weiten Teilen Schleswig-Holsteins nur Temperaturen unter 60°C in einer Tiefe von ca. 1.300 m vorhanden sind, kommt also nur die Variante 3 „Wärmepumpen“ zum Tragen.

Bild 6 Variante 3 Wärmepumpe

Als Praxisbeispiel sei die Anlage Schwerin angeführt.

Bild 7 Beispiel Schwerin Rahmenbedingung

Ein Bild, das Tisch enthält. Automatisch generierte Beschreibung

Bild 8 Beispiel Schwerin Ergebnisse

Doch wie ist hier der Stand der Großwärmepumpen?

2022 hielt Matthias Utri den Vortrag „Großwärmepumpen für die Geothermie: Technik, Verfügbarkeit und Einsatzmöglichkeiten“.

Die Variante 3 wird nochmals im Bild 9 dargestellt.

Bild 9: Der einfache Wärmepumpenkreislauf

Nachfolgende Tabelle im Bild 10 soll uns vermitteln, das international mehr als 25 Standorte von Großwärmepumpen bekannt sind, leider zeigt die Tabelle keine Standorte mit einer Senkentemperatur < 60°C, die nach meinem Verständnis für unsere geologischen Anforderungen nötig wären:

Bild 10: Verfügbare Großwärmepumpen

Die Effizienz und der Entwicklungsbedarf werden in folgender Folie dargestellt:

Bild 11 Effizienz von Großwärmepumpen

Bild: 12 Wirtschaftlichkeit von Großwärmepumpen

Bemerkenswert ist im Bild 12 die Bewertung der Energiekosten, mit Stand Mai 2022 betrug das Verhältnis Strom zu Gas in Deutschland stolze 3,8! Wie sich das Verhältnis heute und morgen darstellt, wäre interessant!

Die Autoren Referent Frank Kabus und Rafael Mathes fassen Ihre Ergebnisse im Bild 13 zusammen:

Ein Bild, das Text enthält. Automatisch generierte Beschreibung

Bild 13: Zusammenfassung und Arbeiten am Fraunhofer IEG

Fazit:

Wie der NDR am 24.01.2023 berichtet, gibt es große Hürden für den Einsatz der Geothermie:

  • Am Anfang koste es ziemlich viel Geld – doch danach sei angeblich alles sehr wartungsarm.
  • Als Kommune muss man nur willig [und risikobereit] sein, dann kriegt man eine Förderung vom Bundeswirtschaftsministerium.
  • Die Kommunen müssen sich grundsätzlich erstmal fragen, wie viel Wärme sie überhaupt brauchen, wie sich dieser Wärmebedarf verteilt und wo gute Anschlusspunkte an dieses Wärmenetz sein könnten.
  • Der Erkundungsprozess und die erste Bohrung dauere etwa zweieinhalb Jahre. „Mit der ersten Bohrung kann man schon warmes Wasser fördern, dann ist eine zweite Bohrung nötig, um den Thermalkreislauf zu testen“, sagt Moeck – und dann wisse man genau, mit was für einer Wärmeleistung man rechnen kann.
  • Was hat das Projekt in Schwerin gekostet?
    Gekostet hat es bisher 20,5 Millionen Euro – und man gehen davon aus, dass das Budget einhalten werden kann!
    Das Projekt soll sich auf jeden Fall rechnen, man setzt auf die Teuerung der fossilen Energien an den an den Großhandelsmärkten.

Nachtrag:

Leider behandelt man in den Vorträgen zur Tiefengeothermie nicht die Frage nach der Bereitstellung der zusätzlichen Elektroenergie, die zum Betrieb der Großwärmepumpen und Wärmenetze erforderlich ist.

Nach der Abschaltung und dem Rückbau der deutschen Kernkraft- und Kohlekraftwerke liefern bei Dunkelflaute die Windkraft- und Photovoltaikanlagen leider keine Elektroenergie.

Wenn Träume sterben, dann bleibt es kalt.

Über den Autor

Der Autor ist Dipl. Ing der Elektrotechnik und seit 2017 in Lokalpolitik tätig