Schwimmflügel für die Kernkraft

Russland befüllt jetzt mit den notwendigen Brennelementen das erste schwimmende Kernkraftwerk zur Versorgung von Verbrauchern an Land  Es ist die Akademik Lomonossow, deren Reaktoren von 2 x 35 MW Weiterentwicklungen der im jahrzehntelangen Einsatz befindlichen Reaktoren der russischen Eisbrecherflotte sind. Insbesondere asiatische Inselstaaten melden Interesse an.

Von Petr Zikmund.

Ende Juli begann im Nordhafen Murmansk die Beladung des weltweit einzigen schwimmenden Kernkraftwerks mit Brennstoff (Die Achse berichtete bereits). Das einzigartige Projekt zieht eine erhöhte Aufmerksamkeit auf sich: Mobile Atomkraft auf dem Wasser – lohnt sich das und ist es überhaupt sicher? Greenpeace nimmt seine übliche Position. Rosatom setzt sich für die Sicherheit des Projekts ein und erwartet, dass daraus ein Exportschlager wird.

Ab 2019 wird das schwimmende Atomkraftwerk Akademik Lomonossow, das erste seiner Art, mit der Strom- und Wärmeversorgung der Hafenstadt von Pewek im Nordosten Sibiriens beginnen, wo es zwei technologisch veraltete Erzeugungsanlagen ersetzen wird: das Atomkraftwerk Bilibino und das Wärmekraftwerk Tschaunskaja. Damit wird es zum nördlichsten Atomkraftwerk der Welt.

Zuvor wurde das Reaktorschiff, 144 Meter lang und 30 Meter breit, mit Hilfe von Schleppern durch die Ostsee von St. Petersburg, seiner „Wiege“, nach Murmansk transportiert – nun beladen dort die Experten von Atomflot, einer Tochtergesellschaft von Rosatom, die Reaktoren mit Kernbrennstoff. Die Akademik Lomonossow ist mit zwei Reaktoren mit je 35 MW Leistung ausgestattet (also beträgt die Gesamtkapazität der Anlage 70 MW), basierend auf den Technologien, die seit Jahrzehnten in Eisbrechern verwendet werden – naturgemäß angepasst und aktualisiert. Somit kann angenommen werden, dass die Zuverlässigkeit der Reaktoren von der Akademik Lomonossow durch langfristigen Betrieb der weltweit einzigen Atomeisbrecherflotte erwiesen ist. Diese Ansicht wird jedoch nicht von allen geteilt.

Greenpeace zeigt sich besorgt – seine Vertreter eifern anscheinend miteinander um die Wette, die Akademik Lomonossow in zwei oder drei Worten möglichst prägnant zu stigmatisieren, sie lefern sich sozusagen einen Wettbewerb um die beste Metapher. Die Spitzenanwärter:  „Tschernobyl auf Eis“ und “Nukleare Titanic“.

Im Allgemeinen halten sich die Umweltschützer an ihre traditionelle Rhetorik gegen Kernenergie und betonen, dass es sich um Kernreaktoren handelt, die nach ihrer Ansicht auf See noch mehr Risiken mit sich bringen. Besondere Bedenken verbindet der Greenpeace-Experte für Atomenergie Heinz Smital mit der von Russland geplanten Serienproduktion von schwimmenden Atomkraftwerken.

Geht die Akademik Lomonossow in Serie?

Bei Rosatom wiederum sieht man keinen Grund, die Sicherheit der Akademik Lomonossow zu bezweifeln: die Anlage sei mit hoher Sicherheitsreserve konzipiert, die alle möglichen Bedrohungen abdeckt und die Reaktoren gegenüber Tsunamis und anderen Naturkatastrophen unverwundbar macht. Offenbar gibt es hier einen direkten Bezug auf die Fukushima-Katastrophe im Jahr 2011, die, wie einst Tschernobyl, erhöhte Aufmerksamkeit auf nukleare Sicherheit und ihre Verbesserungsmöglichkeiten lenkte.

Die zwingende Notwendigkeit der Einhaltung aller Sicherheitsstandards, einschließlich der sicheren und umweltgerechten Behandlung der Brennstoffe, hebt Prof. Dr. Marco K. Koch, Vorstandsmitglied der Kerntechnischen Gesellschaft e.V., Leiter der Arbeitsgruppe Plant Simulation and Safety an der Ruhr-Universität Bochum hervor: Kleine modulare Reaktoren (die insbesondere auf der Akademik Lomonossow installiert sind) besitzen gewisse Vorteile, meint der Experte, wie beispielsweise die Kombination von aktiven und passiven Sicherheitssystemen, erhöhte Kühlungschancen im Falle eines hypothetischen Störfalls sowie ein dynamischeres An- und Abfahrverhalten.

Welche Aussichten bestehen also für die Akademik Lomonossow, wenn das Schiff seinen Betrieb beginnt? Wird es „Nachfolger“ haben? Rosatom blickt optimistisch in die Zukunft: Generaldirektor Alexej Lichatschow meldete schon früher Interesse an schwimmenden Kernkraftwerken aus mehreren südostasiatischen Ländern. Konzepte kleiner modularer Reaktoren könnten für Länder mit Inselnetzen tatsächlich interessant werden, glaubt Prof. Dr.-Ing. Thomas Schulenberg, Leiter des Instituts für Kern- und Energietechnik (IKET) am Karlsruher Institut für Technologie: „Darunter verstehen wir Netze, die nicht verbunden sind wie in Europa, sondern lokal begrenzt“, erläutert er.

Hier ist auch die Finanzseite sehr wichtig – besonders wenn es Entwicklungsländer angeht: Ein Entwicklungsland habe große Probleme, eine Summe von 10 Milliarden Euro für ein großes Kernkraftwerk zu bekommen – einen Kredit für eine zehnmal kleinere Summe bekommt man deutlich einfacher, so Schulenberg. Auf diese Weise könnte der Einsatz gleichartiger Anlagen wie die Akademik Lomonossow auf lange Sicht zur Erweiterung des Klubs von Staaten führen, die die Atomenergie nutzen.

Der Autor Petr Zikmund ist Tscheche, lebt seit 2016 in Deutschland und arbeitet als freier Journalist mit den Schwerpunkten Energiepolitik, -wirtschaft und -versorgung. 

Übernommen von ACHGUT hier




Alleserklärer vom ZDF – Prof. Harald Lesch verwendet gefälschte Grafik

Von Michael Limburg mit Material vom Klimamanifest von Heiligenroth
Harald Lesch gibt gern den allwissenden, ehrlichen Wissenschaftler, der so viel mehr weiß als alle anderen, so dass er nichts dabei findet auch Kollegen – Wissenschaftler, die anderer Meinung sind, darüber zu belehren, dass sie von ihrer Materie keine Ahnung haben.

So auch bei einigen seiner jüngeren Vorträgen zum Klima und hier insbesondere den Kollegen, die im Buch „Die kalte Sonne“ den solaren Einfluss und die von ihm getriggerten atlantischen und pazifischen Strömungen als Haupttreiber für die Klimaänderungen der Vergangenheit ausgemacht hatten. Diese erklären die Temperaturschwankungen der Vergangenheit recht gut, jedenfalls wesentlich besser, als die dafür getunten Computermodelle, die grundsätzlich alle natürlichen Einflüsse weglassen, wie es uns der Meteorologe Schönwiese (siehe Video unten) vor einiger Zeit erklärte.

Anzunehmen, dass die Sonne maßgeblichen Einfluss hättte, wäre einfach absurd, meint jedoch der Klimaexperte Lesch, schließlich sei die Sonne der am Besten untersuchte Stern des Universums.

Um seine Zuhörer zu überzeugen, verwendet er dazu eine recht komplizierte Grafik mit diversen Zeitreihen, die zeigen sollen, dass die Sonne nicht der Treiber ist. Das Problem dabei. Die Grafik wurde verfälscht. Seine Grafik wurde so „getuned“, dass sie bis kurz hinter das Jahr 2015 reicht. Die Daten taten das aber nicht, sie enden bereits kurz hinter dem Jahr 1990. Eine grobe und ganz bewusste Fälschung:

Es fällt schwer zu glauben, dass dem Viel- und Besserwisser Lesch diese Fälschung nicht auffiel.

Video vom Klimamanifest von Heiligenroth über H. Leschs Erklärungen mit gefälschter Grafik und einigen Verdrehungen, Irreführungen und anderen Unklarheiten des ZDF-Vorzeige-Erklärers Harald Lesch

Das Klimamanifest von Heiligenroth schreibt dazu:

Denn wir hatten in der letzten Woche die Information erhalten, dass Harald Lesch in jedem seiner drei öffentlich-gehaltenen Vorträgen im Jahr 2018, die auch bei Youtube hoch geladen worden sind, eine gefälschte Grafik verwendet hat, die im Ursprung mit einer ganz anderen Aussage bei WIKIPEDIA.DE zu finden ist.

Diese kritische Behauptung haben wir natürlich sofort überprüft. Und wahrhaftig: Die WIKIPEDIA-Grafik war gefälscht, sogar sehr plump und dilettantisch  gefälscht und wir haben über unsere Recherchen und Erkenntnisse nun ein 32-minütiges Video erstellt, was den Sachverhalt im Detail erklärt..Zusätzlich im Video haben wir noch zwei weitere „Peinlichkeiten“über Harald Lesch thematisiert, die ebenfalls dokumentieren, wie Harald Lesch seine Zuschauer und Zuhörer mit definitiv falschen Fakten täuscht. So täuscht Harald Lesch in seinen Vorträgen seine Zuhörer über angebliche „Temperaturprognosen“ und im ZDF bei Markus Lanz über angebliche „Hitzerekorde im Sommer 2018„. Diese beiden Täuschungen werden in dem obigen Video von uns aufgedeckt.

Abgesehen von der Frage, ob Lesch die Grafik insgesamt als Fälschung hätte erkennen können oder nicht, hätte er aber erkennen müssen, dass in dem letzten Sektor der Grafik fünf Jahre fehlen und die Grafik deshalb alleine schon angreifbar gewesen ist. Die fehlenden fünf Jahre in der Skalierung des Schluss-Sektors hätten Lesch definitiv auffallen müssen, und deshalb hätte Lesch die Grafik niemals verwenden dürfen. Diesem Vorwurf kann sich Lesch nicht entziehen, auch wenn das Erkennen der Grafik als Gesamt-Fälschung womöglich, auf den ersten Blick jedenfalls, nicht so leicht möglich gewesen ist. Die fehlerhafte Skalierung aber hätte Lesch jederzeit auffallen müssen.

Vielleicht fiel ihm die Fälschung auch auf, und er brachte sie trotzdem, vielleicht fiel sie ihm nicht auf. Wer weiß das schon bei diesem vielbeschäftigten Mann? Wir können hier nur Vermutungen anstellen.

Allerdings nahm es Kollege Lesch auch in der Vergangenheit nicht immer mit der Wahrheit so genau, z.B. als er im Sommer 2016 fälschlich behauptete, er hätte versucht das EIKE Büro in Jena zu besuchen und „denen“ (also EIKE) hinterher telefoniert zu haben. Nichts davon war wahr.

Das Klimamanifest von Heiligenroth hat diese Fälschung und einige weitere Verdrehungen und Irreführungen des Harald Lesch in einem unglaublichen Video zusammen gefasst. Man muss es gesehen haben, um es zu glauben. Dem Leser, der uns auf diese Fälschung aufmerksam machte sei an dieser Stelle herzlich gedankt. Er wird auch im Abspann des obigen Videos anonymisiert dankend genannt.

Es wäre auch wohl sehr hilfreich, wenn jeder, der das obige Video gesehen hat, eine Mail an das ZDF schreibt, damit das ZDF durch öffentlichen Druck dazu gezwungen wird, für Aufklärung in dieser Angelegenheit zu sorgen und dafür zu sorgen, dass Harald Lesch zu den Vorwürfen öffentlich Stellung nimmt.

Video nicht mehr verfügbar
Kurzversion des Videos (17 Minuten) vom Klimamanifest von Heiligenroth über H. Leschs Erklärungen mit gefälschter Grafik und einigen Verdrehungen, Irreführungen und anderen Unklarheiten des ZDF-Vorzeige-Erklärers Harald Lesch




Worüber hier niemand berichtet: Die australische Regierung verspricht, grüne Subventionen aufzugeben und Klimaziele zu ignorieren

Der neue australische Energieminister Angus Taylor hat eine neue Energiepolitik vorgestellt, die sich ausschließlich auf die Senkung der Strompreise konzentriert. In einem starken Signal wird die Regierung Morrison alle Anstrengungen zur Senkung der CO2-Emissionen aufgeben. Der Umzug kommt eine Woche, nachdem das Problem des Klimawandels die Absetzung des ehemaligen Premierministers Malcolm Turnbull ausgelöst hat. - The New Daily, 30. August 2018


Subventionen für erneuerbare Energien und Emissionsreduktionsziele werden durch eine Senkung der Strompreise unter der Regierung Morrison ersetzt. Der neue Energieminister Angus Taylor sagte, die Energiepolitik des Bundes sei "ein Durcheinander" gewesen und die Tatsache, dass die Preise gestiegen sind, während Blackouts anhalten, bedeutet, dass etwas "schrecklich schief gelaufen" ist. Der Daily Telegraph ist sich darüber im Klaren, dass Emissionsreduktion auch in der Energiepolitik keine zukünftige Rolle spielen wird. - The Daily Telegraph, 30. August 2018
 
 
Der neue Premierminister - der einen Kohleklumpen ins Parlament gebracht hat und Labour wegen "Koalaphobie" beschuldigte - wird von Kollegen unter Druck gesetzt, saubere Kohletechnologie zu unterstützen. Ob es um die Randplätze in Queensland, West Sydney oder Victoria geht, die Botschaft ist klar: Die Wähler wollen Maßnahmen zu Energiepreisen und nicht zu Emissionszielen. - Geoff Chambers, Der Australier, 28. August 2018



Die Irreführungen und Halbwahr­heiten des ZDF-Fernseh­professors Harald Lesch – eine Richtig­stellung aus meteoro­logischer Sicht

Stefan Kämpfe
Das am 14.08.2018 gesendete Interview von Herrn Lesch enthielt aus meteorologischer Sicht zahlreiche Irreführungen und Halbwahrheiten, welche einer Klarstellung bedürfen. Es wird nur auf die schlimmsten Fehler eingegangen; die Aussagen des Herrn Lesch sind sinngemäß wiedergegeben.

Noch nie gab es im Sommer Brände diesen Ausmaßes in Deutschland, wie im Sommer 2018“.

Das ist falsch – Ältere erinnern sich vielleicht an die verheerenden Brände in der Lüneburger Heide im Dürre-Sommer 1975. Es brannten etwa 8.000 Hektar Wald. Näheres dazu hier bei Wikipedia. Und sommerliche Dürren gab es schon immer – Ältere erinnern sich sicher noch an 1911, 1947, 1959, 1975, 1976 und 1982. Im Sommer 1969 blieb der Regen in Südschweden zwei Monate gänzlich aus.

Das Wort Starkregen gibt es im Deutschen noch nicht lange. 90ig- jährige können sich an so was gar nicht erinnern.“

Da hätte ein Blick in ältere Aufzeichnungen gewiss geholfen- schwerste Sommer- Überschwemmungen in Deutschland gab es beispielsweise im Juli 1954. Und auch lokale Ereignisse durch Unwetter traten leider immer wieder auf, so in Bruchstedt/Thüringen 1950, Näheres dazu hier. Auch in früheren Jahrhunderten traten sie auf, und zwar viel schlimmer als die 2018er Ereignisse, man denke nur an die „Thüringer Sintflut“ von Ende Mai 1613 hier und die vermutlich schwerste Naturkatastrophe Deutschlands, das Sommerhochwasser von 1342 hier.

Wenn die Winter immer trockenen werden… dann bleibt das Grundwasser zu niedrig… .“

Der Langfristtrend der DWD- Niederschlagswerte (Flächenmittel Deutschland) zeigt eindeutig das Gegenteil – unser Winter werden feuchter:

Je wärmer die Arktis wird, desto instabiler wird der Jetstream… . Dadurch kommt es unter anderem zu heißeren, extremeren Sommern.“

Das ist eine der ganz wenigen Aussagen des Herrn Lesch mit einem gewissen Wahrheitsgehalt. Allerdings fehlen auch hierfür eindeutige Beweise, denn der Jetstream wird auch sehr stark von anderen Faktoren, wie etwa der Sonnenaktivität oder Vulkanausbrüchen, beeinflusst. Die Datenlage hierfür ist dünn; der Zonalwind über Deutschland in der Mittleren Troposphäre (500hPa), welcher zumindest ein grobes Maß für die Stärke der Westwind- Zirkulation über Deutschland ist, wehte seit Aufzeichnungsbeginn (1948) sogar stärker; eigentlich müsste er bei schwindendem Arktiseis schwächer werden:

Auf der Nordhalbkugel ist es zurzeit ungewöhnlich heiß… .“

Es ist, gemessen am Langjährigen Mittel, im Juli auf der Nordhalbkugel um etwa 0,4 bis 0,5 Kelvin (entspricht 0,4 bis 0,5°C) zu warm gewesen- dramatisch ist das nicht, wie ein Vergleich mit dem Juli 1994 zeigt (Bildquellen: IRI International Research Institute):

Und dass es im März 2018 in großen Regionen der Nordhalbkugel markant zu kalt war, erwähnt Herr Lesch lieber nicht; auch hierzu die Karte (Die Anomalien beziehen sich bei allen 3 Abbildungen auf die Mittelwerte der Normalperiode 1971 bis 2000):

Die Nutzung der Windenergie ist noch lange nicht ausgeschöpft… .“

Das könnte falsch sein. Untersuchungen zeigen, dass der Wind in Deutschland bereits schwächer wird; hier eine Untersuchung mit DWD- Beaufort- Werten aus Norddeutschland:

Näheres zu dieser Problematik der Windkraft hier.

Zum Abschluss ein Wort zu den Äußerungen über den Hurrikan OPHELIA. Dass Hurrikane statt zur Karibik Richtung Europa ziehen; kommt immer mal wieder gelegentlich vor; wer alte Wetterkarten sichtet, wird fündig. [Eine ausführliche Analyse zu OPHELIA von Hans-Dieter Schmidt gibt es hier]. Eine „Hitzewelle“, wie in dem Interview behauptet, löste OHELIA zumindest in Deutschland nicht aus – denn es war schon Oktober. Und dass es da noch mal so um 25 Grad warm wurde, hatte mit der großräumigen Zirkulation zu tun – übrigens kann es immer mal bei uns im Oktober nochmals sommerlich warm werden – wer sucht, wird beispielsweise 2001, 1995 und 1985 fündig. Und gibt es immer mehr schwere Wirbelstürme? Die letzte Grafik zeigt keine Zunahme:

Übrigens – nach der intensiven 2017er Hurrikan-Saison wird eine sehr schwache 2018er Saison erwartet – Grund sind unter anderem negative Wassertemperaturen im tropischen Nordatlantik. Wieder einmal zeigt sich: ZDF bedeutet „Zwangsgebührenfinanzierte, desinformierende Falschmelder“ – armes Deutschland, wenn Du dafür auch noch Gebühren zahlen musst.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Erscheinungsbild – in eigener Sache!

von Redaktion
Beim Versuch einige Änderungen in unserem Webaufbau einzuführen, haben wir offensichtlich unbemerkt unser bisheriges Erscheinungsbild zerstört. Wir versuchen es sobald als möglich wieder herzustellen. Von Rückfragen, warum das jetzt anders aussieht, bitten wir abzusehen. Danke für Ihr Verständnis.




Merkels Verbündete üben auf diese Druck aus, die Kohlekraftwerke weitere 30 Jahren am Netz zu lassen

Merkels Regierung hat sich verpflichtet, etwa 120 Braun- und Steinkohle-Kraftwerke zu schließen, um Emissionen zu reduzieren, und plant im Oktober die Festlegung eines ultimativen finalen Ausstiegsdatums. Mit dem Näherrücken dieses Ultimatums haben sich sechs Bundesländer zusammengetan, in denen Kohleenergie ein zentrales Thema ist, um zu beantragen, die Lebensdauer dieser Kraftwerke zu verlängern. „Ein Zeitrahmen von 25 bis 30 Jahren wäre realistisch, das Kapitel Kohleenergie abzuschließen“, sagte Sachsens Ministerpräsident Michael Kretschmer in einem Interview in Leipzig. „Wir brauchen mehr Zeit, um die regionale Wirtschaft umzubauen, welche jetzt von Kohle abhängig ist“.

Merkel steht vor schwierigen Entscheidungen. Kohle-Länder, in denen die gleichen Parteien regieren wie in ihrer Koalition befürchten, dass eine rapide Reduktion fossil betriebener Kraftwerke ein riesiges ökonomisches Loch in ihre Regionen reißen und die Sicherheit der Energieversorgung gefährden würde. Aber Stein- und Braunkohle machen anteilmäßig ein Drittel der Kohlendioxid-Emissionen des Landes aus, welche zu reduzieren sich Merkel verpflichtet hat.

Die sechs Bundesländer, darunter auch Nordthein-Westfalen, wo die Versorger RWE AG, Uniper SE und STEAG GmbH ansässig sind, haben bei einer von Merkel eingesetzten Institution eine Petition eingereicht, den Kohleausstieg zu verschieben, und fordern ein besseres Gleichgewicht zwischen Klimazielen, Energiesicherheit und Strompreisen.

Die 28 Mitglieder umfassende „Kohlekommission“, bestehend aus Regierungsbeamten, Gewerkschaften, Versorgern und Umweltaktivisten, ist beauftragt, ein Datum zum Kohleausstieg festzulegen sowie Pläne zu erarbeiten, in welcher Reihenfolge Kraftwerke stillgelegt werden und wie man Kohleenergie ersetzen kann.

Ministerpräsidenten wie Kretschmer sowie diejenigen von Nordrhein-Westfalen, Sachsen-Anhalt, Saarland, Brandenburg und Niedersachsen machen sich Sorgen, dass Deutschlands müde Anstrengungen der Kürzung von Emissionen Merkel veranlassen könnte, einen raschen Ausstieg zu betreiben in Gestalt der Schließung einiger der ältesten Kohlekraftwerke. „Die Versuchung ist da“, sagte Kretschmer. „Das wäre wirklich voreilig“.

Bis zu 65.000 Arbeitsplätze hängen direkt und indirekt von der Kohle ab, vom Bergbau bis zur Energieerzeugung. Dies berechnet die Denkfabrik Psephos GmbH. In Sachsen, Brandenburg und Sachsen-Anhalt – allesamt Unterzeichner der Petition – stehen im nächsten Jahr Landtagswahlen an, wobei die populistische [?] Alternative für Deutschland AfD eine zentrale Rolle spielen dürfte.

——————————

Die ganze Story steht hier.

Link: https://www.thegwpf.com/merkel-allies-pressure-german-pm-to-keep-coal-plants-running-for-next-30-years/




Der heiße Sommer 2018 – Ein Dauer­brenner ist nun Geschichte

Der Sommer 2018 – eine klimatologische Einordnung

Mit etwa 19,3°C (DWD-Deutschlandmittel, vorläufige Schätzung) erlebten wir 2018 den zweitheißesten Sommer seit Beginn der DWD-Messreihe im Jahre 1881; nur der Sommer 2003 war mit 19,7°C noch etwas wärmer. Sehr warme Sommer (solche mit mindestens 18°C im Deutschland-Mittel) traten in der jüngsten Vergangenheit gehäuft auf (2015, 2006, 2003, 2002, 1994 und 1992), was die Diskussionen um eine CO2- bedingte Klimaerwärmung befeuert hat. Erste Zweifel kommen jedoch auf, wenn man die Entwicklung der Sommertemperaturen mit denen des Jahres und denen des Winters über die letzten 30 Jahre vergleicht:

Abbildung 1: Wärmere Sommer, geringfügig wärmere Jahre, aber etwas kältere Winter seit 30 Jahren in Deutschland. Auch wenn keiner der Trends hoch signifikant ist, wird die bevorzugte sommerliche Erwärmung deutlich. Warum sie so stark war, wird noch zu erörtern sein. Um alle drei Messreihen anschaulicher in einer Grafik darzustellen, wurden die Werte des Winters durch einfache Addition angehoben; die des Sommers abgesenkt; die linearen Trends und die zeitlichen Verläufe ändern sich gegenüber den Originalwerten dadurch nicht.

Weitere Zweifel kommen bei einem langfristigen Rückblick. Denn der Zeitraum ab 1881 erscheint zwar für unser meist nur 60 bis 90 Jahre währendes Dasein als relativ lang, aber erdgeschichtlich ist er bedeutungslos. Schon „unsere“ Warmzeit, das Holozän, lediglich eine kurze Warmphase in einer sicher noch Millionen Jahre dauernden Eiszeit, währt mit bislang etwa 10.000 Jahren Dauer für unser Vorstellungsvermögen schon ewig. Und in diesem geologisch immer noch winzigen Zeitraum finden sich Zeugen für ein wesentlich wärmeres Klima auf dem Gebiet des heutigen Deutschlands vor etwa 7.000 Jahren – die so genannten Travertine, das sind Süßwasserkalke, welche nur in warmen Klimaten, wie sie heute etwa in Ungarn oder dem Mittelmeerraum herrschen, abgelagert werden konnten. Die Juli-Temperaturen müssen dafür langfristig im Mittel mehr als 20°C erreichen. Die folgende Abbildung zeigt ein kleines, holozänes, etwa 6.000 bis 7.000 Jahre altes Travertinlager im Jenaer Pennickental:

Abbildung 2: Kleiner Wasserfall mit Bach der Fürstenquelle, welche als rezente Karstquelle ursprünglich den Travertin bildete, bei Jena. Zeitweise wurde dieser Süßwasserkalk auch abgebaut; daher die Steilstufe. Das stehende Gewässer im Vordergrund wäre für eine Neubildung von Travertin ideal – doch das Klima unserer Sommer ist dafür momentan zu kalt. Umfangreichere, teils wesentlich ältere Travertinlager finden sich um Weimar, Bad Langensalza und bei Stuttgart – allesamt Zeugen sommerwarmer Klimate, die ganz ohne menschliche CO2-Emissionen herrschten. Foto: Stefan Kämpfe

Vor etwa 7.000 Jahren müssen unsere Sommer also merklich wärmer als momentan gewesen sein; und auch für das „Römische Klimaoptimum“ um die Zeitenwende, als Hannibal über die Alpen ziehen konnte, muss ein sommerwarmes Klima angenommen werden. Erste, eindeutige Quellenbelege für heiße Sommer finden sich mit dem Beginn des Mittelalters, als der Weinanbau zeitweise bis nach Schottland reichte und die Wikinger Island, Grönland und Nordamerika besiedelten. Dabei sollen, vermutlich intensiver als seit 1990, sehr heiße, trockene Sommer über Jahrzehnte gehäuft aufgetreten sein; so nennt RÜDIGER GLASER in seiner „Klimageschichte Mitteleuropas“ (2008) etwa die Perioden von 1080 bis 1120 und von 1180 bis 1250. Diese Phasen oft sehr heißer Sommer endeten um 1350, als sich die „Kleine Eiszeit“ ankündigte. Aber selbst in dieser fehlten heiße, teils extrem dürre Sommer nicht völlig. Herausragend war das Jahr 1540 mit 26 Wochen fast ohne Regen, extremer Hitze und einem hervorragenden Wein, der noch über zwei Jahrhunderte gelagert und nur zu besonders festlichen Anlässen kredenzt wurde. Leider wurde das Thermometer erst später erfunden. Erste, halbwegs verlässliche, durchgängige Messungen wurden in Zentralengland durchgeführt. Auch wenn die dortigen atlantischeren Klimaverhältnisse nicht bedingungslos mit denen in Deutschland vergleichbar sind, lohnt sich ein Blick dorthin; denn er offenbart, dass es erstens längere sommerliche Erwärmungsphasen schon immer gab, und dass zweitens die sommerliche Erwärmung insgesamt seit dem Maunder-Minimum, dem Höhepunkt der „Kleinen Eiszeit“, recht bescheiden ausgefallen ist:

Abbildungen 3a bis 3c: Sommerliche Temperaturentwicklung in Zentralengland (CET). Während sich die Sommer am Ende des Maunder-Minimums vor etwa 300 Jahren merklich erwärmten (so ähnlich wie momentan in Deutschland), verharren sie nun, anders als gegenwärtig in Deutschland, auf einem hohen Temperaturniveau. Die sommerliche Gesamterwärmung fiel mit knapp 0,4K über 360 Jahre sehr bescheiden aus, zumal ja die Messreihe mitten in der „Kleinen Eiszeit“ beginnt. Der 2018er Sommer wurde optimistisch auf 17,6°C geschätzt; der bislang wärmste Sommer war dort auf jeden Fall der von 1976 mit 17,8°C.

Während 2003 neben dem August vor allem der Juni herausragend warm in Deutschland ausfiel, wiesen diesmal Juli und August die größte Hitze auf. Außerdem währte dieser 2018er Sommer ungewöhnlich lange; denn seit Mitte April hielt sich das sommerliche Wetter mit nur kurzen Unterbrechungen bis in die letzte Augustdekade.

Die Niederschlagsverhältnisse – mehr sommerliche Dürren und Unwetter?

Exakte Definitionen der Begriffe „Unwetter“ und „Dürre“ fehlen – es hängt viel von den subjektiven Betrachtungsweisen, der Betroffenheit einzelner Menschen oder Berufsgruppen, den örtlichen Gegebenheiten (Geografie, Infrastruktur) und den gesellschaftlichen Verhältnissen ab, was darunter verstanden wird. Indizien für „Unwetter“ sind Starkregen- und Gewitterhäufigkeiten, vage aber auch hohe Monatssummen des Niederschlages; solche für Dürren sind geringe Monats-, Jahreszeiten- und Jahresniederschläge oder die Anzahl von Tagen, Wochen und Monaten ohne Niederschlag. Betrachten wir zunächst einmal die Entwicklung der Sommerniederschläge in Deutschland seit 1881:

Abbildung 4: Gebietsmittel der sommerlichen Niederschlagssummen für Deutschland seit 1881. Ein merklicher Trend zu trockeneren Sommern fehlt bislang; auch die Streuung der Sommerwerte, welche ein Maß für ein extremeres Sommerklima sein könnte (mehr Streuung bedeutet mehr nasse und dürre Sommer im Wechsel) wurde augenscheinlich nicht größer. Sehr trocken waren neben dem Rekordsommer von 1911 auch 1904, 1976, 1983 und 2003; 2018 wird den Negativrekord von 1911 aller Voraussicht nach ganz knapp verfehlen.

Wie immer in besonders trocken-heißen Sommern, gab es 2018 neben anhaltender, vorherrschender Dürre auch einzelne, schwere Unwetter, was die Diskussionen über den Klimawandel zusätzlich anheizte. Doch ein einzelner Sommer ist ein Wetter- oder Witterungsereignis; Klima ist erst eine Mittelbildung über ausreichend viele Sommer. Und der Begriff Starkregen ist strittig; belastbare Daten über sommerliche Starkregenereignisse sind rar. Der DWD warnt vor Starkregen in 2 Stufen (wenn voraussichtlich folgende Schwellenwerte überschritten werden): Regenmengen >= 10 mm/1 Std. oder >= 20 mm/6 Std. (Markante Wetterwarnung) und Regenmengen >= 25 mm/1 Std. oder >= 35 mm/6 Std. (Unwetterwarnung). Da sommerliche Starkregen oft von Gewittern begleitet werden, kann die langfristige Entwicklung der sommerlichen Gewitterhäufigkeit ein grobes Indiz sein – je mehr Gewittertage, desto höher wird die Wahrscheinlichkeit für die sie manchmal begleitenden Starkregen. Die Anzahl der Gewittertage liegt seit 1893 für die Station Potsdam vor:

Abbildung 5: Eher weniger Gewittertage in Potsdam; ein grobes Indiz für nicht häufiger werdende Unwetter. Der Sommer 2018 war dort sehr gewitterarm.

Eine andere Möglichkeit besteht darin, zu ermitteln, ob es je Dekade mehr auffallend niederschlagsreiche Monate gab, denn in solchen „verbergen“ sich oft Starkregenereignisse. In Potsdam fallen pro Sommermonat etwa 60 bis 75mm Niederschlag; als „auffallend“ können solche mit über 120mm gelten. Die Auszählung ergab für Potsdam folgendes Bild:

Abbildung 6: Keine Häufigkeitszunahme auffallend niederschlagsreicher Sommermonate in Potsdam. Während sie in der fünften Dekade völlig fehlten, traten in der Dekade davor 5 derartige Sommermonate auf; auch in den letzten 4 Dekaden, in welchen ja angeblich ein beschleunigter Klimawandel stattfinden sollte, ist keine Häufung feststellbar.

Versteckt in Dissertationen, finden sich manchmal auch konkretere Statistiken:

Abbildung 7: Durchschnittliche Niederschlagsmengen bei einem Starkregenereignis ab 10 mm für das Sommerhalbjahr an der Station Schraplau/Sachsen-Anhalt, westlich von Halle, bezogen auf die Jahre 1902 bis 2000. Eine „Verschlimmerung“ ist nicht erkennbar; pro Ereignis fiel nicht mehr Regen. (Quelle: Die Niederschlags- und Starkregenentwicklung der letzten 100 Jahre im Mitteldeutschen Trockengebiet als Indikatoren möglicher Klimaänderungen; Dissertation an der Naturwissenschaftlichen Fakultät III der Martin- Luther- Universität Halle-Wittenberg; Autorin Ilka Fabig, 2007).

Und schließlich lassen sich mit etwas Mühe noch die Zahlen der niederschlagsreichen Tage je Sommer ermitteln; auch sie sind zwar keine Gewähr, aber ein gutes Indiz für ein Starkregenereignis am betreffenden Tag, wenn die „Messlatte“ mit mindestens 25mm je Tag hoch genug liegt. Für Potsdam zeigt sich da ebenfalls keinerlei Häufigkeitszunahme:

Abbildung 8: Keinerlei Häufigkeitszunahme der sehr niederschlagsreichen Tage in Potsdam.

Es fehlen also jegliche, belastbare Indizien für mehr Unwetter oder Starkregenereignisse; aber wie sieht es mit den Dürren aus? An der Station Potsdam können Sommermonate mit weniger als 30mm Niederschlag als merklich zu trocken und damit als ein grober Indikator für eine Dürre gelten; ihre Anzahl entwickelte sich in den zwölfeinhalb Dekaden seit 1893 folgendermaßen:

Abbildung 9: Keine Häufung der sehr trockenen Sommermonate in Potsdam.

Hinsichtlich der Häufigkeitsanzahl der regenfreien Sommertage zeigen sich an den meisten deutschen Stationen ebenfalls keine eindeutigen Häufungen. Dass der Sommer 2018 als besonders trocken empfunden wurde, hängt auch mit seiner Vorgeschichte zusammen; denn schon ab Mitte April regnete es besonders im Norden und Osten Deutschlands bei anhaltender Wärme und hoher Sonnenscheindauer viel zu wenig.

Mehr sommerliche Sonnenstunden – mehr Sommerwärme

Deutschland liegt leider etwas näher zum Nordpol als zum Äquator. Nur im Sommerhalbjahr vermag hier die Sonne ausreichend Wärme und Licht zu spenden, und es ist folglich nur von April bis September mit zunehmender Sonnenscheindauer auch fast immer zunehmend wärmer. Der engste Zusammenhang zwischen Sonnenscheindauer und Lufttemperaturen besteht im meteorologischen Sommer, welcher die Monate Juni, Juli und August umfasst:

Abbildung 10: Sehr enge „Verzahnung“ zwischen den Sonnenstunden und den Lufttemperaturen im Sommer. Das DWD-Mittel der Sonnenscheindauer liegt leider erst seit 1951 vor. Fast 80% der Variabilität der sommerlichen Temperaturen in Deutschland lassen sich mit der Sonnenscheindauer erklären; unsere Sommer erwärmten sich hauptsächlich, weil sie sonnenscheinreicher wurden. Als besonders sonnig können, bezogen auf das DWD-Mittel, alle Sommer mit mindestens 700 Sonnenstunden gelten; diese sind in der Grafik ausgewiesen; denn wegen der sehr unterschiedlichen Größen der Lufttemperatur und der Sonnenscheindauer musste in Indexwerte umgerechnet werden. Unerreicht bleibt der Sonnen-Sommer von 2003 mit fast 800 Sonnenstunden.

Anders als im Rekordsommer von 2003, in welchem besonders Juni und August sehr sonnig verliefen, war 2018 der Juli sehr sonnenscheinreich. Insgesamt dürfte es der 2018er Sommer unter die drei sonnigsten geschafft haben; den Absolut-Rekord von 2003 verfehlt er wahrscheinlich mit etwa 780 Stunden nur knapp. Über die Gründe der zunehmenden Besonnung lässt sich nur spekulieren. Neben geänderten Großwetterlagenhäufigkeiten, auf welche gleich noch eingegangen wird, kommen die Luftreinhaltemaßnahmen, die Sonnenaktivität selbst und die Austrocknung Deutschlands durch geänderte Landnutzung (Melioration), Bebauung und Versiegelung, in Betracht. Durch Letzteres fehlen intakte Böden und eine dichte Vegetation, was die Verdunstung und damit die Bildung von Wolken, Dunst oder Nebel erschwert.

Geänderte Großwetterlagenhäufigkeiten als sommerliche Erwärmungsursache

Immer entscheidet die gerade herrschende Großwetterlage, welche Luftmasse nach Mitteleuropa gelangt. Wolkenarme Warmluft aus südlicheren Breiten ist eine wesentliche Voraussetzung für Sommerhitze in Deutschland; doch auch bei Ost- und Zentralhochlagen kann es wegen der meist hohen Sonnenscheindauer sehr warm werden; Südwestlagen sind meist schwül und gewitterträchtig. Die im Winter zumindest im Flachland fast stets sehr milden West- und Nordwestlagen sowie die meist temperaturnormalen Nordlagen bringen hingegen wegen der vielen Wolken zu kühles, oftmals windiges und wechselhaftes Sommerwetter. Die nächste Grafik zeigt, wie sich die Häufigkeit dieser beiden gegensätzlichen Großwettertypen-Cluster in Relation zur Sommertemperatur (Deutschland-Mittel) langfristig entwickelt hat:

Abbildung 11: Merkliche Häufigkeitsabnahme der im Sommer fast stets zu kühlen West-, Nordwest- und Nordlagen (blau); dafür häufigere Süd-, Südwest-, Ost- und Zentralhochlagen (rot), welche meist zu warm ausfallen. Die Korrelationskoeffizienten beziehen auf das sommerliche DWD-Deutschland-Temperaturmittel, welches zur besseren Veranschaulichung in Indexwerte umgerechnet werden musste. Mit den geänderten Häufigkeitsverhältnissen der Großwetterlagen wurden unsere Sommer wärmer. Großwetterlagen-Klassifikation nach HESS/BREZOWSKY; die Daten für 2018 lagen noch nicht vollständig vor; so dass diese Grafik mit dem Sommer 2017 endet.

Der Sommer 2018 wies im Juni insgesamt 25 Tage der Großwettertypen West, Nordwest und Nord auf; weil diese überwiegend antizyklonal waren, erwärmte der reichliche Sonnenschein die kühle Nordluft; und reichlichere Niederschläge blieben aus. Im Juli dominierte sonniges Ost- und Südwetter; ebenso im August, wo zwar ab der Monatsmitte dann wieder mehr Westlagen auftraten; diese waren aber oft antizyklonal und wurden häufig von warmen Zentralhoch- und Südwetterlagen unterbrochen; kühle Luft konnte sich nur vorübergehend durchsetzen. Seit 1980 wird beim DWD außerdem die Objektive Wetterlagenklassifikation angewendet; diese erfolgt numerisch und liegt deshalb größtenteils schon vor. Am stärksten erwärmend wirken hier in der mittleren Troposphäre antizyklonale Lagen bei feuchter Atmosphäre; auch deren Häufigkeit erhöhte sich tendenziell merklich:

Abbildung 12: Mehr in der Höhe antizyklonale Großwetterlagen bei insgesamt feuchter Atmosphäre seit 1980 in Deutschland.

Der Wärmeinseleffekt heizt unseren Sommern ebenfalls ein

Über verschiedenste Wärmeinseleffekte (WI) wurde hier bei EIKE schon oft berichtet. Diese entstehen, wenn sich durch intensivere Landnutzung und/oder Bebauung die Vegetations- und Bodenverhältnisse ändern. Meliorationen und die landwirtschaftliche Intensivierung führen zu weniger Bodenfeuchte und damit ebenso zu weniger kühlender Verdunstung mit verminderter Wolken- und Nebelbildung wie Versiegelungen oder Bebauung. Letztere vermindern meistens auch die Albedo (Reflexionsvermögen, es wird mehr von dem einfallenden Sonnenlicht in Wärme umgewandelt; besonders bei dunklem Asphalt oder bei Solarpaneelen) und bremsen den kühlenden Wind. Wer in diesem Hitze-Sommer das Pech hatte, in einer Großstadt zu wohnen, war von diesen WI-Effekten besonders betroffen. WI-Effekte sind leider nicht mehr auf Großstädte beschränkt; dort aber am intensivsten und besonders in den Nächten spürbar. Während sich das Freiland in den Sommernächten angenehm abkühlt, geben die Gebäude und Straßenoberflächen mit ihrer gegenüber lockerem Mutterboden viel höheren Wärmekapazität nun die gespeicherte Wärme ab; gleichzeitig ist die kühlende Belüftung durch den Nachtwind eingeschränkt. Auch deshalb erwärmten sich Stationen, welche in solchen Wärmeinseln stehen, viel stärker als solche in kleineren Städten. Als Extrembeispiel sei hier der Vergleich mit den Original-Daten des DWD von Frankfurt/Main Flughafen und dem ländlicheren Gießen gezeigt:

Abbildung 13: In den letzten 50 Jahren erwärmte sich das boomende Frankfurt mit seinem ausufernden Flughafen im Sommer viel stärker als das ländlichere Gießen. War Frankfurt anfangs nur um gut 0,5 Grad wärmer, sind es heuer fast 2 Grad.

Rekord-Sommerhalbjahr 2018?

Während also dem „meteorologischen“ Sommer (Juni bis August) bei den meisten meteorologischen Messgrößen der zweite Platz seit 1881 gebührt, könnte das Sommerhalbjahr 2018 alle bisherigen Rekorde seit 1881 brechen. Um den bisherigen „Rekordhalter“ (1947 mit 16,1°C) zu überbieten, würde schon ein sehr kühler September mit etwa 11 Grad im Deutschland-Mittel reichen; momentan deutet sich aber für den ersten Herbstmonat länger anhaltendes Hochdruckwetter an; weil der Schwerpunkt des Hochs, ähnlich wie im Juli, eher nördlich von Deutschland liegen dürfte, wird davon besonders Norddeutschland profitieren; ein merklich zu kühler, nasser September ist für ganz Deutschland recht unwahrscheinlich. Wir erlebten 2018 also aller Voraussicht nach einen von Mitte April bis in den September andauernden Sommer; auch hinsichtlich der Sonnenscheindauer (zu erwarten sind mehr als 1.450 Sonnenstunden) liegt das Sommerhalbjahr 2018 auf Rekordkurs.

Zusammenfassung: Dieser Sommer 2018 verfehlte die Rekordwerte des Sommers 2003 nur knapp. In den letzten Jahrzehnten häuften sich sonnige, heiße Sommer in Deutschland. Aber das ist eher ein Grund zur Freude als zur Besorgnis, zumal historische Quellen noch längere, heißere Phasen im Mittelalter und geologische Zeugen ein viel wärmeres Klima vor 6.000 bis 7.000 Jahren belegen. Bislang fehlen eindeutige Anzeichen für eine Häufung sommerlicher Unwetter oder Dürren in Deutschland. Neben einer längeren Sonnenscheindauer trugen geänderte Großwetterlagenhäufigkeiten und verschiedenste Wärmeinseleffekte ganz wesentlich zur sommerlichen Erwärmung bei. Über das denkwürdige Sommerhalbjahr 2018 wird Ende September noch zu berichten sein.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Ein weiteres „Narrenschiff“ ist im arktischen Eis gefangen und muss gerettet werden

Links des Aufmacher:

„Spirit of Mawson“ -Expedition

im Eis gefangen Es ist wieder mal ein Deja Vu. (mit h/t zu Yogi Berra)

 

Wir haben einen neuen Gewinner! Diesmal in der Arktis.

Vor ein paar Wochen habe ich darüber geschrieben:

 

Student propaganda cruise to the Arctic to be carried by webcast

[Propagandakreuzfahrt mit Studenten in die Arktis, die im Webcast begleitet wird]

Vom 23. bis zum 13. September wird das Inner Space Center (ISC) der University of Rhode Island, eine innovative Forschungsexpedition zur Northwest Passage mit einem Team von Natur- und Sozialwissenschaftlern, Studenten und einer professionellen Filmcrew machen. Finanziert das Ganze von der US National Science Foundation und zusätzlich unterstützt von der Heising-Simons-Stiftung. Diese bahnbrechende Gelegenheit wird auch von One Ocean Expeditions als einem wichtigen Marine-Partner unterstützt, der seit mehr als 20 Jahren in arktischen Gewässern operiert.

Diese Forschung dient dem besseren Verständnis und zur Dokumentation von Klimaänderungen.

An Bord der Akademik Loffe wird das Team Wasser-, Eis- und Luftproben sammeln, um die Auswirkungen des Klimawandels auf die Umwelt und Biodiversität im Kanadischen Arktischen Archipel besser zu verstehen und zu dokumentieren.

Das Expeditionsteam wird ein breites öffentliches Publikum durch eine umfangreiche und beispiellose Internetpräsenz aus der Region ansprechen, einschließlich Facebook Live-Übertragungen aus dem Meer. Spezielle interaktive Übertragungen werden über das Inner Space Center (ISC), die US-Einrichtung, die Meeresforschung und -erziehung unterstützt und an drei renommierte Wissenschaftsmuseen im ganzen Land übertragen – das Smithsonian National Museum für Naturgeschichte, Washington DC, Exploratorium, San Francisco CA, und das Alaska SeaLife Center, Seward AK.

Erwartungsgemäß geschah dann laut der Facebook – Seite des Inner Space Center:

Am Morgen des 24. August lief die Akademik Loffe – das Schiff, das die Teilnehmer der National Science Foundation des Northwest Passage Projekts der Universität von Rhode Island beförderte – im westlichen Golf von Boothia im kanadischen Arktischen Archipel auf Grund. Das Schiff wurde seitdem wieder flott gemacht und nach einer vollständigen und erfolgreichen Systemüberprüfung neu positioniert, um es zu verankern. Wir freuen uns, berichten zu können, dass alle Passagiere, einschließlich aller Teilnehmer des Northwest Passage Projekts, sicher und gut versorgt sind. Wir werden Updates bereitstellen, wenn wir die Situation lösen.

Dann hatte die Kanadische Küstenwache folgendes zu melden:

Guten Morgen, Aufgrund der höheren Eiskonzentrationen in den kanadischen Gewässern nördlich von 70 Grad empfiehlt die Canadian Coast Guard, dass Sportboote nicht im Beaufort Sea, Barrow, Peel Sound, Franklin Strait und Prince Regent navigieren. CCG-Eisbrecher können Sportboote nicht sicher begleiten. Betreiber von Sportbooten, die eine nordwestliche Passage erwägen, sollten auch das Risiko in Betracht ziehen, dass sie in der Arktis in einem sicheren Hafen überwintern müssen oder im Falle eines Notfalls von den betroffenen Schiffen evakuiert werden müssen. Die Sicherheit der Seeleute ist unser wichtigstes Anliegen. Gruß, NORDREG KANADA 181256UTC \ LR

Und dann kommt der bekannte Evakuierungsplan:

Am 25.August 2018 – KUGAARUK, Nunavut – Cpl. Serge Yelle von der  RCMP-Abteilung erwartet, dass zwischen 80 und 90 der Passagiere von der abgelegenen arktischen Küstengemeinde zurück nach Yellowknife geflogen werden.

Das Transportation Safety Board prüft, ob es Ermittler an den Standort schicken wird.

Ein Vorstandssprecher sagt, das Schiff habe etwas Schaden erlitten.

Der Reiseveranstalter One Ocean Expeditions beschreibt auf seiner Website die 117 Meter lange Akademik Loffe als „modernes, komfortables, sicheres und eisverstärktes“ Schiff, das Platz für 96 Passagiere und 65 Crewmitglieder bietet.

Passagiere des grundgelaufenen Arktischen Kreuzfahrtschiffs werden nach Yellowknife zurückgeflogen

Es scheint, dass die Fanatiker der globalen Erwärmung dazu verurteilt sind, die Vergangenheit immer und immer wieder zu wiederholen.

Natürlich, trotz ihrer Behauptungen von “ beispielloser Internetpräsenz aus der Gegend “ kein Wort davon auf der offiziellen Projektseite . Der letzte Eintrag war am 22. August Headliner:  Die Anreise ist bereits der halbe Spaß

 

Wegen Copyright siehe Bild im Original: Ein Gruppe von jungen Leuten, die fröhlich winken

Der Typ auf der linken Seite, der Badelatschen trägt, glaubt offensichtlich, dass die Arktis warm genug für diese Art von Schuhen ist.

 

Wenn sie es denn nur zuerst überprüft hätten … nach dem Bericht der Canadian Coast Guard, ist das Meereisvolumen laut DMI überdurchschnittlich:
[Danish Ministry for Energy, Utilities and Climate]

Der Umfang bleibt ein bisschen unter Normal:

HINWEIS: Ungefähr 15 Minuten nach der Veröffentlichung wurde der Titel von „festgefahren“ auf „Grund gelaufen“ geändert, um besser mit den Nachrichten übereinzustimmen. Da wir jedoch bisher keine Fotos von dem „auf Grund gelaufen“ haben, wissen wir nicht, ob es eine Grundung durch Eis oder auf dem Land war, um Eis zu vermeiden. Wie auch immer, das Schiff ist jetzt beschädigt, die Expedition ist eine Pleite.

Gefunden auf WUWT vom 27.08.2018

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2018/08/27/another-ship-of-fools-gets-stuck-in-arctic-ice-needs-rescue/




Energie-Effizienz, Smart Meter und Klimapolitik

Es ist ein Allgemeinplatz herkömmlicher Denkweise in der Klimapolitik, dass Verbesserungen der Konversions-Effizienz hinsichtlich von Prozessen und Geräten von industriellen Verfahren über Maschinen und heimische Boiler bis hin zu Waschmaschinen Reduktionen ihres Energieverbrauchs liefern werden. Die folgende Graphik der International Energy Agency IEA aus dem Vortrag von Dr. Birol Melchett im vorigen Jahr ist hierfür wohl der klassische Beleg:

Abbildung: Globale Reduktionen von CO2-Emissionen im zentralen und 2C-Szenario durch Technologie. Quelle: IEA 2017

Der die „Energieeffizienz“ repräsentierende hellblaue Keil (der Begriff ,Energieeffizienz‘ ist eigentlich ein falscher Ausdruck, da die IEA Energie-Einsparung meint, d. h. eine Reduktion des Energieverbrauchs) macht etwa 40% der Emissions-Reduktionen im Jahre 2040 aus. Aber wie anderswo auf diesem Blog diskutiert, sind die praktischen Erfahrungen in der realen Welt hinsichtlich Energieeffizienz-Politik sehr entmutigend. Diesbezügliche politische Maßnahmen funktionieren nicht so gut wie Vorhersagen, entweder weil sie nicht umgesetzt werden oder weil sich die behauptete Effizienz nicht materialisiert oder weil die erhoffte Energieeinsparung mehr als kompensiert wird durch zunehmenden Verbrauch oder die Verwendung der eingesparten Energie für andere Zwecke. Tatsächlich gibt es einen stetigen Fluss von Meldungen des Inhalts negativer praktischer Erfahrungen hinsichtlich vermeintlich effizienter, weniger Energie verbrauchender Geräte. In der Times erschienen während der letzten paar Wochen gleich zwei Beiträge hierzu (hier und hier).

Nichtsdestotrotz bestehen die IEA und viele andere Organisationen ohne jede vernünftige theoretische oder empirische Rechtfertigung darauf, vermeintlich Energie „eingespart“ zu haben, um die projizierten Emissionseinsparungen zu erreichen. Trotz dieses offensichtlichen Vertrauens wissen Analysten, dass die Zahl von 40% der IEA jeder Grundlage entbehrt und einfach das Residuum ist, nachdem alle anderen Optionen zu Emissions-Reduktionen auf das plausible Maximum angewendet worden waren. Angesichts der Grenzen selbst einer optimistischen Einschätzung des Potentials von Erneuerbaren sowie der negativen Aussichten für Kernkraft und Gas (welche in einem sonst unverzerrten Markt tatsächlich bezahlbare substantielle Energieeinsparungen bringen könnten), hat die IEA einfach die Quadratur des Kreises angeordnet, indem willkürlich die Welt-Nachfrage nach Energie im Modell gedrosselt wird, wobei die IEA diesen lässigen Dirigismus zynisch mit dem Terminus „Effizienz“ belegt.Man fragt sich, wie Mr. Birol, der Direktor der IEA, sich vor diese Folie stellen kann ohne rot zu werden.

Zu Verbesserungen bzgl. Energieeinsparung kommt es spontan in jedweder Ökonomie – die Verbraucher haben stets jeden Anreiz, bessere Maschinen und Apparate zu kaufen – und die Beschlagnahme dieses absolut wünschenswerten Prozesses durch Regierungen, die danach trachten, ihr Gesicht zu wahren, ist eine der deprimierenderen Aspekte einer zeitgemäßen Energie- und Klimapolitik. Etwas sehr Ähnliches ist der Fall, wenn es um „Smart Meters“ geht. Es gibt grundsätzlich nichts, was man gegen eine gute Informations-Technologie am Stromzähler haben kann, wenn es das Ziel ist, dem Verbraucher Zugang zu Strom zu billigeren Preisen zu verschaffen, falls dieser verfügbar ist. Aber es ist sehr zweifelhaft, ob der Vorteil für die Verbraucher ausreichend stark und verbreitet ist, um dieselben zu einem spontanen Einbau von Smart Meters in einer Größenordnung zu motivieren, welche die Regierung verlangt, um die Nachfrage der Haushalte zu bremsen und damit die Integration unkontrollierbarer Erzeugung von Strom durch Erneuerbare zu erleichtern. Einige Verbraucher mögen tatsächlich der Meinung sein, dass sich das für sie rechnet, aber es ist sehr unwahrscheinlich, dass 11 Millionen Haushalte, fast die Hälfte aller Haushalte in UK, dies tatsächlich getan hätten, wenn sie nicht durch die eifrigen Administratoren im Department of Business, Energy and Industrial Strategy (BEIS) dahingehend geistig manipuliert worden wären, haben diese doch Druck in Gestalt von Vorschriften auf die Versorger ausgeübt, ihren Kunden Smart Meters aufzudrücken.

Ist das wirklich etwas Gutes? Die Regierung scheint nervös zu sein ob der Reaktion der Öffentlichkeit, und am 12. 8. 2018 schickte die Regierung Mr. Dermot Nolan, Direktor der zuständigen Behörde für Gas- und Strommärkte Ofgem, in voraus eilendem Gehorsam zum Daily Telegraph, um diese Politik zu unterstützen. Mr. Nolan sagt uns, dass die „Auslieferung“ von Smart Meters eine der bedeutendsten „Aufwertungen“ bzgl. heimischer Energie seit Jahrzehnten ist, und dass Ofgem mit der Regierung „zusammen arbeitet“, um „sicherzustellen, dass alle Verbraucher heute und in den nächsten Jahren die Vorteile zu spüren bekommen“.

Einige dieser Vorteile sind kompliziert. „Zunehmend billigere“ Erneuerbare stehen nicht immer zur Verfügung, wenn sie gebraucht werden, und „in der Vergangenheit“, so bemerkt Mr. Nolan, hätte das bedeutet, dass die Verbraucher viel höhere Kosten für das System hätten aufbringen müssen, aber dank der Smart Meters können die Verbraucher jetzt Auf Wiedersehen sagen zu der Misere „teurer Backup-Kraftwerke“. Allein es ist nicht ,Auf Wiedersehen‘, wie sich zeigt. In einer von mehreren leichten Gewissensbissen, welche zwischen den Worten in dem Artikel durchschimmern, räumt Mr. Nolan ein, dass Smart Meters lediglich „nur einige der Kosten wieder einspielen“, aber nicht alle. Da er einige zahlen liefert, können wir die Größenordnung in etwa abschätzen. Er schreibt:

Nach Untersuchungen des Imperial College könnte ein flexibleres Energiesystem, das von intelligenten Zählern unterstützt wird, Großbritannien bis 2050 zwischen 17 und 40 Milliarden Pfund Sterling einsparen. Das bedeutet niedrigere Energierechnungen für alle Haushalte und Unternehmen.

2050 ist 32 Jahre voraus, so dass die Einsparungen im Durchschnitt zwischen £ 500 Millionen und £ 1,25 Milliarden pro Jahr liegen. Es gibt etwa 26 Millionen Haushalte und selbst unter der Annahme, dass alle Einsparungen direkt durch diese Haushalte wahrgenommen werden, würde der Nutzen zwischen 20 und 50 Pfund pro Haushalt und Jahr betragen.

Diese Einsparung ist zwar zu begrüßen, verursacht aber kaum mehr als eine Delle in den Kosten der Erneuerbare-Energien-Politik. Im Jahr 2014 veröffentlichte die Regierung das letzten Mal detaillierte Schätzungen der Auswirkungen von Preisen und Rechnungen (Estimated Impacts, 2014). Das damalige zuständige Ministerium, das Department of Energy and Climate Change (DECC), prognostizierte dass im zentralen Preisszenario für fossile Brennstoffe im Jahr 2030, die Subventionen für erneuerbare Energien, einschließlich der Kosten der Kapazitätsreserve, die erforderlich ist, um die Versorgung bei launigem Wind- und Sonnenstrom zu sichern und der Preis für CO2 Emissionen zusammen etwa 220 Pfund pro Jahr Aufschlag, auf die durchschnittliche Stromrechnung der Haushalte betragen würde. Im Low-Cost-Szenario für fossile Brennstoffe wurde diese Zahl [bereits] auf 272 Pfund pro Jahr geschätzt. Kein Wunder, dass Mr. Nolans Gewissen zuckte.“

Des Weiteren schätzte das DECC, dass Smart Meter den Verbrauchern etwa 19 £ pro Jahr sparen würde, was in etwa der niedrigeren Zahl entspricht, die der kürzlich von Herrn Nolan zitierten Studie des Imperial College entsprechen würde. Es ist jedoch sehr merkwürdig, dass das DECC schätzt, dass nur 5 £ pro Jahr durch „Preiseffekte“, dh. durch die Möglichkeit, niedrigere Preise zu Zeiten von Wind und solaren Überschüssen zu nutzen, erzielt werden. Herr Nolan präsentiert diese Ausweichmöglichkeit als den  der Tat als die Unique Selling Proposition [Einzigartiges Verkaufsargument] des Smart Meter. Der größte Teil der Einsparungen, £ 14 pro Jahr, soll den „Energieeffizienz“ -Effekten von Smart Meters zugeschrieben werden, was nichts anderes als eine geringere Nachfrage [oder gar Lastabwurf = abschalten] bedeutet. Die DECC-Analyse schätzt in den Auswirkungen, dass dies zu einer Reduzierung des Verbrauchs von etwa 100 kWh pro Jahr, also einer 2% ige Kürzung führen würde.

Alles in Allem zeigt sich bei genauem Hinsehen auf das Statement von Mr. Nolan in Verbindung mit der DECC-Analyse aus dem Jahr 2014 eindeutig, dass Smart Meters nur sehr geringe Vorteile bieten, wenn überhaupt welche. Vermutlich hätten nur sehr Wenige diese Geräte spontan übernommen auf der Grundlage vertrauenswürdiger Aussichten. Warum gibt es dann diesen administrativen Schub zur Verbreitung? Falls man mit dem Hintergrundwissen des legislativen Zusammenhangs liest, erklärt Mr. Nolans Statement im Telegraph die Lage. Er schreibt:

Ofgem, dessen einziges Ziel es ist, die Interessen der Energieverbraucher zu schützen, arbeitet mit der Regierung zusammen, um bei der Verbreitung der Smart Meter behilflich zu sein. Es ist unsere Aufgabe sicherzustellen, dass die Energieversorger ihren Verpflichtungen bzgl. Angebote und Installation gerecht werden.

Nun könnte man aber fragen, falls wirklich der Schutz der Verbraucher-Interessen das einzige Ziel von Ofgem ist, warum der Gesetzgeber die Verbraucher nicht warnt, dass die Vorteile von Smart Meters im besten Falle sehr gering sind und dass der Verbrauch variiert, und zwar tatsächlich bis zu einem Ausmaß, dass sich für viele individuelle Verbraucher überhaupt keine Vorteile ergeben. Kann es sein, dass Mr. Nolan arglistig redet? Natürlich nicht, aber sein Verständnis des Terminus‘ „Verbraucherinteresse“ in seinem Satz ist nicht das, was ein unvoreingenommener Leser darunter verstehen würde. Wie es seine Pflicht ist denkt Mr. Nolan, dass die Aufgabe von Ofgem der Definition im Energy of Act 2010 folgt (dazu mehr hier), wo der Terminus „Verbraucher“ sich sowohl auf heutige als auch auf zukünftige Verbraucher konzentriert, und „Interesse“ wird „als ganzes betrachtet“ und enthält auch „die Reduktion von Emissionen von Treibhausgasen bei der Gas- und Stromversorgung“.

Dies repräsentierte eine sehr bedeutende Revision der Aufgabe von Ofgem, wie sie zuvor im Utilities Act aus dem Jahr 2000 definiert worden war. Diese Revision machte den Regulator zu einem Teil der Durchführung der Klimapolitik. Smart Meters mögen den Verbrauchern keine wesentlichen finanziellen Einsparungen bringen, aber sie sind integraler Bestandteil der Politik bzgl. Erneuerbarer, welche wiederum ein Schlüsselelement in der Klimapolitik ist und definitionsgemäß im langfristigen Interesse heutige und zukünftiger Verbraucher liegt. Unter dieser Sachlage kann sich Ofgem nicht gegen Smart Meters aussprechen und muss tatsächlich „mit der Regierung zusammenarbeiten“, um diese Politik auszuführen.

Link: https://www.thegwpf.com/energy-efficiency-smart-meters-and-climate-policy/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: In diesem Beitrag wird glasklar die Sinnlosigkeit der „Smart Meters“ aufgezeigt. Allerdings gibt es darin sehr kompliziert geschriebene Passagen, von denen ich nicht sicher bin, sie richtig übersetzt zu haben.

Dennoch, obwohl dieser Artikel für UK gilt, kann man wohl von einer gleich gearteten Problematik hierzulande ausgehen. – C. F.




Unerwarteter Sommer Schnee wirkt verheerend auf Urlaubspläne

Anbei eine Zusammenstellung von Nachrichten zu dem jüngsten Wintereinbruch – nach der sommerlichen Hitze.

Aufgrund von Copyrigths habe ich auf geschützte Bilder verzichtet, bitte nutzen Sie die Links.


26 Aug 2018 – der August bietet einem Vorgeschmack auf den Winter, Schnee in vielen Gebirgen

Winter Wetter Vorhersagen wurden von der National Weather Service für Teile der Rocky Mountains von Montana und Wyoming gemacht: Ein paar Zentimeter nassen Schnees ist möglich, Anfang Montag bis frühen Dienstag, Gebirgslagen über 1.800 m Höhe.

Ansteigender Schnee wird in den höchsten Gipfeln des nordwestlichen Wyoming, des südlichen und westlichen Montana und der angrenzenden Teile von Idaho erwartet.

Aber machen Sie sich keine Sorgen. Das ist normal. „Schnee ist in den höheren Lagen der nördlichen Rockies Ende August nicht ungewöhnlich“, sagt weather.com.

Natürlich sind es dieselben Leute, die immer wieder von „globaler Erwärmung“ sprechen.

Und was haben wir nun?

https://weather.com/storms/winter/news/2018-08-26-winter-weather-advisory-snow-montana-wyoming

 


Schneefall einen Monat früher als sonst, in Deutschland und Österreich

  1. Aug 2018 – Erstaunliche Fotos in sozialen Netzwerken zeigen Schnee in beiden Ländern, mit Temperaturstürzen von bis zu 15 Grad.

Winterlandschaften herrschen in Salzburg. Laut WetterOnline hat es in einer Höhe von weniger als 1000 m über dem Meeresspiegel geschneit. Die Bewohner des Skiortes Bad Gastein, südlich von Salzburg, haben zum Beispiel am Sonntag vor Erstaunen die Augen verzogen, weil grüne Rasenflächen und Bäume mit einer 5 cm dicken Schneedecke bedeckt waren. Mützen und Jacken mussten die Bewohner von Obertauern, Rauris, Sankt Jakob im Defereggental oder Hintertux herausnehmen, wo der erste Schnee einen Monat früher als sonst fiel.

Screenshot, hier Lienzer Bergbahn 2212 m vom 27.08.2018: https://wetter.orf.at/tirol/webcam

(in tieferen Lagen, hat’s Sonnenschein und Wanderwetter)

https://krolowasuperstarblog.wordpress.com/2018/08/26/w-kalendartzu-sierpien-aw-niemczech-i-austrii-sypnelo-sniegiem/


Die Hitzewelle ist gerade erst vorbei, da kündigt sich auch schon der Winter an. 

Der größte Winterangriff ereignete sich jedoch in Österreich, wo von Samstag auf Sonntag 40 cm Schnee fielen.  Auf den Messstationen am Sonnblick und auf der Rudolfshütte in den Hohen Tauern lagen rund 40 Zentimeter Neuschnee, berichtete die Zentralanstalt für Meteorologie und Geodynamik (ZAMG) am Sonntag. Auch auf Deutschlands höchstem Berg hat es geschneit.

Winter hat auch die Zugspitze erreicht

Auch auf der Zugspitze meldete sich am Sonntagmorgen der Winter. Deutschlands höchster Berg (2962 Meter) verzeichnete knapp zehn Zentimeter Neuschnee, dabei war es mit minus sieben Grad frostig kalt. In der Nacht war die Schneefallgrenze bis auf 1700 Meter gesunken, ab einer Höhe von 2000 Metern hatte sich eine geschlossene Schneedecke gebildet.

https://www.t-online.de/nachrichten/panorama/id_84342456/schnee-in-oesterreich-wettersturz-nach-hitze-auch-in-deutschen-gebieten.html

 


Kalte Polarwinde bringen frühen Schnee in Italien

30 cm Schnee im Gadertal

10 cm in Cortina d’Ampezzo in den Dolomiten

Von kurzen Ärmeln zu Schneeschuhen„, heißt es in der Schlagzeile. „Das ist die Weihnachtszeit!“

https://www.google.com/amp/s/www.ilfattoquotidiano.it/2018/08/26/cortina-a-fine-agosto-e-gia-inverno-10-centimetri-di-neve-e-4-gradi-dalle-maniche-corte-alle-ciaspole/4582386/amp/

Danke an den Geologen Dr. Mirco Poletto in Italien für diese Links

„Dies nach einem Monat afrikanischer Hitze“, sagt Dr. Poletto. „Beginnt die kleine Eiszeit?“

 


Slowenien – Schnee schließt die Straße nach Mangart, Kredarico ist bereits schneeweiß

In Kredarica ist bereits alles zugeschneit, während sich in Vršič Regen und Schnee vermischen. Laut dem Verkehrsinformationszentrum (PIC) ist die Straße nach Mangart wegen der schneebedeckten Straße gesperrt. Der Niederschlag wird während des Tages schlimmer werden.

Die Triglav-Hütte in Kredarica, die auf einer Höhe von 2.515 m liegt, ist die höchste Berghütte in Slowenien und die höchste meteorologische Station des Landes.

Ist Schnee in dieser Höhe in Slowenien ungewöhnlich? Ich weiß es nicht. Aber ich denke, dass die Slowenen sich in diesem Jahr keine Sorgen über die globale Erwärmung machen müssen.

http://www.rtvslo.si/okolje/novice/sneg-zaprl-cesto-na-mangart-in-pobelil-kredarico/464169

 

Zusammenstellung gefunden auf WUWT vom 26.08.2018

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2018/08/26/unexpected-summer-snows-wreaking-havoc-on-vacation-plans/




Weitere Nutzung für „Atommüll“

Zwischen dem Betreiber von zwei Candu 6 Reaktoren in Quinshan TQNPC (China National Nuclear Corporation subsidy Third Quinshan Nuclear Power Company) und der kanadischen SNC-Lavalin wurde ein Vertrag zur Lieferung von Brennelementen aus 37M NUE (Natural Uranium Equivalent) abgeschlossen. Dies ist das Ergebnis einer mehr als zehnjährigen gemeinsamen Forschung und Entwicklungsarbeit. Seit 2008 werden im Reaktor QP III immer wieder NUE-Brennelemente als Dauertest eingesetzt. Diese praktischen Versuche dienten der Anpassung einiger Sicherheitsparameter und der Durchführung des Genehmigungsverfahrens. Jetzt sind die Arbeiten abgeschlossen und der Betrieb mit recyceltem Uran kann beginnen.

Die Reaktoren

Bei den Candu Reaktoren in Quinshan handelt es sich um mit schwerem Wasser (D2O) gekühlte und moderierte Reaktoren. Dieser Reaktor hat im Gegensatz zu Leichtwasserreaktoren keinen Druckbehälter in dem sich die Brennelemente befinden, sondern viele Druckröhren in denen jeweils nur eine Reihe einzelner Brennelemente stecken. Die Druckröhren sind waagerecht und sitzen wiederum in einem mit Schwerwasser gefüllten drucklosen Tank. Vorteil dieser Konstruktion ist, daß man kein dickwandiges Druckgefäß benötigt, sondern lediglich druckfeste Röhren von etwa 10 cm Durchmesser. Druckbehälter können nur eine Handvoll Schmieden weltweit fertigen. Deshalb kann diesen Reaktortyp z. B. Indien selbst herstellen. Als Nachteil erkauft man sich dieses Prinzip mit einem Gewirr von Rohrleitungen: Jede Druckröhre muß mit Vorlauf- und Rücklaufleitung mit den Dampferzeugern verbunden werden. Insgesamt ist die Herstellung aufwendiger und damit teurer.

Durch den Einsatz von Schwerwasser als Kühlmedium und Moderator gehen wesentlich weniger Neutronen verloren als bei Leichtwasserreaktoren. Man kommt deshalb mit Natururan als Brennstoff aus. Eine Anreicherung ist nicht nötig. Darüberhinaus ist das Konzept so flexibel, daß auch andere Brennstoffe wie Thorium oder eben abgebrannte Brennelemente aus Leichtwasserreaktoren eingesetzt werden können. (Siehe hierzu auch den Artikel Reaktortypen in Europa – Teil6, CANDU in diesem Blog.)

Die Wiederaufbereitung

Wenn Brennelemente „abgebrannt“ sind, müssen sie entnommen werden und durch frische Brennelemente ersetzt werden. Sie sind aber keinesfalls Abfall, sondern können und sollten recycelt werden. Auch in Deutschland war deshalb eine eigene Wiederaufbereitungsanlage nach dem PUREX-Verfahren vorgesehen. Übergangsweise hat man Brennelemente in Frankreich und GB aufbereiten lassen. Aus bekannten ideologischen Gründen ist man davon abgegangen. Der Kampf gegen das Atom ist der zentrale Gründungsmythos von Bündnis 90 / Die Grünen.

Die Kerntechnik war der erste Industriezweig der nicht einfach Abfall produzieren wollte, sondern vielmehr der Begründer des industriellen Recyclings. In einem „abgebrannten“ — oder besser abgenutzten und für seinen ursprünglichen Verwendungszweck nicht mehr geeigneten — Brennelement sind lediglich rund 5 % Spaltprodukte. Das ist die „Asche“ der nuklearen Energieherstellung. Aber über 93% des Urans und zusätzlich rund 1% Plutonium sind für die Energiegewinnung wiederverwendbar!

Bei dem PUREX-Verfahren werden die Brennstäbe aufgelöst und anschließend durch eine mehrstufige flüssig-flüssig Extraktion in möglichst reines Uran und Plutonium zerlegt. Alles andere ist bei diesem Verfahren Abfall, wird in Glas eingeschmolzen und ist zur Endlagerung vorgesehen. Das Plutonium wird seit Jahrzehnten — auch in Deutschland — zusammen mit abgereichertem Uran zu sogenannten Mischoxid-Brennelementen verarbeitet und erneut in Leichtwasserreaktoren zur Energiegewinnung eingesetzt. Das zurückgewonnene Uran wird bisher fast ausschließlich eingelagert. Man kann es als „Ersatz“ für Natururan in Anreicherungsanlagen einsetzen. Es muß dazu aber in Uranhexafluorid umgewandelt werden. Ein, bei den heutigen Preisen für Natururan nicht wirtschaftlicher Weg.

Der NUE-Weg

Das Uran für Leichtwasserreaktoren hat eine ursprüngliche Anreicherung von 3% bis 5% U235. Im Reaktor wird sowohl U235 als auch Pu239 gespalten. Das Plutonium bildet sich kontinuierlich aus dem U238 durch das (parasitäre) Einfangen von Neutronen. Ein Teil davon, wird sofort wieder im Reaktor gespalten. Deshalb kann nicht alles U235 aufgebraucht werden bevor die zulässige Betriebsdauer des Brennelements erreicht ist. Oft hat das recycelte Uran noch einen höheren Anteil davon als das Natururan (0,7% U235). Es kann daher noch in Schwerwasserreaktoren eingesetzt werden. Allerdings ist die Natur immer etwas komplizierter als die Theorie. Nicht jeder U235 Kern wird auch gespalten, wenn er von einem Neutron getroffen wird. Es bildet sich auch U236 und sogar Spuren von U234. Alle diese Isotope haben ihre charakteristischen neutronenphysikalischen Eigenschaften. Es wird deshalb durch Verschneiden mit abgereichertem Uran ein dem „Natururan entsprechendes Äquivalent“ (NUE) hergestellt. Dies ist aber eine reine Frage der Analyse (welche Isotopenzusammensetzung?), der Rechnung (neutronenphysikalische Bestimmung) und der Mischung. Ein vergleichbar geringer Aufwand, verglichen z. B. mit einer Anreicherung.

Man kann etwa mit dem recycelten Uran aus vier Leichtwasserreaktoren einen zusätzlichen Schwerwasserreaktor betreiben. Die zusätzliche Energie wird ohne zusätzlichen Verbrauch von Natururan erzeugt — Energie aus „Atommüll“. China betrachtet ihr kerntechnisches Programm offensichtlich von Anfang an als System. Im Zentrum stehen die Leichtwasserreaktoren und eine Wiederaufbereitung des „Atommülls“. Nach dem Vorbild von Frankreich wird dadurch der endgültig zu lagernde Abfall beträchtlich entschärft und verringert. Das anfallende Plutonium wird über Mischoxid wieder den Leichtwasserreaktoren zugeführt. Das zurückgewonnene Uran den Schwerwasserreaktoren. Mittelfristig soll eine weitere Nutzung über natriumgekühlte Reaktoren mit schnellem Neutronenspektrum erfolgen. Beachtenswert ist die Vorgehensweise: Zwar in voller Breite aller am Weltmarkt erhältlichen Reaktortypen, aber stets in kleinen Schritten in enger Kooperation mit internationalen Partnern. Ganz nebenbei ist dadurch eine der bedeutendsten kerntechnischen Industrien der Welt aufgebaut worden. Ein nicht zu unterschätzender und bewußt angestrebter Nebeneffekt. Kerntechnik ist eine Schlüsseltechnologie, die weit in die industrielle Welt ausstrahlt. So war es einst auch in Deutschland, aber hier wird dieser Vorteil zusehends aufgebraucht. Manch ein Grüner wird sich noch die Augen reiben, wie schnell der „Exportweltmeister“ zu einem mittelmäßigen Industriestandort verkommen sein wird.

Der Beitrag erschien zuerst bei NUKEKLAUS hier



Des Windkaisers neue Kleider – Teil 3 von 3

Aufgrund der Länge des Beitrages, habe ich es auf drei Teile aufgeteilt. Die Links zu allen drei Teilen ergänze ich immer am Ende – allerdings jeweils nach Freischaltung, da ich erst dann die korrekte Adresse habe – Der Übersetzer.

*** Teil 3

Die Bedeutung von bedarfsgesteuerten Systemen, „dispatchable“ genannt

Elektrische Energieerzeuger  (~ Generatoren), die nach Willen mit einer bedarfsgesteuerten Intensität ein- und ausgeschaltet werden können, werden als „zuteilbar“, im Fachjargon als „dispatchable“ bezeichnet. Ein solches System kann jederzeit gesteuert werden, d.h. es kann wie gewünscht reagieren – mehr oder weniger Strom liefern und das zu beliebigen Zeiten; Wartung wird durchgeführt, wenn es am besten passt. Ein dispatchbares System ist zuverlässig;  fehlt diese Eigenschaft, ist das System nicht zuverlässig. Wie bereits erwähnt, die Nachfrage bestimmt (bislang noch) die elektrische Stromversorgung und variiert dabei täglich und saisonal.

Wie bereits oben erwähnt, ist die Netzfrequenz kritisch für das gesamte Netz. Kleine Frequenzänderungen oder –verschiebungen, können erhebliche Auswirkungen sowohl auf die Einspeisung unterschiedlicher Stromquellen in das Netz aber auch auf Maschinen und andere Geräte haben. Netzbetreiber müssen die Frequenz in sehr engen Grenzen konstant halten.

Leider sind Wind- und Solarstrom nicht steuerbar – sie erzeugen nicht immer Strom, wenn dieser benötigt wird und können einen Überschuss erzeugen, wenn dieser nicht benötigt wird. Sowohl Mangel als auch Überschuss können gleichermaßen schädlich sein.

Zu diesem Thema habe ich für „beide Seiten“ Informationen im Web gefunden:

… Einige Anlagen mussten daher jeweils für kurze Zeit abgeschaltet werden; die Techniker sprechen von „abgeregelt“. Die Betreiber dieser abgeregelten Anlagen erhielten trotz fehlender Stromeinspeisung eine Entschädigung.

https://www.sciencemediacenter.de/alle-angebote/fact-sheet/details/news/wie-viele-windraeder-stehen-in-deutschland-still-wird-wirklich-jedes-jahr-mehr-windenergie-abgereg/

… Bei der Einspeisung von Wind- und Solarstrom in das Stromnetz müssten die anderen Kraftwerke in dieser Zeit zum Ausgleich mit geringerer Leistung betrieben werden, um Netzüberlastungen zu vermeiden. Eine solche Drosselung ist aber nicht mit allen Kraftwerken in derselben Geschwindigkeit möglich, mit der sich die Stärke von Strom vor allem aus WEA ändert*. Der bereits durch diese Energiequelle viel höhere Regelaufwand erzeugt einen stark erhöhten Aufwand für die Netzbetreiber

https://www.frankshalbwissen.de/2012/03/15/koennen-sonne-und-wind-atomkraftwerke-ersetzen/

… Eine Idee findet derzeit viele Anhänger: Die Stromkonzerne könnten bei einer Laufzeitverlängerung im Gegenzug einen Teil der Extragewinne in einen Fonds für die Entwicklung der erneuerbaren Energien zahlen. Das wäre ein wirklich schmutziger Deal auf Kosten unserer Sicherheit. Schrottreife Reaktoren wie in Biblis oder Brunsbüttel sollen eine Gnadenfrist erhalten, damit für die erneuerbaren Energien Almosen abfallen? Offenbar haben viele Leute noch nicht verstanden, dass wir uns so eine Übergangszeit nicht leisten können und sie auch gar nicht brauchen. Die Technologien, mit denen wir die Klimaschutzziele erreichen können – Erneuerbare, Effizienz, Kraft-Wärme-Kopplung – sind ja vorhanden. Sie müssen jetzt konsequent angewendet werden.

https://www.greenpeace-magazin.de/%E2%80%9Eallein-windkraft-kann-die-akws-ersetzen%E2%80%9C

 Bei thermischen Systemen – wie Fossile- Kernkraftwerke kann die Wärme abgeblasen oder bei Wasserkraftwerken das Wasser abgeleitet werden, so dass die Turbinen keine Elektrizität erzeugen. Dies führt zu verschwendeter Wärme oder Wasserverschwendung. Aber das System ist nicht gefährdet.

Überschüssige Elektrizität

In Energy Matters beschreibt der dänische Energieexperte Paul-Frederik Bach das hochkomplexe System der Stromübertragung in Europa. Bach ist eine Autorität, nachdem er jahrelang mit Netzproblemen im dänischen System gearbeitet hat, das viele Netzverbindungen hat. Was mit überschüssiger Energie zu tun ist, wenn zu viel Windenergie eingespeist wird, bleibt seiner Meinung nach ein ernstes Problem.

Da Windenergie, wenn sie denn gerade zufällig vorhanden ist, bevorzugt einzuspeisen ist (in Deutschland per Gesetz), gibt es Befürworter der zufälligen Energieerzeugung, die stattdessen den Verbrauch schneller anpassen wollen. Abschalten von „niedrig-prioren“ Verbrauchern oder zwangsweises einschalten – sinnvollerweise natürlich von Energiespeichern, die aber den  Überschussstrom auch nicht zum Nulltarif bekommen. Bach sieht bei weiterem, ungehindertem Ausbau von Wind und Solar größte Probleme mit Überschussstrom, sinkenden Marktpreisen für den Überschuss und überlasteten Netzen. Diese Faktoren werden zu steigenden Preisen für die Verbraucher und zur Kürzung erneuerbarer Energiequellen führen.

 

Zuerst das ultimative Versagen von Subventionen, dann Einführung von Mandaten

In der langen, komplexen Geschichte der Energieerzeugung, -speicherung und Wartung und  Innovation, haben es die Ideologen heutzutage geschafft, ihre Vertreter in den Bundes- und Regionalregierungen in die Lage zu versetzen, Gewinner und Verlierer auf dem Energiemarkt zu bestimmen. Damit sind vorher akzeptable Praktiken zum Scheitern verurteilt.

Wenn radikale Umweltgruppen in ihren politischen Zielen erfolgreich sind, wird die derzeitige Präferenz, Subventionen für erneuerbaren Energiequellen anzubieten, schließlich Mandaten [-> Verpflichtungen] weichen. Aus mehreren Gründen werden diese Lösungen jedoch nicht das wachsende Energieniveau liefern, das für eine optimale Effizienz erforderlich ist. Wenn die Regierung von den Betreibern verlangt, dass sie einen bestimmten Prozentsatz aus wetterabhängiger Windkraft oder Solarenergie [„im Mix“ einkaufen und] liefern, können sie nicht mehr nach dem besten Preis und bester „Qualität“ einkaufen, sondern müssen stattdessen die Forderungen der Regierung erfüllen. Die Einmischung der Regierung erhöht letztlich die Kosten für den Verbraucher und verzerrt die Märkte stark. In den Sonntagsreden der Politiker wird dagegen gerne gefordert, zuverlässige Elektrizität zu möglichst niedrigen Kosten für die Verbraucher zu liefern. Der einzige Ausweg aus diesem Rätsel besteht darin, Sonne und Wind zu regulieren – eine Macht, die den Göttern in griechischen Mythen vorbehalten ist.

 

Offshore-Wind

Promotoren für Windenergie beharren oft darauf, dass Offshore-Wind extrem zuverlässig wäre – auch wenn sich gezeigt hat, dass Wind sowohl on-shore als auch off-shore immer wankelmütig ist. Roger Andrews untersucht in „Energy Matters“ die Frage nach der Zuverlässigkeit von Offshore-Wind aus der „Windnation“ der Welt. Dänemark ist ein kleines Land, das auf einer von Offshore-Windparks umgebenen Halbinsel liegt. Roger Andrews empfindet dänische Behauptungen vordergründig und bemerkt, dass sie die zusätzlichen Kosten der Reparatur nicht berücksichtigen, die durch Salzwasserkorrosion und Salzspray verursacht werden. [Link zum Original nicht gefunden, es wird jedoch auf mehreren Blogs erwähnt, hier WUWT in 2017/07/09]

Die Suche nach soliden Daten ist immer ein Problem für solche Studien, aber Andrews gelang es, eine dänische Datenbank zu finden, welche die Onshore- und Offshore-Windenergieproduktion für drei Jahre, von 2014 bis 2016, getrennt ausweist.

Andrews stellt fest, dass Offshore-Wind einen Kapazitätsfaktor von 43 Prozent hat, verglichen mit Onshore-Wind von 25 Prozent. Er fand auch heraus, dass, wenn kein Wind an Land weht, er auch vor der Küste stirbt. Beide erfordern ein back-up durch zuverlässige Kraftwerke.

Jeder Wochenendsegler in den Gewässern vor der Ostküste der USA kann besonders im August die Unzuverlässigkeit der Meereswinde bezeugen. Da Offshore-Wind außerdem doppelt so teuer ist wie Onshore-Wind, ist off-shore auch kein Schnäppchen.

 

Das Experiment auf den Kanarischen Inseln

Im November 1997 beschloss die Regierung der Insel El Hierro auf den Kanarischen Inseln [süd-westlich gelegen], die Insel vollständig mit erneuerbaren Energien zu versorgen, wodurch die Insel sich selbst versorgen sollte. Im Juni 2002 wurde der Plan zur Nutzung von Wind zur Stromerzeugung genehmigt, mit Pumpspeicherkraftwerken für back-up. Das Projekt wurde von Gorona del Viento El Hierro SA unter Beteiligung des Inselrats (60 Prozent), Endesa (30 Prozent), des Technologischen Instituts der Kanarischen Inseln (10 Prozent) und mit geplanten Kosten von 64,7 Millionen Euro durchgeführt.

Vor der Küste Afrikas schien die Insel El Hierro ein idealer Ort für ein solches Projekt zu sein. Es erhebt sich steil über dem Atlantischen Ozean und der höchste Berg erreicht eine Höhe von knapp 1400m. Die Kanaren sind seit langem für ihren Wind bekannt. In der Kolonialzeit segelten Schiffe von Europa nach Süden zu den Kanarischen Inseln, um die Passatwinde zur Weiterfahrt in die Neue Welt auszunutzen. In jüngerer Zeit erhielt El Hierro seine Energie aus importiertem Dieselkraftstoff – etwa 6.000 Tonnen / p.a., was 40.000 Barrel Öl entspricht.

Das kanarische Projekt ging im Juni 2015 online. Die Gesamtkosten sind noch nicht klar. Glücklicherweise hat Red Eléctrica de España (REE), ein spanisches Unternehmen, das sich zum Teil in staatlichem Besitz befindet und teilweise in Privatbesitz ist und das nationale Stromnetz in Spanien betreibt, Statistiken für El Hierro erstellt. Roger Andrews von Energy Matters verfolgte die Zahlen aufmerksam und berichtete, dass das windgepumpte Wasserkraftwerk nach zwei vollen Betriebsjahren 39 Prozent des Strombedarfs von El Hiero und nur 9 Prozent seines Energiebedarfs deckt.

Zwischen der Gesamtenergie, die die Insel benötigte, wie einige behaupteten – und der weit geringeren Strommenge, die die Insel benötigte, wie es jetzt behauptet wird, mag es erhebliche Verwirrung gegeben haben. Abgesehen von dieser Verwirrung lieferte das System in nur zwei Monaten innerhalb von zwei Jahren mehr als 60 Prozent des Strombedarfs der Insel – und blieb weit hinter den Anforderungen zurück. In drei dieser Monate lieferte das System weniger als 20 Prozent des Strombedarfs der Insel. Bei vielen Gelegenheiten erzeugten die Windanlagen wenig oder keinen Windstrom **. Das gesamte elektrische System auf El Hierro ist durch Windkraft und Pumpspeicher unterversorgt. Unter anderem sind die oberen Wasserreserven, die für den Strom benötigt werden, wenn der Wind ausfällt, viel zu klein, um den Fehlbetrag auszugleichen; Bedenken Sie, dass der Wind häufig und für längere Zeit versagt.

[ ** auf der Webseite von Corona Wind, das Projekt betreuende Unternehmen, wird eine Grafik gezeigt, die für die Monate des ersten Halbjahres 2018 49% bis 71% Energielieferung des Pumpspeicherkraftwerkes ausweisen, 1.450 Stunden Hydro, zur Gesamtversorgung mit 61 % aus Erneuerbaren Quellen – und der Rest ist Diesel]

 

Eine Windkatastrophe in Südaustralien

Kürzlich beschloss die Provinzregierung von Südaustralien, die Windenergie zu fördern und zuverlässige Kohle zu vernachlässigen. Bei einer Reihe von schweren Gewittern haben sich  Windparks abgeschaltet, um Schäden zu vermeiden. Aber die Stilllegung der Windparks setzte sich kaskadierend fort und das gesamte Netz war abgeschaltet. Einige Stadtgebiete waren für einige Stunden ohne Strom, in einigen ländlichen Gebieten dauerte es sogar Wochen bis wieder Strom zur Verfügung stand. Seit dem Stromausfall im letzten September gab es im Dezember und Februar zwei weitere Stromausfälle. Diese Unsicherheit wird noch Jahre andauern.

Südaustralien, etwas kleiner als die Größe von Texas und New Mexico zusammen, hat eine Bevölkerung von 1,7 Millionen. Eine der am schwersten betroffenen Einrichtungen war eine Aluminiumschmelze. Als die Aluminiumfabrik den Strom verlor, erstarrten Tonnen von geschmolzenem Aluminium, was zu einem Produktionsstillstand von vielen Monaten führte.

 [Anmerkung STT: Die oben erwähnte Aluminiumschmelze liegt in Portland in Victoria nahe der Grenze und wurde im Dezember 2016 während eines weiteren Zusammenbruchs der Windkraft getroffen . Der landesweite Stromausfall vom September 2016 traf die riesige Kupfer-, Gold- und Uranmine von BHP Billiton am Olympic Damund die Blei- / Zinkhütte von Nyrstar in Port Pirie .

Die Ereignisse in Südaustralien illustrieren die Folgen der Privilegierung von Windstrom: Die Besitzer eines südaustralischen Kohlekraftwerks brauchten Subventionen, um den Betrieb weiter aufrecht zu halten, nicht weil ihre Kosten stiegen, sondern weil sie durch die Bevorzugung von subventioniertem Windstrom nicht genügend liefern durften. Das Kraftwerk wurde stillgelegt und stand während der Krise nicht für Backup zur Verfügung, als wetterabhängige Anbieter keinen Strom liefern konnten.

Über dieses große Geheimnis der Stromerzeugung reden die Ideologen nicht gerne: Wetterabhängige Anbieter brauchen immer Unterstützung, wenn der Wind nicht weht oder die Sonne nicht scheint. In der Tat müssen diese Systeme eine parasitäre Beziehung zu zuverlässigen Anbietern aufrecht erhalten.

*** Ende des dritten Teils

Ursprungsbeitrag auf Capital Research

Übernommen von Stopthesethings am 28.07.2018

Übersetzt und ergänzt durch Andreas Demmig

https://stopthesethings.com/2018/07/28/the-wind-gods-new-clothes-why-weather-dependent-power-generation-can-never-work/

Auf Eike finden sie obigen Teil 1; Teil 2Teil 3

***

Im Eike Archiv finden sie u.a. auch das:

Energiepolitisches Manifest – Teil 1  „Argumente für die Beendigung der Energiewende“

Energiepolitisches Manifest – Teil 2

Energiepolitisches Manifest – Teil 3




„Es ist der natürliche Klimawandel – Stupid“

Die heutigen Temperaturen sind max 0,2 C höher als im Mittelalter! Das ergibt sich eindeutig aus dem letzten Klimabericht von 2013/14.

0,2 C – das ist – einfach ausgedrückt – Nichts! Was soll daran unnatürlich sein?

Alle Tausend Jahre gibt es natürliche Warmzeiten. Heute erleben wir genau das – die Moderne Warmperiode. Vor tausend Jahren war es die Mittelalterliche und vor zweitausend Jahren die Römische Warmperiode und davor andere Warmperioden. Es ist alles im normalen Rahmen des natürlichen Klimapendels. Vergleichbar mit Ebbe und Flut an der Nordsee. Wenn dort die Flut kommt regt sich doch auch keiner auf.

Die bisherigen Wetterphänomene sind alle nichts Neues, sondern sind schon immer geschehen.

Der Klimahistoriker Pfister schreibt sogar in seinem Buch Wetternachsage von einem „klimatischen Gunstjahrhundert“. Da früher im 19. Jahrhundert und davor alles viel schlimmer war.

Zitat:

Pfister, S. 263,:

„Die gesamte Belastung durch Überschwemmungen, Lawinen und Stürme war am größten im 19. Jahrhundert. Dies trägt mit zum Verständnis dafür bei, warum die Gesellschaft damals zur vorbehaltlosen Eindämmung und Zähmung der wildgewordenen Natur mit allen verfügbaren Mitteln entschlossen war (Walter, 1996). Am geringsten war die Belastung im 20. Jahrhundert, das seine Bezeichnung als klimatisches Gunstjahrhundert offensichtlich auch in dieser Hinsicht zu Recht trägt.“

 

Und hier das Diagramm dazu:

 

IPCC Klimabericht 2013/14

Die heutigen globalen Temperaturen sind leicht höher (0,2 Grad) als im Mittelalter um das Jahr 1.000. Das Ergebnis ist recht entspannend. Von Klimaalarm keine Spur. Das folgende Diagramm aus dem letzten IPCC Klimabericht 2013/14 wurde in der Öffentlichkeit bisher leider kaum beachtet.

 

Unbekannt.jpg

 

Information from Paleoclimate Archives (WG1, AR5, Kapitel 5) – Grüne Linien und Temperaturdifferenz wurden hinzugefügt. – Es wurden geglättete Daten – (50 Jahre) – verwendet.

 

 

Studie Harmonic Analysis of Worldwide Temperature Proxies for 2000 Years

 

Unbekannt_1.jpg

 

Die heutige Erwärmung passt beinahe „harmonisch“ zu den Erwärmungszyklen der Vergangenheit.

Diagramm aus der Studie*: Die blaue Linie zeigt den tatsächlich ermittelten globalen Temperaturverlauf der letzten 2.000 Jahre. Die rote Linie zeigt den berechneten Zyklusverlauf (Fourier-Analyse) bis in die nächste Zukunft der Abkühlung.

* Studie: Harmonic Analysis of Worldwide Temperature Proxies for 2000 Years, The Open Atmospheric Science Journal, 2017, Prof. Dr. Horst-Joachim Lüdecke (Physiker), Prof. Dr. Carl Otto Weiss (Physiker)




Australiens Premierminister Turnbull stolpert über das Thema Paris-Abkommen

Turnbull trat vorige Woche zurück und kam damit einem drohenden Misstrauensvotum zuvor. Zu seinem Nachfolger wurde Scott Morrison gewählt, welcher maßgeblich an der Durchsetzung der strikten Einwanderungspolitik in Australien beteiligt war und der ein konservativeres Mitglied des Parlaments ist. Ursprünglich war erwartet worden, dass Innenminister Peter Dutton seine Nachfolge antreten werde, doch verlor er in der Abstimmung. Mit 45 zu 40 Stimmen wurde Morrison zum Nachfolger bestimmt.

„Es gab einen entschiedenen Aufstand von einer Anzahl Personen sowohl in der Partei als auch gestützt durch Stimmen, mächtige Stimmen, in den Medien“, sagte Turnbull am Freitag CNN zufolge.

Die Führung von Turnbull geriet in Schwierigkeiten, als seine konservative Koalition geteilter Meinung war über einen eingebrachten Gesetzentwurf zur Reduktion von Treibhausgasen, mit welchem man das Pariser Abkommen einzuhalten gedachte. Turnbulls so genannte Nationale Energie-Garantie hätte die Emissionen im Bereich Energie bis zum Jahr 2030 um 26% reduziert als Bestandteil der von Australien in Paris eingegangenen Verpflichtungen. Aber eine Gruppe konservativer Parlamentsabgeordneter um den ehemaligen Premierminister Tony Abbott versagte ihm die Gefolgschaft.

Die ganze Story steht hier im Daily Caller.

Link: https://wattsupwiththat.com/2018/08/24/australian-pm-turnbull-steps-down-over-paris-climate-accord-issue/




Die Nachtspeicherheizung

Elektrisch heizen ist eine bequeme Sache. Man spart den Schornstein, den Öltank, den Platz für die Gastherme oder das Wärmepumpenaggregat. Ein Knopfdruck oder ein Befehl der Automatik sorgen völlig geräusch-, wartungs- und emissionsfrei für angenehme Wärme.

In den 1960er Jahren verbreitete sich die Nachtspeicherheizung als moderne Heizungsvariante und verdrängte einen Teil der Kohleöfen, später nach der Ölkrise 1973 zunehmend auch Ölkessel. Der Ausbau der Kernenergie schien zu garantieren, dass es dauerhaft billigen Strom geben werde. Zudem existierte im alten Energieversorgungssystem ein deutlicher Verbrauchsunterschied von Tag und Nacht. Im Vergleich zu heute arbeitete ein geringerer Teil der Industrie im 24/7-Betrieb. Zudem waren die Kraftwerke schlechter regelfähig als heute.

Das Prinzip der Elektroheizung ist denkbar einfach. Gewendelte Heizdrähte bilden einen ohmschen Widerstand, der den Strom zu 100 Prozent in Wärme umsetzt. Diese heizt einen oft aus Keramik bestehenden Speicherkörper auf und sorgt für eine Wärmespeicherung über die Zeiten, in denen kein preisgünstiger Heizstrom zur Verfügung steht. Eine andere Variante sind Infrarot-Heizgeräte. Moderne Elektroheizungen haben mitdenkende Automatiken. Sie merken sich den Verbrauch vom Vortag und speichern nach Abfrage des Außentemperaturgebers nur so viel Wärme ein, wie vermutlich gebraucht werden wird. Reicht das nicht aus, wird kurzfristig zum Lichtstromtarif zugeheizt.

In den Anfangszeiten der sechziger und siebziger Jahre war die Nachtspeicherheizung auch preislich konkurrenzfähig. Den Strom gab es nachts schön billig und CO2war halt Lebensbaustein, Löschmittel und in Getränken drin. Heute zahlt man 18 bis 22 Cent für die Kilowattstunde Heizstrom, es gibt nur wenige überregionale Anbieter. Die Umrüstung auf kostengünstigere Wärmequellen ist eher schwierig, denn viele Häuser wurden mit der E-Heizung projektiert und haben keine Schornsteine und Wasserumlaufsysteme mit Heizkörpern. Speziell bei Mehrfamilienhäusern fällt die Umrüstung aus Kostengründen meist aus.

Nicht nur durch die heftig gestiegenen Strompreise bekam die Nachtspeicherheizung einen schlechten Ruf. In der heutigen CO2-zentrierten Weltsicht erweist sich der energetische Umweg Brennstoff -> Wärme -> Strom -> Wärme gegenüber Brennstoff -> Wärme nicht nur als teurer, sondern vor allem als emissionsreicher. Zudem richtete sich die öffentliche Diskussion zunehmend darauf, dass die Nachtspeicherheizungen vor allem für die Erzeuger, also die großen und bösen Stromkonzerne, von Vorteil sind.

So trat am 1. Oktober 2009 die Energieeinsparverordnung (EnEV 2009) in Kraft, die eine schrittweise Außerbetriebnahme von elektrischen Speicherheizsystemen vorsah. Danach durften Nachtstromspeicherheizungen, die vor 1990 in Wohngebäude mit mehr als fünf Wohneinheiten eingebaut wurden, nur noch bis Ende 2019 betrieben werden. Später eingebaute Nachtstromspeicherheizungen durften noch bis zum Ablauf von 30 Jahren nach Einbau betrieben werden. Die Pflicht zur Umstellung entfiel, wenn das Gebäude die Anforderungen der Wärmeschutzverordnung vom August 1994 einhält.

Vorwärts zurück

Obwohl das Verbot der EnEV 2009 nur einen kleinen Teil der Nachtspeicherheizungen betraf, beschloss der Bundestag im Jahr 2013, es wieder außer Kraft zu setzen. Der betreffende § 10a EnEV, der die Außerbetriebnahme von Nachtspeicherheizungen regelte, wurde wieder aufgehoben. Spielen die höheren Emissionen plötzlich keine Rolle mehr? Immerhin steht eine Elektroheizung für etwa 600 Gramm CO2pro Kilowattstunde, entsprechend dem deutschen Strommix. Ein erdgasgefeuerter Brennwertkessel emittiert weniger als die Hälfte. Aus klimapolitischer Sicht ist „Power to heat“ (P2H) also kontraproduktiv. Die als Sektorkopplung bezeichnete Ausweitung der Elektrizität auf Wärme und Verkehr dürfte den jetzigen Strombedarf verdoppeln bis verdreifachen.

Genau das ist das Ziel der Ökolobby. Die jetzige Stromversorgung und die Möglichkeiten der verbraucherfernen Einspeisung geraten an Grenzen. Indem neue Stromverbraucher planwirtschaftlich generiert werden, zum Beispiel eine Million E-Mobile, verdrängt man die bisher für Transport und zur Wärmegewinnung genutzten Brennstoffe. Das sorgt das für die Absatzsicherung Zufallsstrom erzeugender Anlagen.

Diese mit Vehemenz betriebene Initiative zur Sektorkopplung indoktrinierte die Politik erfolgreich. Es herrscht der Aberglaube, die Umstellung von Wärme- und Verkehrssektor auf Elektrizität sei kostengünstig möglich, da künftig Unmengen von Strom fast zum Nulltarif aus Wind und Sonne zu erhalten seien. Insbesondere Erzeugungsspitzen, die heute zum Abregeln auch der regenerativen Anlagen führen, seien damit gut nutzbar.

Das ist ein Holzweg. Die These vom reichlich verfügbaren billigen Strom ist Wunschdenken und von keinerlei Fakten gedeckt. Zeitweise Erzeugungsspitzen durch atlantische Tiefausläufer können keine Versorgung mit Strom, Wärme und Mobilität sichern. Der Rückgang der gesicherten Stromproduktion stellt sich nach Erhebungen des BDEW (Bundesverband der Energie- und Wasserwirtschaft e.V.) so dar:

Eine Jahreshöchstlast von über 80 Gigawatt wird schon ab 2023 schwerlich ohne Importe abgesichert werden können. Das Maß erwarteter Überschüsse aus Wind- und Sonnenkraft ist unklar und in jedem Fall nur temporär. Heizen und Fahren erfordert aber Energie zu jeder Zeit. Damit bleiben nur zwei Optionen:

Entweder die P2H-Anlagen haben nur begrenzte Betriebsstunden und müssen durch andere, herkömmliche Systeme ergänzt werden oder sie beziehen ihren Strom auch aus konventionellen Quellen. Die erste Variante wäre teuer, die zweite würde die konventionelle Erzeugung stabilisieren und sogar seinen Ausbau auf bis zu 100 Gigawatt erfordern (siehe hier).

 

P2H würde Sinn machen bei einem hohen Anteil CO2-armer, stabiler und kostengünstiger Erzeugung, die aber durch den weiteren Zubau volatiler Anlagen nicht erreichbar ist.

 

Während Deutschland seinen Strombedarf zum völlig falschen Zeitpunkt hochtreibt,  bemüht sich die EU, ihn zu senken. Dabei dreht sie am ganz großen Rad und kümmert sich – um Staubsauger. Seit September 2017 gilt die Öko-Design-Verordnung 666/2014. Danach darf die Stromaufnahme von neuen Geräten 900 Watt nicht mehr überschreiten. In einem Normalhaushalt ist vermutlich eine halbe Stunde Staubsaugen pro Woche (zweimal „Tagesschau“ hintereinander!) schon reichlich angesetzt. Die Einsparung gegenüber einem Altgerät mit 1600 Watt übers Jahr ist lächerlich angesichts der Strommengen, die in Deutschland durch P2H verbraten werden sollen.

Die Verordnung schuf zunächst Arbeit für den Europäischen Gerichtshof (EuGH). Strittig war die Frage, ob die zulässige Stromaufnahme nur bei sauberem Staubfangbeutel erreicht werden muss und dann mit weiterem Beutelfüllstand ansteigen darf und damit die Vorgabe dennoch erfüllt wird. Die Firma Dyson bietet hingegen beutellose Geräte an, deren Leistungsaufnahme weitgehend konstant ist. Dyson prozessierte gegen die vermeintliche Bevorteilung der herkömmlichen Geräte mit Staubbeutel wie bei den Produkten von BSH (Bosch-Siemens-Hausgeräte) – und verlor.

Mit Spannung sehen wir den nächsten Öko-Design-Richtlinien entgegen.

 

So sparen wir Strom beim Staubsaugen und verschwenden ihn beim Heizen. Elektrizität ist die edelste Form der Energie. Sie ist universell einsetzbar und die unverzichtbare Grundlage von Digitalisierung und Industrie 4.0. Wenn sie auf Niedertemperaturwärme reduziert wird, kommt das einer Degradierung gleich. Stefan Fassbinder formuliert es so: „Mit Strom heizen ist, wie Möbel verbrennen, die man nicht verkaufen kann. Aber warum stellt man dann die Möbel erst her?“