Fehlgeleitete Energiepolitik hat Europa auf den Weg wirtschaftlichen Abschwungs gebracht

Warum haben dann einige europäische Länder – vor allem Deutschland, aber auch UK und Dänemark – weiter den Weg grüner Politik verfolgt, der die Energiekosten in die Höhe treibt und von dem sich herausstellen könnte, dass dadurch die langfristige wirtschaftliche Entwicklung erheblich gefährdet ist?

Die gegenwärtige Politik in Deutschland zwingt die Haushalte schon jetzt dazu, die zweithöchsten Energiepreise in Europa zu zahlen – die oftmals bis zu 30 Prozent über dem Niveau anderer europäischer Länder liegen. Nur die Dänen zahlen noch mehr, und die lokalen Stromkosten in beiden Ländern sind grob geschätzt um 300 Prozent höher als in den USA. Die Umstände in Deutschland können nur zu einer weiteren Verschlechterung führen nach der Wiederwahl von Angela Merkel und ihrer CDU. Sie wird mit der Politik weitermachen, die darauf abzielt, das Land von fossilen Energieträgern und der Kernkraft abzubringen.

Aber selbst ehemalige Befürworter fangen an, die dadurch auftretenden Schäden zu bemerken. Dr. Fritz Vahrenholt, ein Vater der Umweltbewegung in Deutschland und ehemaliger Vorsitzender der Abteilung Erneuerbare Energien bei RWE, ist inzwischen jenen beigetreten, die diesen Trend in Frage stellen. In seinem neuen Buch Die vernachlässigte Sonne geht einer Katastrophe voraus [The Neglected Sun Preludes Catastrophe] kommt er zu dem Ergebnis, dass „Erneuerbare Energien eine große Zukunft haben, aber nicht so wie jetzt. Es ist ein Runaway-Train und viel zu teuer. Wir setzen unsere Industrie aufs Spiel!“

Etwa 7,8 Prozent des Stromes in Deutschland stammt aus Wind-, etwa 4,5 Prozent aus Solarenergie, 7 Prozent aus Biomasse und 4 Prozent aus Wasserkraft. Die Regierung plant, den Anteil der Erneuerbaren bis zum Jahr 2020 auf 25% anzuheben und auf 80 Prozent bis zum Jahr 2050. Da Wasserkraft und Biomasse nicht wachsen, muss das Meiste dieser Ausweitung aus Wind und Sonne kommen.

Inzwischen hofft Dänemark, wo 20 bis 30 Prozent des Stromes aus Wind und Sonne kommen, diesen Anteil auf 50% ausweiten zu können. Da Dänemark die nachts erzeugte Energie nicht komplett selbst nutzen kann, wird die Hälfte davon nach Norwegen und Schweden exportiert. Aber selbst mit den Erlösen aus diesen Exporten haben die Wind-Subventionen der Regierung den dänischen Verbrauchern die höchsten Strompreise in Europa aufgebürdet.

Und was ist mit UK? Im Jahr 2011 haben die Windturbinen in UK gerade mal 21 Prozent der installierten Kapazität (nicht nachgefragter Kapazität) Energie erzeugt. Wie in Deutschland hat die Unzuverlässigkeit bei der Befriedigung der Energienachfrage den Import von Energie aus Kernkraft aus Frankreich erforderlich gemacht. Auch genauso wie in Deutschland schließt die Regierung einige der älteren Kohlekraftwerke – obwohl schon eines davon fast doppelt so viel Energie erzeugen kann als alle 3000 Windturbinen in UK zusammen.

Erneuerbare sind unzuverlässig, und Stromausfälle kommen zu den Unbilden für die Verbraucher hinzu. Das ist dort nicht so sehr ein Problem, wo es Backup-Möglichkeiten gibt wie Wasser-, Kohle- und Kernkraftwerke, um die Nachfrage zu decken. Aber in den meisten Gebieten Europas fehlt es an Ersterem, und letztere beide werden absichtlich – zum Schaden für alle – heruntergefahren.

Anzeichen für eine konstruktive Änderung sind in Australien weitaus deutlicher. Im September hat die Liberale Partei die von den Grünen unterstützte Labour Partei geschlagen. Das war als eine Art Sieg in einem Referendum gedeutet worden, um Myriaden von Anti-Kohlenstoff-Maßnahmen abzuschaffen, die unter der vorigen Regierung eingeführt worden waren. Die Einstellung von Zahlungen in die um sich greifende Klima-Maschinerie und die Rücknahme einer Kohlenstoffsteuer werden der Wirtschaft den Erwartungen nach über 100 Millionen australische Dollar einsparen – pro Woche. Australien greift nach der Vernunft – Europa kann von diesem leuchtenden Beispiel viele Lektionen lernen.

Und dank Erdgas, Kohle und Kernkraft konnten die USA ihre Kapazität zur Energieerzeugung exzessiv steigern und die Verteilersysteme angemessen ausweiten – anders als Europa. Heute kommen über 42% des Stromes in den USA von Kohle, 25 Prozent aus Erdgas und 19 Prozent aus Kernkraft. Nur etwa 3,4 Prozent stammen aus Wind und etwa 0,11 Prozent aus der Sonne.

Ob erneuerbare Energie jemals in der Lage sein wird, substantiell im Wettbewerb mit Alternativen mithalten zu können – und nicht weiterhin ein Nischendasein zu führen – wird man sowohl in den USA als auch international abwarten müssen. Aber unabhängig davon, wir können nur hoffen, dass Amerika aus der ruinösen grünen Politik in Deutschland und anderen EU-Ländern seine Lehren zieht, bevor die fehlgeleitete Politik wie dort weiteren sozialen und wirtschaftlichen Schaden anrichten wird.

Larry Bell ist Professor an der University of Houston, wo er das Sasakawa International Center for Space Architecture leitet.

Energy row hots up as SSE blames policy for price rise 

– See more at: http://tinyurl.com/pco723b

Link: http://tinyurl.com/ooxbsch

Übersetzt von Chris Frey EIKE




Die gekonnten Vorhersagen der Klimawissenschaft

In der Studie von Smith et al. wurden folgende spezifische Vorhersagen erstellt:

• In der Dekade 2004 bis 2014 würde es einer Erwärmung um 0,3°C kommen.

• Mindestens die Hälfte der Jahre nach 2009 würde wärmer ausfallen als das Rekordjahr 1998

Man beachte, dass man zu jener Zeit, 2007, von 1998 als dem wärmsten Jahr ausgegangen war. Nachfolgende Anpassungen der Methodik machten plötzlich das Jahr 2005 zum wärmsten Jahr.

Diese Vorhersagen wurden weithin verbreitet [vielleicht auch in deutschen Zeitungen? Weiß zufällig jemand noch etwas davon? A. d. Übers.]. Sie tauchten auf in einer Presseerklärung des Met. Office, und eine Hochglanz-Broschüre zur ,,Information für die Regierungspolitik in der Zukunft” [Original Informing Government policy into the future] zeigte die obligatorischen, Angst erzeugenden Hintergrundbilder mit schwarzen Wolken und Menschen mit Atemmasken. Vicky Pope hat über diese Vorhersagen gesprochen und gesagt: „Das sind sehr sichere Statements über das, was während der nächsten 10 Jahre geschehen wird“.

Und natürlich haben alle Medien ergeben darüber berichtet ohne jede Hinterfragung.

Diese Vorhersagen haben sich als falsch herausgestellt. Wir sind fast schon im Jahr 2014 angekommen, und seit dem Jahr 2004 hat es keinerlei Erwärmung gegeben. Von den Jahren seit 2009 hat kein einzigen den Rekord des Jahres 1998 gebrochen, jedenfalls den HadCRUT3-Daten zufolge. Zieht man die HadCRUT4-Daten heran, zeigt sich, dass das Jahr 2010 um bedeutungslose 0,01°C wärmer war (das ist ein Zehntel der Fehlerschätzung). Die Jahre 2011 und 2012 waren kühler ausgefallen, und es ist inzwischen eindeutig, dass auch das Jahr 2013 kühler ausfallen wird.

Vorhergesagt war eine Erwärmung um 0,30 °C ± 0.21°C (Vertrauensbereich 5 bis 95%; Modell CI). Das bedeutet, wenn wir nicht noch eine signifikante Erwärmung während der nächsten paar Monate bekommen, sieht es so aus, als ob die Beobachtungen außerhalb von C1 liegen.

COP19, Warschau 2013: Stillstand war „erwartet worden”

Auf der letzten Klimakonferenz COP19 in Warschau war das Met. Office mit einem Stand vertreten. Auf diesem waren zwei interessante Bilder hiervon zu sehen (Dank an Leo Hickman):

[siehe Bilder oben rechts]

Offensichtlich entspricht eine Verlangsamung der Erwärmung „den Erwartungen“. Obwohl es in der Studie von Smith et al. geheißen hatte, dass die natürliche Variation die Erwärmung während der nächsten paar Jahre aufhalten könne; und obwohl sie danach mit der unrichtigen Vorhersage weitermachten, gab es keinerlei Erwähnung einer solchen Erwartung in der Presseerklärung des Met. Office oder dem Kommentar von Vicky Pope. (Tatsächlich hat sie gesagt: „während der nächsten zehn Jahre werden wir Zeuge ziemlich signifikanter Änderungen werden“).

Die zweite Graphik ist interessant, weil die Achsen nicht beschriftet sind, was die erste und elementarste Regel des Zeichnens von Graphen verletzt. Ich habe via Twitter gefragt, was da gegen was aufgetragen war. Ich danke Gerry Morrow für den Vorschlag, dass möglicherweise der Verlauf des Vertrauens in die Klimawissenschaft mit der Zeit aufgetragen war. Vermutlich sollte die Anzahl der Vorkommen pro Jahrhundert gezeigt werden, mit der ein Stillstand den Klimamodellen zufolge wahrscheinlich eintritt. Im Text ist von einem 10-jährigen Stillstand die Rede, aber der gegenwärtige Stillstand dauert schon über 15 Jahre, was nur zweimal pro Jahrhundert vorkommen soll, wenn die Modelle richtig liegen.

Smith et al 2013: weise Modelle

Eine neue Studie von Smith et al. (2013) mit dem Titel „Real-time multi-model decadal climate predictions” wurde in Climate Dynamics veröffentlicht. Daran gearbeitet haben 22 Autoren, was die Tatsache spiegelt, dass diesmal viel mehr Klimamodelle herangezogen worden waren. Der Tonfall ist irgendwie vorsichtiger als in der vorigen Studie. So heißt es beispielsweise jetzt „wir betonen, dass die Vorhersage experimentell ist“. Aber es wird auch behauptet, dass die Modelle „einer rigorosen Evaluierung unterzogen worden waren. Jedes einzelne Modell wurde individuell auf seine Vorhersagefähigkeit evaluiert“.

Die Studie vermischt Vorher- und Nachhersagen. Für so etwas wurde das Met. Office schon zuvor kritisiert. Beispiel hierfür ist die Behauptung, dass die „Vorhersagen für das Jahr 2011 gut mit den Beobachtungen übereinstimmen“. Bei der Lektüre der Studie wird nicht klar, wann diese ‚Vorhersagen‘ ausgegeben worden sind.

Es gibt keine Schlagzeilen-Zahl einer Erwärmungs-Vorhersage während der nächsten Dekade, aber hier folgt eine Graphik, die diese Vorhersagen graphisch darstellt:

Die nicht initialisierte Vorhersage scheint von einem Startpunkt mit einer um 0,3°C höheren Temperatur auszugehen, als gegenwärtig gemessen, während die initialisierte (rote) Kurve einen Anstieg von etwa 0,3°C innerhalb von drei Jahren zeigt. Eine Vorhersage der Reading-Gruppe (grüne Kurve) wurde aus irgendwelchen Gründen heraus gehoben und zeigt einen mehr graduellen Anstieg. (Ed Hawkins nannte mir als Grund, dass es eher eine statistische Vorhersage als eine auf Klimamodellen basierende handelt).

Aber was hinsichtlich Smith et al. 2013 am bemerkenswertesten ist: Es wird kein Versuch unternommen, die Genauigkeit der vorigen Studie von Smith et al. 2007 abzuschätzen, obwohl diese frühere Studie als Referenz genannt wird und trotz der Aussage in der Introduction, dass „die Abschätzung der Diskrepanzen zwischen den Vorhersagen und den nachfolgenden Beobachtungen Schwächen der Initialisations-Strategien enthüllen kann, der Modellsimulationen interner Variabilität, Modellreaktionen auf äußere Antriebe und Unsicherheiten zukünftiger Antriebsfaktoren. Diese alle sind für die Verbesserung zukünftiger Vorhersagen nicht evaluierbar“.

Hier wollen wir an die berühmte one-minute summary of how science works von einem Kerl namens Richard Feynman erinnern.

Aktualisierung: Ed Hawkins sagt, das seine Studie in Arbeit ist, in der die Vorhersage-Verzerrungen in einer Version von DePreSys untersucht werden.

Link: http://ipccreport.wordpress.com/2013/11/20/the-skillful-predictions-of-climate-science/

Übersetzt von Chris Frey EIKE




Lassen sich zukünftige Erdtemperaturen berechnen?

Die Datengrundlagen von SB sind Zeitreihen des Berylliumisotops Be10 sowie des Kohlenstoffisotops C14. Die Leitidee der Autoren bestand darin, ihre auf Fourier- und Waveletanalysen basierende Vorhersagemethode an Hand von jeweils 500 Jahreszeiträumen an Hand der bekannten Vergangenheitsdaten zu evaluieren. Da dort die Resultate befriedigend waren, sahen es die Autoren als berechtigt an, eine Vorausberechnung für die 500 noch vor uns liegenden Jahre zu erstellen. Das Ergebnis dieser Berechnung zeigt Bild 1 (Fig. 4 [1]).

http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild1-1.jpg

Bild 1: Sonnenaktivität (linke Skala) und Irradianz (rechte Skala) von 1650 bis zum Jahre 2500.

Die Arbeit von SB bestätigen die im Buch von Vahrenholt/Lüning [2] geschilderte Hypothese vom Einfluss der Sonne auf terrestrische Klimaentwicklungen, wobei der hier waltende Mechanismus noch unbekannt ist und von SB auch nicht näher untersucht wird. Es handelt sich bei der Arbeit von SB um eine statistische Analyse, der kein Modell des untersuchten Phänomens zugrunde liegt. Da die Sonnenaktivität in der Vergangenheit gut mit den Erdtemperaturen korreliert, was sich besonders deutlich in allen vergangenen Temperaturminima zeigt, erlaubt diese Feststellung eine Extrapolation in die Zukunft, soweit auch dort der gleiche Kausalzusammenhang besteht und sich zudem sie Sonnenperiodizitäten fortsetzen. Infolge des relativ langen Beobachtungszeitraums (ca. 10.000 Jahre), in der diese Prämissen als zutreffend überprüft werden konnten, erscheinen nur weitere 500 Jahre als eine verhältnismäßig sichere Vorhersagespanne.

Die Publikation von SB ist auch für uns Autoren von großem Interesse. In der EIKE News vom 1.Nov.2013 (hier) besprachen wir unsere Veröffentlichung [3] , in welcher wir zeigen, dass alle Klimaänderungen seit ca. 1750 bis heute durch periodische (natürliche) Vorgänge bewirkt werden. Nichtperiodische Vorgänge, wie etwa eine Erwärmung durch die stetige Zunahmen von CO2 in der Atmosphäre, können danach höchstens in der Größe von 0,1 bis 0,2 °C bei Verdopplung des CO2 Gehaltes (wie bis zum Jahr 2100 erwartet) wirksam werden.

Wir fanden, dass 2 Zyklen mit Perioden ~240 Jahre und ~65 Jahre fast vollständig und globalweit die Klimaänderungen in gleicher Weise bestimmen. Zum ~ Zeichen ist anzumerken, dass die Periodendauern mit der Zeit variieren, was auch bei den später geschilderten Vergleichen zu berücksichtigen ist. Alle anderen Zyklen sind schwach gegen diese, und nichtperiodische Einflüsse, wie etwa von CO2, spielen offenbar keine Rolle. Der ~65 Jahr Zyklus ist ein alter Bekannter, nämlich sofort mit der „atlantisch-pazifischen Oszillation“ (AMO/PDO) zu identifizieren, welche sich 1400 Jahre zurückverfolgen lässt. Die AMO/PDO hat keinen äußeren Antrieb sondern stellt als „Eigendynamik“ einen terrestrischen „Ozillator“ dar.

Obwohl die mathematische Analyse der historischen Temperaturaufzeichnungen eine starke ~240 Jahr Periode anzeigt, mussten wir diese anderweitig nachprüfen. Bei der begrenzten Länge der historischen Temperaturaufzeichnungen von nur etwa 250 Jahren kann eine ~240 Jahr Periode natürlich nicht zweifelsfrei nachgewiesen werden. Die Rekonstruktion der Temperatur der letzten 2000 Jahre aus den Daten des Spannagel-Stalagmiten zeigte aber ebenfalls diese Periodizität als bei weitem die stärkste Klimavariation seit ca. dem Jahre 1100.

Die Existenz der starken ~240 Jahr Periode, die die hauptsächlichen Klimaänderungen beschreibt, ist in Diskussionen trotzdem in Zweifel gezogen worden. Obwohl gerade die Temperaturen aus den Stalagmitendaten mit solchen, die aus Nordatlantik Sedimenten gewonnen wurden, gut übereinstimmen. Überdies ist der „de Vries Zyklus“ der Sonne, der etwa diese Periodenlänge hat (~210 Jahre), schon lange als bestimmender Klimaeinfluss bekannt. Eine Bestätigung für die Existenz und den dominierenden Einfluss des von uns gefundenen ~240 Jahr Zyklus liefert nun auch die Veröffentlichung von SB, die ebenfalls den maßgebenden Einfluss des de Vries Zyklus betont.

Interessant bei der Arbeit von SB ist auch die Waveletanalyse der Sonnenaktivität  Abb. 2  (Fig. 1b [1]). 

 http://www.eike-klima-energie.eu/http://www.eike-klima-energie.eu/wp-content/uploads/2016/07/Bild2-1.jpg

Bild 2: Waveletspektrum, die rechte Skala gibt die Stärke der Periodizität (in log2) an. Die schwarze Linie ist der "cone of influence", außerhalb von ihm werden die Ergebnisse allmählich unsicher. Der im Text erwähnte de Vries Zyklus, der in den letzten 1000 Jahre zu den stärkksten Periodizitäten gehört, ist deutlch erkennbar.

Waveletanalysen ermöglichen im Gegensatz zur Fourieranalyse zusätzlich die Angabe, zu welcher Zeit welche Oszillationen auftreten. Die Waveletanalyse der Sonnenaktivität von SB bestätigt unsere Waveletanalyse der Spannagel Daten. Die ~240 Jahr Oszillation setze erst vor ca. 1000 Jahren ein. Sie wiederholt sich nach Bild 2 offenbar in regelmäßigem Abstand von grob 2500 Jahren.

Zusammenfassend kann festgestellt werden, dass die Analyse der Sonnenaktivität von SB die von uns aus Temperaturaufzeichnungen und Stalagmitendaten ermittelten Periodizitäten bestens bestätigt. Der solare „de Vries Zyklus“ zusammen mit der AMO/PDO bestimmen praktisch vollständig die Klimaverläufe der letzten Jahrhunderte und der kommenden Jahrhunderte. Insbesondere ist die starke Erwärmung am Ende des 20. Jahrhunderts dem Zusammentreffen des de Vries und des AMO/PDO Maximums zuzuschreiben. Ein wesentlicher Einfluss von CO2 auf die Erdtemperatur muss daher ausgeschlossen werden, was mit den sich kaum ändernden spektralen Eigenschaften des CO2 bei atmosphärischer CO2 Konzentrationserhöhung bestens vereinbar ist.

Für die derzeitige „Stagnation“ der Erdtemperatur ist der AMO/PDO Zyklus verantwortlich, der sein Maximum inzwischen verlassen hat.  Der de Vries Zyklus ist derzeit etwa an seinem Maximum und ändert seinen Einfluss nur sehr langsam. Da das nächste AMO/PDO Minimum um 2035 liegt, ist zumindest bis dahin weiter mit absinkenden Temperaturen zu rechnen. Die Berechnung von SB sagt überdies ein Temperaturminimum um das Jahr 2100 voraus, das durchaus dem der kleinen Eiszeit Ende des 17. Jahrhundert gleichkommen könnte. Sollte diese Vorhersage zur Realität werden, was nicht unwahrscheinlich ist, darf jetzt schon über das Schicksal der AGW – Hypothesen spekuliert werden.

 

Quellen:

[1] F. Steinhilber and J. Beer, Prediction of solar actibvity for the next 500 years, Jor. Geophys. Res. Space Phys., Vol. 118, 1861-1867 (2013)

[2] F. Vahrenholt, S. Lüning, Die kalte Sonne, Hoffmann und Campe Verlag

[3] "H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records, clim. past, 9, 447-452, 2013" (hier)

 

Zu den Autoren:

Prof. Dr. Horst-Joachim Lüdecke (Physiker) lehrte nach Forschungs- und Industrietätigkeit an der HTW des Saarlandes. Fachveröffentlichungen in Kernphysik, Strömungsmechanik, Chemietechnik und Klimaphysik sowie ein Fachbuch und zwei Klimasachbücher (hier). Er ist Pressesprecher von EIKE.

Prof. Dr. Carl Otto Weiss (Physiker) war Abteilungsdirektor an der Technischen Bundesanstalt Braunschweig und Autor bzw. Mitautor von weit über 200 Fachveröffentlichungen zur Laserspektroskopie. Er ist EIKE Mitglied.

Related Files




Kombikraftwerke für 100 % „Erneuerbare“. (Teil 1) Ein Projekt von Tagträumern oder Hütchenspielern?

Teil 1

In der Hunger-Zeit nach dem zweiten Weltkrieg warb ein geschäftstüchtiger Fleischermeister mit einem besonderen Angebot.

„Billig, billig: Reines Kaninchenfleisch (mit Pferdefleisch gemischt!)“ Im Kleingedruckten stand: „Mischung: 50:50!“. Ein neugieriger Kunde fragte nach, wie denn das mit der 50 : 50 Mischung zu verstehen sei?  Der Meister zögerte ein wenig, bis er schließlich sagte: „Na, ja, ein Kaninchen,  ein Pferd!“

So ähnlich kann man sich die Zusammensetzung des Kombikraftwerks vorstellen, welches das unermüdliche Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) in Kassel zusammen mit seinen Partnern[1]:  der staunenden Öffentlichkeit kürzlich vorstellte.

Die dazu erstelle Pressemitteilung ist überschrieben mit:

Kombikraftwerk 2 demonstriert: „Sicherer Stromnetzbetrieb bei 100% Erneuerbaren Energien in Zukunft möglich“

Und um die sehr hohen Erwartungen an die Möglichkeiten dieses Projektes auch allen Gläubigen des Einsatzes von „Erneuerbaren“ zu demonstrieren, wurde außerdem ein schöner aufwendiger Film erstellt, der auf Youtube zu sehen ist.

Er hat den verführerischen Titel

Stabiler Strom aus Erneuerbaren Energien“:

Hier das Youtube Video  zum Projekt Kombikraftwerk 2

Als Dokumentarfilm aufgemacht und  mit vielen  Animationen angereichert, welche die schöne neue Welt mit hundert Prozent  Ökostromversorgung  den Zuschauern nahe bringen soll, zeigt er uns anschaulich was -dank Kombikraftwerk-2-Erkenntnissen- zukünftig möglich sein soll.  Nämlich 100 % Stromversorgung aus Ökostrom. Geld für das Projekt ist jedenfalls genug da,  denn es wird – wie anders – vom Bundesministerium für Umwelt mit rd. 1,8 Mio € gefördert. Der Anteil der vielen Projektpartner an der Förderung –allesamt Nutznießer des Geldregens aus der Energiewende- wird leider nicht genannt. Klein wird er jedoch nicht sein. Doch sonst ist von Geld oder gar Kosten samt Vergleichen, wie man dasselbe Ziel mit konventionellen oder mit Kernkraftwerken erreichen kann, mit keinem Wort die Rede.

Was wurde gemacht?

Deswegen ist es nützlich, sich die Fakten anzuschauen, die dem Projekt zugrunde liegen. Im „Hintergrundpapier[2] ist aufgelistet welche Einzel-Kraftwerke zum  „Kombikraftwerk“ zusammengeschlossen wurden. Es handelt sich um zwei brandenburgische „Windparks“, 12 PV Anlagen im Raum Kassel und insgesamt sieben Biomasseanlagen in Hessen und im Saarland. Tabelle 1 zeigt deren Anzahl, Lage und Leistungsdaten

WKA Ort Anzahl

Anlagen

Nennleistung in MW
Brandenburg Jüterbog 18 37,2
Brandenburg Jüterbog 19 39,2
PVA Raum Kassel 12 1
Biomasse Wallerstädten 1 1,2
Mittelstrimmig 2 0,5
Zemmer 2 1,4
Heilbachhof 2 0,5
Zusammen 56 81

Tabelle 1: Typ, Ort, Anzahl und Nennleistung der zum Kombikraftwerk 2 zusammengeschalteten Einzelanlagen mit zusammen 81 MW Leistung.

Sofort sticht ins Auge, dass es sich beim Zusammenschluss um eine recht willkürliche Angelegenheit handelt. Auch wenn Deutschland als Ganzes und insbesondere Kassel nicht von der Sonne verwöhnt werden, so ist doch der Anteil an PVA Leistung mit nur 1,2 % der Gesamtleistung extrem gering. Hält doch Deutschland mit rd 40 % der installierten PV Anlagen, deren Nennleistung sich inzwischen zu über 34 GW auftürmen den Weltrekord bei der Solarnutzung.

Ob die geringe Einspeisung für das Gelingen des Versuches erforderlich war oder nicht, wissen wir nicht. Denkbar wäre es jedenfalls. An zweiter Stelle folgen dann, mit ebenfalls geringen 4,44 % der Gesamtleistung, die Biomasseanlagen, während die Windparks, mit rund 94,3 %, dominieren.

Das Tortendiagramm in Abb 1. zeigt die Anteile nochmals grafisch.

Abbildung 1: Verteilung der Nennleistungsanteile beim Feldversuch Kombikraftwerk 2.

Der Feldversuch hatte den  Zweck herauszufinden ob „Erneuerbare“ sich dazu eignen sog. „Regelleistung“ bereit zu stellen. Das ist die Kraftwerksleistung, die zur Grundlast hinzukommen muss, um schwankenden Bedarf und/oder schwankende Einspeisung sekunden- bis minutenschnell auszugleichen. Dabei sind besondere Anforderungen an Frequenz und Phase der so eingespeisten Leistung zu erfüllen.

Auch ohne jeden Versuch dieser Art hätte man vorab feststellen können, dass sich Kraftwerke auf Biomassebasis jederzeit für die Bereitstellung von Regelenergie eignen, denn wie alle thermischen Kraftwerke können sie innerhalb gewisser – wenn auch bei Biomasse besonders enger-Grenzen (siehe Kommentare unten) beliebig herauf- wie auch heruntergefahren werden, d.h. je nach Anweisung des KW-Betreibers mehr oder weniger Leistung ins Netz einspeisen. Komplizierter wird diese Betriebsweise bei Windkraft- oder Solaranlagen. Aber auch diese lassen sich, wenn auch in wesentlich engeren Grenzen, auf- und abregeln, bspw. durch Verstellen des Anstellwinkels der WKA-Rotorblätter oder durch schrittweises Zu- und Abschalten oder Veränderung des Anstellwinkes einzelner PVA Felder.  Mit der sehr wichtigen Einschränkung, dass dies nur möglich ist, wenn genügend Wind oder Sonne vorhanden sind. Also immer von Wind und Sonne abhängig.

Da nun die beiden letzteren generell immer von der Verfügbarkeit von Wind und Sonne abhängen, ist ihr Einsatz als Kraftwerke auch und besonders für Regelleistung – von wenigen Ausnahmen mal abgesehen – im Normalfall dem Willen der Götter unterworfen. Deswegen setzt man sie bisher nicht für deren Erbringen ein.

Der Versuch sollte nun demonstrieren, dass sich alle beteiligten Kraftwerkstypen zusammen als Regelleistungslieferant eignen würden. Dabei wurde bereits in der Kurzbeschreibung ausführlich dargelegt und auch im Film entsprechend gewürdigt, dass man später auch Speicher und Backup-Kraftwerke einbeziehen würde. Das ist in diesem Falle jedoch – mangels Speichern und Backup-Kraftwerken- nicht geschehen. Denn als Backup Kraftwerke gerade mal für 4,44 % der Leistung gut, kann man das Faulgas-Kraftwerk wohl nicht ansehen.

Was wurde versprochen?

Das Projekt wurde zentral vom Fraunhofer Insititut für Windenergie & Energiesystemtechnik (IWES) in Kassel entworfen und geleitet und im Versuch von dort im 3-Sekunden-Takt gesteuert. Der Versuch selbst dauerte insgesamt 20 Minuten und wurde schon nach dieser kurzen Zeit von der Projektleitung als Erfolg gewertet. Dabei gelang es lt. Versuchsleitung, die Netz-Frequenz mittels passender Steuerung der einzelnen Komponenten innerhalb einer Bandbreite von ± 0,03 Hz bezogen auf 50 Hz zu halten. Vollmundig sagte der Versuchsleiter Kurt Rohrig anschließend (Minute 7:20 ff)

„Unser Versuch hat gezeigt, dass die Erneuerbaren nicht nur genügend Energie liefern, sondern auch für eine stabile Spannung und eine stabile Frequenz sorgen“.

Wenn das so sein sollte, dann bleibt zunächst die Frage offen, was ein 20 minütiger Feldtest, aufs genaueste vorbereitet und ausgetrimmt, eigentlich beweisen soll? Hätte ein solcher als Nachweis für eine 100 % Versorgung aus „Erneuerbaren“ angekündigter „Feldversuch“, nicht über einen wesentlich längeren Zeitraum – mindestens 7 Tage á 24 Stunden, besser noch – weil wirklichkeitsnäher- – mehrere Monate mit Stark- und Schwachwindtagen sowie mit Sommer und Wintersonne laufen müssen?

Offen  bleibt auch die Frage, warum man schon bei einem so positiven Ergebnis, (wenn auch nur im extrem kurzem Test) die Regeln für die Anlieferung von Regelleistung  zugunsten der „Erneuerbaren“ ändern soll. Denn dies wurde im Hintergrundpapier eindringlich gefordert. Da bahnt sich offensichtlich, parallel zur Vorrangeinspeisung, der Wunsch nach Sonderbehandlung an. Aber diese Forderungen sollen hier jetzt nicht betrachtet werden.

Was wurde erreicht?

Wie der Film exemplarisch zeigt, wurde erreicht, dass die Frequenz unter kontrollierten Bedingungen innerhalb von ± 0,03 Hz ausgeregelt wurde. Dazu waren alle Teilkomponenten lieferbereit und zuvor entsprechend abgeregelt, um im Bedarfsfall ihre Leistung erhöhen oder im umgekehrten Fall drosseln zu können.

Weder genannt noch gezeigt wurden die Produktionsbedingungen insbesondere für die dominierenden Windkraftanlagen, die bis zu 94 % der Leistung betragen könnten. Auch wurde die Leistungsabgabe der PVA Anlage  in Kassel nicht erwähnt, vielleicht weil diese mit nur max. 1,2 % zu Gesamtleistung beigetragen hätte.

Ebensowenig wurde gezeigt, wie das System reagiert, wenn die Netzfrequenz sich bis zu ± 0,2 Hz ändert. Das ist  nämlich der Bereich, den normale Kraftwerke ausregeln müssen und können.

Somit ist die Schlussfolgerung des Projektleiters Rohrig reichlich kühn, wenn er diesen Mikroversuch, der unter engsten, streng kontrollierten Bedingungen durchgeführt wurde, als Beleg für das Vorhandensein  grundlegender Eigenschaften ansah, wie man sie aus guten Gründen an eine funktionierende qualitativ hochwertige Stromversorgung stellen muss.  Diesen Beweis erbrachte der Versuch nicht.

Was wurde nicht erreicht?

Nirgendwo -weder im ausführlichen Hintergrundpapier noch im Film – wurden die Randbedingungen erläutert, unter denen der Versuch durchgeführt wurde. Die Beschränkung auf die Ausregelung von mageren ± 0,03 Hz, also einem knappen Sechstel der zulässigen Abweichung, legt den Verdacht nahe, dass die Versuchsanforderungen extrem leicht waren. Auch gab es keine Informationen über Laständerungen o. ä.

Unterstellt man, wie im Film und im Hintergrundpapier behauptet. dass dieser Feldversuch ein gelungenes Beispiel für das Funktionieren der Versorgung eines Industrielandes wie Deutschland mit 100 % Strom aus „Erneuerbaren“ sein soll, dann erhebt sich sofort als weitere Frage, wie denn die Stromversorgung gesichert werden soll, wenn weder die Sonne scheint noch der Wind weht. Dann nützt weder ein Aufregeln der Windparks noch eine künstliche Beleuchtung der dunklen PVA Anlagen. Denn von nichts kommt nichts! Was verfügbar bleibt, ist die Energiemenge, die die Biomassekraftwerke (vulgo Faulgas-Generatoren) abliefern können. D.h. die maximal sicher abrufbare Regel-Leistung ist nur diejenige der paar Faulgasgeneratoren. Alles andere ist Beiwerk oder Spitzenlastausgleich für den eher seltenen Fall, dass Nachfrage und Angebot übereinstimmen.

Abbildung 2: Maximal abgebbare Energiemenge je Kraftwerkstyp beim Feldversuch Kombikraftwerk 2

Die Leistung der Biomassekraftwerke und somit der obere Grenzwert an sicher verfügbarer Leistung lag hier bei 3,6 MW oder knapp 5 % der Gesamtleistung. Anders ausgedrückt, dieses Kombikraftwerk kann trotz seiner 81 MW Nennleistung dauerhaft und sicher nur bis zu 3,6 MW aufbringen. Das entspricht einem Verhältnis von 22,5 zu 1 zwischen installierter (und vom deutschen Michel bezahlter) Leistung und der sicher abrufbaren Leistung!

Aufgrund seines vglw. hohen Nutzungsgrades kann dieser Kraftwerkstyp im Durchschnitt zwar bis zu 17 % der Gesamtmenge an elektischer Energie erzeugen, aber eben auch nicht mehr. Die stündlich oder täglich abgebbare Energiemenge wird jedoch durch die maximale Leistung der Biomassegeneratoren[3]  nach oben begrenzt.  Von Speichern, die diese missliche Situation mildern könnten, insbesondere Batterien und/oder Wasserstoff-Methanspeichern, ist im Film zwar die Rede, aber sie wurden weder in den Versuch einbezogen noch sind sie in der Realität – selbst in diesen Minigrößenordungen- verfügbar

Nun wird man sofort einwenden, dass auch im konventionellen Bereich die Kraftwerke nach Grund- Mittel- und Spitzenlastkraftwerken unterschieden werden. Es muss nicht immer die volle Lieferkapazität bereitstehen, weil sich bestimmte Abahmesituationen in Abhängigkeit von  Stunde, Tag und Jahreszeit kurz-, mittel- und langfristig planen lassen. Deshalb lassen sich dafür entsprechende Kraftwerkstypen und deren Leistung unter kosten- und betriebsoptimalen Bedingungen vorhalten. Das hat zusätzlich den Charme, dass auch unvorhergesehene Lastabrufe über die gleichen Kraftwerke abgefangen werden können.

Dieser berechtigte Einwand ist jedoch für die oben gezeigten Situation  nicht stichhaltig. Denn alle konventionellen Kraftwerkstypen sind per se auch zur Erbringung von Grundlast sowie zur Abgabe von Regelenergie fähig. Und damit auch fähig zu jeder gewünschten Zeit, Strom – im Rahmen der jeweiligen Maximalauslegung – in gewünschter Menge, bereitzustellen. Es ist nur eine  Kostenfrage, ob sie für diesen oder jenen Zweck eingesetzt werden oder nicht. Und damit keine Frage, die allein vom Wettergott entschieden wird. Deswegen müssen die Regellast- Kraftwerke auch nur bis zur Abdeckung der Spitzenlast ausgelegt werden und nicht für ein Vielfaches davon. Einer solchen, eigentlich selbstverständlichen, Anforderung genügen aber weder PVA noch Windkraftwerke. Denn die liefern ihre Leistung nur an wenigen Stunden des Tages und auch nur dann, wenn Wind oder Sonne es erlauben. Häufiger vorhersagbar, aber sehr oft eben auch nicht.

Also bleibt festzuhalten, dass uns die Versuchsleitung allen Ernstes weismachen will, eine Überkapazität von 23:1 im Kraftwerkspark wäre ein probates Mittel um 100 % „Erneuerbare“ einzusetzen.

Ende Teil 1


[1] Diese sind: CUBE – Engineering GmbH, Deutscher Wetterdienst, ENERCON GmbH, ÖKOBiT GmbH, Siemens AG, SMA Solar Technology AG, SolarWorld AG, Agentur für Erneuerbare Energien und Institut für Elektrische Energieversorgung an der Universität Hannover, Quelle http://www.kombikraftwerk.de/kontakt/impressum.html

[2] hier Kombikraftwerk Hintergrundpapier

[3] In der Realität ist sie auch beim Biomassekraftwerk noch geringer weil diverse Einschränkungen nur eine Nutzung von max. 75 % übers Jahr gestatten




Protestierende Greenpeace-Jünger(In) äußert sich zum Klimawandel

Aufgenommen wurde es anlässlich der EIKE Klimakonferenz im Dezember 2009 in Berlin. Es ist zwar schon vier Jahre alt, aber in seiner Deutlichkeit nach wie vor hoch aktuell.

Video mit deutscher Synchronisierung vom Gespräch zwischen Lord Christopher Monckton, ehemals wiss. Berater von Lady Margret Thatcher, und der norwegischen Greenpeace Aktivistin Kerstin Blodig vom Dezember 2009 in Berlin. Frau Blodig bezeichnet sich selbst als führende Interpretin der skandinavisch – keltischen Musik.

Lord Christopher Monckton vom Science and Public Policy Institute, Großbritannien, interviewt Kerstin Blodig von Greenpeace.
Greenpeace nahm in der Vergangenheit großzügige Spenden vom Rockefeller-Brothers Fund an:http://www.undueinfluence.com/greenpeace.htm 

Mit Dank an Leser Hansen.