Wir trauern um unser Mitglied und Beirat Prof. Dr. Klaus Landfried

Video vom 10.10.2010 im Hörsaal des Instituts Geographie in Leizig zum Thema "wo bleibt der Klimawandel?"




Die Energiewende zerstört ein zuverlässiges System

Die deutsche „Energiewende“ zerstört ein Versorgungssystem, das Strom liefert, der preiswert und jederzeit verfügbar ist. Sie verteuert den Strom auf unverantwortliche Weise und setzt Unternehmen wie Privathaushalte unnötig der Gefahr plötzlicher Stromausfälle aus (hier). Aber sie wirkt zerstörend nicht nur in Deutschland, sondern fügt auch Nachbarstaaten Schaden zu. Ein Beispiel dafür sind die Schweiz und Österreich. Beide Alpenländer haben viele kleine Flüsse, deren Strömung, deren starkes Gefälle sie für die Stromerzeugung ausnutzen. Diese kleinen Laufwasser-Kraftwerke tragen dort wesentlich zur Stromversorgung bei. Ihre Erzeugungskosten für Strom liegen bei verbraucherfreundlichen 5 Cent je Kilowattstunde. Es macht also Sinn, ein solches Wasserkraftwerk zu betreiben. Bisher, denn nun wird diese umweltfreundliche Stromerzeugung durch Deutschlands „Energiewende“ mit dem Aus bedroht.

Das Verhökern an der Strombörse

Auf diese weitere Energiewende-Folge macht die Stromverbraucher-Schutzvereinigung NAEB*) aufmerksam. Um zu verstehen, warum diesen Kraftwerken in Österreich und der Schweiz das Aus droht, ist der Hintergrund zu erklären: Der wesentliche gesetzliche Bestandteil der Energiewende ist bekanntlich das interventionistische Erneuerbare-Energien-Gesetz (EEG). Es zwingt dazu, den Strom aus Wind, Sonnenschein und „Biogas“ (landläufig Ökostrom genannt) mit Vorrang abzunehmen und ins Stromnetz einzuspeisen. Erst danach darf Strom der herkömmlichen Dampf- und Gaskraftwerke verbraucht werden und ins Netz fließen. Diesen Ökostrom müssen die Netzbetreiber mit lukrativen, im EEG festgelegten Sätzen vergüten. Die Vergütung ist im Durchschnitt vier- bis fünfmal höher als die Erzeugungskosten der Dampf- und Gaskraftwerke. Außerdem pflegt das Ökostrom-Angebot unberechenbar zu schwanken. Weht zuviel Wind, scheint zuviel Sonne, und ist der Strombedarf zugleich geringer als der jeweilige Bedarf, würde ein solches Überangebot an diesem teuren Ökostrom keine Abnehmer finden. Daher wurde festgelegt, den Strom zu jedem Preis, also weit unter dem Gestehungspreis und unter den Erzeugerpreisen der Dampfkraftwerke an der Strombörse zu verhökern.

Was den Ökostrom-Erzeuger vom Bäcker unterscheidet

Zur weiteren Hintergrund-Erläuterung ist in der NAEB-Mitteilung zu lesen: „Inzwischen wird mit jeder neuen Ökostromanlage bei Starkwind und Sonnenschein immer häufiger mehr Ökostrom erzeugt als in Deutschland gebraucht wird. Da Strom wirtschaftlich nicht speicherbar ist, wird er in diesem Fall verschenkt oder es wird sogar eine Zuzahlung an den Abnehmer geleistet, um das Netz nicht zu überlasten. Gelingt auch dies nicht, müssen Anlagen abgeschaltet werden. Den Betreiber stört das nicht. Er bekommt nach dem EEG auch eine Vergütung für den nicht gebrauchten und nicht gelieferten Strom. Ein Bäcker, der zu viele Brötchen gebacken hat, bleibt dagegen ohne Entschädigung auf den restlichen Brötchen sitzen.“

Die größte Dumping-Aktion der Welt

Ich zitiere zur Erklärung aus der Mitteilung weiter: „Die als Vermarktung propagierte Entsorgung des unbrauchbaren Ökostroms ist typisches Dumping. Sie ist die größte Dumping-Aktion in der Welt. Wir, als Stromkunden, müssen dafür jährlich über 20 Milliarden Euro (250 Euro pro Einwohner) als EEG Umlage bezahlen. Dumping soll den Wettbewerb schwächen bis zur Vernichtung. Dieser Prozess läuft zurzeit. Die Dampfstromerzeuger müssen in die niedrigen Dumpingpreise des Ökostroms einsteigen. Der mittlere Strompreis an der Börse ist dadurch von 5 Cent pro Kilowattstunde auf 3 Cent pro Kilowattstunde in den letzten Jahren gefallen. Für den Verbraucher müssten die fallenden Börsenpreise zu geringeren Stromkosten führen, so behaupten es immer wieder die Grünen mit Trittin an der Spitze. Doch das Gegenteil ist der Fall. Je weniger für den Ökostrom an der Börse gezahlt wird, umso höher ist die EEG-Umlage, die ja der Stromkunde als Dumping-Kosten bezahlen muss. Es ist schon eine Unverfrorenheit der Grünen-Politiker, den vielen Mitbürgern, die die Zusammenhänge nicht überschauen, die Mär aufzubinden, die günstigen Börsenstrompreise würden nicht an den Verbraucher weitergegeben.“

Die programmierte Insolvenz

Und weiter: „Die Dampf- und Gaskraftwerke versuchen, durch Personalabbau und geringere Wartung bei diesem Preisverfall wenigstens noch die Betriebskosten zu verdienen. Doch das kann nicht lange gutgehen. Die Kraftwerke müssen bei verringerter Wartung häufiger ausfallen. Rücklagen für große Reparaturen oder gar einen erforderlichen Neubau können nicht gemacht werden. Kurz: Die Insolvenz der konventionellen Steinkohle- und Gaskraftwerke ist durch das unsinnige EEG programmiert. Nur die Braunkohlekraftwerke können bei den derzeitigen Preisen überleben.“

Der Schaden in Österreich und der Schweiz

„Im Strombereich ist Deutschland keine Insel“, heißt es in der NAEB-Mitteilung weiter. „Wir sind in das Europäische Verbundnetz eingegliedert. Damit gelangt der Dumping-Ökostrom auch in unsere Nachbarländer. Die Kraftwerke dort müssen sich ebenso wie in Deutschland mit nicht kostendeckenden Strompreisen herumschlagen. Große Probleme haben die Laufwasserkraftwerke in der Schweiz und in Österreich. Sie haben hohe Wartungskosten wegen der starken Korrosion in den immer nassen Anlagen. Trotz Personalabbau bleiben sie in der Verlustzone wegen der in den letzten Jahren gefallenen Börsenpreise. Sie müssen ihre Arbeit einstellen, obwohl diese Stromerzeugung kaum die Umwelt belastet und die Erzeugerpreise nur ein Drittel der Ökostrompreise ausmachen. Damit geben die Alpenländer eine wichtige Stromerzeugung auf, die übrigens auch Strom nach Deutschland schicken sollen, wenn der Wind nicht weht und die Sonne nicht scheint. Unfreundliche Auseinandersetzungen mit unseren Nachbarländern sind durch die deutsche ideologisch begründete Energiepolitik programmiert. Vielleicht werden sich alle Nachbarländer gegen das deutsche Stromnetz abschotten. Querregler, die Überschüsse an Ökostrom nicht mehr durchlassen, bauen bereits die Niederlande und Polen.“ So weit NAEB.

Auch Pumpspeicherwerke in Deutschland geraten in Not

Aber die Energiewende bringt nicht nur Laufwasserkraftwerke in den Alpenländern in betriebswirtschaftliche Not, sondern auch Pumpspeicher-Kraftwerke in Deutschland. Sie speichern Wasser, das sie in ein großes Becken oberhalb des Kraftwerks gepumpt haben, und nutzen das Gefälle aus, um mit dem herunterströmenden Wasser Turbinen mit Stromgeneratoren anzutreiben. Das Wasser im Becken dient als indirekter Stromspeicher. Die potentielle Energie des gespeicherten Wassers wird zur kinetischen Energie, wenn es für die Umwandlung in elektrische Energie gebraucht wird. Hochgepumpt wird das Wasser mit Strom, wenn er im Überangebot (zum Beispiel nachts) vorhanden ist, heruntergelassen, wenn ein Spitzenbedarf an Strom zu decken ist. Diese Kraftwerke ermöglichen also einen Ausgleich von Angebot und Nachfrage. Sie sichern die Stabilität des Stromnetzes und die Zuverlässigkeit der Stromversorgung. Derzeit und wohl auf noch lange Zeit sind sie die einzige Möglichkeit, Strom großtechnisch (indirekt) zu speichern und ihn abzurufen, wenn der Bedarf hochschnellt.

Ein Gutachten sieht trübe

Aber weil immer mehr Ökostrom auf den Markt kommt, rentieren sich die Pumpspeicher-Kraftwerke kaum noch. Dabei sind sie für den unzuverlässigen, flatterhaftigen Ökostrom noch nötiger als vor der „Energiewende“. Wie die FAZ im August berichtet hat**), „beklagen die großen Speicherbetreiber, dass sie genau wegen der Energiewende kaum noch etwas an ihren Wasserkraftbatterien verdienen“. Die FAZ verweist auch auf ein Gutachten für das Bundeswirtschaftsministerium. Dies komme zu dem Schluss, dass Pumpspeicher zwar wichtig, auf Sicht aber nicht wirtschaftlich zu betreiben seien. Die wirtschaftliche Situation für neue Pumpspeicherkraftwerke sei „mittel- und langfristig mit großen Unwägbarkeiten behaftet“. Bestehende Anlagen dürften geringe Renditen erzielen. Sogar eine „vorübergehende Stilllegung von Anlagen“ sei möglich, stellten die Gutachter fest.

Ungenügende Deckungsbeiträge in Schweizer und österreichischen Werken

Verglichen werden im Gutachten nach dem FAZ-Bericht auch Pumpspeicherkraftwerke in Österreich und der Schweiz. Dort hätten sie ein ungleich größeres Volumen und eine ungleich höhere Bedeutung. Die geringsten Deckungsbeiträge habe man für die Schweiz errechnet, die höchsten, aber ebenfalls ungenügenden, für Anlagen in Österreich. Das Ergebnis sei ernüchternd: „Die ermittelten Deckungsbeiträge dürften in der Regel nicht zur Refinanzierung von Neuinvestitionen in Pumpspeicherkraftwerke ausreichen.“ Neubauprojekte für Pumpspeicher in Deutschland, so die FAZ weiter, seien inzwischen begraben, nicht nur wegen des Widerstands von Naturschützern und Anwohnern, die keine Bergkuppen zu Speicherseen umfunktioniert sehen wollten.

Vattenfall bedauert inzwischen sein Engagement in Deutschland

In der Branche sei man sich sicher, der (auch in Deutschland tätige) schwedische Stromerzeuger Vattenfall werde die vor Jahren getroffene Modernisierungsentscheidung für das Kraftwerk in Wendefurth heute wohl kaum noch einmal treffen. Da werde auch die zeitweise Befreiung von Netzkosten nicht helfen. Vattenfall ist nach FAZ-Angaben mit einer Kapazität von etwa 3000 Megawatt der größte deutsche Pumpspeicherbetreiber mit Anlagen in Thüringen, Sachsen, Sachsen-Anhalt und Schleswig-Holstein. Inzwischen leide er an seinem Engagement. Wegen der Stilllegung seiner Kernkraftwerke hat Vattenfall die Bundesregierung verklagt – vor einem Schiedsgericht in New York. Der Konzern fordert von Deutschland 4,7 Milliarden Euro als Entschädigung (siehe hier).

„Energiewende“ wie „Blitzkrieg“

Vermutlich wird das Wort „Energiewende“ in den angelsächsischen Sprachschatz eingehen wie das Wort „Blitzkrieg“. Oder ist es vielleicht schon. Der Vergleich verführt zu einer ironischen Wortspielerei: Die Energiewende mit dem Ausstieg aus der Kernkraftnutzung für die Stromgewinnung kam mit der eigenmächtigen Verkündung durch Kanzlerin Merkel wie ein Blitz aus heiterem Himmel. So mancher im Ausland amüsiert sich über diese deutsche Verrücktheit. Aber die Stromverbraucher in Deutschland sind not amused. Deutschland schadet sich selbst. Die Vorstellung, dass die deutschen Politiker die ruinöse Wirkung nicht erkennen oder erkennen wollen, dass sie also absichtlich geschieht, fällt schwer.
______________________________________________________________________________

*) Wenn Sie dies lesen, sollten Sie wissen, dass ich dieser Schutzvereinigung als Beiratsmitglied angehöre. Der Originaltext der Mitteilung hier. Alle NAEB-Mitteilungen hier   und hier. Kontakt aufnehmen können Sie hier. Der Vortrag des NAEB-Vorsitzenden Heinrich Duepmann „So funktioniert unser Stromnetz – Zusatzkosten der Energiewende“ hier – auch andere seiner Vorträge. Die NAEB-Homepage hier. Info-Prospekt hier und hier. Falls Sie Mitglied werden wollen hier.

Der Beitrag von Dr. K.P. Krauses Blog übernommen hier




Soziale Konditionierung – auch beim Klimawandel?

Dr. Thomas Petersen

Klopfzeichen aus der Welt der Sozialwissenschaften (45): Soziale Konditionierung

Wer eine Ahnung davon bekommen möchte, wie die Berichterstattung der Massenmedien durch die Verwendung stereotyper Begriffe die Wahrnehmung von Politik beeinflusst und damit letztlich auch die inhaltliche politische Meinungsbildung, kann dies mit einem kleinen Gedankenexperiment tun und die folgende Frage beantworten: „An welche Partei denken Sie, wenn sie das Wort ‚Klientelpolitik’ hören?“

Die meisten Menschen werden bei diesem Stichwort spontan an die FDP denken. Doch warum eigentlich? Warum denkt kaum jemand spontan an die Grünen, die in den letzten Jahren mit gewaltigem propagandistischen Aufwand durchgesetzt haben, dass ihre Kernwähler von Studiengebühren befreit wurden – auf Kosten der Berufstätigen, von denen die meisten nie eine Universität von innen gesehen haben? Warum denkt man nicht an die Sozialdemokraten, die seit vielen Jahrzehnten kaum eine politische Grundsatzentscheidung treffen, ohne sich vorher intensiv mit den Gewerkschaften abzustimmen? Der Grund ist vermutlich einfach, dass das Stichwort „Klientelpolitik“ fast immer im Zusammenhang mit der Politik der FDP in der Berichterstattung auftaucht, praktisch nie mit der der Grünen oder der SPD.

Das Wort „Klientelpolitik“ ist ein Beispiel für ein Phänomen, das ich seit einigen Jahren „soziale Konditionierung“ nenne, und das meiner Meinung nach für das Verständnis der Mechanismen der Medienwirkung von großer Bedeutung ist. Die These der „sozialen Konditionierung“ stützt sich auf drei in der Sozialforschung gut dokumentierte Befunde:

1.: Menschen neigen dazu, bestimmten Begriffen oder schlagworthaften Formulierungen Bedeutungen hinzuzufügen, die objektiv gar nicht darin enthalten sein müssen.

2.: Es gibt ein bestimmtes Vokabular, das praktisch ausschließlich in den Medien verwendet wird, und das offensichtlich solche Beiklänge transportiert. Man spricht auch von „Mediensprache“. Beispiele sind Begriffe wie „umstritten“, „Zahlmeister“ oder eben auch „Klientelpolitik“. Kein Mensch würde am Gartenzaun im Gespräch mit dem Nachbarn das Wort „Klientelpolitik“ verwenden – außer er plappert gerade nach, was er im Fernsehen gehört hat.

3.: Diese Begriffe können ein erhebliches Drohpotential entwickeln, das den Verlauf ganzer Diskussionen bestimmt. Wer es nicht glaubt, möge in einer Diskussionsrunde mal einem Teilnehmer soziale Kälte vorhalten und beobachten, wie dieser allein durch dieses Wort in die Defensive gerät, und zwar auch dann wenn es inhaltlich vollkommen unangebracht ist.

Stellt man sich nun die Frage, wie denn die implizite Bedeutung solcher Formulierungen zustande kommt, wie also Elemente der Mediensprache mit wertenden Beiklängen aufgeladen werden, und verknüpft diese Frage mit der seit den frühen 1970er Jahren bekannten Erkenntnis, dass die Wirkung der Massenmedien auf die Meinungsbildung auf, wie es in der Fachsprache heißt, Kumulation und der Konsonanz beruht, also der Aufnahme gleicher oder ähnlicher Medienbotschaften über einen längeren Zeitraum hinweg, dann drängt sich einem die These der „sozialen Konditionierung“ regelrecht auf.

Medieninhaltsanalysen zeigen, dass die Berichterstattung zu politischen Themen oft von starken Wertungen geprägt ist, und zwar medienübergreifend. Die redaktionellen Linien der einzelnen Zeitungen, Zeitschriften oder Fernsehsender unterscheiden sich zwar, doch ein Wechsel in der Bewertung eines Gegenstandes, einer Person oder Institution wird in der Tendenz von allen oder zumindest den meisten meinungsbildenden Medien nachvollzogen. Wenn nun die Medienberichterstattung wiederholt die gleichen Argumente mit den gleichen Begriffen präsentiert und gleichzeitig übereinstimmende Bewertungen vornimmt, dann heißt das, dass die Leser und Zuschauer die stereotype Formulierung der Mediensprache auch zusammen mit der gleichzeitig vermittelten Wertung aufnehmen und im Gedächtnis abspeichern.

Wird nun, beispielsweise in einem persönlichen Gespräch oder durch die Lektüre eines „Achgut“-Eintrags, ein Teil dieser aus zwei Komponenten bestehenden Information aufgerufen, dann wird die gemeinsam mit ihr gelernte zweite Komponente mitaktiviert. Sagt jemand „Klientelpolitik“, liefert das Gehirn den Begriff „FDP“ gleich mit, ob man will oder nicht. Letztlich handelt es sich um einen klassischen Konditionierungsvorgang: Das Glöckchen klingelt – und der Hund denkt ans Fressen. Tatsächlich gibt es eine Reihe von Untersuchungen, die darauf hindeuten, dass das Prinzip der Konditionierung zumindest im Prinzip auch auf den Menschen angewendet werden kann.

Findet dies nun über die Verknüpfung von Begriffen in der Medienberichterstattung statt, ist es angemessen, von „sozialer Konditionierung“ zu sprechen, nicht einfach von „Konditionierung“, weil der Vorgang durch die Beteiligung der Massenmedien eine ganz neue Dimension bekommt. Die Konditionierung findet nicht in Einzelfällen statt, sondern zehntausendfach, tendenziell gleichgerichtet über das ganze Land verteilt, und zwar praktisch jederzeit. Ihr ist nicht nur eine Vielzahl von Individuen ausgesetzt, sondern in Konsequenz die ganze Gesellschaft oder zumindest erhebliche gesellschaftliche Gruppen. Wer die Sprache beherrscht, beherrscht die Gesellschaft. Vorsicht also, wenn man merkt, dass man in den Medien mit einem schlagworthaften Etikett versehen werden soll. Es kann noch so unsinnig, ja lächerlich sein – wenn es nur oft genug geschieht, bleibt es auf Dauer kleben. Dies sei allen Klimaleugnern ins Stammbuch geschrieben.

Neuerscheinung von Thomas Petersen: “Der Fragebogen in der Sozialforschung. Konstanz: UVK, 2014”.




Grüne Projekte, tiefrote Zahlen

Der Fortschritt in Gestalt von Windrädern erreichte im Jahr 2012 auch den hessischen Odenwaldkreis. Eine staatliche Regionalgesellschaft, die Gemeinde Lützelbach und eine Energiegenossenschaft investierten dort in einen Rotor, und setzten so auf den durchschlagenden Erfolg des grünen Umgestaltungsprojekts.

Landrat Dietrich Kübler lobte damals das Unternehmen euphorisch: "Eines der gemeinsamen Ziele bei der Windenergienutzung muss sein, eine möglichst hohe Wertschöpfung in der Region zu erzielen und zum anderen den Abfluss der Erträge an anonyme Investoren von Außerhalb zu verhindern." Bürger ringsum könnten sich neben der öffentlichen Hand über die Genossenschaft beteiligen und an der guten Sache mitverdienen.

Einen Abfluss der Windkrafterträge muss in Lützelbach jedenfalls niemand befürchten. Es gibt nämlich keine.

Bisher erwirtschaftete die Gesellschaft 235 000 Euro Verlust, ein Minus, das gut 100 000 Euro über dem geplanten Anlaufverlust liegt. Allein 2013 verbuchte sie ein Defizit von 165 000 Euro. Die Betreiber klagten, gerade 2013 habe der Wind schlecht geweht, außerdem aus der für die Drehflügler ungünstigen Ostrichtung. Am Sinn der Steuergelder-Investition zweifeln die Verantwortlichen bisher nicht. Der Wind wehe sicherlich auch wieder besser.

Trösten können sich die hessischen Kommunalpolitiker immerhin damit, dass nicht nur sie tiefrote Zahlen mit grünen Ideen schreiben. Je weiter südlich in Deutschland Rotoren stehen, desto größer die Wahrscheinlichkeit, dass sie nicht nur die Landschaft ruinieren, sondern auch die das Vermögen ihrer Investoren. Werner Daldorf, Vorsitzender des Anlegerbeirates im Bundesverband Windenergie, untersuchte seit dem Jahr 2000 Jahresabschlüsse von rund 1 200 so genannten Bürgerwindparks. In 37 Prozent aller Fälle reichten die Erträge noch nicht einmal aus, um die Bankkredite für die Turbinen zu bedienen. Denn üblicherweise finanzieren die Gesellschaften das Windgeschäft zu 30 Prozent mit Anlegermitteln und zu 70 Prozent mit einem Darlehn. Nur eine Minderheit der von Daldorf durchleuchteten Windparks erreichte überhaupt eine Rendite oberhalb der Inflationsrate. Zwei Drittel der Windturbinen im Binnenland, stellte Daldorf fest, rotieren im roten Bereich. 

Für das massenhafte Minusgeschäft gibt es Gründe. Die liegen in der Physik und nicht etwa an sinisteren Machenschaften von Windkraftgegnern. Von Nord nach Süd nimmt die Windstärke ab – und damit auch die Zahl der so genannten Volllaststunden. So bezeichnen Fachleute die rechnerischen Stunden pro Jahr, in denen ein Windrad die maximal mögliche Stromausbeute liefert. Auf Ostsee-Windplattformen liegt diese Zahl im Schnitt bei 4 275, in der Nordsee bei 3092, in Rheinland-Pfalz dagegen nur noch bei 1503 und in Baden-Württemberg auf den Schwarzwaldhügeln nur noch bei bescheidenen 1 315 Vollaststunden pro Anlage. Ein Jahr zählt allerdings 8 760 Stunden. Mit anderen Worten: ein Rotor im Ländle liefert schon wegen seines Standorts nicht einmal ein Siebtel des Jahres volle Kraft. Selbst 2000 Volllaststunden, die schon als guter Schnitt gelten, entsprechen übrigens gerade einer Auslastung von gut 23 Prozent.

Selbst die hohen Subventionen für die Windenergie nützen den meisten Betreibern im Süden nichts. Denn die Ökostromumlage fließt nicht für die Anlage selbst, sondern für jede Kilowattstunde Strom, den sie liefert. Außerdem verlangen Landbesitzer selbst in Schwachwindgebieten bis zu 40 000 Euro Pacht pro Windrad und Jahr. Produziert ein Windrad im Süden also zu wenig Energie, dann treibt es den Eigentümer schnell in die Verlustzone, trotz einer gesetzlich garantierten Stütze über 20 Jahre. Diese Erfahrung mussten die Gesellschafter der Windpark Ettenheim GmbH & Co in Baden-Württemberg machen: Seit ihrer Gründung im Jahr 2000 schrieb sie Verluste. Im vergangenen Jahr demontierten die frustrierten Anleger schließlich das Windrad und schlossen die Bücher. Ein Einzelfall? Die Stadtwerke Mainz erwirtschafteten mit ihren 20 Windrädern nach Angaben ihres Chefs Detlev Höhne seit 2005 nicht einen Cent Gewinn. Im Gegenteil, klagt Höhne, die Propeller bescherten ihm einen "leichten Verlust". Kalkuliert hatten die Stadtwerke mit einer Rendite zwischen 4,5 und acht Prozent. In Erlangen machten die Stadtwerke die gleiche Verlustrechnung auf: ihre drei Räder fuhren ein Minus ein. Das Unternehmen musste 3,8 Millionen Euro abschreiben.

Trotzdem werben Windkraftfonds unverdrossen für Investitionen in Windparks – mit Renditeversprechen, an die auch die Manager der Stadtwerke Mainz einmal geglaubt hatten. Der Fondsvertrieb "Grüne Sachwerte" etwa wirbt für eine Direktbeteiligung an einem neuen Windpark in Bayern, der "hochrentabel" sein werde. Ab 200 000 Euro könne jeder einsteigen; "durch Verzicht auf einen BaFin-geprüften Verkaufsprospekt wird eine sehr hohe Investitionsquote erreicht". Ähnlich wie Anbieter geschlossener Immobilienfonds verdienen Verkäufer von Windfonds schon durch die Ausgabe des Anteils. Außerdem lassen sie sich die Managementleistung in der Regel ordentlich vergüten. Die Verluste tragen die Investoren. Das beantwortet auch die Frage vieler gutgläubiger Politiker: "Warum sollte denn jemand Windräder aufstellen, wenn es sich nicht lohnen würde?" Für einige lohnt sich das Geschäft immer: Fondsmanager, Rotorenhersteller, Verpächter. Für andere weniger. Die rund 75 000 Anleger des insolventen Windkraftunternehmens Prokon dürften selbst im glücklichsten Fall nur 60 Prozent ihrer Einlagen wiedersehen – und das nur gestückelt über Jahre. Auch die Prokon-Werber versprachen ihren Kunden, die Anlage sei durch Subventionen ein "grünes Sparbuch", also praktisch rundum verlustgeschützt. 

Die Politiker in den Südländern lassen sich von roten Zahlen und Pleiten nicht im Geringsten beeindrucken. Sie wischen sie mit dem Argument beiseite: es handle sich um Einzelfälle, instrumentalisiert von notorischen Energiewendefeinden. Eveline Lemke, grüne Wirtschaftsministerin Rheinland-Pfalz, will bis 2030 die Windkraftleistung in ihrem Land verfünffachen und für ihren großen Plan sogar sensible Naturgebiete opfern. Baden-Württembergs Umweltminister wünscht sich 1000 neue Rotoren im Ländle, vorzugsweise in den Schwachwindgebieten des Schwarzwaldes.

Als der grüne Ministerpräsident Winfried Kretschmann kürzlich ins idyllische Taubertal reiste, versuchten Windkraftgegner, mit ihm über einen geplanten Rotorenpark ins Gespräch zu kommen. Sie führten die Landschaftszerstörung an – und die notorisch mauen Winderträge. Vergebens. "Die Regierung hat das so entschieden", blaffte Kretschmann die Bürger an, "und so wird es auch gemacht."

Zuerst erschienen beim Deutschen Arbeitgeberband hier

Mehr zum Thema: Alexander Wendt 
"Der grüne Blackout. Warum die Energiewende nicht funktionieren kann", 
edition blueprint, Paperback 167 Seiten 9,99 Euro 
Amazon, E-Book 3,99 Euro bei >> Amazon <<
oder unter www.alexander-wendt.com

• Taschenbuch via Amazon (9.99€)
• eBook-Bundle (Formate: PDF, ePub, Mobi)
Amazon Kindle




Das neue Kernkraftwerk in Groß-Britannien – Hinkley Point C

Die Geschichte

Großbritannien (GB) ist die Mutter der sog. "Strom-Markt-Liberalisierung" in Europa. Traditionell gab es Gebietsmonopole, in denen "Energieversorger" tätig waren. Als Ausgleich für ihr Monopol, mußten sie ihre Tarife durch eine staatliche Aufsicht kontrollieren und genehmigen lassen. Nach der "Liberalisierung" sollte elektrische Energie  — wie andere Wirtschaftsgüter auch — zwischen Erzeugern und Verbrauchern gehandelt werden. Eine "Strombörse" sollte hierfür der zentrale Marktplatz sein. So weit, so schlecht. Märkte kann man nicht verordnen, sondern Märkte ergeben sich und müssen sich frei organisieren können. Heute steht man in GB vor einem Scherbenhaufen. Böse Zungen behaupten, daß das heutige Theater um Hinkley Point nur das zwangsläufige Ergebnis für eine seit 30 Jahren nicht vorhandene Energiepolitik sei. Eine sicherlich nicht ganz falsche Feststellung. Noch treffender könnte man sagen, ein bischen Planwirtschaft geht genauso wenig, wie ein bischen schwanger. Um auch weiterhin seinen politischen Einfluß geltend machen zu können, hat man ganz schnell ein prinzipielles "Marktversagen" in der Form einer von Menschen verursachen "Klimakatastrophe" konstruiert. Früher gab es eine "Aufsichtsbehörde" mit klar definierter Verantwortung und Aufgabenstellung. Heute ist die Elektrizitätswirtschaft zu einem Tummelplatz für Laiendarsteller und skrupellose Geschäftemacher verkommen. Im Ergebnis, haben sich immer mehr seriöse Investoren aus diesem Sektor zurückgezogen. Dafür wurden immer mehr Kräfte aus dem dunklen Reich der "Gesellschaftsveränderer" magisch angezogen. Wie konnte es dazu kommen?

Am Anfang und am Ende steht das Atom

In GB gab es zwar nie eine der deutschen "Anti-Atomkraft-Bewegung" vergleichbare Strömung in der Bevölkerung, gleichwohl erkannten auch dort Politiker das Potential für eine "Gesellschaftsveränderung". Man versuchte deshalb den Sektor Kernenergie möglichst lange aus der "Strom-Markt-Liberalisierung" heraus zu halten. Letztendlich wurde auch er "privatisiert". Die Kernkraftwerke wurden komplett an die staatliche französische EDF verkauft. Von einem Staatskonzern Unternehmertum zu erwarten, dürfte ungefähr genauso erfolgreich sein, wie die Übertragung eines Schnapsgeschäftes an einen Alkoholiker. Parallel wurden die "Alternativenergien" massiv bevorzugt. Mit dem Ergebnis, daß man auch bald keinen Dummen mehr finden konnte, der gewillt war, in fossile Kraftwerke zu investieren. Nun steht man vor einem Scherbenhaufen: Rund ein Drittel aller Kraftwerke müssen in den nächsten Jahren aus Altersschwäche vom Netz gehen. Dies führt zu einer Versorgungslücke von wahrscheinlich 60 GW. Eine volkswirtschaftliche Herausforderung, wie in einem Schwellenland. Die Zeit wird knapp. Längst hat man gemerkt, daß Windenergie ohne konventionelle Kraftwerke gar nicht funktionieren kann. Da helfen auch noch so hohe Investitionen nicht weiter. Den Weg über den Neubau von Kohlekraftwerken traut man sich nicht zu gehen, hat man doch erst mit großem politischen Aufwand die "Klimakatastrophe" erschaffen. Der einst erträumte Weg über "flexible und umweltfreundliche Gaskraftwerke" ist bei der benötigten Stückzahl auch nicht realistisch. Zumindest das Handelsdefizit würde explodieren und das Pfund ruinieren. Man kann es drehen und wenden wie man will, aber zum Schluß landet man wieder bei der (ungeliebten) Kernenergie.

Weisse Salbe oder Reform

Solange man an dem "Einspeisevorrang" für Windenergie fest hält, wird man keinen Investor für konventionelle Kraftwerke finden. Jedes zusätzliche Windrad drückt die Preise für Strom an der Börse weiter in den Keller und senkt zusätzlich die Auslastung der konventionellen Kraftwerke. Würde man die Einspeisung begrenzen — wenn der Wind einmal zufällig kräftig weht — wären die Windmüller aber über Nacht pleite. Dies wäre zwar die volkswirtschaftlich sinnvollste Lösung, ist aber (zur Zeit noch nicht) politisch durchsetzbar. Deshalb handelt man lieber nach dem alten Grundsatz: Erst einmal die Probleme schaffen, die man anschließend vorgibt zu lösen: In Deutschland nennt man das "Kapazitätsmärkte", in GB "Contracts for Difference CfD". Zwar ist beides durchaus nicht das Selbe, dient aber dem gleichen Zweck. Es dient dazu, die Kosten für ein zusätzliches System für die Zeiten der Dunkel-Flaute nicht dem Verursacher (Windmüller), sondern dem Verbraucher aufs Auge zu drücken. Noch einmal in aller Deutlichkeit: Würde man den "Erneuerbaren" abverlangen, zu jedem Zeitpunkt den erforderlichen Anteil an der Netzleistung bereitzustellen, wäre der Traum von der "Energiewende" über Nacht beendet. Es würden sich nämlich die wahren Kosten für jeden ersichtlich zeigen. Jeder Windmüller müßte entweder auf eigene Kosten Speicher bauen oder Notstromaggregate errichten oder Ersatzleistung bei anderen Kraftwerken zu kaufen. Wenn er keinen Strom liefern kann, weil das Netz voll ist (Starkwind) bekommt er auch kein Geld. Alles Selbstverständlichkeiten, die für jedes konventionelle Kraftwerk gültig sind. Ein "Kapazitätsmarkt" wäre nicht notwendig oder würde sich von selbst ergeben — ganz nach Standort des Betrachters.

Windenergie ist nicht gleichwertig zu Kernenergie

Der Strom aus der Steckdose ist ein homogenes Gut im wirtschaftlichen Sinne. Es ist physikalisch in engen Grenzen (Frequenz, Spannung) immer gleich. Egal ob heute oder morgen oder in Berlin oder am Bodensee. Genauso wie Dieselkraftstoff, bei dem es auch egal ist, wo man tankt. Zu diesem homogenen Wirtschaftsgut wird die elektrische Energie aber noch nicht durch die Erzeugung, sondern erst durch das Netz (Netz nicht nur im Sinne von Drähten, sondern einschließlich Schaltanlagen, Transformatoren, Frequenzregler etc.). Ganz anders als beim Dieselkraftstoff. Der bleibt immer gleich, egal ob er frisch aus der Raffinerie kommt oder aus einem Lagertank. Damit ergibt sich wirtschaftlich ein grundlegender Unterschied: Diesel kann man lagern, bis die Preise günstiger sind (Arbitrage). Elektrische Energie muß man in dem Moment verkaufen, wo sie entsteht (z. B. Windbö). Andersherum gilt genauso: Der aktuelle Strompreis kann noch so hoch sein, wenn Flaute ist, hat man nichts davon. Genauso wenig nutzt es, wenn der Sturm in der Nordsee tobt, man aber mangels Leitungen den Strom nicht nach Bayern transportieren kann.

Letztendlich muß der Verbraucher immer alle Kosten tragen. Für einen Vergleich unterschiedlicher Erzeuger ist aber eine richtige Zuordnung der Kosten sehr wohl nötig, will man nicht Äpfel und Birnen gleich setzen. Ein einfaches Beispiel mag das verdeutlichen: Bei einem Kernkraftwerk werden die Schaltanlagen und Anschlußleitungen bis zum "relevanten Anschlußpunkt" den Baukosten des Kraftwerks zugeschlagen, weil sie als sicherheitsrelevant gelten. Bei Windkraftanlagen ist das genau andersherum, um die Windenergie künstlich günstig zu rechnen. Hier schmarotzt der Anlagenbetreiber von der Allgemeinheit. Insofern sind Investitionskosten ohne genaue Kenntnisse der Verhältnisse nicht unmittelbar gegenüber zu stellen. Begriffe wie "Netzparität", sind nichts weiter als Irreführung der Verbraucher.

Entspricht 16 nun 34 oder nicht?

Die Baukosten für zwei EPR-Blöcke mit zusammen 3 200 MW werden mit 16 Milliarden Pfund angegeben. Dies ist für sich schon ein stolzer Preis. Verwundern kann das jedoch nicht, da die Vergabe ohne Konkurrenz erfolgt. Dies ist nur politisch zu erklären: Der Segen aus Brüssel war sicherlich nur mit massiver Unterstützung von Frankreich möglich. Dürfte dieser Preis Realität werden, dürfte sich der EPR und Areva als sein Hersteller auf dem Weltmarkt erledigt haben. Er wäre schlichtweg nicht konkurrenzfähig. Wie eigenartig das Vergabeverfahren verlaufen ist, erkennt man schon daran, daß der Angebotspreis kurz vor Abgabe noch einmal um zwei Milliarden erhöht worden ist. Dies wurde mit einem zusätzlichen Erwerb eines Grundstückes und den Ausbildungskosten für die Betriebsmannschaft begründet. Vielleicht platzt das ganze Geschäft noch, weil Areva vorher die Luft ausgeht. Vielleicht ist Hinkley Point auch der Einstieg der Chinesen in das europäische Geschäft mit Kernkraftwerken. EDF hat ohnehin nur eine Beteiligung zwischen 45 bis 50% geplant. China General Nuclear und China National Nuclear Corporation sind schon lange als Partner vorgesehen.

Welche Kosten nun die wirklichen Kosten sind, ist so alt wie die Kerntechnik. Die Baukosten werden mit rund 16 Milliarden Pfund angegeben. Genauer gesagt sind dies die "Über-Nacht-Kosten". Nun beträgt aber die geplante Zeit bis zur Inbetriebnahme etwa 10 Jahre. In dieser Zeit müssen alle Ausgaben über Kredite finanziert werden. Einschließlich der Finanzierungskosten soll das hier etwa 24,5 Milliarden Pfund ergeben. Weitere rund 10 Milliarden Pfund sollen auf die Rückstellungen für "Atommüll" und die Abbruchkosten für das Kraftwerk entfallen. So ergibt sich die Zahl von 43 Milliarden Euro, die durch die Presselandschaft geistert. Man sollte dabei nicht vergessen, daß dies alles nur kalkulatorische Kosten zur Rechtfertigung des vertraglich vereinbarten "strike price" von 92,50 Pfund pro MWh sind. 

Es ging hier um ein "Beihilfeverfahren", in dem die Kosten möglichst hoch angesetzt werden müssen, um das gewollte Ergebnis zu erhalten. Deutlich wird das an der erfolgreichen "Subventionskürzung" bei der Finanzierung um über eine Milliarde Pfund, die Almunia stolz verkündet hat. Um was geht es genau dabei? Die Finanzierung eines Kernkraftwerks ist mit erheblichen, nicht kalkulierbaren — weil staatlich verursachten — Risiken verbunden. Man kann erst die Kredite zurückbezahlen, wenn man Strom liefern kann. Der Zeitpunkt ist aber unbestimmt, da laufend die Anforderungen der Behörden verändert werden können. Dieses (unkalkulierbare) Risiko, lassen sich die Banken mit erheblichen Zinsaufschlägen vergüten. Aus diesem Gedanken wurde die staatliche Bürgschaft (bis zur Inbetriebnahme) erschaffen. Durch diese Bürgschaft ist der Kredit einer Staatsanleihe gleichwertig. Allerdings kostet eine Bürgschaft immer Gebühren. Der Staat subventioniert hier nicht, sondern kassiert im Gegenteil ab! Zahlen muß — wie immer — der Verbraucher. Für Hinkley Point ist eine Bürgschaft über 10 Milliarden Pfund bzw. 65% der auflaufenden Kosten vorgesehen. Man setzt nun einen fiktiven Zinssatz mit Bürgschaft in Relation zu einem durchschnittlichen Zinssatz für Kredite und hat flugs eine — freilich rein theoretische — Subvention.

Es ging hier auch mehr um die grundsätzliche Absegnung eines Verfahrens. Eine solche Anleihe kann sehr langfristig angelegt werden und dürfte sich zu einem Renner für die Versicherungswirtschaft, Pensionskassen usw. im Zeitalter der niedrigen Zinsen erweisen. Dies war übrigens der Gedanke, der hinter der Erschaffung von Desertec, dem Projekt Strom aus der Sahara, stand. Nur hatten die energiewirtschaftlichen Laien der Münchener Rück auf das falsche Produkt gesetzt. Trotzdem ist die Idee Geld wert. Hier schlummert ein europaweites, gigantisches Infrastrukturprogramm. In diesem Sinne ist auch das chinesische Interesse kein Zufall. Man sucht auch dort händeringend langfristige, sichere und lukrative Anlagemöglichkeiten für die gigantischen Devisenreserven. Kapital gibt es genug, man muß nur die ideologischen Bedenken über Bord werfen.

Ist CfD gleich EEG oder doch nicht?

Um die Antwort vorweg zu nehmen: Das Hinkley Point Modell ist eher eine Abkehr vom deutschen EEG-Modell und eine Rückwärtsbesinnung auf die gute alte Zeit der Energieversorger mit genehmigungspflichtigen Preisen. Insofern hinkt auch hier der Vergleich mit der Förderung von Windenergie.

Nach dem EEG-Modell wird ein einmal beschlossener Energiepreis für die gesamte Laufzeit gewährt. Egal, wie hoch die erzielbaren Preise sind. Selbst wenn eine Entsorgungsgebühr für den erzeugten Strom an der Börse entrichtet werden muß (negative Energiepreise). Die Subvention wird jährlich als Zuschlag auf alle verbrauchten Kilowattstunden umgelegt. Das System ist rein an der Erzeugung orientiert. Je mehr Windstrom erzeugt wird, um so mehr drückt das auf die Börsenpreise und um so höher werden die Subventionen. Langfristig müssen sich die konventionellen Kraftwerke nicht nur ihre eigenen Kosten, sondern auch die Entsorgungsgebühren für Wind und Sonne in den Zeiten der Dunkel-Flaute zurückholen. Dies wird zu extremen Preisschwankungen an der Börse führen. Nicht einmal "Kapazitätsmärkte" können dagegen etwas ausrichten.

Beim "strike price" wird ebenfalls ein Preis festgelegt (hier die 92,50 Pfund/MWh auf der Basis 2012), der langfristig gezahlt wird. Immer wenn die an der Börse erzielbaren Preise geringer sind, wird die Differenz draufgelegt. Sind die erzielten Preise jedoch höher, muß diese Differenz zurückbezahlt werden. In der reinen Lehre, sollte es hierfür ein Bankkonto mit Zinsen geben, dessen Kredite durch den Staat (wegen der dann niedrigen Zinsen) verbürgt werden sollten. Dies war angeblich nicht "beihilfekonform" und soll jetzt über kontinuierliche Umlagen bzw. Vergütungen bei den Stromrechnungen erfolgen. Hier liegt der entscheidende Unterschied zum EEG-Modell: Ein Kernkraftwerk kann immer Strom liefern, wenn es der Betreiber will — eine Windmühle nur, wenn die Natur es will. Kernkraftwerke können die hohen Börsenpreise bei "Spitzenlast" in der Dunkel-Flaute voll mitnehmen. "Kapazitätsmärkte" lassen sich so mit dem CfD-Modell elegant umschiffen. Die Kostentransparenz ist größer.

Die Preisaufsicht ist wieder zurück

In der Zeit der Gebietsmonopole, mußten sich die Energieversorger die Preise für die Endverbraucher genehmigen lassen. Ein Modell, welches noch in vielen Teilen der Welt praktiziert wird. Später glaubte man dies, durch den freien Handel einer Börse ersetzen zu können. Leider ist dieser "freie Handel" nie wirklich frei gewesen. Insofern hat es auch nie eine transparente und marktkonforme Preisfindung gegeben. Es war nur ein Alibi für eine Planwirtschaft.

Der von Brüssel genehmigte Preis ist nicht mehr auf ewig festgeschrieben, sondern plötzlich anerkannt veränderlich und bedarf somit einer Kontrolle. Er ist — klassisch, wie eine Preisgleitklausel — mit der allgemeinen Inflationsrate indexiert. Es ist ausdrücklich festgehalten, daß bei geringeren Baukosten als angesetzt, der "strike price" angepaßt werden muß. Das gleiche gilt, wenn der Gewinn höher als vorgesehen ausfällt. Beides wohl eher fromme Wünsche, handelt es sich doch beim Bauherrn und Betreiber um staatliche Unternehmen. Zumindest die "hauseigene Gewerkschaft der EDF" wird eher für das 15. und 16. Monatsgehalt streiken, bevor es dem Kunden auch nur einen Cent Preissenkung zugesteht. Man darf gespannt sein, mit welchen Befugnissen die Preisaufsicht ausgestattet werden wird.

Brüssel hat das ursprünglich auf 35 Jahre begrenzte Modell auf die voraussichtlich Lebensdauer von 60 Jahren ausgedehnt. Man will damit verhindern, daß das dann weitestgehend abgeschriebene Kraftwerk zu einer Gewinnexplosion bei dem Betreiber führt. Auch in dem erweiterten Zeitraum, müssen zusätzliche Gewinne zwischen Betreiber und Kunden aufgeteilt werden. Allerdings kehrt man mit diesem Ansatz nahezu vollständig zu dem Modell regulierter Märkte zurück. Eigentlich sollten an einer Börse die Preise durch Angebot und Nachfrage gefunden werden. Der Gewinn sollte dabei der Lohn für das eingegangene unternehmerische Risiko sein. Was unterscheidet das CfD-Modell eigentlich noch von einer rein öffentlichen Energieversorgung?

Nachwort

Man mag ja zur Kernenergie stehen wie man will. Nur was sind die Alternativen? Wenn man die gleiche elektrische Energie (3,2 GW, Arbeitsausnutzung ca. 90%) z. B. mit Sonnenenergie erzeugen wollte, müßte man rund 30 GW (Arbeitsausnutzung ca. 10%) Photovoltaik installieren. Trotzdem bleibt es in der Nacht dunkel — und die Nächte sind im Winterhalbjahr in GB verdammt lang. Im Gegensatz würden 30 GW an einem sonnigen Sonntag das Netz in GB förmlich explodieren lassen. Wollte man diese Leistung auf dem Festland entsorgen, müßte man erst gigantische Netzkupplungen durch den Ärmelkanal bauen.

Windkraftanlagen auf dem Festland erscheinen manchen als die kostengünstigste Lösung. Bei den Windverhältnissen in GB müßte man für die gleiche Energiemenge ungefähr 10 GW bauen und zusätzlich Gaskraftwerke mit etwa 3 GW für die Zeiten mit schwachem Wind. Das ergibt eine Kette von fast 1000 km Windkraftanlagen an der Küste. Wohlgemerkt, nur als Ersatz für dieses eine Kernkraftwerk Hinkley Point!

Oder auch gern einmal anders herum: Der Offshore-Windpark  London Array — Paradebeispiel deutscher Energieversorger — hat eine Grundfläche von etwa 100 km^2 bei einer Leistung von 0,63 GW. Weil ja der Wind auf dem Meer immer so schön weht (denkt die Landratte) geht man dort von einer Arbeitsausnutzung von 40% aus. Mit anderen Worten, dieses Wunderwerk grüner Baukunst, produziert weniger als 1/10 der elektrischen Energie eines Kernkraftwerkes.

Übernommen von NUKEKLAUS hier




Klimawissenschaft: Fehler von Fehlverhalten trennen

In einem kürzlich bei Climate Audit erschienenen Artikel wird untersucht, ob eine Graphik absichtlich oder unabsichtlich verkehrt herum dargestellt worden ist. In der Einleitung wird gefragt:

Spielt es eine Rolle, ob Proxys verkehrt herum verwendet werden oder nicht?

Vielleicht nicht in der Welt von Michael Mann (in der er als Erwiderung auf unsere Kritik bei PNAS behauptete, dass es für ihn unmöglich sei, Reihen verkehrt herum zu verwenden). Aber anders als Mann räumt Darrell Kaufman die Verantwortung ein, Proxy-Reihen in der richtigen Reihenfolge zu verwenden. Unglücklicherweise scheinen er und die PAGES2K-Autoren nicht sehr erpicht darauf zu sein sicherzustellen, dass sie das auch so machen.

Diese Story läuft parallel zur Tijander-Graphik, einer früheren Verkehrt-Herum-Präsentation in dem Debakel um den „Hockeyschläger“, der dazu erdacht worden ist, die Klima-Historie umzuschreiben dergestalt, dass die Mittelalterliche Warmzeit MWP aus den Statistiken eliminiert wird. Bei Climate Audit hat man sich auch die Tijander-Graphik vorgenommen und erschöpfend untersucht.

McIntyre und McKitrick (M&M) kommt der Verdienst zu, die von Mann et al. angewendeten ungeeigneten statistischen Methoden bloßgestellt zu haben, mit denen die Hockeyschlägergraphik erstellt worden ist. Diese hat ja den Missbrauch der Klimawissenschaft seitens des IPCC an das Tageslicht gebracht. Allerdings hat der große australische Skeptiker John Daly das größere Problem erkannt, bevor M&M die falschen Methoden bloßgestellt hatten. Ich empfehle dringend allen Menschen Dalys bemerkenswerte Analyse in seinem Artikel „The ‘Hockey Stick’: A New Low in Climate Science” zu lesen. Man beachte, dass dieser Artikel vor M&M erschienen war, findet sich doch darin keinerlei Querverweis auf deren Arbeit. Stattdessen handelt es sich dabei um eine synoptische Klimaanalyse dessen, was falsch ist.

Ich verstehe es so, dass McIntiyre den „Hockeyschläger“ auf einer Konferenz gesehen und ohne zu wissen, dass es eine Darstellung der globalen Temperatur sein sollte, aus seiner Erfahrung mit Statistik heraus sofort erkannt hat, dass es sich um eine potentiell manipulierte Darstellung handelt. Aus der Analyse von M&M geht klar hervor, mit welchen spezifischen Mitteln diese Graphik erzeugt worden ist. Eine Zeitlang kritisierten Kommentatoren auf der Website von McIntyre, dass dieser unwillig war zu sagen, dass Manns Aktionen absichtlich irreführend waren. Korrekterweise billigte ihm McIntyre zunächst das Recht auf Zweifel zu und ging davon aus, dass es bei ihm fehlendes Wissen und Verständnis war. Ethisch gibt es einen Unterschied zwischen einem Fehler und einem vorsätzlichen Fehler. Dies war Thema meiner Präsentation auf der 6. Heartland-Klimakonferenz in Washington D.C., aber dort kam das Argument, dass der gesamte IPCC-Prozess vorsätzlich war ebenso wie die Ergebnisse ihrer Computermodelle.

Der Missbrauch spezialisierter Methoden und Verfahren ist ein fundamentales Problem wegen der allgemeinen wissenschaftlichen Natur der Klimatologie. Die meisten sind Spezialisten nur in einer einzelnen Hinsicht und nennen sich dann fälschlich Klimawissenschaftler. Wenn sie versuchen, Stücke des riesigen Systems zusammenzufügen, müssen sie unvermeidlich zu unvertrauten Methoden und Verfahren greifen. Die Wahrscheinlichkeit eines Fehlers ist hoch. Dies ist höchst problematisch für Computer-Modellierer.

Das IPCC hat solche Spezialisten zusammengebracht und sie damit beauftragt, die Hypothese zu beweisen (anstatt sie zu widerlegen), dass die Menschen Grund für die globale Erwärmung (AGW) sind. Es war eine unheilige Allianz, die ein Umfeld von Missbrauch schuf. Sie fabrizierten wissenschaftliche Beweise in Fachbereichen, von denen sie kaum Ahnung hatten, und zwar mit Methoden und Verfahren, von denen sie sogar noch weniger Ahnung hatten. Mit massiven Finanzzuwendungen und politischer Unterstützung wurde dies zu einem Rezept für Katastrophen, wie es in den durchgesickerten E-Mails der Climate Research Unit (CRU) offenbar geworden ist. Das Ergebnis rechtfertigt die Mittel: man tue alles, was immer notwendig ist, um zu zeigen, dass menschliches CO2 die Ursache der globalen Erwärmung ist und dass die derzeitigen Temperaturen die höchsten jemals waren. CRU war eine kleine Gruppe und ein klassisches Beispiel von Gruppendenken, befeuert durch die Politik, wie ich seinerzeit hier erklärt habe.

Irving Janis erklärt das Konzept von Gruppendenken, welches Einmütigkeit erfordert auf Kosten von Entscheidungen hinsichtlich der Qualität. Ein kürzlich bei WUWT erschienener Beitrag befasste sich mit dem Problem des Gruppendenkens im Gebiet der Physik (hier):

Vom Gruppendenken betroffene Gruppen ignorieren Alternativen und tendieren dazu, irrationale Aktionen durchzuführen, die andere Gruppen entseelen. Eine Gruppe ist besonders verwundbar durch Gruppendenken, wenn deren Mitglieder einen ähnlichen Hintergrund haben, wenn die Gruppe abgeschirmt ist von externen Meinungen und wenn es keine klaren Regeln für die Entscheidungsfindung gibt.

Lubos Motl berichtete über den Kommentar von Benjamin Santer vom 25. April, in dem er sagte:

Ich schaute mir Einiges von dem Zeug bei Climate Audit an. Ich hatte wirklich das Gefühl, dass ich mal mit einigen dieser „Auditoren“ in einer dunklen Ecke reden sollte.

Dies ist der gleiche Santer, der als Leitautor einen zuvor abgesegneten IPCC-Bericht noch verändert hat. Avery und Singer schrieben im Jahre 2006:

Santer hat im Alleingang die ,Klimawissenschaft‘ des gesamten IPCC-Berichtes auf den Kopf gestellt und damit auch den politischen Prozess bzgl. der globalen Erwärmung! Der vom IPCC proklamierte vermeintliche ,erkennbare menschliche Einfluss‘ wurde tausende Male in Medien auf der ganzen Welt zitiert und war der ,Stopper‘ in Millionen Diskussionen unter Nichtwissenschaftlern“.

Es ist kaum vorstellbar, dass Santer nicht wusste, was er tat. Als seine Änderungen öffentlich gemacht worden waren, wurde eine rapide Antwort erzeugt, die eine Vertuschung zu sein scheint. Zu den diesbezüglichen Aktionen folgt hier noch einmal mit kleinen Änderungen, was ich seinerzeit dazu geschrieben habe:

Am 4. Juli 1996, kurz nach der Enthüllung, wartete das offensichtlich willfährige Journal Nature mit einem Artikel auf unter der Überschrift A Search for Human Influences On the Thermal Structure of the Atmosphere”. Mitgeliefert wurde eine nur allzu bekannte Liste von Autoren – Santer, Wigley, Mitchell, Oort und Stouffer. Er bot beobachtbare Beweise, die zeigten, dass die Modelle akkurat waren. Eine Graphik ist so viel wert wie tausend Worte, wie Manns „Hockeyschläger“ zeigte, und genauso war es mit Santers ,erkennbarem menschlichen Einfluss‚. John Daly reproduzierte die Graphik von Santer et al. (Abbildung 1) mit dem aufwärts gerichteten Temperaturtrend in der oberen Atmosphäre:

Abbildung 1

Dann erstellte Daly eine Graphik mit dem größeren Datensatz in Abbildung 2 und erklärte: „Wir erkennen, dass die in Santers Version erkennbare Erwärmung einfach das Ergebnis der ausgewählten Daten ist“ (Fettdruck von Daly):

Abbildung 2

Fast sofort wurden Fehler entdeckt, aber Nature hat sich mit der Veröffentlichung der Widerlegungen 5 Monate Zeit gelassen (bis zum 12. Dezember 1996), nachdem der oben besprochene Artikel veröffentlicht worden war. Einer erkannte die Rosinenpickerei, ein anderer stellte eine natürliche Erklärung für das Phänomen vor. Allerdings war zu jener Zeit die PR-Verschleierung bereits im Gange. Am 25. Juli 1996 sandte die American Meteorological Society AMS eine Brief der Verteidigung an Santer. Der Brief scheint den CRU-Einfluss zu beweisen und ist ein PR-Meisterstück. Es hieß darin, dass es zwei Fragen gebe, die Wissenschaft und was die Gesellschaft hinsichtlich der wissenschaftlichen Ergebnisse und der Debatte tun muss, die sie ausgelöst haben. Wissenschaft sollte nur in wissenschaftlich begutachteten Fachjournalen besprochen werden und nicht in den Medien. Dies war die in einer durchgesickerten E-Mail bestätigte Strategie von Mann. „Das war die Gefahr, die Skeptiker immer zu kritisieren, weil sie nichts in der ,begutachteten Literatur‘ veröffentlichen“. Darauf schrieb die AMS: Was zählt, ist wissenschaftliche Information und wie diese in politischen Debatten interpretiert wird. Das ist ein wichtiger Teil unserer Aufgaben. Das sind schließlich die wirklichen Gründe für die Vermischung von Wissenschaft und Politik im IPCC. Daly nannte das zu Recht „Wissenschaftismus“ [scientism].

Die Zurückweisung scheint zu belegen, dass Santer wusste, was er tat mit seinen Original-Änderungen des IPCC-Berichtes. Er wusste eindeutig um den willkürlich gewählten Start- und Endzeitpunkt der Graphik. Jeder Graph muss einen Start- und einen Endzeitpunkt haben, aber dieses Beispiel fand sich in einem Artikel, der geschrieben worden war, um die Bloßstellung seiner Umformulierungen zu verwerten.

Die Verteidigung von Santer erfolgte offensichtlich konzertiert und folgte einem Muster, das immer dann zur Anwendung kam, wenn Fehlverhalten ans Tageslicht gekommen war. Das Einspannen offizieller Agenturen zur Abdeckung des Fehlverhaltens erklärt vieles, warum das immer weiter betrieben wurde. Es erklärt auch, warum die Täter weiterhin glauben, dass sie nichts Falsches getan haben.

Phil Jones hat nach der Veröffentlichung der E-Mails die Polizei gerufen. Um die Behauptung eines Hacker-Angriffs zu stützen, musste er zugeben, dass sie echt waren. Die Ergebnisse waren bedeutungslos, weil sich die Untersuchung hinzog, bis das Statute of Limitations [?] ausgelaufen war. In einer dem widersprechenden Schlussfolgerung sagte die Polizei:

Besonders die internationale Dimension, das World Wide Web zu untersuchen, hat sich als extreme Herausforderung erwiesen … Als Ergebnis unserer Ermittlungen können wir jedoch sagen, dass der Datendiebstahl das Ergebnis eines ausgeklügelten und sorgfältig orchestrierten Angriffs auf die Datensätze der CRU war, durchgeführt via Internet“.

Das ist einfach unglaubwürdig angesichts des Ausmaßes, mit dem gewöhnliche Bürger ausspioniert werden, und angesichts des Ausmaßes an Wissen, das erforderlich ist, um aus 220.000 E-Mails 1000 herauszufiltern. Es gibt drei Möglichkeiten: Sie sind inkompetent, absichtlich irreführend oder beides. Wie auch immer, es war zu langsam, um dem Glaubwürdigkeitsverlust der gesamten IPCC-Operation zu begegnen.

Als Folge wurden blitzartig fünf kontrollierte Untersuchungen initiiert, alle orchestriert, um irrezuführen und abzulenken. Hans von Storch schrieb über die 3 Untersuchungen in UK:

Wir müssen uns selbstkritisch fragen, was da geschehen ist. Nichts darf unter den Teppich gekehrt werden. Einige der Untersuchungen wie in UK haben genau das getan. Sie haben eine Gelegenheit, Vertrauen wiederherzustellen, verpasst“*

[*Rückübersetzung aus dem Englischen].

Lord Oxburgh wurde berufen, eine der Untersuchungen zu leiten.

Oxburgh war kompromittiert, weil er ein Mitglied der Royal Society ist. Wichtiger aber ist, dass er leitender Direktor der Carbon Capture and Storage Association und Vorsitzender of Falck Renewable Resources ist, die sehr von der Behauptung profitieren, dass menschliches CO2 Erwärmung verursacht. Er befürwortete auch die Erwärmungs-Behauptung als Vizevorsitzender von GLOBE International in UK, einem Konsortium von Industrie, NGOs und der Regierung, die für die Politik zur globalen Erwärmung Lobbyarbeit leistet.

Es folgt eine Liste der Probleme bei der Oxburgh-Untersuchung:

Die Oxburgh-Untersuchung sollte die CRU-Wissenschaft untersuchen, aber um das zu tun, gab es a) keine öffentlichen Anhörungen und b) keine Anforderung von Beweisen.

Nur 11 akademische Studien wurden untersucht, eine Liste, die von Phil Jones unter die Lupe genommen worden war. Er war Direktor der CRU, also der Agentur, die untersucht werden sollte.

Interviews mit CRU-Mitarbeitern wurden nur hinter verschlossenen Türen durchgeführt.

Es gab keine Zusammenkunft mit CRU-Kritikern.

Die UEA hatte die effektive Kontrolle über die gesamte Untersuchung.

Das Select Committee des Unterhauses in UK hat Oxburgh hinsichtlich der Oberflächlichkeit seiner Studie und seines Berichtes sowie seiner versprochenen Begutachtung der Wissenschaft in die Mangel genommen.

Mehr Informationen hierzu gibt es in der detaillierten Zusammenfassung der Grenzen aller Untersuchungen bei Andrew Montford. Die Untersuchung von Muir Russell war so schlecht, dass selbst Guardian’s Fred Pearce schrieb:

Geheimniskrämerei stand bei der CRU auf der Tagesordnung. Wir fanden, dass es dort ein konsistentes Verhalten gab, nicht dem gebotenen Grad an Offenheit zu folgen, heißt es in dem Bericht. Diese Kritik richtet sich nicht nur an Jones und sein Team an der CRU. Sie richtet sich genauso an die Universität selbst, die empört sein könnte, sich selbst genauso im Schlamassel zu finden wie die Wissenschaftler, über die zu richten Russell beauftragt worden war“.

Jeder macht Fehler in der Wissenschaft, aber normalerweise werden diese im idealerweise unpersönlichen und professionellen Begutachtungsprozess gefunden. In Santers Fall haben seine Mitautoren die Begutachtung durchgeführt. Er hat beschlossen, deren Bedenken beiseite zu schieben und wurde erwischt. Der Artikel zum Hockeyschläger war begutachtet, aber wie Prof. Wegman in seinem Bericht an ein Komitee des Kongresses schrieb:

In unserer weiteren Erkundung des Netzwerkes der Autoren der Temperatur-Rekonstruktion fanden wir, dass mindestens 43 Autoren direkte Verbindungen zu Dr. Mann haben, und zwar in Gestalt der Mitautorenschaft seiner Studien. Unsere Ergebnisse dieser Analyse zeigen, dass Autoren im Fachgebiet Paläoklima eng verbandelt sind und dass daher ,unabhängige Studien‘ nicht so unabhängig sein könnten, wie sie an der Oberfläche aussehen.

Dieses Ergebnis wurde durch die durchgesickerten CRU-E-Mails bestätigt. Die Korruption dieses Prozesses seitens der CRU bedeutete Fehler, die absichtlich oder unabsichtlich Eingang in die wissenschaftliche Aufzeichnung fanden. Außerdem wurde die Verschleierung und die Ablehnung der Veröffentlichung von Daten zum Standard. Wegman dazu:

Es ist nicht klar, dass Mann und seine Verbündeten den Fehler in ihrer Verfahrensweise zur Zeit der Veröffentlichung erkannt haben. Infolge fehlender vollständiger Dokumentation ihrer Daten und Computer-Codes waren wir nicht in der Lage, ihre Forschungen nachzuvollziehen. Wir haben jedoch bei der Reproduktion der Verfahren von M&M ähnliche Ergebnisse wie diese erzielt. Dieses Nachvollziehen stützt die Kritik der MBH98-Methoden, wo der Offset* des mittleren Wertes eine künstlich große Abweichung vom gewünschten mittleren Wert Null erzeugt.

[*Original: „as the offset of the mean value creates an artificially large deviation from the desired mean value of zero“. Das habe ich inhaltlich nicht verstanden. Im LEO werden für ,offset‘ so viele Bedeutungen angezeigt, dass ich deswegen da ratlos war. Anm. d. Übers.]

Sie wussten, warum man die Daten in Erfahrung bringen wollte. Phil Jones antwortete am 21. Februar 2005 auf die Datenanforderung von Warwick Hughes so:

Wir haben etwa 25 Jahre in die Arbeit gesteckt. Warum sollte ich Ihnen die Daten zugänglich machen, wenn es Ihr Ziel ist zu versuchen, Fehler darin zu finden?“

Später sagte Jones dass er die Daten verloren habe. Werden auch andere Daten im Nirwana verschwinden?

Bedeutsam ist hier die Natur des Fehlers. Falls er entscheidend war für eine These oder eine wissenschaftliche Schlussfolgerung, wurde der Fehler aus Inkompetenz oder mit Absicht gemacht. Wie auch immer, die dafür verantwortliche Person ist auf seiner Position wegen seiner Behauptungen fehl am Platze.

Entscheidend für die IPCC-Objetive war die Notwendigkeit zu beweisen, dass die menschliche Erzeugung von CO2 zu Temperaturzunahmen führte und Temperaturen zeitigte, die in der gesamten Historie höher denn je lagen. Ist es Zufall, dass dies die Bereiche sind, wo die Wissenschaft geschaffen wurde, um das vorbestimmte Ergebnis zu bekommen? Es scheint, dass sich eine Verteilung von Fehlern heraus kristallisiert, die Fehlverhalten beweisen. Unglücklicherweise weiß ich nicht um die Verantwortlichkeiten, aber dies ist allgemein die Lage mit den verbundenen Punkten des Fehlverhaltens in der heutigen Gesellschaft.

Link: http://wattsupwiththat.com/2014/10/12/climate-science-separating-mistakes-from-malfeasance/

Übersetzt von Chris Frey EIKE




Das Solardebakel von Calasparra

Das Glück schien es gut zu meinen mit uns. Nach Murcia lichtete sich die Wolkendecke, und als wir nach einer halbstündigen Fahrt durch blühende Obstplantagen in Calasparra eintrafen, war der Himmel knallblau. Verheis­sungsvoll glitzerte die Sonne in den Spiegeln, die das Solarkraftwerk Puerto Errado* aufheizen. Auf einer Fläche von 65 Hektaren, was etwa 84 Fussballfeldern entspricht, so erfahren wir im Hochglanzprospekt, wird hier sauberer Strom für 15 400 Haushaltungen produziert. Den Treibstoff liefert, gratis und franko, die Natur. Was will man mehr.

Das vermeintliche Glück erweist sich indes, wie so vieles, was wir in diesen zwei Tagen in Calasparra erleben, als hinterhältiger Irrtum. Leider, so erklärte uns Isaac Hernández, der Chef des Solarkraftwerks Puerto Errado, werde die Anlage heute nicht mehr in Betrieb genommen. Der Himmel über Calasparra war an diesem Tag die meiste Zeit bedeckt gewesen, und die zwei Stunden Abendsonne reichten nur knapp aus, um die Produktion hochzufahren. Weil Dampfturbinen aber schneller altern und revidiert werden müssen, wenn sie dauernd rauf- und runtergefahren werden, ­verzichte man auf den ohnehin geringen ­Rest-Ertrag.

Wir nutzen die Zeit also für eine ausgedehnte­ Besichtigung von Puerto Errado – einem ­Bijou deutscher und schweizerischer Inge­nieurs­kunst. Verstellbare Spiegel, die sich ständig nach dem Stand der Sonne richten, lenken die Strahlen auf Kollektoren, wo sie Wasser auf rund 280 Grad Celsius aufheizen. Über ein weitverzweigtes Leitungsnetz wird der Wasserdampf dann zu den beiden Dampfturbinen geleitet, welche die Generatoren antreiben. Das Prinzip hört sich simpel an, doch die richtige Temperatur und die richtige Konsistenz des Dampfes hinzukriegen, ist hohe Kunst, die ein komplexes computergesteuertes Netz an Reglern und Ventilen vollbringt.

Dampfturbinen haben etliche Vorteile ­gegenüber den marktüblichen Solarpanels, bei denen die Sonnenstrahlen direkt in Strom umgewandelt werden. Man braucht weniger und vor allem auch keine hochgiftigen Rohstoffe, was sich im Preis niederschlägt. Die Wärmekollektoren sind weniger kompliziert aufgebaut als Solarpanels und haben damit eine längere Lebenserwartung. Da sich der Dampf in Puerto Errado über rund zwanzig Minuten speichern lässt, wenn etwa eine Wolke über den Himmel zieht, ist die Stromproduktion weniger den Schwankungen ausgesetzt, die den Netzbetreibern bei der Fotovoltaik Kopfzerbrechen bereiten. In Calasparra, wo auch ein Fotovoltaik-Kraftwerk von einer vergleichbaren Grösse steht, lässt sich das am praktischen Beispiel zeigen: Bei einer bloss um 50 Prozent höheren Spitzenleistung produzierte das Solar-Dampf-Kraftwerk Puerto Errado im letzten Jahr etwa doppelt so viel Strom (41,4 GWh) wie sein fotovoltaischer Konkurrent (21,2 GWh).

Zum Vergleich: Das Wasserkraftwerk Mühleberg (Wohlensee) produzierte im gleichen Zeitraum 157 GWh Strom, also knapp das Vierfache, während das AKW Mühleberg rund 2600 GWh Strom lieferte. Oder andersherum: Wollte man das kleinste Schweizer AKW durch spanischen Solarstrom ersetzen, brauchte es 62 Anlagen in der Grösse von Puerto Errado 2. Nicht mit eingerechnet sind dabei allerdings die Verluste beim Transport durch eine 1400 Kilometer lange Überlandleitung, die es im Moment noch nicht gibt.

Und dann wäre da noch ein zweites Problem: Auch in Spanien scheint die Sonne vor allem im Sommer – doch wir brauchen den Strom vor allem im Winter.Die saisonalen Unterschiede sind auch im sonnenreichen Süden Spaniens drastisch. Im Spitzenmonat Juli produzierte Puerto Errado achtmal mehr Strom als im letzten Dezember.

Das hat mit dem Einstrahlungswinkel der Sonne und der Länge der Tage zu tun – und mit dem Wetter. Nehmen wir zum Beispiel die Woche vom 16. bis zum 23. Februar. Die ersten drei Tage­ stand das Werk still wegen schlechten Wetters. Der 19. war ein perfekter Sonnentag: Nach einer Aufheizphase von knapp zwei Stunden produzierte das Werk zwischen 10 und 17 Uhr auf einer Turbine (die zweite wird nur im Sommer zugeschaltet) die volle Leistung (15 Megawatt). Der 20. Februar lief gut an, bis gegen 15 Uhr der Himmel wieder zumachte. Auch am folgenden Tag war tote Hose, danach ging es wieder bergauf. Der 23. Februar wäre perfekt gewesen, leider etwas zu perfekt – wegen eines Überangebots an Windenergie im Netz musste Puerto Errado seine Tagesproduktion um 30 Prozent drosseln.

Werkchef Isaac Hernández vertröstet uns auf den nächsten Tag – «mañana» wird das Wetter freundlicher sein. Und tatsächlich, nach 8 Uhr verzieht sich der Morgennebel aus den blühenden Obstplantagen, die Puerto ­Errado umgeben. Die Solarspiegel gleissen in der milden Wintersonne, dass es eine Freude ist, und auch das Gesicht des Betriebschefs hat sich aufgehellt. Isaac – wir haben uns nach spanischer Sitte von Anfang an geduzt – brennt darauf, den Besuchern heute sein tadellos funktionierendes Hightech-Solarkraftwerk zu zeigen. Schweizer Elektrizitätswerke – die EBL und die IWB aus den beiden Basler Halbkantonen, das EWZ und die EKZ aus Zürich sowie die Berner EWB – haben für Puerto Er­rado immerhin den stolzen Betrag von insgesamt 180 Millionen Franken hingeblättert.

Bescheidener Ertrag – enormer Verschleiss

Früher arbeitete Isaac in einem der Gaskombikraftwerke, die man benötigt, um die Strom­engpässe bei Wind- und Sonnenflauten auszugleichen. Doch Puerto Errado ist für ihn mehr als ein Job: «Es ist doch schön, etwas Gutes für die Umwelt zu tun.» Isaac räumt ein, dass die Kapriolen des Wetters der grosse Haken an der Sache seien, den selbst die raffinierteste Technologie der Welt nicht aus der Welt schafft. ­Damit das Netz nicht zusammenbricht, muss man immer so viel Strom einspeisen, wie man rausnimmt – und das ist ziemlich schwierig, wenn man nie weiss, wie viel Strom gerade kommt. Eine einigermassen wirtschaftliche Möglichkeit, den Strom in grossen Mengen über längere Zeiträume zu speichern, ist leider nach wie vor nicht in Sicht.

Immerhin, so versichert Isaac, seien die meteorologischen Prognosen heute so verfeinert, dass man die Produktion danach richten und planen könne. Heute zum Beispiel, so steht es auf dem Plan, den er auf seinen Bildschirm zaubert, soll Puerto Errado volle Winterlast fahren. Doch es ist, als führte der Teufel Regie: Während uns Isaac die Vorzüge computer­gestützter Vorhersagen erklärt, haben graue Wolken den Himmel überzogen.

Vielleicht ist es ja bloss ein gemeiner Zufall, die Ausnahme, welche die Regel bestätigt. Doch auch an diesem Tag braucht Puerto Er­rado nur Strom, ohne selber welchen zu erzeugen. Etwas ratlos sitzen die Ingenieure im Kommandoraum herum. Und das ist nun keine­ Ausnahme.

Das Kraftwerk läuft im Jahr gerade mal während 1400 Stunden auf Volllast – während 7360 Stunden, also die meiste Zeit, produziert die teure Anlage nichts.

Dass die Ausbeute in der Schweiz noch viel schlechter wäre, ist ein schwacher Trost.

Für Puerto Errado II wurden 65 Hektar fruchtbares Kulturland geopfert. In der sonnenreichen und trockenen Region von Murcia gäbe es zwar Brachland in Fülle, doch es eignet sich selten für Solarkraftwerke. Um diese einigermassen effizient zu betreiben, braucht es eine leicht gegen Süden geneigte Hanglage mit einem Anschluss ans Wassernetz – und solche Lagen werden naturgemäss auch landwirtschaftlich genutzt. Der Wasserverbrauch wurde dank einer ausgeklügelten Luftkühlung zwar auf ein Minimum beschränkt, doch ohne geht es nicht, zumal die Solarspiegel mindestens zweimal pro Woche gereinigt werden müssen. Wo es trocken ist, da gibt es naturgemäss immer auch viel Staub.

Ohne staatliche Abnahmegarantie und – unabhängig von Angebot und Nachfrage – ohne einen garantierten Preis von knapp 30 Eurocent pro Kilowattstunde wäre Puerto Errado ein gewaltiges Verlustgeschäft.

Auf dem spanischen Markt wird mit einem durchschnittlichen Referenzpreis von 5 Eurocent pro kWh Strom gerechnet.

Die Differenz von 25 Eurocent wird über Zwangsabgaben beglichen.

Zwar prophezeit die Ökobranche seit drei Jahrzehnten den unmittelbar bevorstehenden Preiszerfall: Wenn der Ökostrom einmal in Massen produziert würde, so die Theorie, würde er auch billiger. Das mag auf den ersten Blick einleuchten. In der Praxis ging die Rechnung bislang nicht auf.

Denn dem relativ bescheidenen Ertrag von Sonne und Wind steht ein enormer Verschleiss an Ressourcen (Land, Arbeit, Infrastruktur) entgegen.

Und diese Ressourcen werden bei einer steigenden Nachfrage nicht billiger, sondern eher teurer. Kommt dazu, dass die ständig der Witterung ausgesetzten Wind- und Solaranlagen rapide altern und entsprechend schnell abgeschrieben werden müssen.

Spanien ist neben Deutschland der grösste Solarstrom- und Windstromproduzent Europas. Seit der Jahrtausendwende haben die Iberer­ den Ökostrom mit zweistelligen Milliardenbeträgen subventioniert.

2009 sorgte indes eine breitangelegte Untersuchung der Universidad Rey Juan Carlos in Madrid für ­einen Schock. Die Studie kam zum Schluss, dass der Ökoboom zwar vorübergehend und vor allem im Baugewerbe gegen 50 000 neue Arbeitsplätze geschaffen hatte – dass aber für jeden der hochsubventionierten green jobs 2,2 Stellen in der realen Wirtschaft verloren­gegangen waren.

Die Erklärung: Die massiv erhöhten Strompreise führten bei der Industrie, aber auch etwa im stromintensiven IT-Bereich zu einer Abwanderung ins Ausland. Wegen der witterungs­bedingten Unzuverlässigkeit des vermeint­lichen Ökostroms konnte Spanien seine Abhängigkeit von Öl- und Gasimporten zudem kaum reduzieren.

Ökostrom-Experiment ist gescheitert

Vom Atomausstieg redet in Spanien heute kaum noch jemand, die Laufzeiten der AKW wurden kürzlich auf unbestimmte Zeit verlängert.

Hingegen gibt es Pläne, die Subven­tionen für Ökostrom massiv abzubauen. Betreiber von Kleinstanlagen sollen sogar ganz auf Subventionen verzichten und darüber ­hinaus für die Regulierungskosten im Netz aufkommen. Die Lage ist ernst. Während die spanischen Stromgiganten auf einem Schuldenberg von 37 Milliarden Euro sitzen, sind die Staatskassen leer, siecht die Wirtschaft in der Euro-Krise vor sich hin.

Allein die Ankündigung des neuen Stromgesetzes liess den spanischen Ökoboom platzen wie eine Seifenblase. Noch ist nichts definitiv, kein Politiker wagt, den ersten Stein zu werfen, doch im Grunde wissen sie alle, dass das Experiment gescheitert ist.

Im municipio von Calasparra empfängt uns Bürgermeister Jesús Navarro. Die Gemeinde im Hinterland von Murcia wurde vom Zusammenbruch der Öko-Bonanza besonders hart getroffen. Neben der Landwirtschaft gibt es hier nicht viel – ausser eben Sonne und Wind in Hülle und Fülle. Im Vertrauen auf die Versprech­ungen der Regierung verschuldeten sich viele Bauern bis über die Ohren, um ihre Einkünfte als Wind- und Sonnenfarmer aufzubessern. Rund ein Drittel der 60 000 spanischen Klein­investoren, die auf Alternativenergie spekulierten, leben in der Gegend von Murcia. Und viele von ihnen stehen nun vor dem Ruin.

In Calasparra wurde eine Schule für Solar­installateure aus dem Boden gestampft, für ihre Pionierrolle wurde die Gemeinde mit Orden ausgezeichnet. Das ist nun alles Makulatur.

Jesús ist wütend – wütend auf die Regierung, die sich nicht an Versprechen hält, aber wütend auch auf die Elektrizitätsriesen, die den Strompreis in astronomische Sphären getrieben hätten. Hundert Euro bezahle eine durchschnittliche Familie hier monatlich für den Strom – und das ist in dieser Weltgegend eine Stange Geld. Achtzehn Cent kostet die Kilowattstunde mittlerweile. Den Einwand, dass die Verteiler denselben Strom den Solarfarmern für 30 Cent abkaufen müssten und dass diese Rechnung irgendwie nicht aufgehen könne, lässt Jesús nicht gelten. Die Stromgiganten seien politisch verfilzt und verdienten sich auf Kosten des Volkes eine goldene Nase.

Juan Ricardo Rothe, der mich als Projektleiter von Puerto Errado auf meinem Ausflug ins spanische Sonnenland begleitete, wirkt auf der Heimreise ziemlich nachdenklich. Das Solar-Dampf-Kraftwerk ist sein Kind. Im Auftrag der Elektra Baselland (EBL) leitete der sympathische Argentinier mit deutschen Wurzeln den Bau der Anlage, die im August 2012 planmässig ans Netz ging und seither ohne nennenswerte Pannen funktioniert. Darauf kann er stolz sein. Juan Ricardo brachte mir einen ganzen Stapel von Hochglanzprospekten über Puerto Errado mit. Doch die Realität, die wir vor Ort sahen, war etwas anders. Die Fragen, die mich interessieren, hatten die PR-Spezialisten der EBL sorgsam ausgeklammert.

Der 63-jährige Juan Ricardo Rothe befasst sich mit einer Reihe von Wind- und Solarprojekten in der europäischen Nachbarschaft, bei denen die EBL einsteigen möchte. Die Baselbieter liegen damit voll im Trend. Schweizer Elektrizitätswerke buttern seit Jahren diskret Hunderte von Millionen in ausländische Ökoprojekte. Das hat zum einen damit zu tun, dass die Schweiz wetterbedingt für Wind- und ­Solaranlagen denkbar ungeeignet ist. Auf der anderen Seite sind die Kassen voll. Und das ­Bedürfnis, etwas fürs Image zu tun, ist gross.

Die Realität hat keine Chance

Die massive Subventionierung der Alternativenergie ohne Rücksicht auf Angebot und Nachfrage hat zu einer übermässigen Stromproduktion und zu einem Zerfall der Marktpreise geführt. Darunter leidet vor allem die Wasserkraft. Neue Investitionen rechnen sich kaum noch.

Ein Beispiel dafür liefert das Projekt Chlus zwischen Küblis und Landquart im Bündner Prättigau. Mit Investitionen von 350 Millionen Franken liesse sich hier das Zehn­fache an Strom produzieren, der in Puerto Errado anfällt. Anders als in Spanien wäre die Produktion in den Bündner Bergen zuverlässig und sogar regulierbar. Staudämme und Stollen halten zudem Hunderte von Jahren und müssen nicht auf 30 Jahre abgeschrieben werden. Doch bei einem kalkulierten Preis von 12 Rappen pro kWh rechnet sich das Projekt Chlus einfach nicht – obwohl der heimische Wasserstrom dreimal günstiger zu haben wäre als der Solarstrom im fernen Spanien.

Als die Industriellen Werke der Stadt Basel (IWB) im letzten Herbst ihre finanzielle Beteiligung an Puerto Errado auf null abschrieben, flackerte am Rheinknie eine kurze Debatte über den Irrwitz der Strom- und Subventionspolitik auf. In der restlichen Schweiz schien sich indes keiner gross um das Thema zu scheren.

Das grüne Image des Ökostroms ist derart mächtig, dass die ernüchternde Realität dagegen keine Chance hat.

Vielleicht ist die Materie auch schlicht zu komplex, zu technisch, als dass man sich damit abmühen mag.

Juan Ricardo Rothe ist nicht nur ein erfahrener Ingenieur, sondern auch Ökonom. Er glaubt, dass der Wind- und Solarstrom durchaus einen Platz haben wird im Strommix und dass wir von den fossilen Brennstoffen wegkommen sollten. In Puerto Errado wird auch mit höheren Temperaturen experimentiert, die eine höhere Ausbeute brächten, aber auch mit Salzlösungen, in denen sich die Wärme etwas länger speichern liesse. Vielleicht wird dereinst sogar Solarstrom von Afrika nach Europa fliessen, wer weiss.

Aber selbst Rothe regt sich immer wieder auf über Politiker, die «hundert Prozent Ökostrom» verkünden und sich dabei keinen Deut um die Gesetze der Physik scheren.

Man kann es einem gewinnorientierten Unternehmen kaum verübeln, wenn es irrwitzige Subventionen abholt und dafür die von den Politikern gewünschten Systeme liefert, und mögen sie noch so ineffizient sein. Man kann sich allerdings fragen, ob es die Aufgabe von öffentlichen Schweizer Elektrizitätswerken ist, sich an solch spekulativen Auslandgeschäften zu beteiligen. Der spanische Traum vom garantierten Ökoprofit scheint vorerst geplatzt. Vielleicht wären die Investoren etwas vorsichtiger gewesen, wenn sie ein Wörterbuch in die Hand genommen hätten, bevor sie die Millionen nach Spanien schickten – Puerto Errado heisst auf Deutsch «falscher Hafen».

* Puerto Errado wurde von der deutschen Firma Novatec entwickelt. Der Prototyp «Puerto Errado 1» wird heute zu Forschungszwecken genutzt, die in der Reportage ­beschriebene Anlage heisst offiziell «Puerto Errado 2».

===================================================================

Anmerkung EIKE-Redaktion :

Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:

Die Weltwoche, Ausgabe 10/2014   ; http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE für die Gestattung des ungekürzten Nachdrucks.

===================================================================




Das Rätsel der Eiszeiten – Teil XII: GCM V – Wie enden Eiszeiten?

Im Teil XI betrachteten wir das Ende der letzten Eiszeit. Hauptsächlich haben wir Shakun et al. (2012) begutachtet, die einige sehr interessante Daten über das Timing der Temperaturen in der Süd- und der Nordhemisphäre gezeigt haben – zusammen mit atmosphärischen CO2-Werten. Kurz gesagt: Die Südhemisphäre begann sich zu erwärmen, kurz danach stiegen auch die CO2-Werte, was zu einer positiven Rückkopplung des initialen Temperaturanstiegs führte, und die globalen Temperaturen folgten der Südhemisphäre:

Bildinschrift: CO2-Konzentration und Temperatur. a: Der globale Proxy-Temperaturblock (blau) als Abweichungen vom Mittel des frühen Holozäns (vor 11.500 bis 6500 Jahren), ein Komposit aus antarktischen Eisbohrkernen (rot) und die atmosphärische CO2-Konzentration (gelbe Punkte). Gekennzeichnet sind das Holozän, das jüngere Dryas (YD), Bølling-Alleröd (B-A), das Älteste Dryas (OD) und das Letzte Glaziale Maximum (LGM). Fehlerbalken, 1sigma (Methoden); parts per million by volume ppmv. b: Phasen der CO2-Konzentration und der Temperatur global (grau), für die Nordhemisphäre (NH, blau) und die Südhemisphäre (SH, rot). Die Proxy-Blöcke basieren auf Verzögerungs-Korrelationen von vor 20.000 bis 10.000 Jahren in 1000 Monte-Carlo-Simulationen (Methoden). Das Mittel und die 1-Bandbreite werden gezeigt. Die CO2-Konzentration führt den globalen Temperaturblock in 90% der Simulationen und hinkt ihr hinterher in 6% aller Fälle (Aus Shakun et al. 2012, Abbildung 1).

Diese Studie in Nature enthielt auch einige Modellierungs-Arbeiten, die ich in mancher Weise kritisiert habe, aber die Modellierung stand nicht im Mittelpunkt der Studie. Eric Wolff, einer der führenden Komitee-Mitglieder bei EPICA, teilte diese Kritik an der Modellierung, die dann in der gleichen Ausgabe von Nature veröffentlicht wurde.

Im vorliegenden Artikel wollen wir das paper von He et al. (2013) betrachten, ebenfalls in Nature veröffentlicht. Dabei handelt es sich um eine Studie über die Modellierung der gleichen Vorgänge. Einer der Mitautoren ist Jeremy Shakun, der Leitautor unserer früheren Studie. Unter den Mitautoren waren auch Bette Otto-Bliessner, eine der Leitautorinnen im Kapitel zu Paläoklima im AR 5 des IPCC.

He et al. 2013

Leser, die diese Serie bis hier verfolgt haben, werden erkennen, dass das Abstract (aus dem wir unten zitieren) einige bekannte Features enthält:

Der Milankovitch-Theorie zufolge führten Änderungen der sommerlichen Einstrahlung in hohen nördlichen Breiten zu glazialen Zyklen infolge des Einflusses auf die Massenbilanz der Eisschilde. Statistische Analysen langer Klimareihen stützten diese Theorie, stellten aber auch eine substantielle Herausforderung dar, zeigten sie doch, dass Änderungen des Klimas auf der Südhalbkugel in Phase mit diesen auf der Nordhalbkugel waren oder diesen sogar vorausgingen.

Obwohl ein orbital getriebenes Signal auf der Nordhemisphäre irgendwie auf die Südhalbkugel hätte übergreifen können, kann der Strahlungsantrieb das lokale Klima der Südhemisphäre auch direkt beeinflussen, potentiell verstärkt durch Rückkopplungen mit dem Meereis. Dies würde zeigen, dass die beiden Hemisphären unabhängig voneinander auf verschiedene Aspekte orbitaler Antriebe reagieren. Das Aufspüren von Signalen in Klimaaufzeichnungen kann zwischen diesen Bedingungen allerdings nicht unterscheiden, weil die vorgeschlagenen Strahlungsantriebe im Wesentlichen eine identische Variabilität aufweisen. Hier verwenden wir transiente (transient = zeitlich veränderlich, Anm. der Redaktion) Simulationen mit einem gekoppelten allgemeinen Ozean-Atmosphäre-Zirkulationsmodell, um die Auswirkungen der Antriebe durch Änderungen des Orbits, der atmosphärischen CO2-Konzentration, der Eisschilde und der AMOC auf die hemisphärischen Temperaturen während der ersten Hälfte der letzten Deglaziation (vor 22.000 bis 14.300 Jahren) zu identifizieren. Obwohl nur auf einem einzelnen Modell basierend, stützt unsere Transient-Simulation mit ausschließlich orbitalen Änderungen die Milankovitch-Theorie, zeigt sie doch, dass die letzte Deglaziation durch zunehmende Einstrahlung im Frühjahr und Sommer in mittleren und hohen nördlichen Breiten initiiert worden ist sowie durch terrestrische Schnee-Albedo-Rückkopplung.

Weiter heißt es im Abstract:

Die Simulation mit allen Antrieben reproduziert am besten das Timing und die Größenordnung der Temperaturentwicklung auf der Südhalbkugel in den Proxy-Aufzeichnungen aus dieser Zeit.

Dies ist ein Modellergebnis ähnlich dem der Studie im Teil IX, in der das gleiche Verfahren individueller „Antriebe“ und eine Simulation mit allen „Antrieben“ kombiniert angewendet wird. Ich habe „Antriebe“ in Anführungszeichen gesetzt, weil die Antriebe (Eisschilde, Treibhausgase und Schmelzwasserflüsse) tatsächlich Rückkopplungen sind, die zu simulieren die GCMs jedoch nicht in der Lage sind. Änderungen der AMOC, die mit einem orbital induzierten Rückzug der nordhemisphärischen Eisschilde verbunden sind, sind die plausibelste Erklärung für die frühe Erwärmung der Südhemisphäre und deren Führungsrolle über die Temperatur der Nordhemisphäre; der darauf folgende CO2-Anstieg bedeutete die kritische Rückkopplung der globalen Deglaziation.

In dieser Studie gibt es die folgenden GCM-Simulationen:

• ORB (vor 22.000 bis 14.300 Jahren), getrieben nur durch kurzlebige Variationen der orbitalen Konfiguration

• GHG (vor 22.000 bis 14.300 Jahren), getrieben nur durch kurzlebige Variationen atmosphärischer Treibhausgas-Konzentrationen

• MOC (vor 19.000 bis 14.300 Jahren), getrieben nur durch kurzlebige Variationen von Schmelzwasserflüssen aus den Eisschilden der Nordhemisphäre und der Antarktis

• ICE (vor 19.000 bis 14.300 Jahren), getrieben nur durch quasi-kurzlebige Variationen der Orographie der Eisschilde sowie deren Ausdehnung aufgrund der ICE-5G (VM12)-Rekonstruktion.

Und dann gibt es da die ALL-Simulation, also eine Kombination all dieser Antriebe. Das verwendete GCM ist CCSM3 (CCSM4, eine aktualisierte Version von CCSM3, haben wir bereits im Part X – GCM IV dieser Reihe kennen gelernt). Der Idee dieser Studie ist es, ein paar Kernfragen zu beantworten. Eine davon lautet: Falls Änderungen der solaren Einstrahlung in hohen Breiten der Nordhemisphäre der Schlüssel zum Verständnis von Eiszeiten sind, warum hat sich dann die Südhemisphäre zuerst erwärmt? (Um diese Frage war es auch in Shakun et al. 2012 gegangen). Eine weitere Absicht dieses papers ist es, den tatsächlichen Temperaturanstieg während der jüngsten Deglaziation sowohl in der Nord- als auch in der Südhemisphäre nachzuvollziehen und zu simulieren.

Schauen wir mal.

Ihre erste Abbildung ist etwas schwierig zu lesen, aber die Essenz ist, dass blau das Modell mit ausschließlich orbitalem Antrieb (ORB) ist. Rot ist das Modell mit ALLEN Antrieben, und schwarz ist die Proxy-Rekonstruktion der Temperatur (an verschiedenen Stellen).

Bildinschrift: a. Einstrahlung am 21. Juni auf 60°N und atmosphärische CO2-Konzentration.. b. Eustatischer Meeresspiegel. Zeitfehler-Balken ± 2s.d. c. Schmelzwasserflüsse der Nordhemisphäre (NHMW) in Metern pro Anstieg des Meeresspiegels in 1000 Jahren. d. Verhältnis Pa/Th bei Bermuda als Proxy für den AMOC-Export und Modell-Maximum des AMOC-Transports (unter 500 m). Sv Sverdrup (…) e. Grönland-SAT auf der Grundlage des GISP2-Eisbohrkerns und aus Simulationen (Modell-Offset durch -4,5°C) f bis i Regionale Wassertemperaturen im Südatlantik (f), dem Indischen Ozean (g), dem Südpazifik (h) und dem Ozean der Südhemisphäre (i). J Regionale SAT über der Antarktis. In d bis j: Schwarz: Rekonstruktion, Rot: Simulation ALL, blau: Simulation ORB (10-Jahres-Mittel). LGM = letztes glaziales Maximum. (Aus He et al. 2013, Abbildung 2).

Wir können sehen, dass der orbitale Antrieb allein fast keinen Einfluss auf irgendeinen der Haupt-Temperatur-Parameter hat, und wir können sehen, dass es in Grönland und der Antarktis unterschiedliche Temperaturverläufe in dieser Periode gab.

• Wir können sehen, dass ihr ALL-Modell vernünftig gearbeitet hat bei der Rekonstruktion der wesentlichen Temperaturtrends.

• Wir können auch sehen, dass es kaum die Temperatur-Fluktuationen im Zeitmaßstab von Jahrhunderten bis zu einem Jahrtausend abbilden konnte, wenn diese auftraten.

Als Beleg folgt hier die Grönland-Aufzeichnung aus NGRIP von vor 20.000 bis 10.000 Jahren:


Abbildung 3: – NGRIP data

Wir erkennen, dass die Haupterwärmung in Grönland (zumindest an dieser Stelle in Nordgrönland) vor etwa 15.000 Jahren erfolgt ist, während die Antarktis schon vor 18.000 Jahren eine signifikante Erwärmung erfuhr (vergleiche Abbildung 1 aus Shakun et al.). Das paper zeigt im Grunde, dass es infolge von zwei separaten Effekten zwei wesentliche Temperaturtrends erfassen kann:

1. Die „Abkühlung“ in Grönland von vor 19.000 bis 17.000 Jahren mit einer Erwärmung der Antarktis im gleichen Zeitraum – wegen der MOC.

2. Die fortgesetzte Erwärmung von vor 17.000 bis 15.000 Jahren in beiden Regionen infolge von Treibhausgasen.

Man beachte, dass meine eigenen NGRIP-Daten und ihre GISP-Daten einen unterschiedlichen Temperaturtrend zeigen, und ich weiß nicht warum. Zum Verständnis dessen, was das Modell zeigt – diese Daten stammen aus ihren Ergänzungs-Daten, gefunden auf der Website von Nature: Vor 19.000 bis 17.000 Jahren gab es in der Antarktis (AN) eine signifikante Erwärmung, während es in Grönland (GI) zu einer größeren Abkühlung gekommen war von vor 17.300 und 16.700 Jahren.

Bildinschrift: Abbildung S25: genau wie Abbildung 59, nur diesmal mit Temperaturänderungen von vor 19.000 und 17.000 Jahren. SAT-Unterschiede und deren Unsicherheiten (eine Standardabweichung) werden abgeleitet von vor 17.300 bis 16.700 Jahren für 17.000 Jahre; vor 19.300 und 18.700 Jahren für 19.000 Jahre für Proxies und die Simulationen ALL, ORB und GHG sowie zwischen vor 19.000 und 18.400 Jahren für 19.000 Jahre für die Simulationen ICE, MOC und SUM. Alle Modellvariablen sind jährliche Mittelwerte (Abbildung 4).

Man beachte, dass die MOC (gelb) die Simulation ist, die die Änderung sowohl in GI als auch in AN erzeugt. (SUM sind die addierten Werte der individuellen Läufe, während ALL die Simulation mit der Kombination aller Treiber ist). Zweitens, vor 17.000 bis 15.000 Jahren setzt sich die Erwärmung in der Antarktis fort, und auch in Grönland wird es wärmer:

Bildinschrift: Abbildung S27: Wie Abbildung 59, jedoch für Temperaturänderungen von vor 17.000 bis 15.000 Jahren. SAT Differenzen und ihre Unsicherheiten (1 Standardabweichung) sind zwischen 17.300 und 16.700 Jahre vh. für 17.000 Jahre und für 14.700 für 15.000 Jahre abgeleitet. Alle Variablen wieder Jahresmittelwerte (Abbildung 5).

Man beachte, dass GHG (rosa) jetzt die Hauptursache für die Temperaturanstiege ist. Wir können die Temperaturtrends mit der Zeit als einen besseren Weg darstellen. Ich habe einige Anmerkungen hinzugefügt, weil das Layout sich mir nicht sofort erschlossen hat:

Bildinschrift: Abbildung 3: frühe deglaziale Erwärmung in Einzelantriebs-Transient-Simulationen. a-c. Grönland SAT (GISP2) (a), SHSST stack (b) und antarktischer SAT stack (c) in Simulation ORB. d-o, wie für a-c, aber für Simualtion ICE (d-f), GHC (g-i), MOC (j-l) und ALL/SUM (m-o). Alle Variablen in 10-Jahresmittel. Proxy reconstruktionen in schwarz. In a-l Simulationen in rot. In m-o Simulation ALL in rot und Simulation SUM in blau. LGM, Letztes glaziales Maximum (Abbildung 6).

Wie in Abbildung 1 können wir auch hier sehen, dass die Haupttrends ziemlich gut simuliert wurden, ohne das aber das Modell Variationen in kürzeren Zeiträumen erfassen konnte.

Die MOC kurz erklärt: Die MOC bringt warmes Oberflächen-Wasser aus den Tropen in hohe nördliche Breiten, die sich in der Folge erwärmen. Das kalte Wasser fließt in der Tiefe zurück, was eine wirklich große Zirkulation bildet. Wird diese Zirkulation gestört, fließt mehr warmes Wasser zur Antarktis und wärmt diese (Die Antarktis weist eine ähnliche großräumige Zirkulation von den Tropen an der Oberfläche und einem kalten Rückfluss in der Tiefe auf), während sich das Nordpolargebiet abkühlt. Man nennt dies die bipolare Wippe.

Wenn man ein extrem großes Fass Süßwasser in den hohen Breiten auskippt, verlangsamt sich die MOC oder kommt ganz zum Stillstand. Dies liegt an der geringeren Dichte des Süßwassers, das nicht absinken kann, was die Zirkulation verlangsamt. Kommt es also in hohen nördlichen Breiten zu massivem Abschmelzen, fließt Süßwasser in den Ozean, was die MOC verlangsamt und die hohen nördlichen Breiten abkühlt, während sich die Antarktis erwärmt. Das jedenfalls zeigen ihre Modelle. Die verfügbaren Daten hinsichtlich der MOC stützen diesen Gedanken; hier folgt Teil d aus ihrer Abbildung 1 – die schwarze Linie kennzeichnet die Proxy-Rekonstruktion:

 

Abbildung 7: Die Einheiten links sind Volumen-Raten des zwischen den Tropen und hohen nördlichen Breiten fließenden Wassers.

Was hat der orbitale Antrieb in den Modellen bewirkt?

Falls wir nochmals ihre Abbildung 1 (unsere Abbildung 2) betrachten, erkennen wir in nichts eine Änderung als Ergebnis der ORB-Simulation. Das Abstract scheint also etwas verwirrend zu sein, wenn ihre Studie zeigt, dass Einstrahlung, sprich die Milankovitch-Theorie, das ist, was die ganze Kette der Ereignisse auslöst. In ihrer Abbildung 2 zeigen sie eine geographische Ansicht der sommerlichen Temperaturänderungen in hohen Breiten und den Polargebieten als Ergebnis der ORB-Simulation. Die initiale Zunahme der Einstrahlung im Frühjahr und Sommer in den mittleren und hohen Breiten der Nordhemisphäre vor 22.000 und 19.000 Jahren war etwa dreimal so hoch wie in der Südhemisphäre (Abbildungen 2a und 2b). Außerdem führt die Abnahme der Oberflächen-Albedo durch das Schmelzen von Schnee auf dem Festland in der Nordhemisphäre zu zusätzlicher Gesamt-Absorption der Sonneneinstrahlung in der NH. Als Konsequenz werden die Sommer der Nordhemisphäre in der ORB-Simulation in der Arktis bis zu 2°C wärmer und bis zu 4°C wärmer in Eurasien, mit einem Gesamt-Mittelwert in der NH von 0,9°C in mittleren und hohen Breiten (Abbildungen 2c und 2e).

In ihrem Modell betrifft dies nicht Grönland (aus mir unverständlichen Gründen). Sie behaupten:

Unsere ORB-Simulation stützt folglich die Milankovitch-Theorie, zeigt sie doch, dass eine substantielle sommerliche Erwärmung in der NH zum Ende des Letzten Glazialen Maximums erfolgte als ein Ergebnis der größeren Einstrahlung im Frühjahr und Sommer in mittleren und hohen Breiten der NH sowie einer größeren Sensitivität der von Landmassen dominierten hohen nördlichen Breiten für den Antrieb durch Einstrahlung aus Schnee-Albedo-Rückkopplungen. Diese orbital induzierte Erwärmung löste möglicherweise den Rückzug der Eisschilde auf der NH aus und half, den Rückzug beizubehalten während des ältesten Dryas.

Analyse

1.Wenn wir die gleiche orbitale Simulation vor 104.000, 83.000 oder 67.000 Jahren laufen lassen (oder auch ein paar anderen Zeiten) – was würden wir bekommen? Hier folgen die Änderungen der Einstrahlung auf 60°N von vor 130.000 Jahren bis heute:

Abbildung 8.

Es ist keineswegs klar, was an dem Zeitraum von vor 21.000 bis 18.000 Jahren hinsichtlich der Einstrahlung so besonders ist. Es ist keine Überraschung, dass ein GCM einen lokalen Temperaturanstieg erzeugt, wenn lokal die Einstrahlung zunimmt.

2. Der in das Modell eingebrachte Schmelzwasser-Impuls ist nicht abgeleitet aus einer Berechnung irgendeiner Eisschmelze als Folge gestiegener Sommertemperaturen über Eisschilden, sondern ein künstlich angebrachter Antrieb. Unter der Bedingung, dass die Eisschmelze die MOC verlangsamt und daher die Temperatur in hohen Breiten abnimmt, sollte die MOC als eine negative Rückkopplung auf jedes Schmelzen von Schnee und Eis agieren.

3. Die Studie von Smith und Gregory (2012) [SG 2012], die wir in Teil IX besprochen haben, zeigt vielleicht andere Auswirkungen durch individuelle Antriebe als jene bei He et al. Weil der Zeitraum von vor 20.000 bis 15.000 Jahren bei Smith und Gregory etwas komprimiert ist, bin ich da nicht sicher. Man betrachte beispielsweise die Auswirkung allein auf Eisschilde während dieser Periode. Bei SG2012 zeigt sich ein deutlicher Effekt (gelb) über Grönland; bei He et al. zeigt sich gar nichts (Abbildung 6 oben)

 

Bildinschrift: Temperaturunterschiede in der Ostantarktis (oben) und Grönland (unten) zur präindustriellen Zeit (Aus Smith & Gregory 2012, Abbildung 9).

Schlussfolgerung

Es ist eine interessante Studie, die zeigt, dass Änderungen der großräumigen Meeresströme zwischen den Tropen und den Polen (die MOC) als Ursache für eine Abkühlung in Grönland und eine Erwärmung in der Antarktis in Frage kommt, was in etwa auf einer Linie mit den Proxy-Aufzeichnungen liegt. Die meisten Beweislinien zeigen, dass ein großräumiges Abschmelzen von Eis ein Faktor ist, der die MOC unterbricht.

Vielleicht waren es Änderungen der Einstrahlung in hohen Breiten, die vor etwa 20.000 Jahren zu einer massive Eisschmelze führten, was die MOC verlangsamte, was wiederum die Antarktis erwärmte, was (durch unbekannte Prozesse) zu einer starken CO2-Zunahme mit einer positiven Rückkopplung auf den Temperaturanstieg und damit dem Ende der letzten Eiszeit führte. Vielleicht nahm das CO2 gleichzeitig mit der Temperatur in der Antarktis zu (siehe den kurzen Abschnitt zur Studie von Parrenin et al. (2013) in Teil XI, was zu der Frage nach Ursache und Wirkung führt.

Um über Klima sinnvoll zu reden, müssen wir verstehen, warum:

a) höhere Einstrahlung in hohen Breiten zuvor nicht zur gleichen Abfolge der Ereignisse geführt hat

b) frühere Temperaturänderungen in der Antarktis nicht die gleiche Abfolge der Ereignisse ausgelöst haben

c)  die in der ORB-Simulation erzeugten Temperaturänderungen ausreichen, um genug Eis schmelzen zu lassen, um die MOC zu verändern (und welche Rückkopplungen dabei auftreten)

Und natürlich müssen wir verstehen, warum das CO2 zum Ende der letzten Eiszeit so stark zugenommen hat.

Link: http://scienceofdoom.com/2014/01/16/ghosts-of-climates-past-twelve-gcm-v-ice-age-termination/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/

Teil X: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-10-global-circulation-models-iv/

Teil XI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xi-das-ende-der-letzten-eiszeit/




Na sowas! Linke „Magazine“im WDR eifern gegeneinander

Fräck ju, Panorama!

Im öffentlich-rechtlichen Bezahlfernsehen geschah unlängst Unerhörtes. Zwei Politmagazine, zwischen die ideologisch normalerweise keine Telefonbuchseite passt, kabbelten sich über das so genannte Fracking. Beim Fracking handelt es sich um eine in den USA weit fortgeschrittene Technologie der Schiefergasgewinnung aus großen Tiefen. Sie hat dafür gesorgt, zusammen mit anderen Umständen, dass trotz des Chaos im Nahen Osten und in der Ukraine Öl und Gas derzeit nicht teurer, sondern etwas billiger werden. Daher gibt es gegen das Fracking erbitterten Widerstand aus der grünen Szene. In Deutschland, wo seit 1961 in geringem Umfang gefrackt wird, wollen Energiefirmen jetzt größere Gasmengen fördern. Das geht natürlich gar nicht.

Monitor und Frau Kemfert sagen uns wie es beim Fracking läuft. 

Sämtliche Umweltverbände und viele Medien spielen das Lied vom Tod. Verseuchtes Wasser, einstürzende Neu- und Altbauten, und aus dem Wasserhahn strömt Gas. Rumms! Bude platt. Und das alles wegen Fracking. Doch war es ausgerechnet das für gewöhnlich stramm rotgrüne NDR-Magazin „Panorama“, welches am 4. September einen 11-Minuten-Beitrag sendete, der die deutschen Fracking-Gegner auf die Palme brachte (in „Panorama – Die Reporter“ auf NDR III als halbstündige Version zu sehen). Der Autor stellte in seiner Sendung anhand von Expertenaussagen und Grafiken die meisten Argumente der Fracking-Gegner als wissenschaftlich unhaltbar dar. „Maßlos übertrieben“ würden die Risiken der Schiefergasgewinnung, so Panorama auf seiner Website.

Panorama Sendung vom 2.9.14 über das Fracking

Vor allem entzauberte Panorama den publikumswirksamsten Bluff der Antifracker. Denn das Gas, das im US-Frackinghorrorfilm „Gasland“ aus einem häuslichen Wasserhahn strömte und zur Explosion gebracht wurde, stammte mit großer Sicherheit aus oberfächennahen Erdschichten. Mit Fracking hatte das Ganze nichts zu tun. Panorama ließ sich einen ähnlichen Effekt an einem holländischen Fluss vorführen. Auch in dessen Wasser befinden sich leichtentzündbare Gase. Obwohl weit und breit nicht gefrackt wird.

Einen Monat später sendete das WDR-Magazin „Monitor“ eine Art Gegendarstellung zum Panorama-Bericht. „Es geht um den ganz großen Profit!“ warnte Monitor. Schließlich mische beim Fracking der Energiekonzern Exxon Mobil kräftig mit. Ja, wer denn sonst als ein Konzern, der in Energie macht? Einem Gutachter für das Umweltbundesamt, der bei Panorama die Risiken des Fracking für beherrschbar erklärt hatte, wurden im Monitor-Bericht angebliche frühere Verbindungen zur erdöl- und gasfördernden Industrie angekreidet. Ein Lobbyist also, untauglich als Zeuge?

Dumm nur, dass bei Monitor die allgegenwärtige Prof. Claudia Kemfert gegen Fracking in Stellung gebracht wurde. Eine Frau, die wie Jack aus der Box springt, sobald es gilt, „Erneuerbare Energien“ hochzureden. Kemfert erklärte erwartungsgemäß, man solle sich in Deutschland energiepolitisch doch lieber „auf andere Beine stellen.“ Wie die ausschauen, kann man auf der Homepage der Dame besichtigen. Die bestens vernetzte Frau Kemfert tanzt auf so ungefähr jeder Party, wo Lobbyarbeit für Wind- und Sonnenstrom gemacht wird. Selbstredend wurde sie in Monitor nicht als Lobbyistin vorgestellt, sondern als „führende Energieexpertin“. Soviel zum Stand des Kölner Recherchierjournalismus.

Der Monitor-Beitrag wurde von den Anti-Fracking-Aktivisten beglückt aufgenommen, waren doch durch Panorama hässliche Zweifel an ihren Parolen gesät worden. Besonders ärgerlich, weil die Berichte des NDR-Magazins in rotgrünen Milieus als sakrosankt gelten. Die Gegen-Bulle aus dem Hause WDR wird seit Wochen auf Websites und in den Netzwerken der Anti-Fracking-Front fleißig verlinkt und geteilt. Der Bruderkampf im Hause ARD befördert so nebenbei die Quote von zwei TV-Formaten, deren beste Zeiten längst passé sind.

Wovon in Monitor natürlich nicht die Rede war (übrigens auch bei Panorama nicht): Hinter den bundesweiten, gut geölten Stopp-Fracking-Kampagnen stehen nicht zuvörderst „spontan besorgte Bürger“, die fürchten, ihre Wasserleitungen könnten explodieren oder ihre Häuschen einstürzen. Diese aufrichtig Verängstigten bilden bloß die Barfußtruppen für grüne Ideologen und EEG-Absahner. Letztere rekrutieren geschulte Vortragsredner, die auf Bürgerversammlungen Stimmung gegen das Fracking machen.

„Gasland“, ein unterhaltsamer Agitprop-Streifen in der Tradition von Michael Moore, dient dabei als Türöffner. Der Film wird bei Protestmeetings rituell gezeigt; nie verfehlt er seine Wirkung. Die Legende vom Wasserhahn, aus dem dank Fracking Flammen schossen, ist einfach genial. Wenn es um clever geschürte Naturängste geht, ist Aufklärung sinnlos.

Ob im Fracking tatsächlich eine Chance liegt, Deutschland von Gasimporten unabhängiger zu machen? Darf man wohl bezweifeln. Das Land ist vergleichsweise klein. Überall gibt es Natur- und Wasserschutzgebiete. Wo wäre der Raum für eine Schiefergasrevolution wie in den USA?

Doch offenbar wähnt die Wind- und Solarindustrie ihre Pfründe schon durch den Versuch bedroht, ein paar fossile Quellen anzuzapfen. Der ökoindustrielle Komplex mag keine Konkurrenz, die billigere Energie verspricht. Auch für die grünen Politiker geht es um viel, nämlich um ihr Leuchtturmprojekt: Deutschland als Vorreiter der „Sanften Energien“, an denen die Welt genesen soll.

Für dieses Ziel muss jede Form von Energiegewinnung sabotiert werden, welche nicht auf subventionierten Windrädern, Solarpanelfeldern oder Maisgasfabriken basiert. Würde jemand morgen einen Plan vorlegen, wie man mit Hundescheiße energieautark werden könnte – auch der hätte prompt den Zorn leicht entflammbarer Wutbürger an der Backe.

„Stop Kacking“! Gründe werden sich schon finden.

http://www.ardmediathek.de/tv/Panorama-3/Das-schlechte-Image-von-Fracking/NDR-Fernsehen/Video?documentId=23268100&bcastId=14049184
http://www.youtube.com/watch?v=Bt1dkJGo8SY&sns=em 
http://www.claudiakemfert.de

&




Ozeanversauerung: Der böse kleine Bruder der Klimaerwärmung

Es handelt sich dabei um die nicht ganz unbekannte angebliche “Ozeanversauerung”, die vom AWI  in einer Pressemitteilung vom 8. Oktober 2014 zu einer neuen globalen Gefahr erhoben wurde wurde: einschließlich “dramatischer Auswirkungen” ,”Milliardenkosten” und die Behauptung, dass der pH-Wert heute 10mal schneller sinken würde als in der Vergangenheit. Kein Wort davon, dass die Ozeane tatsächlich keineswegs “sauer”, sondern mit pH-Werten zwischen 7,8 bis 8,1 eindeutig basisch sind. Das ist eine klare Verfälschung wissenschaftlicher Fakten (die Bürger werden es wohl schon nicht merken). Wenn überhaupt, dann handelt es sich objektiv gesehen um eine Verringerung der Alkalizität und hat mit einer “Versauerung” nichts zu tun, die erst unterhalb von 6,9 beginnen würde.

Abbildung rechts: CO2-Anteil in der Atmosphäre in den letzten 300 Millionen Jahren (Retallack) – ganz ohne anthropogenen Einfluss

Dabei ist die Behauptung der angeblichen pH-Wert-Reduzierung eine nicht minder unseriöse Behauptung. Denn es gibt kein globales pH-Messnetz, das es erlauben würde, eine solche Behauptung zu belegen. Lokale Messreihen zeigen eine Schwankung der pH-Werte um +/- 0,1 Punkte. Belegt ist jedoch die Tatsache, dass in der Erdgeschichte zu 90% der Zeit die CO2-Anteile in der Atmosphäre wesentlich höher waren als die bescheidenen 400 ppm von heute. Der Durchschnitt der letzten 300 Millionen Jahre lag bei 2000 ppm (siehe das Diagramm von Retallack, das auf der Veränderung der Stomata-Öffnungen von Gingko-Pflanzen basiert). Weder das wesentliche höhere CO2-Niveau der Erdgeschichte, noch die Maxima bis zu 6000 ppm haben eine “Versauerung der Ozeane” bewirkt.  Wenn die Behauptungen über einen schädlichen Einfluss auf die Korallen stimmen würden, hätten die Korallen schon vor vielen Millionen Jahren mehrfach aussterben müssen.

Wo sollte auch heute eine Versauerung herkommen? Es wird die CO2-Aufnahme von ca. 11 Gt CO2 (ein Drittel der anthropogenen Emissionen) in die Ozeane angenommen, aber ignoriert, dass mindestens die gleiche Menge (es gibt auch Schätzungen bis 20 Gt CO2 pro Jahr) als CaCO3 am Meeresboden abgelagert werden. Der komplette CO2-Kreislauf in den Ozeanen ist alles andere als bekannt: Grosse Mengen an CO2entstammen den hunderten von Unterwasser-Vulkanen entlang der tektonischen Plattengrenzen; ohne diesen Nachschub ist die Deckung des großen CO2-Bedarfs der Unterwasser-Vegetation (angeblich mehr als auf dem Festland) nicht vorstellbar. Die minimalen pH-Werte treten auch nicht etwa an der Oberfläche auf, wie dies bei einem atmosphärischen Einfluss der Fall sein müsste (und so im IPCC-Bericht fälschlicherweise angenommen), sondern in ca. 1000 m Tiefe.

An der Oberfläche werden die niedrigsten pH-Werte nur in den Bereichen gemessen, wo Tiefenströmungen an die Oberfläche kommen. Die CO2-Aufnahme aus der Atmosphäre, die angeblich eine “Versauerung” verursachen soll, muss auch im Zusammenhang mit der Gesamtmenge von etwa 39.000 Gt CO2 gesehen werden, die in den Ozeanen gelöst sind. Da sind ca. 11 Gt CO2 pro Jahr gerade einmal 0,028 % !  Da kann bereits der natürliche Einfluss der jährlichen ENSO-Aktivität und der Meeresströmungen mit Temperaturänderungen wesentlich größer sein.

Hoffen wir, dass der vom AWI gezeugte “kleine böse Bruder” bald wieder in der Versenkung verschwindet und die Forschung auf dem Gebiet der Ozeanforschung wieder seriös wird.

Der Beitrag erschien zuerst auf Die kalte Sonne hier