Neue Studie: Temperaturrückgang um 1°C bis 2020 infolge der geringen Sonnenaktivität

Zentrale Punkte

• Ein längerer Sonnenzyklus zeigt niedrigere Temperaturen im darauf folgenden Zyklus an.

• Ein Temperaturrückgang um 1°C oder mehr wird im Zeitraum 2009 bis 2020 für bestimmte Gebiete vorhergesagt.

• Die Sonnenaktivität kann 40% oder mehr zur Erwärmung bis zum Ende des vorigen Jahrhunderts beigetragen haben.

• Eine Verzögerung von 11 Jahren ergibt eine maximale Korrelation zwischen der Länge eines Sonnenzyklus‘ und der Temperatur.

Die Autoren zeigen auch, dass die „Sonnenaktivität 40% oder mehr zur Erwärmung zum Ende des vorigen Jahrhunderts beigetragen haben kann“ und „an 3 Stationen im Nordatlantik zeigt sich ein solarer Beitrag von 63% bis 72% zum Temperaturanstieg der letzten 150 Jahre. Dies weist darauf hin, dass die Strömungen im Atlantik ein solares Signal verstärken“.

Ko-Autor der Studie ist der Geowissenschaftler Dr. Ole Humlum, der in einer früheren Studie nachgewiesen hatte, dass das CO2-Niveau der Temperatur auf kurzfristiger Basis hinterher läuft und dass CO2 nicht der Treiber der globalen Temperatur ist (hier).

Die Studie:

Der lange Sonnenflecken-Zyklus 23 sagt eine signifikante Abkühlung während des Zyklus‘ 24 voraus (hier)

Jan-Erik Solheim, Kjell Stordahl, Ole Humlum DOI: 10.1016/j.jastp.2012.02.008

Abstract

Beziehungen zwischen der Länge eines Sonnenflecken-Zyklus’ und der mittleren Temperatur im gleichen und dem darauf folgenden Zyklus werden für eine Anzahl von meteorologischen Stationen in Norwegen und dem Nordatlantik berechnet. Zwischen der Länge eines Zyklus‘ und der mittleren Temperatur im gleichen Zyklus konnte kein signifikanter Trend gefunden werden. Sehr wohl aber zeigte sich ein signifikanter negativer Trend zwischen der Länge eines Zyklus‘ und der mittleren Temperatur im darauf folgenden Zyklus. Dies stellt ein Tool zur Verfügung, um eine mittlere Temperaturabnahme von mindestens 1,0°C vom Zyklus 23 zum Zyklus 24 an den analysierten Stationen und Gebieten vorherzusagen. Für die untersuchten norwegischen lokalen Stationen fanden wir, dass 25% bis 56% der Erwärmung der letzten 150 Jahre der Sonne zugeordnet werden kann. Für 3 nordatlantische Stationen zeigt sich sogar ein Beitrag von 63% bis 72%. Dies deutet darauf hin, dass atlantische Strömungen ein solares Signal verstärken.

Introduction

Der Frage nach einer möglichen Beziehung zwischen der Sonnenaktivität und dem Erdklima ist während der letzten 200 Jahre bedeutende Aufmerksamkeit zuteil geworden. Perioden mit vielen Sonnenflecken und Protuberanzen korrespondieren mit Perioden höherer Einstrahlung im sichtbaren Spektralbereich und sogar noch stärkerer Beeinflussung im Ultraviolett, welches auf die Ozonschicht einwirkt. Es wird auch gezeigt, dass galaktische kosmische Strahlen als Kondensationskerne für Wolken fungieren können. Dies kann ein Link sein zwischen Variationen der Wolkenbedeckung und der Sonnenaktivität, da mehr kosmische Strahlen das Magnetfeld der Erde durchdringen, wenn die Sonnenaktivität gering ist. Eine Übersicht über mögliche Verbindungen zwischen der Sonne und dem Erdklima findet sich bei Gray et al. (2010).

Auf der Grundlage einer starken Korrelation zwischen der Entstehungsrate kosmogenischer Nukleide 14C und 10Be sowie Proxys aus den Strömungen des Meereises kamen Bond et al. (2001) zu dem Ergebnis, dass extrem schwache Durchdringungen des Outputs der Sonnenenergie im Zeitscale von Jahrzehnten und Jahrtausenden eine starke Reaktion des Klimas in der Tiefsee des Nordatlantik (NADW) zur Folge haben. Dies beeinflusst die globale thermohaline Zirkulation und das globale Klima. Die mögliche Beziehung zwischen Sonne, Ozean und Klima kann in Temperaturreihen aus dem Gebiet des Nordatlantik hervorgehen. Da der Ozean mit seiner großen Wärmekapazität gewaltige Wärmemengen speichern und transportieren kann, ist eine zeitliche Verzögerung zwischen der Sonnenaktivität und einer Zunahme der Lufttemperatur zu erwarten. Eine beobachtete Zeitverzögerung gibt uns die Möglichkeit für eine Vorhersage, was die Grundlage dieser Untersuchung ist.

Beim Vergleich der Sonnenflecken-Zahlen und der Temperaturanomalien auf dem Festland der Nordhemisphäre haben Friis-Christensen and Lassen (1991) ein ähnliches Verhalten zwischen der Temperatur und den Sonnenflecken-Zahlen von 1861 bis 1990 bemerkt, aber es schien, als ob die Sonnenflecken-Zahl R der Temperatur-Anomalie vorausläuft. Sie fanden eine viel bessere Korrelation zwischen der Länge eines Sonnenzyklus‘ (SCL) und der Temperatur-Anomalie. In ihrer Studie haben sie einen Mittelwert der SCL verwendet, der über 5 Zyklen nach der Methode 1-2-2-2-1 geglättet worden ist. Sie korrelierten die Temperatur während des zentralen Sonnenflecken-Zyklus‘ des Filters mit diesem geglätteten, gewichteten Mittel für einen SCL. Grund für die Auswahl dieser Art Filterung war, dass er traditionell bei der Beschreibung langfristiger Trends der Sonnenaktivität verwendet worden ist. Allerdings ist es überraschend, dass die Temperatur nicht in der gleichen Weise geglättet wurde. In einer Folgestudie kamen Reichel et al. (2001) zu dem Ergebnis, dass die richtige Ursache-Wirkung-Reihenfolge im Sinne der Granger-Kausalität [?] in der geglätteten SCL und der mittleren Temperaturanomalie während eines Zyklus‘ gegenwärtig ist, und zwar für die Festlands-Temperatur auf der Nordhemisphäre im 20. Jahrhundert mit einem Signifikanz-Niveau von 99%. Dies zeigt, dass ein physikalischer Mechanismus existiert, der die Sonnenaktivität mit Klimavariationen in Zusammenhang bringt.

Die Länge eines Sonnenzyklus’ wird definiert durch das Erscheinen des ersten  Sonnenflecks in einem Zyklus auf einer hohen solaren Breite bis zum Verschwinden des letzten Flecks im gleichen Zyklus nahe dem Sonnenäquator. Bevor jedoch der letzte Fleck eines Zyklus‘ verschwindet, zeigt sich bereits der erste Fleck des folgenden Zyklus‘ in hohen Breiten, wobei es normalerweise zu einer Überlappung von zwei Jahren kommt. Die Zeit des Minimums wird definiert als der Mittel-Zeitpunkt der Überlappung zwischen den beiden Zyklen (Waldmeier, 1939), und die Länge eines Zyklus‘ kann gemessen werden zwischen aufeinanderfolgenden Minima oder Maxima. Die neueste Beschreibung, wie man die Zeit des Minimums berechnen kann, stammt von NGDC (2011): „Wenn es die Beobachtungen zulassen, kann ein Datum, dass entweder als Minimum- oder Maximum-Zeitpunkt eines Zyklus‘ gewählt worden ist, teilweise basiert werden auf ein Mittel der Zeitpunkte, an denen die monatliche mittlere Sonnenflecken-Zahl ein Extrem erreicht und auf die mittlere monatliche Anzahl von Sonnenflecken-Gruppen allein. Zwei weitere Messungen werden zur Zeit des Sonnenflecken-Minimums verwendet: Die Anzahl der Tage ohne Sonnenflecken und die Häufigkeit des Auftretens von Sonnenflecken des alten und des neuen Zyklus‘ gleichzeitig“.

Lange Zeit hatte man gedacht, dass das Auftauchen eines Sonnenzyklus’ lediglich eine zufällige Sache war, was bedeutet, dass Länge und Amplitude eines jeden Zyklus’ unabhängig vom jeweils vorigen waren. Allerdings zeigte Dicke (1978), dass im Inneren der Sonne ein interner Chronometer existieren muss, der nach einer Reihe kürzerer Zyklen wieder längere Zyklen auslöst, so dass das Mittel der 11,2 Jahre beibehalten wird.  Richards et al. (2009) analysierten die Länge der Zyklen von 1610 bis 2000 mit Hilfe von Median-Trace-Analysen [?] der Zykluslängen und Analysen des Energiespektrums der O-C-Restgrößen der Zeitpunkte von Sonnenflecken-Maxima und –Minima. Sie identifizierten eine Periode von 188 ± 38 Jahren. Sie fanden auch einen Zusammenhang zwischen langen Zyklen und Minima der Fleckenzahlen. Ihre Studie zeigt, dass die Länge von Sonnenflecken-Zyklen während der nächsten ~75 Jahre graduell zunehmen müsste, begleitet von einer graduellen Abnahme der Sonnenflecken-Zahlen.

Eine Autokorrelations-Studie von Solanki et al. (2002) zeigte, dass die Länge eines Sonnenzyklus‘ ein guter Prädiktor für die maximale Sonnenfleckenzahl (Rmax) im folgenden Zyklus ist, und zwar in dem Sinne, dass kurze Zyklen hohe Rmax und lange Zyklen niedrige Rmax prognostizieren. Sie erklären dies mit dem Sonnendynamo, der sich die Länge des vorangegangenen Zyklus‘ merkt.

Unter der Annahme einer Relation zwischen der Sonnenfleckenzahl und der globalen Temperatur könnte die profane periodische Änderung einer SCL auch korrelieren mit der globalen Temperatur, und solange wir uns auf dem aufsteigenden (oder absteigenden) Ast der 188-Jahres-Periode befinden, können wir ein wärmeres (oder kälteres) Klima vorhersagen.

Auch wurde gezeigt (Friis-Christensen and Lassen, 1992Hoyt and Schatten, 1993 und Lassen and Friis-Christensen, 1995), dass die Korrelation zwischen SCL und Klima möglicherweise seit Jahrhunderten aktiv ist. Eine statistische Untersuchung von 69 Sätzen von Baumringen, die über 594 Jahre abdeckt, und SCL zeigte, dass dickere Baumringe (bessere Wachstumsbedingungen) in Verbindung standen mit kürzeren Sonnenflecken-Zyklen (Zhou and Butler, 1998).

Die Relation zwischen der geglätteten SCL und der Temperatur funktionierte sehr gut, solange die SCL abnahm, wie in Abbildung 1 gezeigt. Aber zum Ende des kurzen Zyklus‘ 22 haben Thejll and Lassen (2000) von einer sich entwickelnden Inkonsistenz gesprochen. Um die hohen Temperaturen zur Jahrtausendwende zu erklären, musste der noch nicht beendete Zyklus 23 kürzer als 8 Jahre sein, was sehr unwahrscheinlich war, weil noch nie zwei derartig kurze Zyklen nacheinander beobachtet worden sind (siehe Abbildung 1). Sie schlossen daraus, dass die Art Sonnentreiber wie von diesem SCL-Modell beschrieben die Temperaturänderung nicht mehr so stark dominiert. Die endgültige Länge des Zyklus‘ 23 betrug schließlich 12,2 Jahre; die Diskrepanz wurde sogar noch größer.

Abbildung 1: Länge von Sonnenzyklen (invers) 1680 bis 2009. Der letzte Punkt bezieht sich auf den Zyklus 23, der 12,2 Jahre lang war. Die graduelle Abnahme der Länge von Sonnenzyklen wird mit einer geraden Linie dargestellt.

Schlussfolgerungen

Signifikante lineare Relationen wurden gefunden zwischen der mittleren Lufttemperatur während eines Sonnenzyklus’ und der Länge des vorangegangenen Zyklus’ (PSCL) für 12 von 13 Stationen in Norwegen und im Gebiet des Nordatlantik. An neun dieser Stationen wurde keine Autokorrelation auf dem 5%-Signifikanz-Niveau in den Restgrößen gefunden. An vier Stationen war der Autokorrelationstest unbestimmt, aber die Signifikanz der PSCL-Relationen erlaubte Vorhersagen für drei dieser Stationen mit einem Vertrauensniveau von 95%. Signifikante Relationen fanden sich auch hinsichtlich der gemittelten Temperaturen für Norwegen, die Temperaturanomalie an 60 europäischen Stationen sowie für die Temperaturanomalie bei HadCRUT3N. Die Temperaturen für Norwegen und dem Mittel von 60 europäischen Stationen zeigten indifferente oder gar keine Autokorrelationen in den Restgrößen. Die HadCRUT3N-Reihen zeigten signifikante Autokorrelationen in den Restgrößen.

Für die mittleren Temperaturen von Norwegen und die 60 europäischen Stationen liegt der solare Beitrag zu Temperatur-Variationen im untersuchten Zeitraum in einer Größenordnung von 40%. Ein sogar noch höherer Beitrag (63% bis 72%) wurde an den Stationen Färöer-Inseln, Island und Svalbard gefunden. Das ist höher als die 7% solarer Beitrag zum globalen Temperaturanstieg, der im AR 4 des IPCC genannt worden ist. Etwa 50% der Temperaturvariationen im HadCRUT3N-Datensatz seit 1850 kann der Sonnenaktivität zugeordnet werden. Allerdings ist diese Schlussfolgerung unsicherer wegen der in den Restgrößen gefundenen starken Autokorrelationen.

Die signifikanten linearen Relationen zeigen eine Verbindung zwischen der Sonnenaktivität und den Temperaturvariationen für die untersuchten Stationen und Gebiete. Ein Regressionsmodell auf der Grundlage der Relation zwischen PSCL und der mittleren Lufttemperatur wird verwendet, um die Temperatur im begonnenen Zyklus 24 vorherzusagen. Dieses Vorhersagemodell hat im Gegensatz zur Mehrheit der anderen Regressionsmodelle mit erläuternden Variablen den Vorteil, eine erläuternde Variable – die Länge eines Sonnenzyklus‘ – fast ohne Unsicherheiten zu verwenden. Normalerweise müssen die erläuternden Variablen vorhergesagt werden, was natürlich signifikante zusätzliche Unsicherheiten bei der weiteren Vorhersage zur Folge hätte.

Unsere Vorhersage zeigt eine mittlere Abkühlung von 0,9°C in der Nordhemisphäre während des Zyklus’ 24. Für Messungen der Stationen südlich von 75°N liegt der Temperaturrückgang in der Größenordnung 1,0°C bis 1,8°C und kann auch bereits begonnen haben. Für Svalbard wird eine Temperaturabnahme der jährlichen Mitteltemperatur während des Zyklus‘ 24 um 3,5°C vorhergesagt. Eine sogar noch stärkere Abkühlung wird für die Wintermonate vorhergesagt (Solheim et al., 2011).

Die arktische Verstärkung infolge von Rückkopplungen durch Änderungen der Schnee- und Eisbedeckung hat die Temperatur nördlich von 75°N um den Faktor 3 stärker zunehmen lassen als südlich  von 60°N (Moritz et al., 2002). Eine Abkühlung der Arktis könnte hinsichtlich einer globalen Abkühlung in gleicher Weise wirken, was zu einer geringeren globalen Abkühlung während des solaren Zyklus‘ 24 führen würde, und zwar um 0,3°C bis 0,5°C.

Unsere Studie hat sich auf einen Effekt konzentriert, der eine Sonnenzyklus-Länge verzögert auftritt, um ein Modell zur Vorhersage zu entwickeln. Da sich der solare Antrieb des Klimas in vielen Zeitmaßstäben zeigt, behaupten wir nicht, dass unser Ergebnis ein komplettes Bild des solaren Antriebs unseres Erdklimas vermittelt.

Link: http://wattsupwiththat.com/2014/06/13/new-study-suggests-a-temperature-drop-of-up-to-1c-by-2020-due-to-low-solar-activity/

Übersetzt von Chris Frey EIKE




Russlands geheime Waffen im Energiekrieg mit Europa

Mit der endlich geleisteten Unterschrift der Ukraine für ein „Partnerschaftsabkommen“ mit der EU scheint Russlands Umklammerung der Ökonomien der Region geschwächt. Aber das bedeutet noch lange nicht, dass es in seinen Versuchen nachlässt, die Ökonomien dieses Gebietes zu beeinflussen.

Der in Brüssel unterschriebene EU-Vertrag schiebt die ex-sowjetische Ökonomie näher an den Westen, was den Weg bereitet für finanzielle Unterstützung aus Europa und einen gewaltigen Markt für dessen Produkte. Die hoch verschuldete neue ukrainische Regierung braucht dringend frisches Geld. „Der Vertrag bedeutet neue Investitionen, neue Regeln ohne Korruption und neue Märkte, den größten Markt der Welt“, sagte der neue ukrainische Präsident Petro Pereschenko, ein im vorigen Monat gewählter Milliarden schwerer Schokoladen-Tycoon, nach der Unterzeichnungs-Zeremonie. Aus genau diesem Grunde könnte Russland seine Schlacht um den Erhalt seines Einflusses über die früheren Verbündeten verstärken – einschließlich der Versuche, Europas Abhängigkeit von den riesigen Energie-Ressourcen Russlands zu erhalten.

Dem Wirtschaftsminister der Ukraine Pavlo Sherementa zufolge macht sich das Land schon jetzt gefasst auf russische Vergeltungsmaßnahmen einschließlich der möglichen Blockierung von Exporten und Preisanhebungen. Vor Reportern sagte er kürzlich: „Wir müssen davon ausgehen, schon bald in einen Handelskrieg mit Russland einzutreten“.

Aber selbst unabhängig von einem Handelskrieg ist die Schlacht um ein anderes grundlegendes Thema – Energieabhängigkeit – bereits in vollem Gange.

Die Art und Weise, mit der Russland versucht, die Energieabhängigkeit Europas von Russland zu erhalten, kam vor Kurzem ans Tageslicht, und zwar aus einer unwahrscheinlichen Quelle, nämlich von NATO-Generalsekretär Anders Fogh Rasmussen. Der normalerweise unauffällige Däne, der sich nur selten zu Energiethemen äußert, sagte der in London ansässigen Denkfabrik Chatham House am 19. Juni (hier), dass Russland still und leise einige europäische Anti-Fracking-Umweltaktivisten unterstützt, um Europa daran zu hindern, der Schiefergas-Revolution in den USA zu folgen – und in der Folge den Kontinent von Russland abhängig bleiben zu lassen. Rasmussen behauptete, dass die NATO-Verbündeten die russische Manipulation auf frischer Tat ertappt hätten, und zwar durch „ausgeklügelte Informations- und Desinformations-Kampagnen“ innerhalb der gut organisierten europäischen Anti-Fracking-Gruppen.

Umweltaktivisten waren empört über Rasmussens Vermutung, dass Russland ihre Sache übernommen habe. „Man muss sich fragen, auf welchem Planeten er lebt“, sagte der Greenpeace-Campaigner Ben Ayliffe, der Leiter der Kampagne, Ölunternehmen daran zu hindern, in der Arktis zu bohren. Er verwies darauf, dass Russland jüngst zahlreiche Greenpeace-Aktivisten verhaftet habe. „Zu sagen, dass der Kreml uns in die Tasche steckt, ist absurd“.

Jedoch ist die Aussage, dass Russland danach trachten könnte, Anti-Fracking-Gruppen zu sponsern, Energiepolitik-Experten zufolge nicht ganz so absurd wie sie klingt.

Russland hat seine Gasexporte nach Europa lange als einen grundlegenden politischen Hebel betrachtet. Jedes Jahr gibt das Land Millionen aus, um westliche Regierungen hinsichtlich ihrer Energiepolitik zu beeinflussen. Gazprom allein wandte im vorigen Jahr 6 Millionen Dollar für Lobbyisten in Washington auf. Im Mai stoppte Russland seine Gaslieferungen an die Ukraine, transportieren doch Pipelines durch das Land das Gas nach Westeuropa. Begründet wurde der Lieferstopp mit der Behauptung, dass Kiew Milliarden Schulden bei Gazprom hat. Ein noch bedeutenderer Grund ist jedoch eine Vergeltungsmaßnahme für die Entscheidung der Ukraine, das Abkommen mit der EU zu unterzeichnen. Etwa 60% des von der Ukraine verbrauchten Gases stammt aus Russland, und im April hat Gazprom seine Preise für Exporte in die Ukraine um gewaltige 80% erhöht.

Aber es scheint so, als ob Russland auf subtilere Art versucht, Druck auf andere Nachbarländer auszuüben – vor allem auf jene, die EU-Mitglied sind. Forscher glauben, dass Russland tatsächlich Anti-Fracking-Kampagnen gesponsert hat, wenngleich in moderaten Mengen, die für sich genommen nicht ausreichen, die Meinung der Regierungen hinsichtlich des hydraulischen Brechens zu ändern. Nehmen wir zum Beispiel Bulgarien. Dort haben Energie-Analysten herausgefunden, dass die Russen verschiedene lokale Umweltgruppen finanziell gefördert haben.

Bulgarien, das ärmste EU-Mitglied mit geschätzten Schiefergas-Reserven von 17 Billionen Kubikfuß [?] hat im Jahre 2011 einen Schiefergas-Ausbeutungsvertrag mit Chevron unterschrieben, das Abkommen jedoch ein Jahr später aufgekündigt, nachdem lokale Umweltgruppen gegen die Pläne von Chevron protestiert hatten – und noch bevor das Unternehmen mit der Arbeit überhaupt begonnen hatte.

„Einige der hier aufgetauchten lokalen Umweltgruppen sind plötzlich sehr ängstlich geworden hinsichtlich Fracking und der Verschmutzung von Grundwasser“, sagte Andreas Goldthau, ein deutscher Energiepolitik-Experte, der gegenwärtig Dozent des Belfer Center for Science and International Affairs von Harvard ist und der Dutzende Politiker und Umweltaktivisten in Bulgarien interviewt hat, und zwar für eine Forschungs-Studie über die Energie-Kämpfe des Landes, die im Juni veröffentlicht wurde.

„Sie alle wurden offensichtlich von Russland finanziell gefördert, aber die Frage lautet, in welchem Umfang? Selbst wenn man eine noch rauchende Waffe findet, könnte man einfach einen 1000-Dollar-Scheck finden“.

Full story

Link: http://www.thegwpf.org/russias-secret-weapons-in-the-energy-war-with-europe/

Übersetzt von Chris Frey EIKE




Die Kernenergie ist wieder da

Normal 0 21 false false false DE JA X-NONE

Es ist genau drei Jahre her: Um 12.18 Uhr am Donnerstag, 30. Juni 2011, war es so weit: Bundestagspräsident Lammert bat die Abgeordneten zur Abstimmung per Handzeichen über die Novelle des Atomgesetzes und verkündete daraufhin: “Der Gesetzentwurf ist mit den Stimmen der vier Fraktionen CDU/CSU, FDP, SPD und Grünen angenommen.” Deutschland hatte den Atomausstieg beschlossen. Die politische Klasse in Berlin war sich sicher – die Welt werde diesem Beispiel folgen. Tatsächlich aber passiert genau das Gegenteil.

Vor allem das neue Großmächte-Quartett (Brasilien, Russland, Indien und China) setzt massiv auf Atomenergie. In China sind nach Angaben der Internationalen Atomenergiebehörde (IAEA) derzeit 29 neue Kernkraftwerke im Bau. Russland hat mit der Errichtung von zehn neuen Atomkraftwerken begonnen, in Indien werden bald sechs neue Meiler installiert sein. Der frisch gewählte indische Premierminister Narendra Modi erklärt: “Kernkraft wird ein Eckstein der indischen Energieversorgung.”

Doch nicht nur die aufstrebenden Wirtschaftsgroßmächte investieren massiv, immer mehr Länder entscheiden sich für den Neu-Einstieg, darunter die Türkei, Bangladesch, Ägypten, Jordanien, Nigeria und Vietnam. Selbst die Vereinigten Arabischen Emirate haben mit dem Bau eines Atomkraftwerks begonnen, ebenso Weißrussland und Finnland. Und rechtzeitig zur Fußball-WM meldet auch Argentinien den Spatenstich für ein neues Kernkraftwerk. Brasilien baut zwischen den Metropolen Rio de Janerio und Sao Paolo die Anlage “Angra dos Reis” am Atlantik. Auch die großen Bestände in Frankreich und den USA werden ausgeweitet. Der IAEA-Generaldirektor resümiert, die Kernenergie sei wieder ein globaler Wachstumsmarkt. Insgesamt seien weltweit 72 Kernkraftwerke neu im Bau; sie würden die bestehenden 435 Meiler massiv ergänzen……

Weiterlesen bei ACHGUT…




Wer erzeugt die „Wärmestrahlung“ und wer die „Lichtstrahlung“?

Materie ist energiegeladen, bewegte Atome erzeugen Wärmestrahlung

Alle Materie ist aus Atomen zusammensetzt. Diese sind in ständiger Bewegung. Es gibt kein Atom im Universum, das keine Wärme abgibt. Mag diese Wärme auch noch so winzig sein, sie ist doch niemals gleich null. William Thomson (1824-1907), der spätere Lord Kelvin, ist der Frage nachgegangen, bei welcher Temperatur jedwede Atombewegung erlischt und alle Atome sich in absoluter Ruhe befinden. Er fand heraus, dass alle Gase sich bei 1 Grad Temperaturänderung um den 273,2-ten Teil ihres Volumens ausdehnen oder zusammenziehen. Daraus folgerte er, dass es einen absoluten Temperatur-Nullpunkt gibt, bei -273,2° Celsius (O Kelvin). Bei dieser Temperatur ist der Wärmegehalt eines Stoffes, seine Energie, gleich null. Es ist zu vermuten, dass bewegte Atome die Quelle aller elektromagnetischen Strahlung sind. Die Atome enthalten Wärme. Wärme ist nichts anderes als die Bewegungsenergie der Atome und Moleküle. In festen Körpern ist es die Bewegungsenergie der Atome innerhalb eines Atomgitters.

Wärme ist die kinetische Energie der Molekülbewegung  und somit die Temperatur der Luft aus der kinetischen Gastheorie gemäß der Maxwell-Boltzmann-Verteilung berechenbar. Bei einem Luftgemisch von 80% Stickstoff (N2) und 20% Sauerstoff (O2) ergibt sich eine mittlere Molekül-Geschwindigkeit von etwa 500 m/sec. Ein leichtes Wasserstoffmolekül (H2) hätte eine mittlere Geschwindigkeit von etwa 1900 m/sec. Schwerere Gasteilchen wie CO2 besitzen ob des größeren Molgewichts bei gleicher Temperatur eine wesentlich geringere Geschwindigkeit. Sie reduzieren die mittlere Geschwindigkeitsverteilung, wirken folglich kühlend.

Wärme tritt überall dort auf, wo Atome vorhanden sind, also Materie. Jeder materielle Körper hat ein Gewicht, ist schwer. Das Gewicht wird verursacht durch das Schwerkraftfeld der Erde. Die Schwer- oder Gravitationskraft ist eine „Elementarkraft“, die zum Erdmittelpunkt gerichtet ist. Sie nimmt nach außen mit dem Quadrat der Entfernung ab. Daher hat jeder Körper auf der Erdoberfläche eine potenzielle Energie. Hebt man eine Kugel hoch, so erhöht man deren potenzielle Energie, die beim Fallenlassen in kinetische Energie gewandelt wird. Rollt eine Kugel auf einer waagerechten Fläche, so verliert sie nach und nach ihre Bewegungsenergie. Das Rollen der Kugel ist mit Reibung verbunden. Diese erhöht die Temperatur, erzeugt Wärme. Derartige Roll- oder Trittspuren geben die Wärme als langwellige Wärmestrahlung ab. Diese ist für das menschliche Auge nicht sichtbar, aber sehr wohl für das infrarotsensible Auge einer Klapperschlange, die auf diese Weise in aller Ruhe Mäuse ortet, verfolgt und verschlingt.

Führt man einem Stoff, etwa einem Stück Eisen, Energie zu, dann erwärmt es sich und ab einer bestimmten Temperatur kann man mit der Haut die Wärmestrahlung spüren. Deren Reichweite ist jedoch gering, vergrößert sich aber mit zunehmender Erhitzung. Erhitzt man das Eisenstück weiter, dann fängt es irgendwann schwach rötlich zu glühen. Bei weiterer Erhitzung geht die Rotglut in Gelbglut und schließlich Weißglut über. Das Eisen sendet nun nicht mehr nur unsichtbare infrarote Wärmestrahlung aus, sondern auch sichtbares Licht. Mit der Zunahme der Temperatur verschiebt das Maximum der abgestrahlten Energie in immer kürzere Wellenlängenbereiche. Es ist wie bei der Sonnenstrahlung, wo der Anteil der unsichtbaren Wärmestrahlung fast 50% der Gesamtstrahlung ausmacht. Es war Wilhelm Herschel (1738-1822), der im Jahr 1800 die Sonnenstrahlung durch ein Prisma leitete, in die Regenbogenfarben zerlegte und deren Temperaturen maß. Jenseits des Roten entdeckte er die Infrarotstrahlung. Die Gesamtenergie, die ein glühender Stoff abstrahlt, ist stets die Summe aus Wärme- und Lichtenergie.

Wenn auch Energie niemals ausgelöscht werden kann, so erleidet sie bei jeder Umwandlungsstufe einen Qualitätsverlust. Ein Anteil wird zu Wärme. Wenn kein Temperaturgefälle zur Umgebung mehr da ist, dann kann sie keine Arbeit mehr leisten, auch nicht mehr einen Raum heizen. Eine naturgesetzliche Eigenschaft der Wärme ist, dass sie stets vom Heißen zum Kalten fließt, niemals umgekehrt. Alle Materie hat nämlich das Bestreben, den ihr möglichen niedrigsten Energiezustand einzunehmen. Bringt man zwei Körper unterschiedlicher Temperatur zusammen, so wird sich der wärmere abkühlen, bis beide die gleiche Temperatur haben.

Die Wärmeenergie nimmt in der Natur eine Sonderstellung ein. Wärme fließt immer „bergab“, von höherer zu tieferer Temperatur. Das bedeutet: Zum Erwärmen eines Stoffes ist immer Energie nötig. Abkühlen tut er sich von ganz alleine. Aus dieser Beobachtung heraus formulierte Isaac Newton sein berühmtes „Abkühlungsgesetz“. Nur mittels Energiezufuhr kann Wärme Arbeit leisten, d. h. Wasser zum Verdampfen bringen, mit dem Dampf einen Kolben bewegen, somit einen Dynamo in Bewegung setzen und elektrischen Strom erzeugen. Mit diesem Strom kann man einem Raum beleuchten und einen Heizkörper erwärmen. Bei jedem Energieumwandlungsprozess geht ein Teil als Wärmeenergie unwiederbringlich verloren, vermindert sich die Arbeitsfähigkeit der ursprünglich erzeugten Energie.

Licht und Wärme sind beide elektromagnetische Wellen, die nur unterschiedliche Wellenlängen haben. Wärmestrahlung ist langwelliger als Lichtstrahlung, deren Spektrum von 0,4 bis 0,8 µm reicht. Wir Menschen können sie nur deshalb nicht sehen, weil die Nervenzellen unserer Augen auf sie nicht reagieren. Dafür können die Nervenzellen unserer Haut die Wärmestrahlung wahrnehmen, Gewinne wie Verluste registrieren, damit wir uns vor Überhitzung ebenso wie vor Unterkühlung schützen können. Bei Überhitzung fangen wir an zu schwitzen und nutzen die Verdunstungskälte zur Abkühlung der Haut. Bei Unterkühlung ziehen wir „nackte Affen“ Felle an, um den Wärmeverlust des Körpers zu reduzieren.

Nicht das Atom als Ganzes, nur seine Elektronen erzeugen Licht

Licht ist zwar auch elektromagnetische Strahlung, aber es spielt eine ganz besondere Rolle, denn es bildet die Grundlage für alles Leben auf der Erde. Vor allem ist das Licht die Energiequelle bei der Photosynthese. Die Photosynthese ist der Prozess, in dem die grüne Pflanze aus Kohlenstoffdioxid (CO2) und Wasser (H2O) mit Hilfe des grünen Blattfarbstoffs (Chlorophyll) und des Sonnenlichts Kohlenhydrate (C6H12O6, z. B. Zucker, Stärke) und Sauerstoff (O2) produziert. In einem Jahr werden nach vorsichtigen Schätzungen 1010 Tonnen Kohlenstoff durch die Photosynthese fixiert, d. h. in Zucker bzw. Stärke umgewandelt. Diese riesige Menge an Kohlenstoff entspricht der Ladung eines Kohlenzuges, der fünfmal zum Mond und zurück reicht. Jeder Wagen enthalte 25 Tonnen Kohle und sei 10 m lang. Die Entfernung Erde – Mond beträgt 380 000 km. Der Zug hätte eine Länge von 3,8 Millionen km. Die Photosynthese ist der größte Syntheseprozess, den es auf der Erde gibt. Ohne CO2 in der Luft käme er zum Erliegen und mit ihm alles Leben auf der Erde.

Aber wie wird die Entstehung von Licht physikalisch erklärt? Dazu muss man sich das Atom näher ansehen. Bei der Wärme sind es die ganzen aus positiven und negativen Ladungen aufgebauten Atome, die sich bewegen. Die Elektronen verharren auf ihren angestammten Schalen und schwingen mit. Steigt die Wärmezufuhr von außen und beginnt Eisen rot zu glühen, dann ändern die Elektronen plötzlich ihre Energiezustände. Sie verlassen ihre Schale und springen auf eine höhere, weiter außen gelegene Schale. Dies tun sie nicht freiwillig, sie werden durch Energiezufuhr dazu gezwungen. Die Elektronen wollen wieder in ihren Grundzustand und fallen auf die ursprüngliche Schale zurück, wobei sie die aufgenommene Energie als Lichtwelle mit ganz bestimmter Frequenz wieder abgeben. Licht ist eine Art „Fallenergie“ der Elektronen in der Atomhülle.

Man bedient sich bei dieser Beschreibung dem 1913 von Niels Bohr (1885-1962) entworfenen Atommodell. Dieses Modell ist unserem Sonnensystem entlehnt, wo Planeten auf geschlossenen Bahnen die Sonne umkreisen. Atome bestehen danach aus einem schweren, positiv geladenen Kern und leichten, negativ geladenen Elektronen, die in verschiedenen Schalen auf geschlossenen Bahnen den Kern umkreisen. Da die Anziehungskraft des Atomkerns auf die Elektronen mit dem Quadrat der Entfernung abnimmt, werden bei äußerer Energiezufuhr zuerst die äußeren Elektronen Schalensprünge ausführen, denn ihre Bindung an den kern ist am schwächsten. Der Licht-Tanz der Elektronen zwischen den Schalen geht solange weiter, wie dem Atom Wärme zugeführt wird. Wird bei einer glühenden Herdplatte der Strom ausgeschaltet, so kann man zusehen, wie die Rotglut und mit ihm das Licht verschwindet. Es dauert aber noch längere Zeit, bis die Herdplatte soweit abgekühlt ist, dass man sie berühren kann, ohne sich die Finger zu verbrennen. Auch hier zeigt sich, dass die Abkühlung automatisch erfolgt, die Erhitzung aber viel Energie erfordert.

Inzwischen ist die „Theorie der Elektronensprünge“ von Niels Bohr längst überholt. Ab etwa 1925 haben sich quantenmechanische Atommodelle durchgesetzt, die den Elektronen keine Bahnen mehr zuweisen, sondern nur von Aufenthaltswahrscheinlichkeiten sprechen. Unser Verstand wird stark strapaziert, wenn wir begreifen sollen, dass Licht, je nach Experiment, mal als Welle, mal als Teilchen erscheinen kann. Diese mangelnde Eindeutigkeit bzw. Unschärfe der elementaren Materie führte zu der Erkenntnis, dass die Natur im Bereich der Atome nicht mehr eindeutig und dem Menschen verschlossen ist. Werner Heisenberg (1901-1976) hat diese Tatsache der Beobachtungsunschärfe im Quantenbereich als Erster erkannt und als Gesetz formuliert. Er erhielt dafür 1932 den Nobelpreis für Physik. Das menschliche Wissen hat also Grenzen, die die Natur selbst zieht. Die Natur will nicht, dass der Mensch alles über sie weiß. Wenn das für den Ist-Zustand schon gilt, wie viel schwieriger ist es dann, zukünftige Zustände zu berechnen und vorherzusagen? Meteorologen wissen ein Lied davon zu singen!

Spektralanalyse und „Treibhauseffekt“ vertragen sich nicht!

Wenn auch dem Mensch die inneratomaren Vorgänge mit dem „Tanz der Elektronen“ schleierhaft sind, so weiß er doch, dass jede Elementart einen einmaligen Atomaufbau hat, der sie von allen andern Elementen unterscheidet. Jedes Element zeigt beim Erhitzen eine für sie typische Art der Lichtaussendung. Gustav Kirchhoff (1824-1887) und Robert Bunsen (1811-1899) haben im Jahre 1859 die Spektralanalyse entwickelt und dabei erkannt, dass jedes Element in ganz charakteristischen Farben verbrennt. Dieser Umstand ermöglicht es, die genaue Zusammensetzung eines Stoffes zu bestimmen. Man muss den Stoff durch Erhitzen nur in den Gaszustand bringen, wobei jedes im Stoff enthaltene Element ein ganz bestimmtes Farbspektrum zeigt. Dies wird mit dem Spektrographen aufgezeichnet. Jedes Element sendet beim Verbrennen eine bestimmte Anzahl verschiedener Wellenlängen aus und bringt so ein immer gleiches Muster von Spektrallinien hervor, das kein anderes Element mit ihm teilt.

Jedes Element kann an den für es charakteristischen Spektrallinien identifiziert werden, so wie ein Mensch anhand seines Fingerabdrucks. Dies gilt aber nur für Atomgase mit ihren Linienspektren und Molekülgase mit ihren Bandenspektren. Heiße Festkörper zeigen weder Banden noch Linien, sondern fortlaufende kontinuierliche Spektren, die keine Elementbestimmung erlauben. Da jeder feste oder flüssige Körper ein kontinuierlicher Strahler ist, kann die Erde, deren atmosphärische Gase nur ganz selektiv auf ganz bestimmten Wellenlängen Strahlung absorbieren können, nicht an ihrer Abkühlung, der Wärmeabgabe durch Strahlung, gehindert werden.

In dem ganz entscheidenden Temperaturbereich mit Oberflächentemperaturen zwischen -50 und +100° Celsius ist die Atmosphäre transparent oder durchsichtig. Die Erde hat in dem Spektralbereich zwischen 8 und 12 Mikrometer ein „stets offenes Strahlungsfenster“, durch das ihre Wärmestrahlung ungehindert ins Weltall entweichen kann. Es gibt kein Zurück für sie! Keines der „Treibhausgase“ mit seinen stoffspezifischen Absorptionslinien kann dieses „Fenster“ schließen. Die Atmosphäre ist eine Gashülle und keine Glashülle, wie sie bei Gewächshäusern üblich ist. Letztere müssen aus Glas sein, weil zur Photosynthese Sonnenlicht unverzichtbar ist. Ebenso unverzichtbar ist auch das angebliche „Umweltgift“ CO2!

Oppenheim, dim Juni 2014  Dipl.-Met. Dr. phil. Wolfgang Thüne




Stimmt die Behauptung, eine Windturbine amortisiere sich nach 8 Monaten

Amortisierung von Windturbinen

US-Forscher haben eine Abschätzung des Umwelt-Lebenszyklus’ von 2-Megawatt-Windturbinen durchgeführt, die im Rahmen eines großen Windparks im Nordwesten der USA am Pazifik errichtet worden sind. Im International Journal of Sustainable Manufacturing kommen sie zu dem Ergebnis, dass hinsichtlich der kumulierten Energie-Amortisierung oder der Erzeugung der Energiemenge, die die Produktions- und Installationskosten einspielt, eine Windturbine mit einer Lebensdauer von 20 Jahren innerhalb von fünf bis acht Monaten insgesamt einen Vorteil erwirtschaftet, wenn sie online geschaltet ist.

Windturbinen werden oftmals aufdringlich als die Antwort nachhaltiger Stromerzeugung angepriesen, vor allem, wenn damit eine Hochkapazitäts-Speicherung verbunden ist, wenn der Wind zu stark oder zu schwach bläst. Sie bieten eine Energiequelle, die nahezu Null Kohlenstoff-Emissionen aufweist.

Die gekoppelten Kosten des Lebenszyklus’ und die Umwelt-Einschätzung hinsichtlich Energieverbrauch und Emissionen bei Herstellung, Installation, Wartung und ordnungsgemäßem Rückbau scheinen in den Diskussionen für und gegen diese Apparate begrenzt zu sein. „Alle Formen der Energieerzeugung erfordern die Umwandlung des Inputs natürlicher Ressourcen, die mit Umweltauswirkungen und Kosten einhergehen, die quantifiziert werden müssen, um vernünftige Entscheidungen zur Entwicklung von Energiesystemen zu treffen“, erläutern Karl Happala und Preedanood Prempreeda von der Oregon State University in Corvallis.

Das Duo hat eine Abschätzung des Lebenszyklus’ (LCA) von 2-Megawatt-Windturbinen durchgeführt, um die Umwelteinflüsse insgesamt von Herstellung und Gebrauch dieser Apparate zur Stromerzeugung zu identifizieren. Bei einer LCA gehen die Förderung zentraler Rohmaterialien ein (Stahl, Kupfer, Fiberglas, Plastik, Beton und andere Materialien), sowie Transport, Herstellung, Installation der Turbine, durchgehende Wartung während der vorgesehenen 20 Betriebsjahre und schließlich auch die Auswirkungen von Recycling und Entsorgung am Ende dieses Zyklus‘.

Ihre Analyse zeigt, dass die große Mehrheit der vorhergesagten Umweltauswirkungen bei der Herstellung der Materialien und des eigentlichen Herstellungsprozesses auftreten. Allerdings fand das Team, dass die Amortisierung der damit verbundenen Energieerzeugung nach etwa 6 Monaten eintritt. Es ist wahrscheinlich, dass selbst im Worst-Case-Szenario die Windturbine schon im ersten Betriebsjahr Gewinn abwirft. Folglich wird jede Turbine während der 19 folgenden Jahre im Endeffekt über 500 Haushalte mit Strom versorgen, ohne dass diese konventionell erzeugte Energie verbrauchen.

###

Haapala, K.R. and Prempreeda, P. (2014) ‘Comparative life cycle assessment of 2.0 MW wind turbines’, Int. J. Sustainable Manufacturing, Vol. 3, No. 2, pp.170-185.

———————————————————————

Und hier der Fehler, den einige auch einfach das Übersehen eines unbequemen Umstands nennen:

Folglich wird jede Turbine während der 19 folgenden Jahre im Endeffekt über 500 Haushalte mit Strom versorgen, ohne dass diese konventionell erzeugte Energie verbrauchen.

Das Problem hier ist die Hypothese, dass eine Windturbine das Äquivalent eines konventionellen Kohle- oder Kernkraftwerkes ist. Das ist nicht der Fall, wissen wir doch, dass der Wind nie konstant weht:

„Meine größte Angst ist: falls einmal nur 20 Prozent Wind in unserem System weht und er dann zu einer Zeit ganz einschläft, ohne dass man Ersatz-Ressourcen hat – das wird zu einer Blackout-Situation führen“, sagt er.

Falls es keine Backup-Energiequelle für jene 500 Haushalte gibt, würden sie im Dunkeln liegen, wenn der Wind unter ein Minimum fällt, der zum Betrieb der Windturbine erforderlich ist.

Beispiel: eine populäre Windturbine, die Vestas V90-2.0 mit 2 Megawatt nennt in ihren technischen Details:

Durch Eigenbeobachtung kann ich sagen, dass es eine ziemlich große Anzahl von Tagen gibt, an denen der Wind unter dem Level von 4 m/s weht, selbst an der Spitze der Turbine. Heute zum Beispiel gibt es ziemlich viele Gebiete mit geringer Windgeschwindigkeit oder gar Windstille in den USA. Die blauen Bereiche markieren die Gebiete mit geringem Wind:

Quelle

Wie wir oben gesehen haben: Wenn am meisten Strom gebraucht wird, können wir uns nicht immer darauf verlassen, dass der Wind mit einer Stärke weht, die die Windturbine am Leben hält (hier). Notwendig ist also eine andere Energiequelle als Backup. Folglich ist es ein krasser Trugschluss zu behaupten:

Folglich wird jede Turbine während der 19 folgenden Jahre im Endeffekt über 500 Haushalte mit Strom versorgen, ohne dass diese konventionell erzeugte Energie verbrauchen.

Link: http://wattsupwiththat.com/2014/06/16/wind-turbine-payback-period-claimed-to-be-within-8-months/#more-111554

Übersetzt von Chris Frey EIKE




Sonnenflecken und Wassertemperatur

Dr. Shavivs Studie stellt die Behauptung auf, dass sowohl der ozeanische Wärmegehalt als auch die Wassertemperatur SST mit dem etwa 11-jährigen Sonnenzyklus variieren. Obwohl unklar ist, was mit dem Wort „wir“ gemeint ist, wenn er es verwendet, sagt er: „wir zeigen, dass der Gesamt-Strahlungsantrieb in Verbindung mit den Variationen der Sonnenzyklen etwa 5 bis 7 mal größer ist als jener in Verbindung mit Variationen der Gesamt-Einstrahlung TSI. Es ist also ein Verstärkungs-Mechanismus erforderlich, ohne dass wir auf einen bestimmten zeigen“. Da die Daten des ozeanischen Wärmegehaltes sowohl verstreut als auch unvollständig sind, habe ich einmal untersucht, ob die vollständiger vorliegenden Daten der SST Anzeichen des behaupteten Einflusses der Sonnenzyklen zeigen.

Anfangen möchte ich mit dem, was Shaviv im Jahre 2008 über die Behandlung der Daten sagte:

„Vor der Ableitung des globalen Wärmeflusses aus dem beobachteten ozeanischen Wärmegehalt muss man detaillierter die von uns verwendeten verschiedenen Datensätze untersuchen, um noch besser deren Grenzen zu verstehen. Da wir sie miteinander vergleichen wollen, beginnen wir mit der Erstellung vergleichbarer Datensätze mit gleicher Auflösung und zeitlicher Länge. Wir packen also höher aufgelöste Daten in Ein-Jahres-Körbe und beschneiden alle Datensätze auf den Zeitraum 1955 bis 2003“.

Ich vermute, dass sie 1955 deswegen als Startpunkt ihrer Daten benutzt haben, weil die Daten des ozeanischen Wärmegehaltes ab 1955 vorliegen. In ihrer Studie verwenden sie den HadISST-Datensatz, also die „Ice and Sea Surface Temperature“-Daten. Also ging ich zur wunderbaren KNMI-site und habe diese Daten von dort mit den Daten zu den Sonnenflecken verglichen. Hier folgen die ungekürzten Versionen der SIDC-Sonnenflecken und der Wassertemperaturdaten von HadISST:

Abbildung 1: Sonnenfleckenzahlen (oberes Paneel) und Wassertemperaturen (unteres Paneel).

Gibt es also eine solare Komponente in den SST-Daten? Nun, schaut man sich Abbildung 1 an, kann man auf den ersten Blick sagen: falls es eine solche Komponente gibt, ist sie ziemlich klein. Wie klein? Nun, dazu brauchen wir die Mathematik. Ich beginne oft mit einer Kreuz-Korrelation. Eine Kreuz-Korrelation beleuchtet nicht nur, wie gut korreliert zwei Datensätze sein könnten. Sie zeigt auch, wie gut die beiden Datensätze korreliert sind mit einer Verzögerung zwischen beiden. Abbildung 2 zeigt die Kreuz-Korrelation zwischen den Sonnenflecken und der SST:

Abbildung 2: Kreuz-Korrelation, Sonnenflecken und Wassertemperaturen. Man beachte, dass sie bei keiner Verzögerung irgendwie signifikant sind, und das ohne Berücksichtigung von Autokorrelation [?].

Ich kann also nichts Signifikantes bei der Kreuz-Korrelation der beiden Datensätze über deren volle Länge erkennen, also im Zeitraum 1870 bis 2013. Allerdings haben sie nicht den gesamten Datensatz verwendet, sondern nur den Teil im Zeitraum 1955 bis 2003. Das sind nur 49 Jahre … und an diesem Punkt beginne ich, nervös zu werden. Man erinnere sich, wir suchen nach einem 11-jährigen Zyklus. Ergebnisse aus diesem speziellen halben Jahrhundert repräsentieren also nur drei vollständige Solarzyklen, und das ist dürftig… Aber wie auch immer, hier folgt die Kreuz-Korrelation der zeitlich begrenzten Datensätze 1955 bis 2003:

Abbildung 3: Kreuz-Korrelation von Sonnenflecken und Wassertemperaturen, zeitlich begrenzt auf den Zeitraum 1955 bis 2003. Man beachte: während sie größer sind als im vollständigen Datensatz, sind sie bei keiner Verzögerung immer noch nicht signifikant, und das ohne Berücksichtigung der Autokorrelation.

Nun kann ich verstehen, warum man glauben könnte, dass es eine Korrelation zwischen der Wassertemperatur und Sonnenflecken gibt, wenn man nur die verkürzten Datensätze betrachtet. Zumindest Abbildung 3 zeigt eine positive Korrelation ohne Verzögerung, und zwar eine, die fast schon statistisch signifikant ist, wenn man Autokorrelation ignoriert.

Aber zur Erinnerung: In der Kreuz-Korrelation des vollständigen Datensatzes (Abbildung 2) beträgt die Korrelation ohne Verzögerung … nun, Null. Die offensichtliche Korrelation im nur ein halbes Jahrhundert umfassenden Datensatz verschwindet vollständig, wenn man den ganzen, 140 Jahre langen Datensatz betrachtet.

Dies beleuchtet ein gewaltiges periodisch wiederkehrendes Problem bei der Analyse natürlicher Datensätze und der Suche nach regelmäßigen Zyklen. Regelmäßige Zyklen, die offensichtlich auftauchen, dauern ein halbes oder sogar ein ganzes Jahrhundert, um dann ein Jahrhundert lang zu verschwinden…

In Shaviv 2008 zeigt der Autor einen Weg, um dieses Rätsel zu umgehen, nämlich:

„Eine weitere Möglichkeit, die Ergebnisse sichtbar zu machen, ist es, die Daten über den 11-jährigen Sonnenzyklus zu mitteln. Dies reduziert den Relativ-Beitrag von Quellen, die nicht mit der Sonnenaktivität korreliert sind, da sie dazu tendieren, sich herauszumitteln (seien diese nun real oder Rauschen)“.

Zur Stützung dieser Behauptung zeigt der Autor die folgende Abbildung:

Abbildung 4: Dies ist die Abbildung 5 aus der Shaviv-Studie. Für diesen Beitrag von Interesse ist das obere Paneel, das die angebliche Oszillation der gemittelten Zyklen zeigt.

Nun, dieses Verfahren habe ich selbst auch schon angewandt. Würde ich das allerdings hier tun, würde ich es nicht so machen wie er. Er hat für das solare Minimum eine Zeit t = 0 definiert und dann die Daten über die folgenden 11 Jahre gemittelt. Würde ich das auch so machen, würde ich sie am Spitzenwert anpassen und dann das Mittel von, sagen wir, sechs Jahren vor und nach diesem Spitzenwert bilden.

Aber wie auch immer, anstatt es auf meine Art zu tun, dachte ich mir zu schauen, ob ich seine Ergebnisse nachvollziehen konnte. Unglücklicherweise traf ich auf einige Schwierigkeiten, als ich die tatsächlichen Berechnungen durchzuführen begann. Hier kommt die erste Schwierigkeit:

Abbildung 5: Die von Shaviv 2008 verwendeten Daten, um die vermeintliche Korrelation zwischen Sonnenflecken und Wassertemperatur zu zeigen.

Sie werden das Problem sicher auch erkennen. Weil der Datensatz so kurz ist (n = 49 Jahre), gibt es nur vier solare Minima – 1964, 1976, 1986 und 1996. Und dass der verkürzte Datensatz im Jahre 2003 endet bedeutet, dass es während dieses Zeitraumes nur drei vollständige Sonnenzyklen gegeben hatte.

Dies führt direkt zu einem zweiten Problem, und zwar der Größenordnung der Unsicherheit bei den Ergebnissen der „zentrierten“ Daten. Mit der Analyse von nur drei vollständigen Zyklen wird die Unsicherheit ziemlich groß. Hier sind die drei zentrierten Datensätze, zusammen mit dem Mittel und dem 95%-Vertrauens-Intervall um das Mittel:

Abbildung 6: Wassertemperaturen über drei vollständige Sonnenzyklen, „zentriert“ über den 11-jährigen Sonnenzyklus, wie ihn Shaviv 2008 beschrieben hat.

Wenn ich also nach einem sich wiederholenden Zyklus suche, schaue ich auf das 95%-Vertrauens-Intervall (CI) des Mittels.  Enthält das 95%-CI die Null-Linie bedeutet das, dass die Variation nicht signifikant ist. Das Problem in Abbildung 6 ist natürlich die Tatsache, dass es nur drei Zyklen in dem Datensatz gibt. Als Folge geht das 95%-CI „vom Fußboden bis an die Decke“, wie man so sagt, und die Ergebnisse sind nicht im Mindesten signifikant.

Warum aber sehen die Ergebnisse von Shaviv 2008 in Abbildung 4 so überzeugend aus? Nun, weil er nur die Standardabweichung als Unsicherheit in seinen Ergebnissen zeigt, obwohl nur das 95%-CI von Relevanz ist. Hätte er dieses 95%-CI gezeigt, wäre offensichtlich geworden, dass die Ergebnisse nicht signifikant sind.

Allerdings spielt nichts davon eine Rolle. Warum nicht? Weil der behauptete Effekt verschwindet, wenn wir den vollständigen Wassertemperatur- und Sonnenflecken-Datensatz untersuchen. Deren allgemeine Periode reicht von 1870 bis 2013, so dass es noch viel mehr Zyklen zum Mitteln gibt. Abbildung 7 zeigt den gleichen Typ „zentrierter“ Analysen, nur diesmal für den gesamten Zeitraum von 1870 bis 2013:

Abbildung 7: Wassertemperaturen aller solaren Zyklen von 1870 bis 2013, „zentriert“ über den 11-jährigen Sonnenzyklus wie in Shaviv 2008 beschrieben.

Hier sieht man das Gleiche, was sich schon bei der Kreuz-Korrelation gezeigt hat. Der offensichtliche Zyklus, der im letzten halben Jahrhundert der Daten präsent zu sein scheint, also der in Shaviv 2008 gezeigte Zyklus, verschwindet vollständig, wenn man den gesamten Datensatz betrachtet. Und trotz eines viel kleineren 95%-CI, weil wir mehr Daten haben, gibt es keine statistisch signifikante Abweichung von Null. Zu keiner Zeit erkennt man irgendetwas Unerklärliches oder Ungewöhnliches.

Und daher noch einmal: Ich finde, dass sich die Behauptungen hinsichtlich einer Verbindung zwischen Sonne und Klima in Luft auflösen, wenn man sie genauer untersucht.

Ich möchte hier klarstellen, was ich hier sage und was ich NICHT sage. Ich sage NICHT, dass die Sonne das Klima nicht beeinflusst.

Ich sage nur, dass ich immer noch kein überzeugendes Anzeichen des 11-jährigen Sonnenflecken-Zyklus‘ in irgendeinem Klima-Datensatz gefunden habe. Auch hat bislang niemand einen solchen Datensatz gezeigt. Und solange das nicht der Fall ist, ist es sehr schwierig zu glauben, dass selbst kleinere untergeordnete Variationen der Sonnenstärke einen signifikanten Einfluss auf das Klima haben können.

Also möchte ich hier, wie ich hoffe zum letzten Mal, die offene Herausforderung benennen. Wo ist der Klima-Datensatz, der den etwa 11-jährigen Sonnenflecken-/Magnetismus-/kosmische Strahlen-/Sonnenwind-Zyklus zeigt? Shaviv plappert viele andere nach, wenn er behauptet, dass es irgendeinen unbekannten Verstärkungs-Mechanismus gibt, der die Auswirkungen „etwa 5 bis 7 mal größer macht als jene, die mit den TSI-Variationen in Verbindung stehen“. Allerdings sehe ich diesen nicht. Wo also können wir diesen 11-jährigen Zyklus finden?

[Anmerkung des Übersetzers: Könnte es sein, dass Eschenbach den Svensmark-Effekt nicht kennt? Oder verstehe ich da irgendetwas nicht?]

Link: http://wattsupwiththat.com/2014/06/06/sunspots-and-sea-surface-temperature/

Übersetzt von Chris Frey EIKE




Klima-Burnout nähert sich rasch

Die Untersuchung durch ein Team leitender Wissenschaftler aus unterschiedlichen Disziplinen wurde vom University College London initiiert, um bessere Wege zu finden, die Öffentlichkeit über Klimawissenschaft aufzuklären.

Einer Umfrage vor ein paar Wochen zufolge ist das öffentliche Interesse an der Klimaänderung während der letzten paar Jahre drastisch zurückgegangen, wurde dabei doch herausgefunden, dass die Anzahl der Google-Suchen nach der Phrase „global warming“ seit einem Spitzenwert im Jahre 2007 um 84 Prozent gefallen ist.

Das Vertrauen in die Klimawissenschaft wurde im Jahre 2010 durch die Enthüllung unterminiert, dass das Regierungen beratende IPCC fälschlich behauptet hatte, dass die Himalaya-Gletscher bis zum Jahr 2035 verschwunden sein könnten. Auch wurde den Wissenschaftlern vorgeworfen, die Rate des arktischen Meereis-Verlustes durch die Behauptung zu übertreiben, dass der Nordpol bis zum Jahr 2020 im Sommer eisfrei sein könnte. Anderen Wissenschaftlern zufolge ist dies vor dem Jahr 2050 unwahrscheinlich.

Vor einem Jahrzehnt wurden Behauptungen aufgestellt und später zurückgezogen, denen zufolge der Schnee auf dem höchsten Berg Afrikas, dem Kilimandscharo, bis 2015 verschwunden sein könnte.

Die Untersuchung unter der Leitung von Prof. Chris Rapley, einst Direktor des Science Museum, kommt zu dem Ergebnis: „Alarmistische Aussagen, die nicht eintreffen, tragen zum Vertrauensverlust in die wissenschaftliche Gemeinschaft bei“.

Im Bericht heißt es, dass Klimawissenschaftler Schwierigkeiten haben, „Botschaften zu verbreiten, die alarmierend sind, ohne in Alarmismus abzugleiten“. Auch heißt es darin, dass die Medien teilweise dafür verantwortlich sind, wenn sie auf der Suche nach einer „aufregenden Schlagzeile“ [a striking headline] sind.

Allerdings sagt der Bericht, dass es auch „Vorurteile gebe, dass eine Informationen bedrohende Kommunikation ein notwendiger und effektiver Katalysator für Änderungen des individuellen Verhaltens ist“. Er sagt, dass die „klimawissenschaftliche Gemeinde“ schnell dabei ist, jene herauszufordern, die die Klimaänderung herunterspielen, während sie dagegen viel weniger Interesse daran hat, „alarmistische Fehlinterpretationen“ der Klimaforschung zu hinterfragen. Untergangslastige Berichte wecken ängstliche Gefühle, die aber nicht lange andauern. „Mit der Zeit wird diese Sorge betäubt und ändert sich zu Desensibilisierung und zunehmendem Abstand zu diesem Thema insgesamt.

Das Scheitern spezifischer Vorhersagen der Klimaänderung, die nicht eingetreten sind, erzeugt den Eindruck, dass die klimawissenschaftliche Gemeinde als Ganzes zu falschen Alarmen Zuflucht sucht. Wenn offensichtliche Fehlvorhersagen nicht adäquat erklärt werden, werden Aussagen zu zukünftigen Bedrohungen immer unglaubwürdiger“.

Dem Bericht zufolge stehen 30.000 Klimawissenschaftler weltweit im Mittelpunkt einer intensiven öffentlichen Diskussion über Schlüsselfragen wie zum Beispiel der Frage, woher wir künftig unsere Energie beziehen sollen. Allerdings sind sie „schlecht vorbereitet“, sich diesen Fragen zu stellen.

Hinzugefügt wird noch, dass sich diese Schwierigkeit, ihre Arbeit zu präsentieren, „als wenig hilfreich bei der Formulierung einer auf Beweisen beruhenden Politik erwiesen hat, was ihre Stellung in der Öffentlichkeit schädigt“.

Full story (subscription required)

Link: http://wattsupwiththat.com/2014/06/24/climate-burnout-is-fast-approaching/

Anmerkung des Übersetzers: Dazu gibt es bei WUWT noch einen kleinen Folgebeitrag. Auch hierzulande gehen ja im Bereich der „Erneuerbaren“ immer mehr Arbeitsplätze verloren. Zu dem weltweiten Phänomen schreibt Anthony Watts:

Genau wie die globale Temperatur scheinen ‚Klima-Arbeitsplätze‘ einen Höhepunkt überschritten zu haben und jetzt rückläufig zu sein

Anthony Watts

Aus der Abteilung „auch Sie können ein professioneller Klimatologe sein“ kommt die folgende sehr interessante Graphik. Leser Shawn Fitzpatrick sandte die folgende Graphik, nachdem er unseren früheren Beitrag zum Klima-Burnout gelesen hatte [siehe oben!].

Sie zeigt die Klimawissenschaft im Abwärtstrend, inzwischen bis zum Niveau des Jahres 2008:

Quelle: http://www.indeed.com/jobanalytics/jobtrends?q=%22climate+change%22&l=

Dies passt sehr gut zu den Trendzahlen von Google:

Quelle: http://www.google.com/trends/explore#q=climate%20change%2C%20Global%20warming%2C%20climate&cmpt=q

Alles in allem scheint das Interesse an Klima und globaler Erwärmung in jeder Hinsicht abzunehmen, sei es hinsichtlich des Interesses im Internet oder der Arbeitsplätze.

Link: http://wattsupwiththat.com/2014/06/24/like-global-temperature-climate-jobs-seems-to-have-peaked-and-are-heading-downward/

Beide Artikel übersetzt von Chris Frey EIKE




Die unheimliche Allianz zwischen Politikern und Klimatologen

Sie ist keineswegs heimlich, die Allianz zwischen Politikern und Klimatologen, sondern offensichtlich und gut organisiert im IPCC. Dieses Gremium, dessen korrekte Bezeichnung lautet "Internationaler Ausschuss für Klimawandel" wurde von den meisten deutschen Medien zum gottähnlichen "Weltklimarat" hochstilisiert. Dort sitzen aber nicht nur Klimaforscher, sondern auch Vertreter der beteiligten Länder-Regierungen (von Deutschland z.B. ein Staatssekretär aus dem Umwelt-Ministerium). Die Statuten besagen, dass sich das IPCC mit dem "menschen-gemachten" Klimaeinfluss befassen soll (d.h. nicht unbedingt mit den natürlichen Klimafaktoren, die seit Millionen von Jahren wirksam sind).

Die Veröffentlichung des 5. Berichtes des IPCC begann mit dem "Summary for Policymakers" am 27.Sept.2013  in Stockholm, bevor die drei Hauptberichte überhaupt verfügbar waren. Nicht nur, dass dadurch wesentliche Aussagen fehlten, sondern es musste vor der Veröffentlichung auch die Zustimmung der Politik-Vertreter eingeholt werden, für die dieser Bericht angeblich bestimmt war. Und sie nahmen Einfluss auf den Inhalt, dass z.B. um die unpassende "Klimapause". d.h. das Fehlen der so oft angekündigten dramatischen Erwärmung, als "nicht relevant" herunterzuspielen und den Text zu  zu ändern in "eine Verlangsamung des Temperaturanstieges". Und ein nicht passendes Diagramm wurde ersetzt durch eine Darstellung, bei dem dieser Mangel nicht mehr auffiel. Prof. Stavins als Teilnehmer bemerkte, dass dies kein "Summary for Policymakers" sei, sondern ein "Summary from Policymakers". Er war nur einer von zwei Wissenschaftlern, die von 45 bis 50 Regierungsvertretern umgeben waren. Ein anderer Teilnehmer, Prof. Richard Tol erklärte anschließend seinen Rücktritt von IPCC aus Protest gegen die politisch-ideologische Manipulation von Daten, Fakten und Schlussfolgerungen.

Die IPCC-Theorie basiert auf einem 95%igen "confidence level", d.h. 95%iger Gläubigkeit an den Treibhaus- Effekt von CO2 !   Prof. Dr. Frank Endres stellte dazu fest: "Es gibt in der theoretische/mathematischen Physik kein Modell, das einen durch CO2 induzierten "anthropogenen Treibhauseffekt" plausibel machen kann. Die "katastrophale Klimaerwärmung" gibt es nur in Modellen, die von grundsätzlich falschen Annahmen ausgehen". Tatsächlich ist der IPCC nicht in der Lage, irgendeinen Beweis für seine Thesen zu liefern, weder als messtechnische noch als historischer Daten.

Dies wird bestätigt und verschlimmert durch die Tatsache, dass der angebliche Temperaturanstieg um 1,5 bis 4,5°C (bis 6°C) bei Verdoppelung des CO2-Gehaltes in der Atmosphäre 2014 nicht anders oder genauer angegeben werden kann als wie vor 24 Jahren, im ersten IPCC-Klimabericht von 1990.  Seit dieser wurden jedoch Milliarden (Steuergelder) für dieses Forschungsgebiet ausgegeben – ein ziemlich einmaliger Vorgang, den man auch als wissenschaftlichen Skandal bezeichnen kann. Konnte man nicht, wollte man nicht, oder durfte man nicht ??

Tatsächlich gibt es eine Reihe von Veröffentlichungen, die sich mit diesem Thema befassen und  zu wesentlich niedrigeren Auswirkungen eines CO2-Anstieges kommen  – 0° bis 1,5°C –  aber sie wurden vom IPCC ignoriert, eine völlig unwissenschaftliche Vorgehensweise.

Tatsächlich gibt es unter Physikern ganz erhebliche Meinungsunterschiede über den so-genannten Treibhauseffekt durch CO2, bzw. die Auswirkung auf die Temperatur. Das  international anerkannte MODTRAN-Modell der Atmosphärenphysik errechnet einen Effekt von ca.+ 0,6°C für eine CO2-Verdoppelung, aber ohne Berücksichtigung von Wolken und Luftströmungen. Diese sind jedoch die Regel und können den Effekt auf Null bringen. Das Gleiche kann man erwarten von der Darstellung des US-Physikers Prof.Roy Spencer, der sagt, dass CO2 einen Erwärmungseffekt in der unteren Atmosphäre verursacht, aber eine Abkühlung in der oberen Atmosphäre. Insgesamt ist die Atmosphäre sehr dynamisch und bewirkt den größten Temperaturaustausch und -Ausgleich auf der Erde.

FRANCKEs Lexikon der Physik stellte schon 1959 fest: "CO2 ist als Klimagas bedeutungslos". Heute, nach mehr als 15 Jahren der größten Menge an CO2-Emissionen ohne einen Temperaturanstieg zu bewirken, scheint der Beweis dafür geliefert.

Wie ist es aber möglich, dass viele Fachleute – angeblich die Mehrheit der Klimaforscher – die  Irrlehre vom maßgeblichen CO2-Einfluss auf das Klima unterstützen, teilweise sogar aggressiv verteidigen ?  Dafür gibt es gute Gründe:

(1) Es ist einfacher und bequemer, sich einer angeblichen "Mehrheitsmeinung" 

     anzuschließen (obwohl das in der Wissenschaft – im Gegensatz zur Politik – nichts 

     bedeutet: zu oft hat sich in der Vergangenheit die Mehrheit geirrt – angefangen bei Galileo   

     Galilei über Albert Wegener und viele andere mehr).

(2) Nur angeblich "bedrohliche Klimaänderungen" erregen das Interesse der Medien – und

     der Politiker. Dazu der erste Vorsitzende des IPCC, Sir John Houghton: "Solange wir keine Katastrophen ankündigen, wird niemand auf uns hören".                             

      Dazu passt am besten der Kommentar von Prof. Dr. von Storch, einem der führenden deutschen Klimaforscher, der es auch wagt, manchmal Kritik zu üben: "Eine Gruppe von Klimatologen ist der Versuchung erlegen, sich durch medienwirksame dramatisch  negative Aussagen nach vorne zu spielen. Sie werden mit größter öffentlicher Aufmerksamkeit bedacht, und einige von ihnen übernehmen die Rolle der wachsamen Sofortkritiker anders denkender Kollegen".

(3)  Nur die Untersuchung von angeblich drohenden Klimaänderungen und ihren möglichen   

      Auswirkungen führt zur Akquisition staatlicher Geldmittel. Jede andere (positive) Aussicht gefährdet die weitere Finanzierung seines Institutes.

Offensichtlich ist es auch für viele Politiker wichtig, Klimaängste in der Bevölkerung aufrecht zu erhalten. Dazu eine Feststellung des ehemaligen Außenministers Joschka Fischer:  „Man muss den Leuten nur fortwährend Angst einflößen, dann kann man ihnen praktisch immer mehr Steuern und Abgaben  aus der Tasche ziehen.“ Tatsächlich ist die künstliche Erzeugung von Ängsten schon seit Urzeiten ein erfolgreiches Geschäftsmodell.     

Der zweite Grund ist, dass viele Politiker glauben, sich  als "Kämpfer gegen den Klimawandel" profilieren und so zur "Rettung der Welt" beitragen zu können. Dabei übertreiben sie es manchmal noch mehr als die alarmistischen Klimatologen selbst, so wie z.B. Al Gore, der z.B. in einem Vortrag am 14.12.2008 kühn behauptete, dass in fünf Jahren die gesamte arktische Eisbedeckung verschwunden sein wird. Auch der britische Premier David Cameron verkündete kürzlich im Unterhaus, dass er die jüngsten Extremwetter-Situationen  "dem Klimawandel" zurechnet – obwohl es dafür keine Beweise – nicht einmal im IPCC-Bericht – gibt.

In Australien wechselte im September 2013 die Regierung, und seit dem gibt es dort keine "Klimakatastrophe" mehr. Ab 1.7.2014 wird  auch die CO2-Steuer abgeschafft.

In Deutschland hat kein maßgeblicher Politiker in Deutschland die aufgekommene Klima-Hysterie erkannt und kritisiert – mit einer Ausnahme: Altkanzler Helmut Schmidt sagte dazu am 4.Juni 2007 "Klimatischen Wandel hat es auf der Erde gegeben, seit es sie gibt. Und sich darüber aufzuregen und zu meinen, der Mensch könnte diesen Wandel durch gemeinsamen Beschluss aufhalten, das ist reine Hysterie, das ist dummes Zeug.

Was sind die Gründe für Klimaforscher, sich für eine systematische Klima-Panikmache  herzugeben ? Ein Extremfall in dieser Beziehung ist der Leiter des PIK, Prof.Schellnhuber, der in einem WBGU-Gutachten verlangt, eine "Grosse Transformation" (= Kulturrevolution) durchzuführen mit dem Ziel, die Demokratie abzuschaffen zugunsten einer globalen Öko-Diktatur. Dazu Prof.von Storch: "Die Autoren reduzieren die Weltprobleme auf das Thema Kohlenstoff. Das ist eindimensional und arrogant. Es gäbe noch den Welthunger, der aber gerade keine Konjunktur hat".

Die IPCC-Theorie lautet, dass die wachsenden CO2-Emissionen der Menschheit einen "gefährlichen" Temperaturanstieg verursachen würden, der unbedingt auf +2°C begrenzt werden müsste. Warum ? Der damalige Umweltminister Röttgen wusste 2010 die Antwort: 

"Weil darüber das Leben, so wie wir es kennen, nicht mehr möglich sein wird" . Offenbar  war ihm unbekannt, dass höhere Temperaturen in der Vergangenheit schon wiederholt aufgetreten waren (siehe Abb.2). In völlig unkritischer Gläubigkeit an die unbewiesene IPCC-These  wurde  von der deutschen Regierung beschlossen, den CO2-Ausstoß in bis 2020 um 40 % (im Vergleich zu 1990) zu senken, allerdings ohne zu wissen, wie dies realisiert werden kann. Das mit Milliarden subventionierte Anwachsen von Wind- und Solarenergie-Erzeugung hat jedoch – wie wir heute wissen –  die deutschen CO2-Emissionen nicht verringert, sondern ansteigen lassen. Der deutsche Anteil an den globalen Emissionen ist jedoch mit ca. 2,5 % so gering, dass eine noch so große Reduzierung (auch nach der IPCC-Theorie) keinen messbaren Einfluss auf die Globaltemperatur haben kann. Deswegen der Bevölkerung und der Wirtschaft in Deutschland neue zusätzliche finanzielle Belastungen aufzuerlegen, ist nichts anderes als ein großer Schildbürgerstreich.

Tatsache ist vielmehr entsprechend der Klimageschichte dieses Planeten,  dass es etwa ein Dutzend mittel- und langfristiger natürliche Klima-Einflussfaktoren gibt, die  zum Teil noch nicht verstanden und nicht vorhersehbar sind. Deswegen können sie auch nicht in Klima-Modellen erfasst werden. Wie zum Beispiel will man die unbekannte mittelfristige Veränderung der globalen Wolkenbedeckung und der natürlichen und anthropogenen Aerosolen in Rechenmodellen berücksichtigen, die wiederum entscheidenden Einfluss auf die am Boden ankommende Sonnenstrahlung hat und damit Klimafaktor Nummer 1 ist ? 

So ist der Temperaturanstieg zwischen 1975 und 1998, der die Klimahysterie auslöste,  eindeutig auf  eine Reduzierung der mittleren Wolkenbedeckung zurückzuführen und nicht auf den CO2-Anstieg – nachdem zwischen 1940 und 1975 (35 Jahre lang, trotz CO2-Anstieg ! ) eine Abkühlungsperiode aufgetreten war.

Es ist eine unglaubliche Simplifizierung der Klima-Problematik, diese auf den Faktor CO2 zu reduzieren und die Schuld bei den bösen industriellen Emissionen zu suchen. Es muss  doch jedoch ein Schuldiger gefunden werden, genauso wie im Mittelalter Hexen verantwortlich gemacht wurden für lokale Unwetter, um dann auf dem Scheiterhaufen verbrannt zu werden. Heute ist es noch nicht so weit, aber es gibt Stimmen, die verlangen, dass "Ungläubige", die nicht an eine Menschen-gemachte Klimakatastrophe glauben, eingesperrt und mundtot gemacht werden müssten. Tatsächlich ist es so weit gekommen, dass die künstlich erzeugten Klimaängste bei einigen Menschen dazu geführt haben,  "den Kampf gegen den Klimawandel" aus quasi-religiöser Überzeugung zu führen.

Schon Johann Wolfgang von Goethe hat dieses Phänomen erkannt (1828): “Und denn, man muss das Wahre immer wiederholen, weil auch der Irrtum um uns her immer wieder gepredigt wird, und zwar nicht von Einzelnen, sondern von der Masse. In Zeitungen und Enzyklopädien, auf Schulen und Universitäten, überall ist der Irrtum oben auf, und es ist ihm wohl und behaglich, im Gefühl der Majorität, die auf seiner Seite ist."

Man kann es auch kürzer fassen: "Gegen eine Dummheit, die gerade in Mode ist, kommt keine Klugheit auf (Theodor Fontane, 1819-1898; deutscher Schriftsteller)"

Und eine dritte Stimme zu diesem Thema : "Es ist nicht zu bestreiten, dass es auch in der Wissenschaft – häufiger als uns Wissenschaftlern lieb ist – Lug und Trug gibt, nicht nur fahrlässige Schlamperei, sondern wirklich absichtsvollen Betrug." (Dr. Hubert Markl, ehem. Präsident der Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.).

Auch in höheren wissenschaftlichen Kreisen ist es so weitgekommen, dass – wie die Climategate-E-Mails gezeigt haben – Verabredungen unter den Klima-Aktivisten getroffen wurden, die Veröffentlichung von Artikeln mit allen Mitteln zu verhindern, die nicht ihrer

Katastrophen-Theorie folgen. Noch heute werden kritische Artikel von denn Zeitschriften NATURE und SCIENCE abgelehnt, wenn sie nicht den IPCC-Behauptungen entsprechen.

Erst kürzlich wurde wieder ein Artikel von Prof. Bengtson (früherer Direktor des MPI für Meteororologie, Hamburg) vom Fachblatt "Environmental Research Letters" abgelehnt, was Prof.von Storch als "skandalös" kommentierte. Prof. Davig Gee (Universität Uppsala) stellte dazu fest: "Wenn so genannte Wissenschaftler ihrer politischen Überzeugung Priorität geben, dann grenzt dies an Korruption und beschädigt die Welt der Wissenschaft allgemein".

Was treibt Menschen dazu, die Realität nicht mehr wahrnehmen zu wollen, sondern sich mit religiöser Gläubigkeit einem eingebildeten Klima-Phantom hinzugeben ?  Sind dies angeborene Ängste, Katastrophen-Lust oder ist es ein Phänomen massenhafter Verblendung ? (so der Soziologe Prof. Dr. Gerhard Schulze, Bamberg). Frank Schätzing (Schriftsteller) ist genervt von der Zukunftsangst vieler Menschen. Er sagte "es ist Schwachsinn, sich von einer Zukunft paralysieren zu lassen, die es noch gar nicht gibt". Auch wenn weltweit schon seit 15 Jahren kein Temperaturanstieg mehr stattgefunden hat kann man trotzdem noch fast täglich von dem globalen Temperaturanstieg in den Medien lesen oder hören, der angeblich wieder an dieser oder jener Veränderung Schuld sei.

Die Propagierung der Klimabedrohung ist offenbar ein ideales Thema für Menschen mit genetisch bedingter nihilistischer Veranlagung, da beliebige Unheils- und Schreckensvisionen verkündet werden können, ohne dafür einen Beweis liefern zu müssen.  Ganz abgesehen von den bei manchen Menschen dadurch erzeugten Existenzängsten, die den pseudowissenschaftlichen Charakter dieser Behauptungen nicht erkennen können. Auch können solche Propheten für ihre falschen Behauptungen mit oft kostspieligen Folgerungen nicht zur Verantwortung gezogen werden.

Einer der Gründe dafür, dass die Klima-Hysterie in den letzten zwanzig Jahren ein solches Ausmaß annehmen konnte, ist die mangelnde Kenntnis der Menschen über die Klima-Historie, die sich sogar beim DWD findet. Die Temperaturschwankungen in den letzten 200 Jahren um +/- 0,6°C sind nicht nur völlig normal und natürlich, sondern können im Vergleich zu früheren Klimaschwankungen als außergewöhnlich stabil angesehen werden. Von 1940 bis 1975 (35 Jahre lang !) gab es trotz CO2-Anstieg eine globale Abkühlungs-periode, an deren Ende zahlreiche Artikel über eine kommende Eiszeit erschienen. Die Regierungen wurden darin "zum Handeln" aufgerufen. Nach dem Beginn der neuen Erwärmungsphase wurde von Forschern und Medien rasch umgeschaltet auf die Gefahr einer "bedrohlichen Erwärmung".

Nach den Jahresmittelwerten des Deutschen Wetterdienstes (DWD) betrug der

Temperaturanstieg in Deutschland in den letzten 25 Jahren – von 1989 bis 2013 – genau 0,1 °C.  Das sind die Fakten, die verschwiegen und von der überwiegenden Mehrheit der Politiker, Journalisten und Klimatologen ignoriert werden. Dieser dramatische Temperaturanstieg war aber nach den  Berichten in den deutschen Medien jeweils Schuld an Dürren, an Überschwemmungen, an kalten Wintern, an warmen Wintern, heißen Sommertagen, kurz, an allem.

Bild 1:  Jahresmitteltemperaturen Deutschland laut DWD in den letzten 25 Jahren

Aber auch der DWD, der deutsche Wetterdienst, hat sich der politischen Klima-Ideologie gebeugt und verkündete auf seiner Pressekonferenz am 25. März 2014 in Berlin einen "ungebrochenen Trend zu einem wärmeren Klima", den es aber real nach seinen eigenen Daten nicht gibt. Anstatt den Temperatur-Rückgang um 0,6°C seit dem Jahr 2000 zu erwähnen, wird 2013 vom DWD zum acht-wärmsten Jahr erklärt, dabei war es das zweitkälteste der letzten 15 Jahre. Um eine Erwärmung feststellen zu können, muss man auf das Jahr 1881 zurückgehen, einem Tiefpunkt in der Temperaturhistorie. Andererseits sagt der Chef des DWD, dass es früher schon einmal genauso warm war wie heute. Und es war tatsächlich nicht nur einmal, sondern in drei Klimaphasen in den letzten 3200 Jahren wärmer als heute (BILD 2). Und dies garantiert ohne einen CO2-Einfluss, der damals einen nahezu konstanten Status von 280 ppm hatte, wie die Eiskern-Resultate zeigen. Und noch eine interessante Tatsache in Zusammenhang mit dem Temperatur-Diagramm: Die Warmzeiten waren stets Perioden politische Stabilität und wirtschaftliche Blüte, während in den kühlen Perioden dazwischen Instabilität (Migration) und Hungersnöte durch Dürren auftraten.

 Bild 2: Klima-Entwicklung in den letzten 3200 Jahren

Die in der Politik und bei den Medien verbreitete Bezeichnung von CO2 als angeblichen "Schadstoff" (den man deshalb besteuern kann ! ) mutet geradezu pervers an  in Anbetracht der Tatsache, dass CO2 lebensnotwendig für jede Pflanze ist. Mehr CO2 verbessert das Wachstum und erhöht die Ernteerträge, eine Tatsache, die Gärtnereien Gewächshäuser mit CO2 begasen lässt. Satellitenbilder haben weltweit eine Begründung des Planeten in den letzten 20 Jahren durch den angestiegenen CO2-Gehalt der Atmosphäre registriert. Dabei ist dieser mit 400 ppm noch immer sehr niedrig im Verhältnis zum durchschnittlichen Gehalt in der Erdgeschichte von über 1000 ppm.

Wo ist er geblieben, der pseudowissenschaftliche CO2-Effekt, der angebliche "Klimakiller" ?

Die normale Reaktion auf die Tatsache, dass die angedrohte "gefährliche Erwärmung" durch den CO2-Anstieg nicht eingetreten ist, wäre Erleichterung, sowie Kritik an dem falschen Alarmismus.  Aber nein, was findet sich in den Medien ?  Enttäuschung und Erklärungsversuche, dass  "die Erwärmung trotzdem stattfindet" ( stattfinden muss ! )  auch wenn wir davon nichts merken. Es gibt eben – wie Prof. Hans-Werner Sinn (Ifo) kürzlich feststellte "politische Wahrheiten und wirkliche Wahrheiten".

Offenbar gibt es inzwischen zu viele Profiteure, die ein fundamentales Interesse an der Fortsetzung der Klima-Hysterie haben – wegen ihrer Jobs, den Subventionen und den Profiten. Fakten, Logik und Vernunft dürfen in diesem Falle keine Rolle mehr spielen.

Das beste Beispiel für diese absurde Situation ist das PIK (Potsdam Institut für Klimafolgenforschung, von manchen auch "Institut für Klimaphantasien" genannt), das ohne Klima-Schwarzmalerei keine Existenzberechtigung hätte. Deswegen wird dort immer die "Klimakatastrophe" vor der Tür stehen (müssen). Sogar Prof. Schellnhuber als Chef des PIKmusste zugeben, dass "die Klima-Diplomatie eine riesige Maschinerie entwickelt hat, in der viele ein gutes Auskommen haben (Leipziger Volkszeitung vom 1.12.2006). Es war das gleiche Jahr, in dem sich auf Bali 15000 "Weltretter" zur Klimakonferenz trafen.

Die Allianz zwischen Politikern und Klimatologen hat eine solide Basis durch die beiderseitigen finanziellen Vorteile, von denen niemand lassen will – unabhängig von der Klima-Realität. Die Fakten der fehlenden anthropogene Erwärmung stören zwar, werden aber einfach "für irrelevant" erklärt. Das erinnert an den alten Spruch unter Physik-Studenten:

"Wenn meine Theorie und die Fakten nicht übereinstimmen, müssen eben die Fakten falsch sein".

Vielleicht ist es auch zu viel verlangt, öffentlich – und vor sich selbst – zuzugeben, dass man sich jahrzehntelang geirrt hat, bzw. falschen Propheten aufgesessen ist. Das schaffen nur  sehr charakterfeste Menschen.  

"If the facts change, I’ll change my opinion. What do you do, Sir? "  

 J. M. Keynes (1883-1946)

Britischer Ökonom, Politiker und Mathematiker

Der Beitrag erschien zuerst bei die kalte Sonne hier

20.6.14  veröffentlicht in Blog Kalte Sonne

20.6.    Umweltbundesamt : Ittershagen, Holzmann, Maeder, Lehmann

20.6.    Prof.Stocker, IPCC

20.6.    Prof. Lemke, AWI

20.6.   Axel Bojanowski

20.6.    SZ:  Illinger, Bauchmüller, Schrader, Esslinger

20.6.    GRÜNE Bundestagsfraktion,  Krischer




Propheten

Manchmal kann man schon früh einem solchen auf die Schliche kommen. Im Jahre 2007 erschien im Wissenschaftsblatt Nummer 1 „Science“ ein Artikel von Doug M. Smith und Kollegen vom britischen MetOffice unter dem Titel:

„Verbesserte Vorhersage der Oberflächentemperaturen für die nächste Dekade mittels eines globalen Klimamodells“

Mit den dargelegten ausgeklügelten Methoden war es das Ziel, unter Beachtung der internen Variabilität des Klimas eine Prophezeiung der Temperaturentwicklung 2004 bis 2014 vorzunehmen. Das Ergebnis damals:

Bild 1: Die dekadische Vorhersage von Smith et al. (2007) für den Zeitraum bis 2014 (Quelle: Bild 4 der o.g. Arbeit)

Im Text ist die Ansage klar und deutlich:

„…predict further warming during the coming decade, with the year 2014 predicted to be 0.30° ± 0.21°C [5 to 95% confidence interval (CI)] warmer than the observed value for 2004. Furthermore, at least half of the years after 2009 are predicted to be warmer than 1998, the warmest year currently on record.“

Nun kann man das ja verifizieren: Die realen Beobachtungen zwischen 1998 und 2014:

Bild 2: Beobachteter globaler Temperaturverlauf nach der MetOffice -hauseigenen Temperaturreihe HadCRUT4 im Vergleich zu den Aussagen in der o.g. Arbeit.

Der Trend besagt: 0,014°C Abkühlungin der  Dekade 2004-2014. Nach 2009 war kein Jahr wärmer als 1998: Für die Erfüllung der Prophezeiung hätten es drei sein müssen. Eine andere Temperaturreihe (GISS) misst ganze 0,03 Grad Erwärmung, selbst damit ist auch der untere Konfidenzbereich der Vorhersage unterschritten. Unmittelbar nach Veröffentlichung der Arbeit war man sich jedoch sicher, den Nagel auf den Kopf getroffen zu haben und das Schaubild 1 erschien unter anderem in einem Bericht mit dem Untertitel: „Zukunftsinformationen für die Politik der Regierung“. Da las man, dass gute dekadische Vorhersagen für Politik und Wirtschaft sehr nützlich sind ( S. 6) … solange sie ignoriert werden, könnte man hier anfügen.

Ein Fiasko. Man hat die Politik falsch informiert. Woran kann es gelegen haben? Jedes Klimamodell hat eine große Anzahl Freiheitsgrade, die man einstellen muss. Dazu dienen Beobachtungen, mit denen die Modelle  feinjustiert werden: die jüngere Vergangenheit wird benutzt, um die Klimamodelle zu parametrieren, man nennt das „Hindcast“. Außerdem setzt man voraus, dass in kürzeren Zeitskalen das Klima in erster Näherung linear auf zwei Einflüsse reagiert: ein äußerer Antrieb (Forcing, vor allem durch Treibhausgase wie CO2) und eine interne Variabilität.

Und genau da liegt der Hase im Pfeffer. Bis heute hat man seit dem ersten Klimabericht des IPCC  1990 keinerlei Fortschritt in einem zentralen Punkt für Klimaprognosen gemacht: Wie viel Grad Celsius Erwärmung zieht eine Verdopplung der CO2- Konzentration in der Luft nach sich? Die Bandbreite der Möglichkeiten ist im letzten Bericht 2013 noch genauso groß wie vor 23 Jahren. Für (klimatisch relativ kurze) Zeiträume von 10 Jahren ist die TCR (Transient Climate Response) entscheidend und die liegt seitdem zwischen 0,8 und 2,5 Grad Celsius.  Man kann seitens der Klimaforschung  die Klimawirkung des CO2 , auf das ja die Politik ganz schnell mit  möglichst großer Wirkung reagieren soll, nicht genauer quantifizieren als ganz zu Beginn der IPCC- Geschichte. Wer eine aktuelle Diskussionsrunde zum Thema „Klimasensivität“ verfolgt, bekommt eine Eindruck davon, welch unterschiedliche Ansätze gegenwärtig betrachtet werden.

Wenn also ein Modell- um auf das 2007er-Fiasko des britischen MetOffice zurückzukommen- anhand einer Zeitspanne feinjustiert wird, indem die  interne Variabilität (z.B. ozeanische Strömungen)  sehr viel zum Anstieg der Temperaturen beigetragen haben, dann wird es die Zukunft falsch prophezeien indem die stattgefundene Erwärmung auf das Forcing zurückgeführt wird. So ging es den verwendeten Modellen in der Arbeit aus 2007. Der Hindcast des 20. Jahrhunderts sollte den Forecast des 21. Jahrhunderts meistern und versagte kläglich, weil die natürliche Variabilität offensichtlich nicht auch nur im Ansatz realitätsnah berücksichtigt wurde.

Daraus könnte man lernen… und die Treibhausgaswirkung in Modellen zurücknehmen… jedoch: woher weiß man genau, wie gerade die interne Variabilität wirkt? Man kennt weder diese genau noch die CO2- Wirkung. Wie sinnvoll sind dann Modelle? Nun, die Anwender sind weiterhin optimistisch. Der gleiche Leadautor wie in der besprochenen Arbeit aus 2007 hat voriges Jahr eine neue geschrieben. Der internen Variabilität wird da etwas mehr Aufmerksamkeit geschenkt und die Prophezeiung ist vorsichtiger (und durch die Bandbreite mehr oder weniger nutzlos):

 

Bild 3: Vorhersage der globalen Temperatur bis 2022 (Bild 8 der o.g.  Arbeit)

Bei Licht besehen bleibt es ein Herumgestochere im Nebel, solange man so richtig sicher nur weiß: wachsende Konzentrationen von Treibhausgasen führen zu Erwärmung. Nur wie viel? Bis man die Anteile der natürlichen Variabilität am beobachteten Klimageschehen nicht mit der notwendigen Genauigkeit bestimmen kann, bleibt die Berechnung der Wirkung von Treibhausgasen auch Prophetie.  Haben Sie ein schlechtes Gewissen beim Benutzen der „gebunkerten“ Glühlampen? Ersparen Sie es sich!




Energiewende in Deutschland als Modell für die australische Klimapolitik? Eine kritische Bestandsaufnahme

[*Das Wort ‚Energiewende‘ steht im gesamten Artikel immer auch so kursiv gesetzt im Original. Hier im Subheader wird eine Übersetzung angeboten als ‚energy turn‘ oder ‚energy transition‘. Anm. d. Übers.]

Aber  für Deutschland ist dies viel mehr als nur nationale Energiepolitik. Dies ist Deutschlands Apollo-Weltraumprogramm. Falls es funktioniert, wäre Deutschland weltweit führend bei der Integration von Erneuerbaren mit einer potentiellen Multi-Milliarden Euro umsetzenden Exportindustrie. Aber anders als die grundlegende technische Herausforderung, einen Menschen den Mond betreten zu lassen, steht die Energiewende vor beispiellosen Herausforderungen weit jenseits des rein technischen Aspektes. Der Lebensstandard einer Nation basiert auf dem Kapital und der Arbeitsproduktivität seiner Energiesysteme zusammen mit einer hinreichend hohen Gesamtenergie.

Während der geplante Rückzug aus der Kernkraft in Deutschland nach Fukushima im Grunde eine Überreaktion war vor dem Hintergrund des fehlenden Risikos von Erdbeben und Tsunamis, bildete sich die deutsche Ambivalenz gegen Kernkraft seit den siebziger Jahren. Die Studentenproteste Ende der sechziger Jahre erzeugten einen Zusdammenschluss von Anti-Amerikanismus, Anti-Kapitalismus und Anti-Kernkraft, wobei die Kernkraft im Zentrum des Argwohns gegen Kapitalismus und Militarismus stand. Das Symbol der „lachenden Sonne“ tauchte überall auf – Atomkraft? Nein Danke* – und wurde als ein Ausdruck „politischer Abweichung“ angesehen, wurde es doch cool, gegen Kernkraft zu sein.

[*Auch dieser Begriff taucht kursiv so im Original auf. Angeboten wird die Übersetzung ‚Nuclear power? No thanks!‘ Anm. d. Übers.]

Dieses Zusammentreffen kam nicht überraschend – die Altlast des Holocaust und des Zweiten Weltkriegs, West Berlin [in dieser Schreibweise!] als Mittelpunkt des Kalten Krieges, wobei in Deutschland [hier meint der australische Autor die BRD] Cruise Missiles und Pershings der NATO stationiert waren zusammen mit amerikanischen, britischen und französischen Truppen. Diese Befürchtungen manifestierten sich durch Anti-Kernkraft-Aktivismus durch Wissenschaftler wie Klaus Traube. Traube, der ursprünglich ein Befürworter der Kernkraft war, wurde zu einem der prominentesten und einflussreichsten Kritiker (1). Und es waren auch ‚lokale Bürgerinitiativen‘, die sich um lokale Themen bildeten und die später die Grundlage der Grassroots-Kampagnen ausmachten wie die Opposition gegen den Standort eines neuen Kernkraftwerkes in der Weinanbau-Stadt Wyhl im Jahre 1975 (2)

Die australische Anti-Kernkraft-Bewegung hatte ähnliche Wurzeln und war aus einer Protestbewegung der sechziger Jahre hervorgegangen, jedoch mit ausschließlichem Bezug auf Australien (3). Das war die Zeit des Vietnam-Krieges, den Landrechten der Aborigines, den französischen Kernwaffentests auf dem Mururoa-Atoll, der Nachwirkungen der Maralinga-Waffentests [?] und auch die Zeit des Links-Helden [hero of the left] Gough Whitlam. Es war auch die Zeit vor der funktionellen Trennung von staatlich geförderten Waffenprogrammen und kommerziellen Kernkraft-Anbietern – die Wahl des British Steam Generating Heavy Water Reactor (SGHWR) für das in Jervis Bay geplante Kernkraftwerk (NPP) Ende der sechziger Jahre zusammen mit dem Widerstand gegen die Unterzeichnung der Nichtverbreitung von Kernkraft zeigte eine Strategie der Erhaltung einer Zukunftsoption für alle Möglichkeiten.

Nach der Übernahme der Regierung im Jahre 1972 unterschrieb Whitlam das Nichtverbreitungsabkommen von Kernwaffen (NPT), stoppte Kernkraft und führte neue Bildungsstandards ein. Plötzlich war es in akademischen Kreisen und der politischen Linken „in“, gegen Kernkraft zu sein. Diese frühere Periode legte den Grundstein für Australiens Anti-Kernkraft-Maßstäbe,  die Jahrzehnte lang eine nicht in Frage gestellte Doktrin geblieben ist. Ende der neunziger Jahre führte Jim Green (5) den Begriff „Strahlungs-Rassismus“ [radiation racism] ein, unter dem sich grün-linker Aktivismus, Uran-Bergbau, Landrechte der Aborigines, Waffentests und Kernkraft einfanden. Dies verkörpert dieses andauernde, aber inzwischen archaische Narrativ.

Aber es war die unkontrollierte Freisetzung radioaktiver Strahlung infolge der Kernschmelze des mit Graphit moderierten Tschernobyl-Reaktors, die in Deutschland die Anti-Kernkraft-Stimmung aufkommen ließ. Anders als in anderen betroffenen Nationen, in denen die Anti-Kernkraft-Stimmung während der folgenden Jahre pragmatischeren Erwägungen wich, war die Reaktion in Deutschland sowohl irrational als auch nachhaltig. Selbst noch nach der Veröffentlichung des UNSCEAR-Berichtes 2011, in dem gezeigt worden ist, dass die Auswirkungen der Strahlung sich als viel harmloser herausstellten als ursprünglich befürchtet (6), blieb in Deutschland der tiefe Skeptizismus bestehen. Außerdem, obwohl die Welt-Gesundheitsorganisation zu dem Ergebnis gekommen war, dass die gesundheitlichen Auswirkungen durch die Strahlung in Fukushima minimal sind (7), verfestigte sich der deutsche Skeptizismus hinsichtlich Kernkraft. Nachfolgende Berichte enthüllten die institutionalisierte Kultur regulatorischer Vorschriften in Japan, bekannt unter dem Begriff  amakudari, wörtlich übersetzt “descent from heaven” [aus dem Himmel kommend]. Hierbei ziehen sich leitende Gesetzgeber und Bürokraten auf die mächtigen exekutiven Posten zurück, die sie einst reguliert hatten (8). Die Konsequenz des „nuklearen Dorfes“ war, dass man Risiken unangemessen durch Operatoren begegnete und dass sich herausstellte, dass man routinemäßige Sicherheitsmaßnahmen, wie sie beispielsweise in den USA herrschen, einfach nicht implementiert hatte (9).

Obwohl die Gefühle zu Kernkraft in Europa zwiespältig sind, lautet die interessante Frage: Was ist anders in Deutschland im Gegensatz zu – sagen wir – Frankreich, wo man 75% des Strombedarfs durch 58 Kernkraftwerke deckt? Französische Politiker haben die Zielkonflikte der Energiepolitik verstanden. Dort fehlen die in Deutschland heimischen Kohlevorräte, und man führte eine starke institutionelle Unterstützung an, untermauert durch öffentliche Unterstützung. Eine populäre Antwort in Frankreich auf die Frage, warum sie dort so viel Kernkraft-Energie erzeugen, lautet: „Kein Öl, kein Gas, keine Kohle, keine Wahl“. In Frankreich gibt es eine Tradition großer, von der Regierung gemanagter Projekte, die genauso populär sind wie Hochgeschwindigkeits-Züge (10). Anders als das US-Modell dezentralisierter Projekte standardisierte das französische Modell einen einzelnen US-Reaktor, zusammen mit standardisierter Übung und Sicherheit.

Aber vielleicht ist die entscheidende Antwort dem Erbe der ausgeprägten Reaktion in Deutschland auf die industrielle Revolution des 19. Jahrhunderts geschuldet, die eine eigentümliche Synthese von Naturalismus und Nationalismus erzeugte (11). UK war gegen die härteren Elemente der industriellen Revolution immunisiert durch die „protestantische Arbeits-Ethik“ [the „protestant work ethic“]; die USA und Australien als Pionier-Nationen nutzten die Kraft von Dampf und Kohle für die Bildung einer Nation, und in Frankreich fehlte eine geeignete Kohlequelle. Aber eine ausgeprägte Vorliebe der Deutschen für Natur, ländliches Leben und Wälder trieb eine kulturelle Gegenreaktion vor sich her – die Romantische Bewegung [Romantic Movement] war eine Revolte gegen die rationale und strukturierte Welt der Industriellen Revolution (12). Diese Ideale waren enthalten in der völkischen Bewegung, für welche es keine einfache englische Übersetzung gibt*, sondern die lose die Gedanken eines romantischen Nationalismus‘ und Heimatgefühl verkörpert (13).

[Im Original liest sich das so: ‚ These ideals were embodied in the völkisch movement, which has no simple English translation, …’]

Der deutsche Philosoph Martin Heidegger (14) bietet einen Ansatzpunkt zur Hervorhebung einiger dieser Ideale Ende des 19. und Anfang des 20. Jahrhunderts in Gestalt eines proto-umweltlichen Denkens in Deutschland. Heidegger äußerte Kritik an den Gedanken der Aufklärung und der wissenschaftlichen Revolution. Er behauptete, dass die Wissenschaft die natürliche Landschaft zu „Zeug“ und einer „stehenden Reserve“ für die Menschheit degradiert. Heideggers Problem war der fehlende Respekt für die Natur – seine Hauptsorge war nicht Verschmutzung, Abwertung oder Grenzen des Wachstums, wie neuzeitliche Neo-Malthusianer sagen würden, sondern die reduktionistische Beziehung zwischen den Menschen und ihrer Welt. Diese zutiefst ökologischen Standpunkte fanden sich ähnlich auch bei Ernst Moritz Arndt und seinem Schüler Wilhelm Heinrich Riehl, die beide gegen die industrielle Ausbeutung von Wäldern und Boden (11) mobil machten. In den fünfziger Jahren des 19. Jahrhunderts war Riehl vielleicht der Vorläufer des modernen Umweltaktivismus‘, wenn er „für die Rechte der Wildnis“ eintrat. Sowohl Arndt als auch Riehl repräsentierten eine besondere deutsche Fusion von Naturalismus und Nationalismus und waren dem Urbanismus gegenüber feindlich eingestellt. Klaus Bergmann benutzte den Term Großstadtfeindschaft*, der sich grob übersetzen lässt mit „hostility to the City“ oder „anti-urbanism“. Er spiegelt die Ablehnung der kosmopolitischen, internationalen und kulturellen Toleranz von Städten.

[*Steht ebenfalls so im Original!]

Die Australier haben wahrscheinlich eher von Rudolf Steiner und seiner berühmten „Steiner-Bildung“ [= Waldorf-Pädagogik] gehört. Steiner vermischte rassistische Ideologie mit seiner einzigartigen spirituellen Anthroposophie-Bewegung und entwickelte eine frühe Form einer ganzheitlichen „vitalistischen“ organischen Landwirtschaft, Biodynamik genannt (11). Biodynamik betrachtet die Fruchtbarkeit des Bodens und das Pflanzenwachstum als ökologisch in Wechselwirkung stehende Dinge – tatsächlich war der Ausdruck „Ökologie“ zuerst von dem deutschen Wissenschaftler Ernst Haeckel definiert worden. Selbst heute noch findet fast die Hälfte der globalen biodynamischen Landwirtschaft in Deutschland statt (12).

Im Deutschland zu Anfang des 20. Jahrhunderts gab es keine spezifische Bewegung, die als „umweltlich“ oder „grün“ etikettiert war, so wie wir es heute definieren. Vielmehr haben Organisationen wie der Deutsche Bund Heimatschutz (Homeland Protection Association of Germany) die Gedanken von Heimat- und Naturschutz verkörpert*. Sie standen für die Ideale des Schutzes der deutschen Heimat und der Landschaft. Brüggemeier et al. (15) erklären: in der gleichen Weise, wie wir über die architektonischen Eigenschaften denken, die die Vorlieben einer Nation reflektieren, enthielt die Landschaft Deutschlands den ausgeprägten deutschen Fußabdruck.

[Wieder das Original: ‚ the Deutscher Bund Heimatschutz (Homeland Protection Association of Germany)’]

Führend bis in die dreißiger und vierziger Jahre fanden diese Ideale Eingang in Nationalen Sozialismus, am meisten kontrovers vielleicht mit der Behauptung von Anna Bramwell (16), dass die Nazi-Partei einen „grünen Flügel“ habe. Brüggemeier (15) und andere stehen solchen Polemiken kritisch gegenüber, welche kontrovers eine einfache lineare Beziehung der heutigen Grünen zu den gestrigen nationalsozialistischen Umweltaktivisten implizieren. Trotzdem haben viele Gelehrte die offensichtliche Überlappung zwischen den Zielen der Nationalen Sozialisten und der Umweltaktivisten in der ersten Hälfte des 20. Jahrhunderts diskutiert. Die Umweltschutzbewegung in Deutschland war mächtiger und beweglicher als irgendwo sonst in Europa, und die diktatorische Macht der Nazis bot Gelegenheiten, Umwelt-Agenden zu implementieren.

Aber man könnte auch in dem Begriff  Energiewende den Ausdruck Heimat (homeland) identifizieren, das „Gefühl zusammen zu gehören“ und den kommunitaristischen [?] Impulsen (17). Dies ist vielleicht die wichtigste Lektion politischer Gemeinde-Bewegungen – die Energiewende ist ein erstaunlich erfolgreiches Modell mit umfassender Unterstützung des politischen Rechts/Links-Spektrums. Deutschland ist einzigartig bei der Mobilisierung der Grassroot-Bewegung der siebziger und achtziger Jahre und konvertierte diese Unterstützung in greifbare politische Ergebnisse.

Auf einer philosophischen Ebene sehen wir die Ausdrücke Solar und nuklear als polarisierende Gegensätze des Romantik- mit dem Aufklärungs-Spektrum – solar (und Wind) als Rückkehr zum einfacheren Weg, unter Einbeziehung der Natur, und einem zeitgenössischen Ausdruck des archetypischen Instinktes der Anbetung der Sonne – wohingegen nuklear steht für die Höhepunkte von Wissenschaft, Empirismus und der Abschöpfung der unvorstellbaren Kraft des Atoms mit den begleitenden Risiken. Diese miteinander im Wettbewerb stehenden Philosophien koexistieren in allen Ländern, aber nur in Deutschland ist diese Polarität so krass an das Romantik-Ende des Spektrums gefallen. Aber der erstaunliche Erfolg von solar liegt auch begründet in den Idealen des einfacheren Weges, und durch den „hellgrünen“ Umweltaktivismus werden die Gedanken von Sonne und Wind verschmolzen mit dem Techno-Optimismus der Informationstechnologie und einer Silikon-Revolution.

Angesichts des starken vorübergehenden Zusammengehens der politischen Linken mit Umweltwerten kann die deutsche Erfahrung ungewöhnlich scheinen. Und doch, in der jüngeren Geschichte der anglophilen Länder waren konservative Werte öfter mit traditionellen konservativen politischen Werten verbunden, während die Linksaußen-Tradition ein Evangelium des Überflusses gepredigt hat und die Reduktion von Armut durch wirtschaftliches Wachstum (18). Zum Beispiel war es der republikanische Präsident Richard Nixon, der eine Reihe von Umweltinitiativen übersah, die die Grundlage des amerikanischen Umweltschutzes bildeten. In Australien waren die sechziger und siebziger Jahre eine Periode, als die konservative Seite der Politik häufig umweltliche Initiativen übernahm. In Victoria wurde das grundlegende Environmental Protection Act erlassen [ein Umweltschutzgesetz], und zwar während der Regierungszeit des liberalen Premierministers Henry Bolte. Und es war Alan, der Vater von Greg Hunt, der unter Bolte, Hamer und Thompson im Amt war. Er trieb die ‚Green Wedges urban strategy’ in den Vororten von Melbourne (20). Im größten Teil des 20. Jahrhunderts waren es oftmals die Jäger und Freizeit-Angler, die am stärksten den Schutz von Wäldern und Flüssen unterstützten. Selbst die australische Conservation Foundation wurde gegründet, und der Konservative Sir Garfield Barwick diente als Präsident.

Es ist möglich, zwei getrennte Zeiträume zu identifizieren, als traditionelle konservative Werte und moderner Umweltaktivismus auseinanderliefen. Die Erste Periode war eine Reaktion auf das neo-malthusianische Buch The Population Bomb von Paul und Anne Ehrlich. Wie Sabin in (21) anmerkte, stammte vieles der Antagonismen von der politischen Rechten von der katastrophalen Zukunft, die Bevölkerungs-Campaigner wie Ehrlich an die Wand malten. Unter der Reagan-Administration erreichte dies eine Apotheose. Der zweite Zeitraum war die Reaktion auf Kyoto 1997, welches die Energieunternehmen explosionsartig aktiv werden ließ, sich geschlossen gegen eine globale Reaktion auf die Klimaänderung zu stellen (22).

In Australien war es die Frustration der Umwelt-Linken über den Klimaskeptizismus der Regierung Howard und die „Treibhaus-Mafia“ (23, 24) während der neunziger Jahre und des ersten Jahrzehnts dieses Jahrhunderts, die den Schwall fragmentierter und ultimativ ineffektiver Treibhaus-Politik trieb. Das Grattan Institute (25) identifizierte 300 Maßnahmen der Treibhaus-Politik, wobei lediglich eine Handvoll marktbasierter Instrumente ein erstrebenswertes Ergebnis zeitigte.

Wohl das signifikanteste Einzel-Scheitern der australischen Klimapolitik bleibt die Ablehnung der Vorschläge von Robert Hill für einen moderaten Kohlenstoff-Preis nach Kyoto durch die Regierung Howard. Mit grausamer Ironie wäre ein moderater, einkommensneutraler Kohlenstoffpreis, der sowohl die Unsicherheiten der Klimaänderung als auch globales Engagement reflektierte, ein weit effektiveres und flexibleres Instrument gewesen. Außerdem hätte das viel besser zu Prinzipien der Liberal Party gepasst. Zumindest hätte es eine stabile Basis für eine kohärente Klimapolitik gebildet, während die kostspieligen und unzusammenhängenden Maßnahmen vermieden worden wären, die wir bis heute erlebt haben.

Und doch wurde das von der Regierung Howard eingeführte Ziel erneuerbarer Energie zu einem Modell-Schema für Förderung von Erneuerbaren, obwohl es die ursprüngliche Absicht der Politik war, die lokale Entwicklung sowie Industrie und Innovationen voranzubringen und nicht das Aufbringen gewaltiger Subventionen für importierte Windenergie (26). Die Schwierigkeit besteht darin, dass – einmal in Kraft gesetzt – eine ganze Industrie von Kapitalgesellschaften, Gutachtern und Lobbygruppen entstanden ist, die sich auf das RET [?] verließen, da die sich selbst erhaltende industrielle Entwicklung einfach nicht zustande kam. Wir erleben das auch in Deutschland, wo Karrieren erzeugt worden sind, die abhängig sind von fortlaufender institutioneller Unterstützung für Erneuerbare. Die Krux ist, dass die australische Klimapolitik nur dann langzeitlich glaubwürdig ist, wenn sie von der Liberal/National Party begrüßt wird; aber die Kernkraft kann nur erfolgreich sein, wenn sie als eine der zentralen Punkte von Low-Carbon-Energie eingeführt wird, falls sie von der Labor Party übernommen wird.

Die langfristige Konsequenz dieses Scheiterns von politischen Maßnahmen auf breiter Basis war es, verzweifelte Versuche anzuführen, Australien in Mainstream-Klimamaßnahmen einzubinden. Da die ökonomisch Rechte diese Rolle abgeschafft hat, wurde das resultierende politische Vakuum von Narrativen der Umwelt-Grün-Linken dominiert. Und dies bedeutete, sich dem Mekka der Klimapolitik zuzuwenden: Deutschland.

[Hier wird natürlich endgültig deutlich, warum man sich in Australien so grundlegend und umfassend Gedanken über Deutschland in dieser Hinsicht macht! Anm. d. Übers.]

Es ist interessant, wie sehr die Sprache des deutschen Umweltaktivismus’ den Weg in das Narrativ der australischen Umweltaktivisten gefunden hat. Ein Schlüsselbeispiel hierfür ist die Übernahme des FiT-Solarmodells und das damit verbundene Konzept „demokratisierter Energie“. Obwohl die erste Form von Einspeisetarifen in den USA unter der Carter-Administration implementiert worden ist, war es das deutsche Modell, das zur Vorlage für kleinteilige Unterstützungs-Mechanismen seit den neunziger Jahren geworden ist. Dies ging einher mit dem Konzept demokratisierter Energie, welche durch grüne Gruppen und Befürworter von Solarenergie nach Australien importiert worden ist.

Was den Demokratie-Gedanken in einem australischen Zusammenhang so interessant macht ist, dass es kaum Präzedenzfälle für das Konzept in Relation zu Energieversorgern und öffentlichen Dienstleistungen gibt – tatsächlich bevorzugen die Australier allgemein sozialisierte öffentliche Dienste (wie Medicare), und der langfristige Trend für Haushalte und Gewerbe ist es, Dienste auszulagern anstatt sie „demokratisch“ ins Haus zu bringen (man denke an Rasen mähen, Autowartung, Anlieferungen nach Hause, Gesundheitsfürsorge). Es ist für einen Haushalt zum Beispiel leichter, hinsichtlich der Wasserversorgung „netz-unabhängig“ zu sein, und doch diskutiert niemand die „Demokratisierung von Wasser in den Vororten“. Selbst falls man einen berechtigten finanziellen Grund für netz-unabhängige Energie geltend machen kann, gibt es wenig Hinweise darauf, dass die meisten Menschen, abgesehen von Enthusiasten, darauf vorbereitet sind, die Verantwortung für die Wartung von Batterien und deren Ersatz zu übernehmen ebenso wie für Backup-Erzeugung und Systemwartung.

Im Gegensatz dazu wird die Demokratisierung von Personentransporten – Autos – stark von grünen Gruppen kritisiert, die sich stattdessen für das sozialisierte Modell städtischer Transporte einsetzen – Eisenbahnen und öffentlicher Verkehr. Daran kann man erkennen, dass das „Demokratisierungs“-Modell ein opportunistischer Sprachgebrauch ist – Demokratie wird übernommen als ein universeller Wert und in Verbindung gebracht mit einer wertebeladenen Ursache, anstatt ein kohärentes Argument zu präsentieren. Und doch wird die unmoderne Sprache „sozialisierter“ Modelle oder „sozialisierter“ Tarife sorgfältig vermieden. Interessanterweise sind in den Staaten mit dem erfolgreichsten Betrieb von Kernkraft und deren Akzeptanz diese Staaten am stärksten in Strom involviert – Frankreich, Schweden, Japan, Russland und China.

Dieser Sprachgebrauch ist vorherrschend in Diskussionen über die erneuerbare Revolution. Zum Beispiel wird der Begriff „sporadisch“ [intermittent] häufig ersetzt durch „variabel“ oder VRE (variable erneuerbare Energie), hat doch „variabel“ den Beiklang von Anpassung, Volumen oder Kontrolle. Wir könnten vielleicht den genaueren Term „unkontrollierbar variabel“ an Stelle von „sporadisch“ verwenden, aber natürlich würde diese verbesserte sprachliche Genauigkeit kontraproduktiv für jene sein, die nach dem Ausbau sporadischer Energie trachten.

Ein weiteres heimisches Beispiel ist der so genannte „Grundlast-Mythos“ [base load myth] und der Gedanke, dass „Sporadität auch Grundlast sein kann“. Dies wurde zum ersten Mal von Mark Diesendorf (27) in Australien verbreitet, aber rasch von der Umweltgemeinde aufgenommen. Dies demonstriert eine Korrumpierung eines etablierten technischen Jargons mit dem Ziel zu verwirren anstatt zu klären. Und doch ist selbst hier die Korrumpierung der Sprache hoch spezifisch – Grundlast im Zusammenhang mit Kohle und Kernkraft wird als unnötig, ineffizient und verschwenderisch bezeichnet, im Zusammenhang mit konzentrierter Solarenergie oder geothermischer Energie aber als vernünftig proklamiert.

Hier sehen wir das Kohle/Kernkraftmodell verleugnet zugunsten von „verteilter Erzeugung“, doch war das Grundlast-Modell der Energieversorgung bemerkenswert widerstandsfähig und ein effektives Modell, um die Gemeinde zuverlässig und bezahlbar mit Energie zu versorgen. Dies ist kein Argument gegen die Erkundung alternativer oder Verbesserung bestehender Modelle. Tatsächlich verdienen jüngste Bedenken hinsichtlich steigender Kosten und der Abnahme des Nutzungsgrades infolge Air Conditioning größere Aufmerksamkeit. Trotzdem ist das zentralisierte Modell bemerkenswert effizient hinsichtlich von Verteilungs-Verlusten zwischen Kraftwerk und Verbraucher im Mittel um 6% (28), aber die Verluste zwischen Solarpaneel und Stromwandler-Output durch Widerstands-Verluste, Stromwandler-Konversion, Staub und Temperaturminderung betragen typischerweise 18% (29). Es ist also offensichtlich, dass es beim Narrativ „ineffizienter“ zentralisierter Grundlast  im Gegensatz zu den Werten der „verteilten Erzeugung“ mehr um brandmarken geht als um ein bedeutsames Statement mit Substanz.

Aber würde es wirklich funktionieren?

Perverserweise wird die Demokratisierung des Netzes manchmal auch mit der Sprache sozialer Gerechtigkeit beschrieben, obwohl dies eine Umkehr der Logik ist – Ein Exodus in großem Umfang aus dem Netz würde zum Dilemma geringerer Profite als Grundlage für die hohen Fixkosten der Netzwerke führen, was den Haushalten mit niedrigem Einkommen, Rentnern, Pensionären, Schulen, Krankenhäusern und anderen Einrichtungen eine viel höhere Kostenlast auferlegen würde. In Deutschland, Spanien und UK ist Energiearmut bereits zu einem ernsten sozialen Problem geworden. Außerdem hat ein Photovoltaik-System außerhalb des Netzes eine Gesamt-Energieausbeute während seiner Lebenszeit von wenig mehr als einer Einheit [little better than unity]. Dies impliziert, dass die Versorgung einer Gemeinde außerhalb des Netzes ökonomisch und umweltlich katastrophal wäre. Also wurden die Themen der Demokratisierung, sozialer Gerechtigkeit und verteilter Energie von Deutschland importiert und von den Grün-Linken für ihre universellen Werte übernommen. Und doch führen sie etwas an, das Frank Furedi „hoch gehaltene oberflächliche Meinungen“ nennt [shallow opinions held strongly]

Aber trotz dieser Dinge verbleibt ein Triumph über die Energiewende, der völlig fehl am Platze ist. Tatsächlich tendiert die Konzentration auf Wachstumszahlen dazu, vorbestimmte Glauben [beliefs – Plural] zu validieren anstatt als Grundlage für eine gründliche Analyse zu dienen. Kürzlich wurde ein neuer Rekord für die augenblickliche Durchdringung von Wind und Solar in Deutschland verkündet (30) – am 11. Mai 2014 um 13 Uhr erreichte der Anteil von Wind und Solar 67%. Und doch ist die Folge hiervon zu demonstrieren, dass Deutschland bereits kurz davor steht, an harte Integrations-Grenzen zu stoßen – das nächste Stadium der Integration wird umfängliche und teure Speicherung sein oder Energie als Müll zu entsorgen.

Der jährliche Beitrag von Wind und Solar beträgt jeweils etwa 8% bzw. 6%, trotz des manchmal unmittelbar auftretenden Beitrags, der sechsmal so hoch ist wie dieses Niveau. Während des Sommers werden 40% des PV-Stromes bereits exportiert (31). Aber diese Exportstrategie kann nicht europaweit funktionieren, weil alle Länder zur gleichen Zeit danach trachten, Strom zu exportieren.  Das mitteleuropäische Netz überspannt lediglich 17 Längengrade, was im Wesentlichen dazu führt, dass der tägliche Spitzenwert in jedem Land innerhalb oder in etwas mehr als einer Stunde auftritt (32). Große, sich nur langsam verlagernde europäische Tiefdrucksysteme erzeugen in ähnlicher Form hoch korrelierte Windmaxima im gesamten synchronen Netz. Dies sind keine Argumente gegen den Einschluss zeitweiliger Kraftwerke mit einer umfassenden Low-Carbon-Strategie – tatsächlich gibt es Bedingungen, unter denen zeitweilige Kraftwerke nützliche Treibstoffersparnisse bringen können – sondern beleuchten die fundamentalen Hindernisse, wenn man sich auf Energiequellen verlässt mit einem Kapazitäts-Faktor um 18% bzw. 10%. Diese Zahlen sind weitgehend immun gegen Technologie.

Der Triumph der Energiewende ist wirklich ein klassischer Fall, das falsche Ziel anzusprechen – die Messung der installierten erneuerbaren Kapazität oder der jährlich erzeugten Energie sagt wenig bis nichts über die Gesamtauswirkungen auf Treibhausgas-Emissionen, Energiesicherheit, stetige Zuverlässigkeit oder soziale Gerechtigkeit. Genauso könnten wir den Erfolg eines Football-Clubs mit der Anzahl der unbestrittenen Ballbesitze im ersten Viertel definieren. Und tatsächlich, trotz der starken politischen, sozialen und ökonomischen Unterstützung für Wind und Solar seit den neunziger Jahren bleibt der CO2-Ausstoß bei der deutschen Stromerzeugung stur 10 bis 20 mal höher als in den in dieser Hinsicht am besten abschneidenden Nationen in Europa (33), und keinem der definierten Ziele ist man merklich näher gekommen (34). Es ist schwierig, schon jetzt Schlussfolgerungen wie z. B. hinsichtlich der makroökonomischen Auswirkungen der Energiewende in Deutschland zu ziehen, aber als der unwillige Hegemon Europas hat Deutschland bisher nur gezeigt, dass ausreichend Reserven zur Verfügung stehen, um die ökonomischen Schwierigkeiten zu vermeiden, zu denen es in Spanien mit seinem PV-Programm gekommen war.

Eine großartige Anekdote aus dem Buch The Innovation Paradox (35) von Farson und Keye beschreibt vielleicht Deutschlands Energiewende-Dilemma am besten. Dort hat ein Junior-Direktor 10 Millionen Dollar verloren bei einem riskanten Venture während der frühen Jahre von IBM. Darauf hat der geschäftsführende Direktor von IBM Tom Watson Jr. sein Angebot zurückgewiesen zurückzutreten, und zwar mit der Bemerkung: „Sie können das nicht ernst meinen. Wir haben gerade 10 Millionen Dollar für Ihre Weiterbildung ausgegeben!“

Vielleicht lautet die Frage hinsichtlich der Energiewende nicht, ob die festgesetzten Ziele erreicht werden oder nicht, sondern ob es ein Reale-Welt-Fall der Grenzen der Energiedichte und Periodizität ist, wenn eine wohlhabende, technologisch fortschrittliche und absolut überzeugte Nation alles in Frage stellt. Die jüngsten Signale von Kanzlerin Angela Merkel und Vizekanzler Sigmar Gabriel scheinen auf eine heraufdämmernde Erkenntnis zu deuten, dass die Realität langsam an Raum gewinnt (36).

[Schlussbemerkung des Übersetzers: Bei der Übersetzung dieses in australischem Englisch geschriebenen Artikels hatte ich manchmal größere Schwierigkeiten. Offenbar gibt es doch gewisse Unterschiede zu US-amerikanischem Englisch, das mir viel vertrauter ist.]

References

[1] Johnson, Daniel, (2011), Why Germany said no to nuclear power, The Telegraph

[2] Brandon, Ruth (1987) The Burning Question: The Anti-Nuclear Movement Since 1945, Heinemann.

[3] Zoellner, Tom (2009) Uranium: War, Energy, and the Rock That Shaped the World, Penguin.

[4] Cawte, Alice (1992) Atomic Australia, Sydney, NSW, Australia: New South Wales University Press.

[5] Green, Jim, (1999) Radiation Racism, Green Left Weekly

[6] World Health Organisation (2011) Chernobyl at 25th anniversary Frequently Asked Questions

[7] World Health Organisation (2013) Health risk assessment from the nuclear accident after the 2011 Great East Japan earthquake and tsunami, based on a preliminary dose estimation

[8] Fam, SD et al. (2014) Post-Fukushima Japan: The Continuing Nuclear Controversy. Energy Policy

[9] Ferguson, Charles D, Jansson, Mark (2013) Regulating Japanese Nuclear Power in the Wake of the Fukushima Daiichi Accident. Federation of American Scientists

[10] Palfreman, Jon (1997) Why the French like Nuclear Power, PBS Frontline

[11] Staudenmaier, Peter/Biehl, Janet (1995) Ecofascism: Lessons From the German Experience.

[12] Paull, John (2011) Organics Olympiad 2011: Global Indices of Leadership in Organic Agriculture. Journal of Social and Development Sciences 1/4, pp. 144–150.

[13] Uekötter, Frank (2006) The Green and the Brown: A History of Conservation in Nazi Germany, Cambridge University Press.

[14] Rohkrämer, T in Brüggemeier, Franz-Josef/Cioc, Mark/Zeller, Thomas (2005) How Green Were the Nazis?: Nature, Environment, and Nation in the Third Reich, Ohio University Press.

[15] Brüggemeier, Franz-Josef/Cioc, Mark/Zeller, Thomas (2005)How Green Were the Nazis?: Nature, Environment, and Nation in the Third Reich, Ohio University Press.

[16] Bramwell, Anna (1985) Blood and Soil: Richard Walther Darré and Hitler’s” Green Party”, Kensal Press Abbotsbrook, Bourne End, Buckinghamshire.

[17] Applegate, C. (1990). A nation of provincials: The German idea of Heimat. Univ of California Press.

[18] O’Neill, Brendan (2014) There’s nothing left wing about being green, Spiked Online

[19] Palmer, Graham (2010) A Battle of Interests: The Conservative Rejection of Climate Change. Dissent Autumn/winter 2010, pp. 25–29.

[20] Colebatch, Tim (2013) Liberal hailed for his legacy, The Age

[21] Sabin, Paul (2013) The Bet: Paul Ehrlich, Julian Simon, and Our Gamble Over Earth’s Future, Yale University Press.

[22] Oreskes, Naomi/Conway, Erik M (2010) Merchants of Doubt: How a Handful of Scientists Obscured the Truth on Issues From Tobacco Smoke to Global Warming, Bloomsbury Publishing USA.

[23] ABC Four Corners (2006) The Greenhouse Mafia

[24] Hamilton, Clive (2007) Scorcher: The Dirty Politics of Climate Change, Black Inc.

[25] Daley, J., Edis, T., & Reichl, J. (2011). Learning the hard way: Australian policies to reduce carbon emissionsGrattan Institute, Melbourne.

[26] The Australia Institute (2004) Notes from a LETAG meeting

[27] Diesendorf M. (2007) The base load fallacy. Energy Science briefing paper. 2007

[28] BREE (2012) Energy in Australia 2012, Table 9

[29] Prieto, P.A./Hall, C.A.S. (2013) Spain’s Photovoltaic Revolution: The Energy Return on Investment, New York, NY, USA: Springer.

[30] Chabot, Bernard (2014) May 11, 2014: a Record Production from Wind and PV in Germany

[31]Fraunhofer Institute for Solar Energy Systems ISE (2013)Electricity Production From Solar and Wind in Germany in 2012.Reported by Burger, Bruno, see slide 180

[32] Palmer, Graham (2014) Energy in Australia: Peak Oil, Solar Power, and Asia’s Economic Growth, Springer.

[33] Germany 672 g CO2-e/kWh, Sweden 23 g CO2-e/kWh, and France 71 g CO2-e/kWh, from Brander M, Sood A, Wylie C, Haughton A, Lovell J., (2011) Electricity-specific emission factors grid electricity. Ecometrica.

[34] Mearns, Euan (2014) Germany: Energy Kaput, Energy Matters

[35] Farson, Richard/Keyes, Ralph (2003) The Innovation Paradox: The Success of Failure, the Failure of Success, Simon and Schuster.

[36] McKillop, Andrew (2014) Merkel Snubs Global Warming And Dumps The Solar Industry, Energy Matters

—————————————————-

Graham Palmer. Graham recently published the book “Energy in Australia: Peak Oil, Solar Power, and Asia’s Economic Growth” (“Springer Briefs in Energy” series).

Link: http://euanmearns.com/germanys-energiewende-as-a-model-for-australian-climate-policy/#more-3389