Neue Studie: Temperaturrückgang um 1°C bis 2020 infolge der geringen Sonnenaktivität

Zentrale Punkte

• Ein längerer Sonnenzyklus zeigt niedrigere Temperaturen im darauf folgenden Zyklus an.

• Ein Temperaturrückgang um 1°C oder mehr wird im Zeitraum 2009 bis 2020 für bestimmte Gebiete vorhergesagt.

• Die Sonnenaktivität kann 40% oder mehr zur Erwärmung bis zum Ende des vorigen Jahrhunderts beigetragen haben.

• Eine Verzögerung von 11 Jahren ergibt eine maximale Korrelation zwischen der Länge eines Sonnenzyklus‘ und der Temperatur.

Die Autoren zeigen auch, dass die „Sonnenaktivität 40% oder mehr zur Erwärmung zum Ende des vorigen Jahrhunderts beigetragen haben kann“ und „an 3 Stationen im Nordatlantik zeigt sich ein solarer Beitrag von 63% bis 72% zum Temperaturanstieg der letzten 150 Jahre. Dies weist darauf hin, dass die Strömungen im Atlantik ein solares Signal verstärken“.

Ko-Autor der Studie ist der Geowissenschaftler Dr. Ole Humlum, der in einer früheren Studie nachgewiesen hatte, dass das CO2-Niveau der Temperatur auf kurzfristiger Basis hinterher läuft und dass CO2 nicht der Treiber der globalen Temperatur ist (hier).

Die Studie:

Der lange Sonnenflecken-Zyklus 23 sagt eine signifikante Abkühlung während des Zyklus‘ 24 voraus (hier)

Jan-Erik Solheim, Kjell Stordahl, Ole Humlum DOI: 10.1016/j.jastp.2012.02.008

Abstract

Beziehungen zwischen der Länge eines Sonnenflecken-Zyklus’ und der mittleren Temperatur im gleichen und dem darauf folgenden Zyklus werden für eine Anzahl von meteorologischen Stationen in Norwegen und dem Nordatlantik berechnet. Zwischen der Länge eines Zyklus‘ und der mittleren Temperatur im gleichen Zyklus konnte kein signifikanter Trend gefunden werden. Sehr wohl aber zeigte sich ein signifikanter negativer Trend zwischen der Länge eines Zyklus‘ und der mittleren Temperatur im darauf folgenden Zyklus. Dies stellt ein Tool zur Verfügung, um eine mittlere Temperaturabnahme von mindestens 1,0°C vom Zyklus 23 zum Zyklus 24 an den analysierten Stationen und Gebieten vorherzusagen. Für die untersuchten norwegischen lokalen Stationen fanden wir, dass 25% bis 56% der Erwärmung der letzten 150 Jahre der Sonne zugeordnet werden kann. Für 3 nordatlantische Stationen zeigt sich sogar ein Beitrag von 63% bis 72%. Dies deutet darauf hin, dass atlantische Strömungen ein solares Signal verstärken.

Introduction

Der Frage nach einer möglichen Beziehung zwischen der Sonnenaktivität und dem Erdklima ist während der letzten 200 Jahre bedeutende Aufmerksamkeit zuteil geworden. Perioden mit vielen Sonnenflecken und Protuberanzen korrespondieren mit Perioden höherer Einstrahlung im sichtbaren Spektralbereich und sogar noch stärkerer Beeinflussung im Ultraviolett, welches auf die Ozonschicht einwirkt. Es wird auch gezeigt, dass galaktische kosmische Strahlen als Kondensationskerne für Wolken fungieren können. Dies kann ein Link sein zwischen Variationen der Wolkenbedeckung und der Sonnenaktivität, da mehr kosmische Strahlen das Magnetfeld der Erde durchdringen, wenn die Sonnenaktivität gering ist. Eine Übersicht über mögliche Verbindungen zwischen der Sonne und dem Erdklima findet sich bei Gray et al. (2010).

Auf der Grundlage einer starken Korrelation zwischen der Entstehungsrate kosmogenischer Nukleide 14C und 10Be sowie Proxys aus den Strömungen des Meereises kamen Bond et al. (2001) zu dem Ergebnis, dass extrem schwache Durchdringungen des Outputs der Sonnenenergie im Zeitscale von Jahrzehnten und Jahrtausenden eine starke Reaktion des Klimas in der Tiefsee des Nordatlantik (NADW) zur Folge haben. Dies beeinflusst die globale thermohaline Zirkulation und das globale Klima. Die mögliche Beziehung zwischen Sonne, Ozean und Klima kann in Temperaturreihen aus dem Gebiet des Nordatlantik hervorgehen. Da der Ozean mit seiner großen Wärmekapazität gewaltige Wärmemengen speichern und transportieren kann, ist eine zeitliche Verzögerung zwischen der Sonnenaktivität und einer Zunahme der Lufttemperatur zu erwarten. Eine beobachtete Zeitverzögerung gibt uns die Möglichkeit für eine Vorhersage, was die Grundlage dieser Untersuchung ist.

Beim Vergleich der Sonnenflecken-Zahlen und der Temperaturanomalien auf dem Festland der Nordhemisphäre haben Friis-Christensen and Lassen (1991) ein ähnliches Verhalten zwischen der Temperatur und den Sonnenflecken-Zahlen von 1861 bis 1990 bemerkt, aber es schien, als ob die Sonnenflecken-Zahl R der Temperatur-Anomalie vorausläuft. Sie fanden eine viel bessere Korrelation zwischen der Länge eines Sonnenzyklus‘ (SCL) und der Temperatur-Anomalie. In ihrer Studie haben sie einen Mittelwert der SCL verwendet, der über 5 Zyklen nach der Methode 1-2-2-2-1 geglättet worden ist. Sie korrelierten die Temperatur während des zentralen Sonnenflecken-Zyklus‘ des Filters mit diesem geglätteten, gewichteten Mittel für einen SCL. Grund für die Auswahl dieser Art Filterung war, dass er traditionell bei der Beschreibung langfristiger Trends der Sonnenaktivität verwendet worden ist. Allerdings ist es überraschend, dass die Temperatur nicht in der gleichen Weise geglättet wurde. In einer Folgestudie kamen Reichel et al. (2001) zu dem Ergebnis, dass die richtige Ursache-Wirkung-Reihenfolge im Sinne der Granger-Kausalität [?] in der geglätteten SCL und der mittleren Temperaturanomalie während eines Zyklus‘ gegenwärtig ist, und zwar für die Festlands-Temperatur auf der Nordhemisphäre im 20. Jahrhundert mit einem Signifikanz-Niveau von 99%. Dies zeigt, dass ein physikalischer Mechanismus existiert, der die Sonnenaktivität mit Klimavariationen in Zusammenhang bringt.

Die Länge eines Sonnenzyklus’ wird definiert durch das Erscheinen des ersten  Sonnenflecks in einem Zyklus auf einer hohen solaren Breite bis zum Verschwinden des letzten Flecks im gleichen Zyklus nahe dem Sonnenäquator. Bevor jedoch der letzte Fleck eines Zyklus‘ verschwindet, zeigt sich bereits der erste Fleck des folgenden Zyklus‘ in hohen Breiten, wobei es normalerweise zu einer Überlappung von zwei Jahren kommt. Die Zeit des Minimums wird definiert als der Mittel-Zeitpunkt der Überlappung zwischen den beiden Zyklen (Waldmeier, 1939), und die Länge eines Zyklus‘ kann gemessen werden zwischen aufeinanderfolgenden Minima oder Maxima. Die neueste Beschreibung, wie man die Zeit des Minimums berechnen kann, stammt von NGDC (2011): „Wenn es die Beobachtungen zulassen, kann ein Datum, dass entweder als Minimum- oder Maximum-Zeitpunkt eines Zyklus‘ gewählt worden ist, teilweise basiert werden auf ein Mittel der Zeitpunkte, an denen die monatliche mittlere Sonnenflecken-Zahl ein Extrem erreicht und auf die mittlere monatliche Anzahl von Sonnenflecken-Gruppen allein. Zwei weitere Messungen werden zur Zeit des Sonnenflecken-Minimums verwendet: Die Anzahl der Tage ohne Sonnenflecken und die Häufigkeit des Auftretens von Sonnenflecken des alten und des neuen Zyklus‘ gleichzeitig“.

Lange Zeit hatte man gedacht, dass das Auftauchen eines Sonnenzyklus’ lediglich eine zufällige Sache war, was bedeutet, dass Länge und Amplitude eines jeden Zyklus’ unabhängig vom jeweils vorigen waren. Allerdings zeigte Dicke (1978), dass im Inneren der Sonne ein interner Chronometer existieren muss, der nach einer Reihe kürzerer Zyklen wieder längere Zyklen auslöst, so dass das Mittel der 11,2 Jahre beibehalten wird.  Richards et al. (2009) analysierten die Länge der Zyklen von 1610 bis 2000 mit Hilfe von Median-Trace-Analysen [?] der Zykluslängen und Analysen des Energiespektrums der O-C-Restgrößen der Zeitpunkte von Sonnenflecken-Maxima und –Minima. Sie identifizierten eine Periode von 188 ± 38 Jahren. Sie fanden auch einen Zusammenhang zwischen langen Zyklen und Minima der Fleckenzahlen. Ihre Studie zeigt, dass die Länge von Sonnenflecken-Zyklen während der nächsten ~75 Jahre graduell zunehmen müsste, begleitet von einer graduellen Abnahme der Sonnenflecken-Zahlen.

Eine Autokorrelations-Studie von Solanki et al. (2002) zeigte, dass die Länge eines Sonnenzyklus‘ ein guter Prädiktor für die maximale Sonnenfleckenzahl (Rmax) im folgenden Zyklus ist, und zwar in dem Sinne, dass kurze Zyklen hohe Rmax und lange Zyklen niedrige Rmax prognostizieren. Sie erklären dies mit dem Sonnendynamo, der sich die Länge des vorangegangenen Zyklus‘ merkt.

Unter der Annahme einer Relation zwischen der Sonnenfleckenzahl und der globalen Temperatur könnte die profane periodische Änderung einer SCL auch korrelieren mit der globalen Temperatur, und solange wir uns auf dem aufsteigenden (oder absteigenden) Ast der 188-Jahres-Periode befinden, können wir ein wärmeres (oder kälteres) Klima vorhersagen.

Auch wurde gezeigt (Friis-Christensen and Lassen, 1992Hoyt and Schatten, 1993 und Lassen and Friis-Christensen, 1995), dass die Korrelation zwischen SCL und Klima möglicherweise seit Jahrhunderten aktiv ist. Eine statistische Untersuchung von 69 Sätzen von Baumringen, die über 594 Jahre abdeckt, und SCL zeigte, dass dickere Baumringe (bessere Wachstumsbedingungen) in Verbindung standen mit kürzeren Sonnenflecken-Zyklen (Zhou and Butler, 1998).

Die Relation zwischen der geglätteten SCL und der Temperatur funktionierte sehr gut, solange die SCL abnahm, wie in Abbildung 1 gezeigt. Aber zum Ende des kurzen Zyklus‘ 22 haben Thejll and Lassen (2000) von einer sich entwickelnden Inkonsistenz gesprochen. Um die hohen Temperaturen zur Jahrtausendwende zu erklären, musste der noch nicht beendete Zyklus 23 kürzer als 8 Jahre sein, was sehr unwahrscheinlich war, weil noch nie zwei derartig kurze Zyklen nacheinander beobachtet worden sind (siehe Abbildung 1). Sie schlossen daraus, dass die Art Sonnentreiber wie von diesem SCL-Modell beschrieben die Temperaturänderung nicht mehr so stark dominiert. Die endgültige Länge des Zyklus‘ 23 betrug schließlich 12,2 Jahre; die Diskrepanz wurde sogar noch größer.

Abbildung 1: Länge von Sonnenzyklen (invers) 1680 bis 2009. Der letzte Punkt bezieht sich auf den Zyklus 23, der 12,2 Jahre lang war. Die graduelle Abnahme der Länge von Sonnenzyklen wird mit einer geraden Linie dargestellt.

Schlussfolgerungen

Signifikante lineare Relationen wurden gefunden zwischen der mittleren Lufttemperatur während eines Sonnenzyklus’ und der Länge des vorangegangenen Zyklus’ (PSCL) für 12 von 13 Stationen in Norwegen und im Gebiet des Nordatlantik. An neun dieser Stationen wurde keine Autokorrelation auf dem 5%-Signifikanz-Niveau in den Restgrößen gefunden. An vier Stationen war der Autokorrelationstest unbestimmt, aber die Signifikanz der PSCL-Relationen erlaubte Vorhersagen für drei dieser Stationen mit einem Vertrauensniveau von 95%. Signifikante Relationen fanden sich auch hinsichtlich der gemittelten Temperaturen für Norwegen, die Temperaturanomalie an 60 europäischen Stationen sowie für die Temperaturanomalie bei HadCRUT3N. Die Temperaturen für Norwegen und dem Mittel von 60 europäischen Stationen zeigten indifferente oder gar keine Autokorrelationen in den Restgrößen. Die HadCRUT3N-Reihen zeigten signifikante Autokorrelationen in den Restgrößen.

Für die mittleren Temperaturen von Norwegen und die 60 europäischen Stationen liegt der solare Beitrag zu Temperatur-Variationen im untersuchten Zeitraum in einer Größenordnung von 40%. Ein sogar noch höherer Beitrag (63% bis 72%) wurde an den Stationen Färöer-Inseln, Island und Svalbard gefunden. Das ist höher als die 7% solarer Beitrag zum globalen Temperaturanstieg, der im AR 4 des IPCC genannt worden ist. Etwa 50% der Temperaturvariationen im HadCRUT3N-Datensatz seit 1850 kann der Sonnenaktivität zugeordnet werden. Allerdings ist diese Schlussfolgerung unsicherer wegen der in den Restgrößen gefundenen starken Autokorrelationen.

Die signifikanten linearen Relationen zeigen eine Verbindung zwischen der Sonnenaktivität und den Temperaturvariationen für die untersuchten Stationen und Gebiete. Ein Regressionsmodell auf der Grundlage der Relation zwischen PSCL und der mittleren Lufttemperatur wird verwendet, um die Temperatur im begonnenen Zyklus 24 vorherzusagen. Dieses Vorhersagemodell hat im Gegensatz zur Mehrheit der anderen Regressionsmodelle mit erläuternden Variablen den Vorteil, eine erläuternde Variable – die Länge eines Sonnenzyklus‘ – fast ohne Unsicherheiten zu verwenden. Normalerweise müssen die erläuternden Variablen vorhergesagt werden, was natürlich signifikante zusätzliche Unsicherheiten bei der weiteren Vorhersage zur Folge hätte.

Unsere Vorhersage zeigt eine mittlere Abkühlung von 0,9°C in der Nordhemisphäre während des Zyklus’ 24. Für Messungen der Stationen südlich von 75°N liegt der Temperaturrückgang in der Größenordnung 1,0°C bis 1,8°C und kann auch bereits begonnen haben. Für Svalbard wird eine Temperaturabnahme der jährlichen Mitteltemperatur während des Zyklus‘ 24 um 3,5°C vorhergesagt. Eine sogar noch stärkere Abkühlung wird für die Wintermonate vorhergesagt (Solheim et al., 2011).

Die arktische Verstärkung infolge von Rückkopplungen durch Änderungen der Schnee- und Eisbedeckung hat die Temperatur nördlich von 75°N um den Faktor 3 stärker zunehmen lassen als südlich  von 60°N (Moritz et al., 2002). Eine Abkühlung der Arktis könnte hinsichtlich einer globalen Abkühlung in gleicher Weise wirken, was zu einer geringeren globalen Abkühlung während des solaren Zyklus‘ 24 führen würde, und zwar um 0,3°C bis 0,5°C.

Unsere Studie hat sich auf einen Effekt konzentriert, der eine Sonnenzyklus-Länge verzögert auftritt, um ein Modell zur Vorhersage zu entwickeln. Da sich der solare Antrieb des Klimas in vielen Zeitmaßstäben zeigt, behaupten wir nicht, dass unser Ergebnis ein komplettes Bild des solaren Antriebs unseres Erdklimas vermittelt.

Link: http://wattsupwiththat.com/2014/06/13/new-study-suggests-a-temperature-drop-of-up-to-1c-by-2020-due-to-low-solar-activity/

Übersetzt von Chris Frey EIKE




Russlands geheime Waffen im Energiekrieg mit Europa

Mit der endlich geleisteten Unterschrift der Ukraine für ein „Partnerschaftsabkommen“ mit der EU scheint Russlands Umklammerung der Ökonomien der Region geschwächt. Aber das bedeutet noch lange nicht, dass es in seinen Versuchen nachlässt, die Ökonomien dieses Gebietes zu beeinflussen.

Der in Brüssel unterschriebene EU-Vertrag schiebt die ex-sowjetische Ökonomie näher an den Westen, was den Weg bereitet für finanzielle Unterstützung aus Europa und einen gewaltigen Markt für dessen Produkte. Die hoch verschuldete neue ukrainische Regierung braucht dringend frisches Geld. „Der Vertrag bedeutet neue Investitionen, neue Regeln ohne Korruption und neue Märkte, den größten Markt der Welt“, sagte der neue ukrainische Präsident Petro Pereschenko, ein im vorigen Monat gewählter Milliarden schwerer Schokoladen-Tycoon, nach der Unterzeichnungs-Zeremonie. Aus genau diesem Grunde könnte Russland seine Schlacht um den Erhalt seines Einflusses über die früheren Verbündeten verstärken – einschließlich der Versuche, Europas Abhängigkeit von den riesigen Energie-Ressourcen Russlands zu erhalten.

Dem Wirtschaftsminister der Ukraine Pavlo Sherementa zufolge macht sich das Land schon jetzt gefasst auf russische Vergeltungsmaßnahmen einschließlich der möglichen Blockierung von Exporten und Preisanhebungen. Vor Reportern sagte er kürzlich: „Wir müssen davon ausgehen, schon bald in einen Handelskrieg mit Russland einzutreten“.

Aber selbst unabhängig von einem Handelskrieg ist die Schlacht um ein anderes grundlegendes Thema – Energieabhängigkeit – bereits in vollem Gange.

Die Art und Weise, mit der Russland versucht, die Energieabhängigkeit Europas von Russland zu erhalten, kam vor Kurzem ans Tageslicht, und zwar aus einer unwahrscheinlichen Quelle, nämlich von NATO-Generalsekretär Anders Fogh Rasmussen. Der normalerweise unauffällige Däne, der sich nur selten zu Energiethemen äußert, sagte der in London ansässigen Denkfabrik Chatham House am 19. Juni (hier), dass Russland still und leise einige europäische Anti-Fracking-Umweltaktivisten unterstützt, um Europa daran zu hindern, der Schiefergas-Revolution in den USA zu folgen – und in der Folge den Kontinent von Russland abhängig bleiben zu lassen. Rasmussen behauptete, dass die NATO-Verbündeten die russische Manipulation auf frischer Tat ertappt hätten, und zwar durch „ausgeklügelte Informations- und Desinformations-Kampagnen“ innerhalb der gut organisierten europäischen Anti-Fracking-Gruppen.

Umweltaktivisten waren empört über Rasmussens Vermutung, dass Russland ihre Sache übernommen habe. „Man muss sich fragen, auf welchem Planeten er lebt“, sagte der Greenpeace-Campaigner Ben Ayliffe, der Leiter der Kampagne, Ölunternehmen daran zu hindern, in der Arktis zu bohren. Er verwies darauf, dass Russland jüngst zahlreiche Greenpeace-Aktivisten verhaftet habe. „Zu sagen, dass der Kreml uns in die Tasche steckt, ist absurd“.

Jedoch ist die Aussage, dass Russland danach trachten könnte, Anti-Fracking-Gruppen zu sponsern, Energiepolitik-Experten zufolge nicht ganz so absurd wie sie klingt.

Russland hat seine Gasexporte nach Europa lange als einen grundlegenden politischen Hebel betrachtet. Jedes Jahr gibt das Land Millionen aus, um westliche Regierungen hinsichtlich ihrer Energiepolitik zu beeinflussen. Gazprom allein wandte im vorigen Jahr 6 Millionen Dollar für Lobbyisten in Washington auf. Im Mai stoppte Russland seine Gaslieferungen an die Ukraine, transportieren doch Pipelines durch das Land das Gas nach Westeuropa. Begründet wurde der Lieferstopp mit der Behauptung, dass Kiew Milliarden Schulden bei Gazprom hat. Ein noch bedeutenderer Grund ist jedoch eine Vergeltungsmaßnahme für die Entscheidung der Ukraine, das Abkommen mit der EU zu unterzeichnen. Etwa 60% des von der Ukraine verbrauchten Gases stammt aus Russland, und im April hat Gazprom seine Preise für Exporte in die Ukraine um gewaltige 80% erhöht.

Aber es scheint so, als ob Russland auf subtilere Art versucht, Druck auf andere Nachbarländer auszuüben – vor allem auf jene, die EU-Mitglied sind. Forscher glauben, dass Russland tatsächlich Anti-Fracking-Kampagnen gesponsert hat, wenngleich in moderaten Mengen, die für sich genommen nicht ausreichen, die Meinung der Regierungen hinsichtlich des hydraulischen Brechens zu ändern. Nehmen wir zum Beispiel Bulgarien. Dort haben Energie-Analysten herausgefunden, dass die Russen verschiedene lokale Umweltgruppen finanziell gefördert haben.

Bulgarien, das ärmste EU-Mitglied mit geschätzten Schiefergas-Reserven von 17 Billionen Kubikfuß [?] hat im Jahre 2011 einen Schiefergas-Ausbeutungsvertrag mit Chevron unterschrieben, das Abkommen jedoch ein Jahr später aufgekündigt, nachdem lokale Umweltgruppen gegen die Pläne von Chevron protestiert hatten – und noch bevor das Unternehmen mit der Arbeit überhaupt begonnen hatte.

„Einige der hier aufgetauchten lokalen Umweltgruppen sind plötzlich sehr ängstlich geworden hinsichtlich Fracking und der Verschmutzung von Grundwasser“, sagte Andreas Goldthau, ein deutscher Energiepolitik-Experte, der gegenwärtig Dozent des Belfer Center for Science and International Affairs von Harvard ist und der Dutzende Politiker und Umweltaktivisten in Bulgarien interviewt hat, und zwar für eine Forschungs-Studie über die Energie-Kämpfe des Landes, die im Juni veröffentlicht wurde.

„Sie alle wurden offensichtlich von Russland finanziell gefördert, aber die Frage lautet, in welchem Umfang? Selbst wenn man eine noch rauchende Waffe findet, könnte man einfach einen 1000-Dollar-Scheck finden“.

Full story

Link: http://www.thegwpf.org/russias-secret-weapons-in-the-energy-war-with-europe/

Übersetzt von Chris Frey EIKE




Die Kernenergie ist wieder da

Normal 0 21 false false false DE JA X-NONE

Es ist genau drei Jahre her: Um 12.18 Uhr am Donnerstag, 30. Juni 2011, war es so weit: Bundestagspräsident Lammert bat die Abgeordneten zur Abstimmung per Handzeichen über die Novelle des Atomgesetzes und verkündete daraufhin: “Der Gesetzentwurf ist mit den Stimmen der vier Fraktionen CDU/CSU, FDP, SPD und Grünen angenommen.” Deutschland hatte den Atomausstieg beschlossen. Die politische Klasse in Berlin war sich sicher – die Welt werde diesem Beispiel folgen. Tatsächlich aber passiert genau das Gegenteil.

Vor allem das neue Großmächte-Quartett (Brasilien, Russland, Indien und China) setzt massiv auf Atomenergie. In China sind nach Angaben der Internationalen Atomenergiebehörde (IAEA) derzeit 29 neue Kernkraftwerke im Bau. Russland hat mit der Errichtung von zehn neuen Atomkraftwerken begonnen, in Indien werden bald sechs neue Meiler installiert sein. Der frisch gewählte indische Premierminister Narendra Modi erklärt: “Kernkraft wird ein Eckstein der indischen Energieversorgung.”

Doch nicht nur die aufstrebenden Wirtschaftsgroßmächte investieren massiv, immer mehr Länder entscheiden sich für den Neu-Einstieg, darunter die Türkei, Bangladesch, Ägypten, Jordanien, Nigeria und Vietnam. Selbst die Vereinigten Arabischen Emirate haben mit dem Bau eines Atomkraftwerks begonnen, ebenso Weißrussland und Finnland. Und rechtzeitig zur Fußball-WM meldet auch Argentinien den Spatenstich für ein neues Kernkraftwerk. Brasilien baut zwischen den Metropolen Rio de Janerio und Sao Paolo die Anlage “Angra dos Reis” am Atlantik. Auch die großen Bestände in Frankreich und den USA werden ausgeweitet. Der IAEA-Generaldirektor resümiert, die Kernenergie sei wieder ein globaler Wachstumsmarkt. Insgesamt seien weltweit 72 Kernkraftwerke neu im Bau; sie würden die bestehenden 435 Meiler massiv ergänzen……

Weiterlesen bei ACHGUT…




Wer erzeugt die „Wärmestrahlung“ und wer die „Lichtstrahlung“?

Materie ist energiegeladen, bewegte Atome erzeugen Wärmestrahlung

Alle Materie ist aus Atomen zusammensetzt. Diese sind in ständiger Bewegung. Es gibt kein Atom im Universum, das keine Wärme abgibt. Mag diese Wärme auch noch so winzig sein, sie ist doch niemals gleich null. William Thomson (1824-1907), der spätere Lord Kelvin, ist der Frage nachgegangen, bei welcher Temperatur jedwede Atombewegung erlischt und alle Atome sich in absoluter Ruhe befinden. Er fand heraus, dass alle Gase sich bei 1 Grad Temperaturänderung um den 273,2-ten Teil ihres Volumens ausdehnen oder zusammenziehen. Daraus folgerte er, dass es einen absoluten Temperatur-Nullpunkt gibt, bei -273,2° Celsius (O Kelvin). Bei dieser Temperatur ist der Wärmegehalt eines Stoffes, seine Energie, gleich null. Es ist zu vermuten, dass bewegte Atome die Quelle aller elektromagnetischen Strahlung sind. Die Atome enthalten Wärme. Wärme ist nichts anderes als die Bewegungsenergie der Atome und Moleküle. In festen Körpern ist es die Bewegungsenergie der Atome innerhalb eines Atomgitters.

Wärme ist die kinetische Energie der Molekülbewegung  und somit die Temperatur der Luft aus der kinetischen Gastheorie gemäß der Maxwell-Boltzmann-Verteilung berechenbar. Bei einem Luftgemisch von 80% Stickstoff (N2) und 20% Sauerstoff (O2) ergibt sich eine mittlere Molekül-Geschwindigkeit von etwa 500 m/sec. Ein leichtes Wasserstoffmolekül (H2) hätte eine mittlere Geschwindigkeit von etwa 1900 m/sec. Schwerere Gasteilchen wie CO2 besitzen ob des größeren Molgewichts bei gleicher Temperatur eine wesentlich geringere Geschwindigkeit. Sie reduzieren die mittlere Geschwindigkeitsverteilung, wirken folglich kühlend.

Wärme tritt überall dort auf, wo Atome vorhanden sind, also Materie. Jeder materielle Körper hat ein Gewicht, ist schwer. Das Gewicht wird verursacht durch das Schwerkraftfeld der Erde. Die Schwer- oder Gravitationskraft ist eine „Elementarkraft“, die zum Erdmittelpunkt gerichtet ist. Sie nimmt nach außen mit dem Quadrat der Entfernung ab. Daher hat jeder Körper auf der Erdoberfläche eine potenzielle Energie. Hebt man eine Kugel hoch, so erhöht man deren potenzielle Energie, die beim Fallenlassen in kinetische Energie gewandelt wird. Rollt eine Kugel auf einer waagerechten Fläche, so verliert sie nach und nach ihre Bewegungsenergie. Das Rollen der Kugel ist mit Reibung verbunden. Diese erhöht die Temperatur, erzeugt Wärme. Derartige Roll- oder Trittspuren geben die Wärme als langwellige Wärmestrahlung ab. Diese ist für das menschliche Auge nicht sichtbar, aber sehr wohl für das infrarotsensible Auge einer Klapperschlange, die auf diese Weise in aller Ruhe Mäuse ortet, verfolgt und verschlingt.

Führt man einem Stoff, etwa einem Stück Eisen, Energie zu, dann erwärmt es sich und ab einer bestimmten Temperatur kann man mit der Haut die Wärmestrahlung spüren. Deren Reichweite ist jedoch gering, vergrößert sich aber mit zunehmender Erhitzung. Erhitzt man das Eisenstück weiter, dann fängt es irgendwann schwach rötlich zu glühen. Bei weiterer Erhitzung geht die Rotglut in Gelbglut und schließlich Weißglut über. Das Eisen sendet nun nicht mehr nur unsichtbare infrarote Wärmestrahlung aus, sondern auch sichtbares Licht. Mit der Zunahme der Temperatur verschiebt das Maximum der abgestrahlten Energie in immer kürzere Wellenlängenbereiche. Es ist wie bei der Sonnenstrahlung, wo der Anteil der unsichtbaren Wärmestrahlung fast 50% der Gesamtstrahlung ausmacht. Es war Wilhelm Herschel (1738-1822), der im Jahr 1800 die Sonnenstrahlung durch ein Prisma leitete, in die Regenbogenfarben zerlegte und deren Temperaturen maß. Jenseits des Roten entdeckte er die Infrarotstrahlung. Die Gesamtenergie, die ein glühender Stoff abstrahlt, ist stets die Summe aus Wärme- und Lichtenergie.

Wenn auch Energie niemals ausgelöscht werden kann, so erleidet sie bei jeder Umwandlungsstufe einen Qualitätsverlust. Ein Anteil wird zu Wärme. Wenn kein Temperaturgefälle zur Umgebung mehr da ist, dann kann sie keine Arbeit mehr leisten, auch nicht mehr einen Raum heizen. Eine naturgesetzliche Eigenschaft der Wärme ist, dass sie stets vom Heißen zum Kalten fließt, niemals umgekehrt. Alle Materie hat nämlich das Bestreben, den ihr möglichen niedrigsten Energiezustand einzunehmen. Bringt man zwei Körper unterschiedlicher Temperatur zusammen, so wird sich der wärmere abkühlen, bis beide die gleiche Temperatur haben.

Die Wärmeenergie nimmt in der Natur eine Sonderstellung ein. Wärme fließt immer „bergab“, von höherer zu tieferer Temperatur. Das bedeutet: Zum Erwärmen eines Stoffes ist immer Energie nötig. Abkühlen tut er sich von ganz alleine. Aus dieser Beobachtung heraus formulierte Isaac Newton sein berühmtes „Abkühlungsgesetz“. Nur mittels Energiezufuhr kann Wärme Arbeit leisten, d. h. Wasser zum Verdampfen bringen, mit dem Dampf einen Kolben bewegen, somit einen Dynamo in Bewegung setzen und elektrischen Strom erzeugen. Mit diesem Strom kann man einem Raum beleuchten und einen Heizkörper erwärmen. Bei jedem Energieumwandlungsprozess geht ein Teil als Wärmeenergie unwiederbringlich verloren, vermindert sich die Arbeitsfähigkeit der ursprünglich erzeugten Energie.

Licht und Wärme sind beide elektromagnetische Wellen, die nur unterschiedliche Wellenlängen haben. Wärmestrahlung ist langwelliger als Lichtstrahlung, deren Spektrum von 0,4 bis 0,8 µm reicht. Wir Menschen können sie nur deshalb nicht sehen, weil die Nervenzellen unserer Augen auf sie nicht reagieren. Dafür können die Nervenzellen unserer Haut die Wärmestrahlung wahrnehmen, Gewinne wie Verluste registrieren, damit wir uns vor Überhitzung ebenso wie vor Unterkühlung schützen können. Bei Überhitzung fangen wir an zu schwitzen und nutzen die Verdunstungskälte zur Abkühlung der Haut. Bei Unterkühlung ziehen wir „nackte Affen“ Felle an, um den Wärmeverlust des Körpers zu reduzieren.

Nicht das Atom als Ganzes, nur seine Elektronen erzeugen Licht

Licht ist zwar auch elektromagnetische Strahlung, aber es spielt eine ganz besondere Rolle, denn es bildet die Grundlage für alles Leben auf der Erde. Vor allem ist das Licht die Energiequelle bei der Photosynthese. Die Photosynthese ist der Prozess, in dem die grüne Pflanze aus Kohlenstoffdioxid (CO2) und Wasser (H2O) mit Hilfe des grünen Blattfarbstoffs (Chlorophyll) und des Sonnenlichts Kohlenhydrate (C6H12O6, z. B. Zucker, Stärke) und Sauerstoff (O2) produziert. In einem Jahr werden nach vorsichtigen Schätzungen 1010 Tonnen Kohlenstoff durch die Photosynthese fixiert, d. h. in Zucker bzw. Stärke umgewandelt. Diese riesige Menge an Kohlenstoff entspricht der Ladung eines Kohlenzuges, der fünfmal zum Mond und zurück reicht. Jeder Wagen enthalte 25 Tonnen Kohle und sei 10 m lang. Die Entfernung Erde – Mond beträgt 380 000 km. Der Zug hätte eine Länge von 3,8 Millionen km. Die Photosynthese ist der größte Syntheseprozess, den es auf der Erde gibt. Ohne CO2 in der Luft käme er zum Erliegen und mit ihm alles Leben auf der Erde.

Aber wie wird die Entstehung von Licht physikalisch erklärt? Dazu muss man sich das Atom näher ansehen. Bei der Wärme sind es die ganzen aus positiven und negativen Ladungen aufgebauten Atome, die sich bewegen. Die Elektronen verharren auf ihren angestammten Schalen und schwingen mit. Steigt die Wärmezufuhr von außen und beginnt Eisen rot zu glühen, dann ändern die Elektronen plötzlich ihre Energiezustände. Sie verlassen ihre Schale und springen auf eine höhere, weiter außen gelegene Schale. Dies tun sie nicht freiwillig, sie werden durch Energiezufuhr dazu gezwungen. Die Elektronen wollen wieder in ihren Grundzustand und fallen auf die ursprüngliche Schale zurück, wobei sie die aufgenommene Energie als Lichtwelle mit ganz bestimmter Frequenz wieder abgeben. Licht ist eine Art „Fallenergie“ der Elektronen in der Atomhülle.

Man bedient sich bei dieser Beschreibung dem 1913 von Niels Bohr (1885-1962) entworfenen Atommodell. Dieses Modell ist unserem Sonnensystem entlehnt, wo Planeten auf geschlossenen Bahnen die Sonne umkreisen. Atome bestehen danach aus einem schweren, positiv geladenen Kern und leichten, negativ geladenen Elektronen, die in verschiedenen Schalen auf geschlossenen Bahnen den Kern umkreisen. Da die Anziehungskraft des Atomkerns auf die Elektronen mit dem Quadrat der Entfernung abnimmt, werden bei äußerer Energiezufuhr zuerst die äußeren Elektronen Schalensprünge ausführen, denn ihre Bindung an den kern ist am schwächsten. Der Licht-Tanz der Elektronen zwischen den Schalen geht solange weiter, wie dem Atom Wärme zugeführt wird. Wird bei einer glühenden Herdplatte der Strom ausgeschaltet, so kann man zusehen, wie die Rotglut und mit ihm das Licht verschwindet. Es dauert aber noch längere Zeit, bis die Herdplatte soweit abgekühlt ist, dass man sie berühren kann, ohne sich die Finger zu verbrennen. Auch hier zeigt sich, dass die Abkühlung automatisch erfolgt, die Erhitzung aber viel Energie erfordert.

Inzwischen ist die „Theorie der Elektronensprünge“ von Niels Bohr längst überholt. Ab etwa 1925 haben sich quantenmechanische Atommodelle durchgesetzt, die den Elektronen keine Bahnen mehr zuweisen, sondern nur von Aufenthaltswahrscheinlichkeiten sprechen. Unser Verstand wird stark strapaziert, wenn wir begreifen sollen, dass Licht, je nach Experiment, mal als Welle, mal als Teilchen erscheinen kann. Diese mangelnde Eindeutigkeit bzw. Unschärfe der elementaren Materie führte zu der Erkenntnis, dass die Natur im Bereich der Atome nicht mehr eindeutig und dem Menschen verschlossen ist. Werner Heisenberg (1901-1976) hat diese Tatsache der Beobachtungsunschärfe im Quantenbereich als Erster erkannt und als Gesetz formuliert. Er erhielt dafür 1932 den Nobelpreis für Physik. Das menschliche Wissen hat also Grenzen, die die Natur selbst zieht. Die Natur will nicht, dass der Mensch alles über sie weiß. Wenn das für den Ist-Zustand schon gilt, wie viel schwieriger ist es dann, zukünftige Zustände zu berechnen und vorherzusagen? Meteorologen wissen ein Lied davon zu singen!

Spektralanalyse und „Treibhauseffekt“ vertragen sich nicht!

Wenn auch dem Mensch die inneratomaren Vorgänge mit dem „Tanz der Elektronen“ schleierhaft sind, so weiß er doch, dass jede Elementart einen einmaligen Atomaufbau hat, der sie von allen andern Elementen unterscheidet. Jedes Element zeigt beim Erhitzen eine für sie typische Art der Lichtaussendung. Gustav Kirchhoff (1824-1887) und Robert Bunsen (1811-1899) haben im Jahre 1859 die Spektralanalyse entwickelt und dabei erkannt, dass jedes Element in ganz charakteristischen Farben verbrennt. Dieser Umstand ermöglicht es, die genaue Zusammensetzung eines Stoffes zu bestimmen. Man muss den Stoff durch Erhitzen nur in den Gaszustand bringen, wobei jedes im Stoff enthaltene Element ein ganz bestimmtes Farbspektrum zeigt. Dies wird mit dem Spektrographen aufgezeichnet. Jedes Element sendet beim Verbrennen eine bestimmte Anzahl verschiedener Wellenlängen aus und bringt so ein immer gleiches Muster von Spektrallinien hervor, das kein anderes Element mit ihm teilt.

Jedes Element kann an den für es charakteristischen Spektrallinien identifiziert werden, so wie ein Mensch anhand seines Fingerabdrucks. Dies gilt aber nur für Atomgase mit ihren Linienspektren und Molekülgase mit ihren Bandenspektren. Heiße Festkörper zeigen weder Banden noch Linien, sondern fortlaufende kontinuierliche Spektren, die keine Elementbestimmung erlauben. Da jeder feste oder flüssige Körper ein kontinuierlicher Strahler ist, kann die Erde, deren atmosphärische Gase nur ganz selektiv auf ganz bestimmten Wellenlängen Strahlung absorbieren können, nicht an ihrer Abkühlung, der Wärmeabgabe durch Strahlung, gehindert werden.

In dem ganz entscheidenden Temperaturbereich mit Oberflächentemperaturen zwischen -50 und +100° Celsius ist die Atmosphäre transparent oder durchsichtig. Die Erde hat in dem Spektralbereich zwischen 8 und 12 Mikrometer ein „stets offenes Strahlungsfenster“, durch das ihre Wärmestrahlung ungehindert ins Weltall entweichen kann. Es gibt kein Zurück für sie! Keines der „Treibhausgase“ mit seinen stoffspezifischen Absorptionslinien kann dieses „Fenster“ schließen. Die Atmosphäre ist eine Gashülle und keine Glashülle, wie sie bei Gewächshäusern üblich ist. Letztere müssen aus Glas sein, weil zur Photosynthese Sonnenlicht unverzichtbar ist. Ebenso unverzichtbar ist auch das angebliche „Umweltgift“ CO2!

Oppenheim, dim Juni 2014  Dipl.-Met. Dr. phil. Wolfgang Thüne




Stimmt die Behauptung, eine Windturbine amortisiere sich nach 8 Monaten

Amortisierung von Windturbinen

US-Forscher haben eine Abschätzung des Umwelt-Lebenszyklus’ von 2-Megawatt-Windturbinen durchgeführt, die im Rahmen eines großen Windparks im Nordwesten der USA am Pazifik errichtet worden sind. Im International Journal of Sustainable Manufacturing kommen sie zu dem Ergebnis, dass hinsichtlich der kumulierten Energie-Amortisierung oder der Erzeugung der Energiemenge, die die Produktions- und Installationskosten einspielt, eine Windturbine mit einer Lebensdauer von 20 Jahren innerhalb von fünf bis acht Monaten insgesamt einen Vorteil erwirtschaftet, wenn sie online geschaltet ist.

Windturbinen werden oftmals aufdringlich als die Antwort nachhaltiger Stromerzeugung angepriesen, vor allem, wenn damit eine Hochkapazitäts-Speicherung verbunden ist, wenn der Wind zu stark oder zu schwach bläst. Sie bieten eine Energiequelle, die nahezu Null Kohlenstoff-Emissionen aufweist.

Die gekoppelten Kosten des Lebenszyklus’ und die Umwelt-Einschätzung hinsichtlich Energieverbrauch und Emissionen bei Herstellung, Installation, Wartung und ordnungsgemäßem Rückbau scheinen in den Diskussionen für und gegen diese Apparate begrenzt zu sein. „Alle Formen der Energieerzeugung erfordern die Umwandlung des Inputs natürlicher Ressourcen, die mit Umweltauswirkungen und Kosten einhergehen, die quantifiziert werden müssen, um vernünftige Entscheidungen zur Entwicklung von Energiesystemen zu treffen“, erläutern Karl Happala und Preedanood Prempreeda von der Oregon State University in Corvallis.

Das Duo hat eine Abschätzung des Lebenszyklus’ (LCA) von 2-Megawatt-Windturbinen durchgeführt, um die Umwelteinflüsse insgesamt von Herstellung und Gebrauch dieser Apparate zur Stromerzeugung zu identifizieren. Bei einer LCA gehen die Förderung zentraler Rohmaterialien ein (Stahl, Kupfer, Fiberglas, Plastik, Beton und andere Materialien), sowie Transport, Herstellung, Installation der Turbine, durchgehende Wartung während der vorgesehenen 20 Betriebsjahre und schließlich auch die Auswirkungen von Recycling und Entsorgung am Ende dieses Zyklus‘.

Ihre Analyse zeigt, dass die große Mehrheit der vorhergesagten Umweltauswirkungen bei der Herstellung der Materialien und des eigentlichen Herstellungsprozesses auftreten. Allerdings fand das Team, dass die Amortisierung der damit verbundenen Energieerzeugung nach etwa 6 Monaten eintritt. Es ist wahrscheinlich, dass selbst im Worst-Case-Szenario die Windturbine schon im ersten Betriebsjahr Gewinn abwirft. Folglich wird jede Turbine während der 19 folgenden Jahre im Endeffekt über 500 Haushalte mit Strom versorgen, ohne dass diese konventionell erzeugte Energie verbrauchen.

###

Haapala, K.R. and Prempreeda, P. (2014) ‘Comparative life cycle assessment of 2.0 MW wind turbines’, Int. J. Sustainable Manufacturing, Vol. 3, No. 2, pp.170-185.

———————————————————————

Und hier der Fehler, den einige auch einfach das Übersehen eines unbequemen Umstands nennen:

Folglich wird jede Turbine während der 19 folgenden Jahre im Endeffekt über 500 Haushalte mit Strom versorgen, ohne dass diese konventionell erzeugte Energie verbrauchen.

Das Problem hier ist die Hypothese, dass eine Windturbine das Äquivalent eines konventionellen Kohle- oder Kernkraftwerkes ist. Das ist nicht der Fall, wissen wir doch, dass der Wind nie konstant weht:

„Meine größte Angst ist: falls einmal nur 20 Prozent Wind in unserem System weht und er dann zu einer Zeit ganz einschläft, ohne dass man Ersatz-Ressourcen hat – das wird zu einer Blackout-Situation führen“, sagt er.

Falls es keine Backup-Energiequelle für jene 500 Haushalte gibt, würden sie im Dunkeln liegen, wenn der Wind unter ein Minimum fällt, der zum Betrieb der Windturbine erforderlich ist.

Beispiel: eine populäre Windturbine, die Vestas V90-2.0 mit 2 Megawatt nennt in ihren technischen Details:

Durch Eigenbeobachtung kann ich sagen, dass es eine ziemlich große Anzahl von Tagen gibt, an denen der Wind unter dem Level von 4 m/s weht, selbst an der Spitze der Turbine. Heute zum Beispiel gibt es ziemlich viele Gebiete mit geringer Windgeschwindigkeit oder gar Windstille in den USA. Die blauen Bereiche markieren die Gebiete mit geringem Wind:

Quelle

Wie wir oben gesehen haben: Wenn am meisten Strom gebraucht wird, können wir uns nicht immer darauf verlassen, dass der Wind mit einer Stärke weht, die die Windturbine am Leben hält (hier). Notwendig ist also eine andere Energiequelle als Backup. Folglich ist es ein krasser Trugschluss zu behaupten:

Folglich wird jede Turbine während der 19 folgenden Jahre im Endeffekt über 500 Haushalte mit Strom versorgen, ohne dass diese konventionell erzeugte Energie verbrauchen.

Link: http://wattsupwiththat.com/2014/06/16/wind-turbine-payback-period-claimed-to-be-within-8-months/#more-111554

Übersetzt von Chris Frey EIKE




Sonnenflecken und Wassertemperatur

Dr. Shavivs Studie stellt die Behauptung auf, dass sowohl der ozeanische Wärmegehalt als auch die Wassertemperatur SST mit dem etwa 11-jährigen Sonnenzyklus variieren. Obwohl unklar ist, was mit dem Wort „wir“ gemeint ist, wenn er es verwendet, sagt er: „wir zeigen, dass der Gesamt-Strahlungsantrieb in Verbindung mit den Variationen der Sonnenzyklen etwa 5 bis 7 mal größer ist als jener in Verbindung mit Variationen der Gesamt-Einstrahlung TSI. Es ist also ein Verstärkungs-Mechanismus erforderlich, ohne dass wir auf einen bestimmten zeigen“. Da die Daten des ozeanischen Wärmegehaltes sowohl verstreut als auch unvollständig sind, habe ich einmal untersucht, ob die vollständiger vorliegenden Daten der SST Anzeichen des behaupteten Einflusses der Sonnenzyklen zeigen.

Anfangen möchte ich mit dem, was Shaviv im Jahre 2008 über die Behandlung der Daten sagte:

„Vor der Ableitung des globalen Wärmeflusses aus dem beobachteten ozeanischen Wärmegehalt muss man detaillierter die von uns verwendeten verschiedenen Datensätze untersuchen, um noch besser deren Grenzen zu verstehen. Da wir sie miteinander vergleichen wollen, beginnen wir mit der Erstellung vergleichbarer Datensätze mit gleicher Auflösung und zeitlicher Länge. Wir packen also höher aufgelöste Daten in Ein-Jahres-Körbe und beschneiden alle Datensätze auf den Zeitraum 1955 bis 2003“.

Ich vermute, dass sie 1955 deswegen als Startpunkt ihrer Daten benutzt haben, weil die Daten des ozeanischen Wärmegehaltes ab 1955 vorliegen. In ihrer Studie verwenden sie den HadISST-Datensatz, also die „Ice and Sea Surface Temperature“-Daten. Also ging ich zur wunderbaren KNMI-site und habe diese Daten von dort mit den Daten zu den Sonnenflecken verglichen. Hier folgen die ungekürzten Versionen der SIDC-Sonnenflecken und der Wassertemperaturdaten von HadISST:

Abbildung 1: Sonnenfleckenzahlen (oberes Paneel) und Wassertemperaturen (unteres Paneel).

Gibt es also eine solare Komponente in den SST-Daten? Nun, schaut man sich Abbildung 1 an, kann man auf den ersten Blick sagen: falls es eine solche Komponente gibt, ist sie ziemlich klein. Wie klein? Nun, dazu brauchen wir die Mathematik. Ich beginne oft mit einer Kreuz-Korrelation. Eine Kreuz-Korrelation beleuchtet nicht nur, wie gut korreliert zwei Datensätze sein könnten. Sie zeigt auch, wie gut die beiden Datensätze korreliert sind mit einer Verzögerung zwischen beiden. Abbildung 2 zeigt die Kreuz-Korrelation zwischen den Sonnenflecken und der SST:

Abbildung 2: Kreuz-Korrelation, Sonnenflecken und Wassertemperaturen. Man beachte, dass sie bei keiner Verzögerung irgendwie signifikant sind, und das ohne Berücksichtigung von Autokorrelation [?].

Ich kann also nichts Signifikantes bei der Kreuz-Korrelation der beiden Datensätze über deren volle Länge erkennen, also im Zeitraum 1870 bis 2013. Allerdings haben sie nicht den gesamten Datensatz verwendet, sondern nur den Teil im Zeitraum 1955 bis 2003. Das sind nur 49 Jahre … und an diesem Punkt beginne ich, nervös zu werden. Man erinnere sich, wir suchen nach einem 11-jährigen Zyklus. Ergebnisse aus diesem speziellen halben Jahrhundert repräsentieren also nur drei vollständige Solarzyklen, und das ist dürftig… Aber wie auch immer, hier folgt die Kreuz-Korrelation der zeitlich begrenzten Datensätze 1955 bis 2003:

Abbildung 3: Kreuz-Korrelation von Sonnenflecken und Wassertemperaturen, zeitlich begrenzt auf den Zeitraum 1955 bis 2003. Man beachte: während sie größer sind als im vollständigen Datensatz, sind sie bei keiner Verzögerung immer noch nicht signifikant, und das ohne Berücksichtigung der Autokorrelation.

Nun kann ich verstehen, warum man glauben könnte, dass es eine Korrelation zwischen der Wassertemperatur und Sonnenflecken gibt, wenn man nur die verkürzten Datensätze betrachtet. Zumindest Abbildung 3 zeigt eine positive Korrelation ohne Verzögerung, und zwar eine, die fast schon statistisch signifikant ist, wenn man Autokorrelation ignoriert.

Aber zur Erinnerung: In der Kreuz-Korrelation des vollständigen Datensatzes (Abbildung 2) beträgt die Korrelation ohne Verzögerung … nun, Null. Die offensichtliche Korrelation im nur ein halbes Jahrhundert umfassenden Datensatz verschwindet vollständig, wenn man den ganzen, 140 Jahre langen Datensatz betrachtet.

Dies beleuchtet ein gewaltiges periodisch wiederkehrendes Problem bei der Analyse natürlicher Datensätze und der Suche nach regelmäßigen Zyklen. Regelmäßige Zyklen, die offensichtlich auftauchen, dauern ein halbes oder sogar ein ganzes Jahrhundert, um dann ein Jahrhundert lang zu verschwinden…

In Shaviv 2008 zeigt der Autor einen Weg, um dieses Rätsel zu umgehen, nämlich:

„Eine weitere Möglichkeit, die Ergebnisse sichtbar zu machen, ist es, die Daten über den 11-jährigen Sonnenzyklus zu mitteln. Dies reduziert den Relativ-Beitrag von Quellen, die nicht mit der Sonnenaktivität korreliert sind, da sie dazu tendieren, sich herauszumitteln (seien diese nun real oder Rauschen)“.

Zur Stützung dieser Behauptung zeigt der Autor die folgende Abbildung:

Abbildung 4: Dies ist die Abbildung 5 aus der Shaviv-Studie. Für diesen Beitrag von Interesse ist das obere Paneel, das die angebliche Oszillation der gemittelten Zyklen zeigt.

Nun, dieses Verfahren habe ich selbst auch schon angewandt. Würde ich das allerdings hier tun, würde ich es nicht so machen wie er. Er hat für das solare Minimum eine Zeit t = 0 definiert und dann die Daten über die folgenden 11 Jahre gemittelt. Würde ich das auch so machen, würde ich sie am Spitzenwert anpassen und dann das Mittel von, sagen wir, sechs Jahren vor und nach diesem Spitzenwert bilden.

Aber wie auch immer, anstatt es auf meine Art zu tun, dachte ich mir zu schauen, ob ich seine Ergebnisse nachvollziehen konnte. Unglücklicherweise traf ich auf einige Schwierigkeiten, als ich die tatsächlichen Berechnungen durchzuführen begann. Hier kommt die erste Schwierigkeit:

Abbildung 5: Die von Shaviv 2008 verwendeten Daten, um die vermeintliche Korrelation zwischen Sonnenflecken und Wassertemperatur zu zeigen.

Sie werden das Problem sicher auch erkennen. Weil der Datensatz so kurz ist (n = 49 Jahre), gibt es nur vier solare Minima – 1964, 1976, 1986 und 1996. Und dass der verkürzte Datensatz im Jahre 2003 endet bedeutet, dass es während dieses Zeitraumes nur drei vollständige Sonnenzyklen gegeben hatte.

Dies führt direkt zu einem zweiten Problem, und zwar der Größenordnung der Unsicherheit bei den Ergebnissen der „zentrierten“ Daten. Mit der Analyse von nur drei vollständigen Zyklen wird die Unsicherheit ziemlich groß. Hier sind die drei zentrierten Datensätze, zusammen mit dem Mittel und dem 95%-Vertrauens-Intervall um das Mittel:

Abbildung 6: Wassertemperaturen über drei vollständige Sonnenzyklen, „zentriert“ über den 11-jährigen Sonnenzyklus, wie ihn Shaviv 2008 beschrieben hat.

Wenn ich also nach einem sich wiederholenden Zyklus suche, schaue ich auf das 95%-Vertrauens-Intervall (CI) des Mittels.  Enthält das 95%-CI die Null-Linie bedeutet das, dass die Variation nicht signifikant ist. Das Problem in Abbildung 6 ist natürlich die Tatsache, dass es nur drei Zyklen in dem Datensatz gibt. Als Folge geht das 95%-CI „vom Fußboden bis an die Decke“, wie man so sagt, und die Ergebnisse sind nicht im Mindesten signifikant.

Warum aber sehen die Ergebnisse von Shaviv 2008 in Abbildung 4 so überzeugend aus? Nun, weil er nur die Standardabweichung als Unsicherheit in seinen Ergebnissen zeigt, obwohl nur das 95%-CI von Relevanz ist. Hätte er dieses 95%-CI gezeigt, wäre offensichtlich geworden, dass die Ergebnisse nicht signifikant sind.

Allerdings spielt nichts davon eine Rolle. Warum nicht? Weil der behauptete Effekt verschwindet, wenn wir den vollständigen Wassertemperatur- und Sonnenflecken-Datensatz untersuchen. Deren allgemeine Periode reicht von 1870 bis 2013, so dass es noch viel mehr Zyklen zum Mitteln gibt. Abbildung 7 zeigt den gleichen Typ „zentrierter“ Analysen, nur diesmal für den gesamten Zeitraum von 1870 bis 2013:

Abbildung 7: Wassertemperaturen aller solaren Zyklen von 1870 bis 2013, „zentriert“ über den 11-jährigen Sonnenzyklus wie in Shaviv 2008 beschrieben.

Hier sieht man das Gleiche, was sich schon bei der Kreuz-Korrelation gezeigt hat. Der offensichtliche Zyklus, der im letzten halben Jahrhundert der Daten präsent zu sein scheint, also der in Shaviv 2008 gezeigte Zyklus, verschwindet vollständig, wenn man den gesamten Datensatz betrachtet. Und trotz eines viel kleineren 95%-CI, weil wir mehr Daten haben, gibt es keine statistisch signifikante Abweichung von Null. Zu keiner Zeit erkennt man irgendetwas Unerklärliches oder Ungewöhnliches.

Und daher noch einmal: Ich finde, dass sich die Behauptungen hinsichtlich einer Verbindung zwischen Sonne und Klima in Luft auflösen, wenn man sie genauer untersucht.

Ich möchte hier klarstellen, was ich hier sage und was ich NICHT sage. Ich sage NICHT, dass die Sonne das Klima nicht beeinflusst.

Ich sage nur, dass ich immer noch kein überzeugendes Anzeichen des 11-jährigen Sonnenflecken-Zyklus‘ in irgendeinem Klima-Datensatz gefunden habe. Auch hat bislang niemand einen solchen Datensatz gezeigt. Und solange das nicht der Fall ist, ist es sehr schwierig zu glauben, dass selbst kleinere untergeordnete Variationen der Sonnenstärke einen signifikanten Einfluss auf das Klima haben können.

Also möchte ich hier, wie ich hoffe zum letzten Mal, die offene Herausforderung benennen. Wo ist der Klima-Datensatz, der den etwa 11-jährigen Sonnenflecken-/Magnetismus-/kosmische Strahlen-/Sonnenwind-Zyklus zeigt? Shaviv plappert viele andere nach, wenn er behauptet, dass es irgendeinen unbekannten Verstärkungs-Mechanismus gibt, der die Auswirkungen „etwa 5 bis 7 mal größer macht als jene, die mit den TSI-Variationen in Verbindung stehen“. Allerdings sehe ich diesen nicht. Wo also können wir diesen 11-jährigen Zyklus finden?

[Anmerkung des Übersetzers: Könnte es sein, dass Eschenbach den Svensmark-Effekt nicht kennt? Oder verstehe ich da irgendetwas nicht?]

Link: http://wattsupwiththat.com/2014/06/06/sunspots-and-sea-surface-temperature/

Übersetzt von Chris Frey EIKE




Klima-Burnout nähert sich rasch

Die Untersuchung durch ein Team leitender Wissenschaftler aus unterschiedlichen Disziplinen wurde vom University College London initiiert, um bessere Wege zu finden, die Öffentlichkeit über Klimawissenschaft aufzuklären.

Einer Umfrage vor ein paar Wochen zufolge ist das öffentliche Interesse an der Klimaänderung während der letzten paar Jahre drastisch zurückgegangen, wurde dabei doch herausgefunden, dass die Anzahl der Google-Suchen nach der Phrase „global warming“ seit einem Spitzenwert im Jahre 2007 um 84 Prozent gefallen ist.

Das Vertrauen in die Klimawissenschaft wurde im Jahre 2010 durch die Enthüllung unterminiert, dass das Regierungen beratende IPCC fälschlich behauptet hatte, dass die Himalaya-Gletscher bis zum Jahr 2035 verschwunden sein könnten. Auch wurde den Wissenschaftlern vorgeworfen, die Rate des arktischen Meereis-Verlustes durch die Behauptung zu übertreiben, dass der Nordpol bis zum Jahr 2020 im Sommer eisfrei sein könnte. Anderen Wissenschaftlern zufolge ist dies vor dem Jahr 2050 unwahrscheinlich.

Vor einem Jahrzehnt wurden Behauptungen aufgestellt und später zurückgezogen, denen zufolge der Schnee auf dem höchsten Berg Afrikas, dem Kilimandscharo, bis 2015 verschwunden sein könnte.

Die Untersuchung unter der Leitung von Prof. Chris Rapley, einst Direktor des Science Museum, kommt zu dem Ergebnis: „Alarmistische Aussagen, die nicht eintreffen, tragen zum Vertrauensverlust in die wissenschaftliche Gemeinschaft bei“.

Im Bericht heißt es, dass Klimawissenschaftler Schwierigkeiten haben, „Botschaften zu verbreiten, die alarmierend sind, ohne in Alarmismus abzugleiten“. Auch heißt es darin, dass die Medien teilweise dafür verantwortlich sind, wenn sie auf der Suche nach einer „aufregenden Schlagzeile“ [a striking headline] sind.

Allerdings sagt der Bericht, dass es auch „Vorurteile gebe, dass eine Informationen bedrohende Kommunikation ein notwendiger und effektiver Katalysator für Änderungen des individuellen Verhaltens ist“. Er sagt, dass die „klimawissenschaftliche Gemeinde“ schnell dabei ist, jene herauszufordern, die die Klimaänderung herunterspielen, während sie dagegen viel weniger Interesse daran hat, „alarmistische Fehlinterpretationen“ der Klimaforschung zu hinterfragen. Untergangslastige Berichte wecken ängstliche Gefühle, die aber nicht lange andauern. „Mit der Zeit wird diese Sorge betäubt und ändert sich zu Desensibilisierung und zunehmendem Abstand zu diesem Thema insgesamt.

Das Scheitern spezifischer Vorhersagen der Klimaänderung, die nicht eingetreten sind, erzeugt den Eindruck, dass die klimawissenschaftliche Gemeinde als Ganzes zu falschen Alarmen Zuflucht sucht. Wenn offensichtliche Fehlvorhersagen nicht adäquat erklärt werden, werden Aussagen zu zukünftigen Bedrohungen immer unglaubwürdiger“.

Dem Bericht zufolge stehen 30.000 Klimawissenschaftler weltweit im Mittelpunkt einer intensiven öffentlichen Diskussion über Schlüsselfragen wie zum Beispiel der Frage, woher wir künftig unsere Energie beziehen sollen. Allerdings sind sie „schlecht vorbereitet“, sich diesen Fragen zu stellen.

Hinzugefügt wird noch, dass sich diese Schwierigkeit, ihre Arbeit zu präsentieren, „als wenig hilfreich bei der Formulierung einer auf Beweisen beruhenden Politik erwiesen hat, was ihre Stellung in der Öffentlichkeit schädigt“.

Full story (subscription required)

Link: http://wattsupwiththat.com/2014/06/24/climate-burnout-is-fast-approaching/

Anmerkung des Übersetzers: Dazu gibt es bei WUWT noch einen kleinen Folgebeitrag. Auch hierzulande gehen ja im Bereich der „Erneuerbaren“ immer mehr Arbeitsplätze verloren. Zu dem weltweiten Phänomen schreibt Anthony Watts:

Genau wie die globale Temperatur scheinen ‚Klima-Arbeitsplätze‘ einen Höhepunkt überschritten zu haben und jetzt rückläufig zu sein

Anthony Watts

Aus der Abteilung „auch Sie können ein professioneller Klimatologe sein“ kommt die folgende sehr interessante Graphik. Leser Shawn Fitzpatrick sandte die folgende Graphik, nachdem er unseren früheren Beitrag zum Klima-Burnout gelesen hatte [siehe oben!].

Sie zeigt die Klimawissenschaft im Abwärtstrend, inzwischen bis zum Niveau des Jahres 2008:

Quelle: http://www.indeed.com/jobanalytics/jobtrends?q=%22climate+change%22&l=

Dies passt sehr gut zu den Trendzahlen von Google:

Quelle: http://www.google.com/trends/explore#q=climate%20change%2C%20Global%20warming%2C%20climate&cmpt=q

Alles in allem scheint das Interesse an Klima und globaler Erwärmung in jeder Hinsicht abzunehmen, sei es hinsichtlich des Interesses im Internet oder der Arbeitsplätze.

Link: http://wattsupwiththat.com/2014/06/24/like-global-temperature-climate-jobs-seems-to-have-peaked-and-are-heading-downward/

Beide Artikel übersetzt von Chris Frey EIKE




Die unheimliche Allianz zwischen Politikern und Klimatologen

Sie ist keineswegs heimlich, die Allianz zwischen Politikern und Klimatologen, sondern offensichtlich und gut organisiert im IPCC. Dieses Gremium, dessen korrekte Bezeichnung lautet "Internationaler Ausschuss für Klimawandel" wurde von den meisten deutschen Medien zum gottähnlichen "Weltklimarat" hochstilisiert. Dort sitzen aber nicht nur Klimaforscher, sondern auch Vertreter der beteiligten Länder-Regierungen (von Deutschland z.B. ein Staatssekretär aus dem Umwelt-Ministerium). Die Statuten besagen, dass sich das IPCC mit dem "menschen-gemachten" Klimaeinfluss befassen soll (d.h. nicht unbedingt mit den natürlichen Klimafaktoren, die seit Millionen von Jahren wirksam sind).

Die Veröffentlichung des 5. Berichtes des IPCC begann mit dem "Summary for Policymakers" am 27.Sept.2013  in Stockholm, bevor die drei Hauptberichte überhaupt verfügbar waren. Nicht nur, dass dadurch wesentliche Aussagen fehlten, sondern es musste vor der Veröffentlichung auch die Zustimmung der Politik-Vertreter eingeholt werden, für die dieser Bericht angeblich bestimmt war. Und sie nahmen Einfluss auf den Inhalt, dass z.B. um die unpassende "Klimapause". d.h. das Fehlen der so oft angekündigten dramatischen Erwärmung, als "nicht relevant" herunterzuspielen und den Text zu  zu ändern in "eine Verlangsamung des Temperaturanstieges". Und ein nicht passendes Diagramm wurde ersetzt durch eine Darstellung, bei dem dieser Mangel nicht mehr auffiel. Prof. Stavins als Teilnehmer bemerkte, dass dies kein "Summary for Policymakers" sei, sondern ein "Summary from Policymakers". Er war nur einer von zwei Wissenschaftlern, die von 45 bis 50 Regierungsvertretern umgeben waren. Ein anderer Teilnehmer, Prof. Richard Tol erklärte anschließend seinen Rücktritt von IPCC aus Protest gegen die politisch-ideologische Manipulation von Daten, Fakten und Schlussfolgerungen.

Die IPCC-Theorie basiert auf einem 95%igen "confidence level", d.h. 95%iger Gläubigkeit an den Treibhaus- Effekt von CO2 !   Prof. Dr. Frank Endres stellte dazu fest: "Es gibt in der theoretische/mathematischen Physik kein Modell, das einen durch CO2 induzierten "anthropogenen Treibhauseffekt" plausibel machen kann. Die "katastrophale Klimaerwärmung" gibt es nur in Modellen, die von grundsätzlich falschen Annahmen ausgehen". Tatsächlich ist der IPCC nicht in der Lage, irgendeinen Beweis für seine Thesen zu liefern, weder als messtechnische noch als historischer Daten.

Dies wird bestätigt und verschlimmert durch die Tatsache, dass der angebliche Temperaturanstieg um 1,5 bis 4,5°C (bis 6°C) bei Verdoppelung des CO2-Gehaltes in der Atmosphäre 2014 nicht anders oder genauer angegeben werden kann als wie vor 24 Jahren, im ersten IPCC-Klimabericht von 1990.  Seit dieser wurden jedoch Milliarden (Steuergelder) für dieses Forschungsgebiet ausgegeben – ein ziemlich einmaliger Vorgang, den man auch als wissenschaftlichen Skandal bezeichnen kann. Konnte man nicht, wollte man nicht, oder durfte man nicht ??

Tatsächlich gibt es eine Reihe von Veröffentlichungen, die sich mit diesem Thema befassen und  zu wesentlich niedrigeren Auswirkungen eines CO2-Anstieges kommen  – 0° bis 1,5°C –  aber sie wurden vom IPCC ignoriert, eine völlig unwissenschaftliche Vorgehensweise.

Tatsächlich gibt es unter Physikern ganz erhebliche Meinungsunterschiede über den so-genannten Treibhauseffekt durch CO2, bzw. die Auswirkung auf die Temperatur. Das  international anerkannte MODTRAN-Modell der Atmosphärenphysik errechnet einen Effekt von ca.+ 0,6°C für eine CO2-Verdoppelung, aber ohne Berücksichtigung von Wolken und Luftströmungen. Diese sind jedoch die Regel und können den Effekt auf Null bringen. Das Gleiche kann man erwarten von der Darstellung des US-Physikers Prof.Roy Spencer, der sagt, dass CO2 einen Erwärmungseffekt in der unteren Atmosphäre verursacht, aber eine Abkühlung in der oberen Atmosphäre. Insgesamt ist die Atmosphäre sehr dynamisch und bewirkt den größten Temperaturaustausch und -Ausgleich auf der Erde.

FRANCKEs Lexikon der Physik stellte schon 1959 fest: "CO2 ist als Klimagas bedeutungslos". Heute, nach mehr als 15 Jahren der größten Menge an CO2-Emissionen ohne einen Temperaturanstieg zu bewirken, scheint der Beweis dafür geliefert.

Wie ist es aber möglich, dass viele Fachleute – angeblich die Mehrheit der Klimaforscher – die  Irrlehre vom maßgeblichen CO2-Einfluss auf das Klima unterstützen, teilweise sogar aggressiv verteidigen ?  Dafür gibt es gute Gründe:

(1) Es ist einfacher und bequemer, sich einer angeblichen "Mehrheitsmeinung" 

     anzuschließen (obwohl das in der Wissenschaft – im Gegensatz zur Politik – nichts 

     bedeutet: zu oft hat sich in der Vergangenheit die Mehrheit geirrt – angefangen bei Galileo   

     Galilei über Albert Wegener und viele andere mehr).

(2) Nur angeblich "bedrohliche Klimaänderungen" erregen das Interesse der Medien – und

     der Politiker. Dazu der erste Vorsitzende des IPCC, Sir John Houghton: "Solange wir keine Katastrophen ankündigen, wird niemand auf uns hören".                             

      Dazu passt am besten der Kommentar von Prof. Dr. von Storch, einem der führenden deutschen Klimaforscher, der es auch wagt, manchmal Kritik zu üben: "Eine Gruppe von Klimatologen ist der Versuchung erlegen, sich durch medienwirksame dramatisch  negative Aussagen nach vorne zu spielen. Sie werden mit größter öffentlicher Aufmerksamkeit bedacht, und einige von ihnen übernehmen die Rolle der wachsamen Sofortkritiker anders denkender Kollegen".

(3)  Nur die Untersuchung von angeblich drohenden Klimaänderungen und ihren möglichen   

      Auswirkungen führt zur Akquisition staatlicher Geldmittel. Jede andere (positive) Aussicht gefährdet die weitere Finanzierung seines Institutes.

Offensichtlich ist es auch für viele Politiker wichtig, Klimaängste in der Bevölkerung aufrecht zu erhalten. Dazu eine Feststellung des ehemaligen Außenministers Joschka Fischer:  „Man muss den Leuten nur fortwährend Angst einflößen, dann kann man ihnen praktisch immer mehr Steuern und Abgaben  aus der Tasche ziehen.“ Tatsächlich ist die künstliche Erzeugung von Ängsten schon seit Urzeiten ein erfolgreiches Geschäftsmodell.     

Der zweite Grund ist, dass viele Politiker glauben, sich  als "Kämpfer gegen den Klimawandel" profilieren und so zur "Rettung der Welt" beitragen zu können. Dabei übertreiben sie es manchmal noch mehr als die alarmistischen Klimatologen selbst, so wie z.B. Al Gore, der z.B. in einem Vortrag am 14.12.2008 kühn behauptete, dass in fünf Jahren die gesamte arktische Eisbedeckung verschwunden sein wird. Auch der britische Premier David Cameron verkündete kürzlich im Unterhaus, dass er die jüngsten Extremwetter-Situationen  "dem Klimawandel" zurechnet – obwohl es dafür keine Beweise – nicht einmal im IPCC-Bericht – gibt.

In Australien wechselte im September 2013 die Regierung, und seit dem gibt es dort keine "Klimakatastrophe" mehr. Ab 1.7.2014 wird  auch die CO2-Steuer abgeschafft.

In Deutschland hat kein maßgeblicher Politiker in Deutschland die aufgekommene Klima-Hysterie erkannt und kritisiert – mit einer Ausnahme: Altkanzler Helmut Schmidt sagte dazu am 4.Juni 2007 "Klimatischen Wandel hat es auf der Erde gegeben, seit es sie gibt. Und sich darüber aufzuregen und zu meinen, der Mensch könnte diesen Wandel durch gemeinsamen Beschluss aufhalten, das ist reine Hysterie, das ist dummes Zeug.

Was sind die Gründe für Klimaforscher, sich für eine systematische Klima-Panikmache  herzugeben ? Ein Extremfall in dieser Beziehung ist der Leiter des PIK, Prof.Schellnhuber, der in einem WBGU-Gutachten verlangt, eine "Grosse Transformation" (= Kulturrevolution) durchzuführen mit dem Ziel, die Demokratie abzuschaffen zugunsten einer globalen Öko-Diktatur. Dazu Prof.von Storch: "Die Autoren reduzieren die Weltprobleme auf das Thema Kohlenstoff. Das ist eindimensional und arrogant. Es gäbe noch den Welthunger, der aber gerade keine Konjunktur hat".

Die IPCC-Theorie lautet, dass die wachsenden CO2-Emissionen der Menschheit einen "gefährlichen" Temperaturanstieg verursachen würden, der unbedingt auf +2°C begrenzt werden müsste. Warum ? Der damalige Umweltminister Röttgen wusste 2010 die Antwort: 

"Weil darüber das Leben, so wie wir es kennen, nicht mehr möglich sein wird" . Offenbar  war ihm unbekannt, dass höhere Temperaturen in der Vergangenheit schon wiederholt aufgetreten waren (siehe Abb.2). In völlig unkritischer Gläubigkeit an die unbewiesene IPCC-These  wurde  von der deutschen Regierung beschlossen, den CO2-Ausstoß in bis 2020 um 40 % (im Vergleich zu 1990) zu senken, allerdings ohne zu wissen, wie dies realisiert werden kann. Das mit Milliarden subventionierte Anwachsen von Wind- und Solarenergie-Erzeugung hat jedoch – wie wir heute wissen –  die deutschen CO2-Emissionen nicht verringert, sondern ansteigen lassen. Der deutsche Anteil an den globalen Emissionen ist jedoch mit ca. 2,5 % so gering, dass eine noch so große Reduzierung (auch nach der IPCC-Theorie) keinen messbaren Einfluss auf die Globaltemperatur haben kann. Deswegen der Bevölkerung und der Wirtschaft in Deutschland neue zusätzliche finanzielle Belastungen aufzuerlegen, ist nichts anderes als ein großer Schildbürgerstreich.

Tatsache ist vielmehr entsprechend der Klimageschichte dieses Planeten,  dass es etwa ein Dutzend mittel- und langfristiger natürliche Klima-Einflussfaktoren gibt, die  zum Teil noch nicht verstanden und nicht vorhersehbar sind. Deswegen können sie auch nicht in Klima-Modellen erfasst werden. Wie zum Beispiel will man die unbekannte mittelfristige Veränderung der globalen Wolkenbedeckung und der natürlichen und anthropogenen Aerosolen in Rechenmodellen berücksichtigen, die wiederum entscheidenden Einfluss auf die am Boden ankommende Sonnenstrahlung hat und damit Klimafaktor Nummer 1 ist ? 

So ist der Temperaturanstieg zwischen 1975 und 1998, der die Klimahysterie auslöste,  eindeutig auf  eine Reduzierung der mittleren Wolkenbedeckung zurückzuführen und nicht auf den CO2-Anstieg – nachdem zwischen 1940 und 1975 (35 Jahre lang, trotz CO2-Anstieg ! ) eine Abkühlungsperiode aufgetreten war.

Es ist eine unglaubliche Simplifizierung der Klima-Problematik, diese auf den Faktor CO2 zu reduzieren und die Schuld bei den bösen industriellen Emissionen zu suchen. Es muss  doch jedoch ein Schuldiger gefunden werden, genauso wie im Mittelalter Hexen verantwortlich gemacht wurden für lokale Unwetter, um dann auf dem Scheiterhaufen verbrannt zu werden. Heute ist es noch nicht so weit, aber es gibt Stimmen, die verlangen, dass "Ungläubige", die nicht an eine Menschen-gemachte Klimakatastrophe glauben, eingesperrt und mundtot gemacht werden müssten. Tatsächlich ist es so weit gekommen, dass die künstlich erzeugten Klimaängste bei einigen Menschen dazu geführt haben,  "den Kampf gegen den Klimawandel" aus quasi-religiöser Überzeugung zu führen.

Schon Johann Wolfgang von Goethe hat dieses Phänomen erkannt (1828): “Und denn, man muss das Wahre immer wiederholen, weil auch der Irrtum um uns her immer wieder gepredigt wird, und zwar nicht von Einzelnen, sondern von der Masse. In Zeitungen und Enzyklopädien, auf Schulen und Universitäten, überall ist der Irrtum oben auf, und es ist ihm wohl und behaglich, im Gefühl der Majorität, die auf seiner Seite ist."

Man kann es auch kürzer fassen: "Gegen eine Dummheit, die gerade in Mode ist, kommt keine Klugheit auf (Theodor Fontane, 1819-1898; deutscher Schriftsteller)"

Und eine dritte Stimme zu diesem Thema : "Es ist nicht zu bestreiten, dass es auch in der Wissenschaft – häufiger als uns Wissenschaftlern lieb ist – Lug und Trug gibt, nicht nur fahrlässige Schlamperei, sondern wirklich absichtsvollen Betrug." (Dr. Hubert Markl, ehem. Präsident der Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.).

Auch in höheren wissenschaftlichen Kreisen ist es so weitgekommen, dass – wie die Climategate-E-Mails gezeigt haben – Verabredungen unter den Klima-Aktivisten getroffen wurden, die Veröffentlichung von Artikeln mit allen Mitteln zu verhindern, die nicht ihrer

Katastrophen-Theorie folgen. Noch heute werden kritische Artikel von denn Zeitschriften NATURE und SCIENCE abgelehnt, wenn sie nicht den IPCC-Behauptungen entsprechen.

Erst kürzlich wurde wieder ein Artikel von Prof. Bengtson (früherer Direktor des MPI für Meteororologie, Hamburg) vom Fachblatt "Environmental Research Letters" abgelehnt, was Prof.von Storch als "skandalös" kommentierte. Prof. Davig Gee (Universität Uppsala) stellte dazu fest: "Wenn so genannte Wissenschaftler ihrer politischen Überzeugung Priorität geben, dann grenzt dies an Korruption und beschädigt die Welt der Wissenschaft allgemein".

Was treibt Menschen dazu, die Realität nicht mehr wahrnehmen zu wollen, sondern sich mit religiöser Gläubigkeit einem eingebildeten Klima-Phantom hinzugeben ?  Sind dies angeborene Ängste, Katastrophen-Lust oder ist es ein Phänomen massenhafter Verblendung ? (so der Soziologe Prof. Dr. Gerhard Schulze, Bamberg). Frank Schätzing (Schriftsteller) ist genervt von der Zukunftsangst vieler Menschen. Er sagte "es ist Schwachsinn, sich von einer Zukunft paralysieren zu lassen, die es noch gar nicht gibt". Auch wenn weltweit schon seit 15 Jahren kein Temperaturanstieg mehr stattgefunden hat kann man trotzdem noch fast täglich von dem globalen Temperaturanstieg in den Medien lesen oder hören, der angeblich wieder an dieser oder jener Veränderung Schuld sei.

Die Propagierung der Klimabedrohung ist offenbar ein ideales Thema für Menschen mit genetisch bedingter nihilistischer Veranlagung, da beliebige Unheils- und Schreckensvisionen verkündet werden können, ohne dafür einen Beweis liefern zu müssen.  Ganz abgesehen von den bei manchen Menschen dadurch erzeugten Existenzängsten, die den pseudowissenschaftlichen Charakter dieser Behauptungen nicht erkennen können. Auch können solche Propheten für ihre falschen Behauptungen mit oft kostspieligen Folgerungen nicht zur Verantwortung gezogen werden.

Einer der Gründe dafür, dass die Klima-Hysterie in den letzten zwanzig Jahren ein solches Ausmaß annehmen konnte, ist die mangelnde Kenntnis der Menschen über die Klima-Historie, die sich sogar beim DWD findet. Die Temperaturschwankungen in den letzten 200 Jahren um +/- 0,6°C sind nicht nur völlig normal und natürlich, sondern können im Vergleich zu früheren Klimaschwankungen als außergewöhnlich stabil angesehen werden. Von 1940 bis 1975 (35 Jahre lang !) gab es trotz CO2-Anstieg eine globale Abkühlungs-periode, an deren Ende zahlreiche Artikel über eine kommende Eiszeit erschienen. Die Regierungen wurden darin "zum Handeln" aufgerufen. Nach dem Beginn der neuen Erwärmungsphase wurde von Forschern und Medien rasch umgeschaltet auf die Gefahr einer "bedrohlichen Erwärmung".

Nach den Jahresmittelwerten des Deutschen Wetterdienstes (DWD) betrug der

Temperaturanstieg in Deutschland in den letzten 25 Jahren – von 1989 bis 2013 – genau 0,1 °C.  Das sind die Fakten, die verschwiegen und von der überwiegenden Mehrheit der Politiker, Journalisten und Klimatologen ignoriert werden. Dieser dramatische Temperaturanstieg war aber nach den  Berichten in den deutschen Medien jeweils Schuld an Dürren, an Überschwemmungen, an kalten Wintern, an warmen Wintern, heißen Sommertagen, kurz, an allem.

Bild 1:  Jahresmitteltemperaturen Deutschland laut DWD in den letzten 25 Jahren

Aber auch der DWD, der deutsche Wetterdienst, hat sich der politischen Klima-Ideologie gebeugt und verkündete auf seiner Pressekonferenz am 25. März 2014 in Berlin einen "ungebrochenen Trend zu einem wärmeren Klima", den es aber real nach seinen eigenen Daten nicht gibt. Anstatt den Temperatur-Rückgang um 0,6°C seit dem Jahr 2000 zu erwähnen, wird 2013 vom DWD zum acht-wärmsten Jahr erklärt, dabei war es das zweitkälteste der letzten 15 Jahre. Um eine Erwärmung feststellen zu können, muss man auf das Jahr 1881 zurückgehen, einem Tiefpunkt in der Temperaturhistorie. Andererseits sagt der Chef des DWD, dass es früher schon einmal genauso warm war wie heute. Und es war tatsächlich nicht nur einmal, sondern in drei Klimaphasen in den letzten 3200 Jahren wärmer als heute (BILD 2). Und dies garantiert ohne einen CO2-Einfluss, der damals einen nahezu konstanten Status von 280 ppm hatte, wie die Eiskern-Resultate zeigen. Und noch eine interessante Tatsache in Zusammenhang mit dem Temperatur-Diagramm: Die Warmzeiten waren stets Perioden politische Stabilität und wirtschaftliche Blüte, während in den kühlen Perioden dazwischen Instabilität (Migration) und Hungersnöte durch Dürren auftraten.

 Bild 2: Klima-Entwicklung in den letzten 3200 Jahren

Die in der Politik und bei den Medien verbreitete Bezeichnung von CO2 als angeblichen "Schadstoff" (den man deshalb besteuern kann ! ) mutet geradezu pervers an  in Anbetracht der Tatsache, dass CO2 lebensnotwendig für jede Pflanze ist. Mehr CO2 verbessert das Wachstum und erhöht die Ernteerträge, eine Tatsache, die Gärtnereien Gewächshäuser mit CO2 begasen lässt. Satellitenbilder haben weltweit eine Begründung des Planeten in den letzten 20 Jahren durch den angestiegenen CO2-Gehalt der Atmosphäre registriert. Dabei ist dieser mit 400 ppm noch immer sehr niedrig im Verhältnis zum durchschnittlichen Gehalt in der Erdgeschichte von über 1000 ppm.

Wo ist er geblieben, der pseudowissenschaftliche CO2-Effekt, der angebliche "Klimakiller" ?

Die normale Reaktion auf die Tatsache, dass die angedrohte "gefährliche Erwärmung" durch den CO2-Anstieg nicht eingetreten ist, wäre Erleichterung, sowie Kritik an dem falschen Alarmismus.  Aber nein, was findet sich in den Medien ?  Enttäuschung und Erklärungsversuche, dass  "die Erwärmung trotzdem stattfindet" ( stattfinden muss ! )  auch wenn wir davon nichts merken. Es gibt eben – wie Prof. Hans-Werner Sinn (Ifo) kürzlich feststellte "politische Wahrheiten und wirkliche Wahrheiten".

Offenbar gibt es inzwischen zu viele Profiteure, die ein fundamentales Interesse an der Fortsetzung der Klima-Hysterie haben – wegen ihrer Jobs, den Subventionen und den Profiten. Fakten, Logik und Vernunft dürfen in diesem Falle keine Rolle mehr spielen.

Das beste Beispiel für diese absurde Situation ist das PIK (Potsdam Institut für Klimafolgenforschung, von manchen auch "Institut für Klimaphantasien" genannt), das ohne Klima-Schwarzmalerei keine Existenzberechtigung hätte. Deswegen wird dort immer die "Klimakatastrophe" vor der Tür stehen (müssen). Sogar Prof. Schellnhuber als Chef des PIKmusste zugeben, dass "die Klima-Diplomatie eine riesige Maschinerie entwickelt hat, in der viele ein gutes Auskommen haben (Leipziger Volkszeitung vom 1.12.2006). Es war das gleiche Jahr, in dem sich auf Bali 15000 "Weltretter" zur Klimakonferenz trafen.

Die Allianz zwischen Politikern und Klimatologen hat eine solide Basis durch die beiderseitigen finanziellen Vorteile, von denen niemand lassen will – unabhängig von der Klima-Realität. Die Fakten der fehlenden anthropogene Erwärmung stören zwar, werden aber einfach "für irrelevant" erklärt. Das erinnert an den alten Spruch unter Physik-Studenten:

"Wenn meine Theorie und die Fakten nicht übereinstimmen, müssen eben die Fakten falsch sein".

Vielleicht ist es auch zu viel verlangt, öffentlich – und vor sich selbst – zuzugeben, dass man sich jahrzehntelang geirrt hat, bzw. falschen Propheten aufgesessen ist. Das schaffen nur  sehr charakterfeste Menschen.  

"If the facts change, I’ll change my opinion. What do you do, Sir? "  

 J. M. Keynes (1883-1946)

Britischer Ökonom, Politiker und Mathematiker

Der Beitrag erschien zuerst bei die kalte Sonne hier

20.6.14  veröffentlicht in Blog Kalte Sonne

20.6.    Umweltbundesamt : Ittershagen, Holzmann, Maeder, Lehmann

20.6.    Prof.Stocker, IPCC

20.6.    Prof. Lemke, AWI

20.6.   Axel Bojanowski

20.6.    SZ:  Illinger, Bauchmüller, Schrader, Esslinger

20.6.    GRÜNE Bundestagsfraktion,  Krischer




Propheten

Manchmal kann man schon früh einem solchen auf die Schliche kommen. Im Jahre 2007 erschien im Wissenschaftsblatt Nummer 1 „Science“ ein Artikel von Doug M. Smith und Kollegen vom britischen MetOffice unter dem Titel:

„Verbesserte Vorhersage der Oberflächentemperaturen für die nächste Dekade mittels eines globalen Klimamodells“

Mit den dargelegten ausgeklügelten Methoden war es das Ziel, unter Beachtung der internen Variabilität des Klimas eine Prophezeiung der Temperaturentwicklung 2004 bis 2014 vorzunehmen. Das Ergebnis damals:

Bild 1: Die dekadische Vorhersage von Smith et al. (2007) für den Zeitraum bis 2014 (Quelle: Bild 4 der o.g. Arbeit)

Im Text ist die Ansage klar und deutlich:

„…predict further warming during the coming decade, with the year 2014 predicted to be 0.30° ± 0.21°C [5 to 95% confidence interval (CI)] warmer than the observed value for 2004. Furthermore, at least half of the years after 2009 are predicted to be warmer than 1998, the warmest year currently on record.“

Nun kann man das ja verifizieren: Die realen Beobachtungen zwischen 1998 und 2014:

Bild 2: Beobachteter globaler Temperaturverlauf nach der MetOffice -hauseigenen Temperaturreihe HadCRUT4 im Vergleich zu den Aussagen in der o.g. Arbeit.

Der Trend besagt: 0,014°C Abkühlungin der  Dekade 2004-2014. Nach 2009 war kein Jahr wärmer als 1998: Für die Erfüllung der Prophezeiung hätten es drei sein müssen. Eine andere Temperaturreihe (GISS) misst ganze 0,03 Grad Erwärmung, selbst damit ist auch der untere Konfidenzbereich der Vorhersage unterschritten. Unmittelbar nach Veröffentlichung der Arbeit war man sich jedoch sicher, den Nagel auf den Kopf getroffen zu haben und das Schaubild 1 erschien unter anderem in einem Bericht mit dem Untertitel: „Zukunftsinformationen für die Politik der Regierung“. Da las man, dass gute dekadische Vorhersagen für Politik und Wirtschaft sehr nützlich sind ( S. 6) … solange sie ignoriert werden, könnte man hier anfügen.

Ein Fiasko. Man hat die Politik falsch informiert. Woran kann es gelegen haben? Jedes Klimamodell hat eine große Anzahl Freiheitsgrade, die man einstellen muss. Dazu dienen Beobachtungen, mit denen die Modelle  feinjustiert werden: die jüngere Vergangenheit wird benutzt, um die Klimamodelle zu parametrieren, man nennt das „Hindcast“. Außerdem setzt man voraus, dass in kürzeren Zeitskalen das Klima in erster Näherung linear auf zwei Einflüsse reagiert: ein äußerer Antrieb (Forcing, vor allem durch Treibhausgase wie CO2) und eine interne Variabilität.

Und genau da liegt der Hase im Pfeffer. Bis heute hat man seit dem ersten Klimabericht des IPCC  1990 keinerlei Fortschritt in einem zentralen Punkt für Klimaprognosen gemacht: Wie viel Grad Celsius Erwärmung zieht eine Verdopplung der CO2- Konzentration in der Luft nach sich? Die Bandbreite der Möglichkeiten ist im letzten Bericht 2013 noch genauso groß wie vor 23 Jahren. Für (klimatisch relativ kurze) Zeiträume von 10 Jahren ist die TCR (Transient Climate Response) entscheidend und die liegt seitdem zwischen 0,8 und 2,5 Grad Celsius.  Man kann seitens der Klimaforschung  die Klimawirkung des CO2 , auf das ja die Politik ganz schnell mit  möglichst großer Wirkung reagieren soll, nicht genauer quantifizieren als ganz zu Beginn der IPCC- Geschichte. Wer eine aktuelle Diskussionsrunde zum Thema „Klimasensivität“ verfolgt, bekommt eine Eindruck davon, welch unterschiedliche Ansätze gegenwärtig betrachtet werden.

Wenn also ein Modell- um auf das 2007er-Fiasko des britischen MetOffice zurückzukommen- anhand einer Zeitspanne feinjustiert wird, indem die  interne Variabilität (z.B. ozeanische Strömungen)  sehr viel zum Anstieg der Temperaturen beigetragen haben, dann wird es die Zukunft falsch prophezeien indem die stattgefundene Erwärmung auf das Forcing zurückgeführt wird. So ging es den verwendeten Modellen in der Arbeit aus 2007. Der Hindcast des 20. Jahrhunderts sollte den Forecast des 21. Jahrhunderts meistern und versagte kläglich, weil die natürliche Variabilität offensichtlich nicht auch nur im Ansatz realitätsnah berücksichtigt wurde.

Daraus könnte man lernen… und die Treibhausgaswirkung in Modellen zurücknehmen… jedoch: woher weiß man genau, wie gerade die interne Variabilität wirkt? Man kennt weder diese genau noch die CO2- Wirkung. Wie sinnvoll sind dann Modelle? Nun, die Anwender sind weiterhin optimistisch. Der gleiche Leadautor wie in der besprochenen Arbeit aus 2007 hat voriges Jahr eine neue geschrieben. Der internen Variabilität wird da etwas mehr Aufmerksamkeit geschenkt und die Prophezeiung ist vorsichtiger (und durch die Bandbreite mehr oder weniger nutzlos):

 

Bild 3: Vorhersage der globalen Temperatur bis 2022 (Bild 8 der o.g.  Arbeit)

Bei Licht besehen bleibt es ein Herumgestochere im Nebel, solange man so richtig sicher nur weiß: wachsende Konzentrationen von Treibhausgasen führen zu Erwärmung. Nur wie viel? Bis man die Anteile der natürlichen Variabilität am beobachteten Klimageschehen nicht mit der notwendigen Genauigkeit bestimmen kann, bleibt die Berechnung der Wirkung von Treibhausgasen auch Prophetie.  Haben Sie ein schlechtes Gewissen beim Benutzen der „gebunkerten“ Glühlampen? Ersparen Sie es sich!




Energiewende in Deutschland als Modell für die australische Klimapolitik? Eine kritische Bestandsaufnahme

[*Das Wort ‚Energiewende‘ steht im gesamten Artikel immer auch so kursiv gesetzt im Original. Hier im Subheader wird eine Übersetzung angeboten als ‚energy turn‘ oder ‚energy transition‘. Anm. d. Übers.]

Aber  für Deutschland ist dies viel mehr als nur nationale Energiepolitik. Dies ist Deutschlands Apollo-Weltraumprogramm. Falls es funktioniert, wäre Deutschland weltweit führend bei der Integration von Erneuerbaren mit einer potentiellen Multi-Milliarden Euro umsetzenden Exportindustrie. Aber anders als die grundlegende technische Herausforderung, einen Menschen den Mond betreten zu lassen, steht die Energiewende vor beispiellosen Herausforderungen weit jenseits des rein technischen Aspektes. Der Lebensstandard einer Nation basiert auf dem Kapital und der Arbeitsproduktivität seiner Energiesysteme zusammen mit einer hinreichend hohen Gesamtenergie.

Während der geplante Rückzug aus der Kernkraft in Deutschland nach Fukushima im Grunde eine Überreaktion war vor dem Hintergrund des fehlenden Risikos von Erdbeben und Tsunamis, bildete sich die deutsche Ambivalenz gegen Kernkraft seit den siebziger Jahren. Die Studentenproteste Ende der sechziger Jahre erzeugten einen Zusdammenschluss von Anti-Amerikanismus, Anti-Kapitalismus und Anti-Kernkraft, wobei die Kernkraft im Zentrum des Argwohns gegen Kapitalismus und Militarismus stand. Das Symbol der „lachenden Sonne“ tauchte überall auf – Atomkraft? Nein Danke* – und wurde als ein Ausdruck „politischer Abweichung“ angesehen, wurde es doch cool, gegen Kernkraft zu sein.

[*Auch dieser Begriff taucht kursiv so im Original auf. Angeboten wird die Übersetzung ‚Nuclear power? No thanks!‘ Anm. d. Übers.]

Dieses Zusammentreffen kam nicht überraschend – die Altlast des Holocaust und des Zweiten Weltkriegs, West Berlin [in dieser Schreibweise!] als Mittelpunkt des Kalten Krieges, wobei in Deutschland [hier meint der australische Autor die BRD] Cruise Missiles und Pershings der NATO stationiert waren zusammen mit amerikanischen, britischen und französischen Truppen. Diese Befürchtungen manifestierten sich durch Anti-Kernkraft-Aktivismus durch Wissenschaftler wie Klaus Traube. Traube, der ursprünglich ein Befürworter der Kernkraft war, wurde zu einem der prominentesten und einflussreichsten Kritiker (1). Und es waren auch ‚lokale Bürgerinitiativen‘, die sich um lokale Themen bildeten und die später die Grundlage der Grassroots-Kampagnen ausmachten wie die Opposition gegen den Standort eines neuen Kernkraftwerkes in der Weinanbau-Stadt Wyhl im Jahre 1975 (2)

Die australische Anti-Kernkraft-Bewegung hatte ähnliche Wurzeln und war aus einer Protestbewegung der sechziger Jahre hervorgegangen, jedoch mit ausschließlichem Bezug auf Australien (3). Das war die Zeit des Vietnam-Krieges, den Landrechten der Aborigines, den französischen Kernwaffentests auf dem Mururoa-Atoll, der Nachwirkungen der Maralinga-Waffentests [?] und auch die Zeit des Links-Helden [hero of the left] Gough Whitlam. Es war auch die Zeit vor der funktionellen Trennung von staatlich geförderten Waffenprogrammen und kommerziellen Kernkraft-Anbietern – die Wahl des British Steam Generating Heavy Water Reactor (SGHWR) für das in Jervis Bay geplante Kernkraftwerk (NPP) Ende der sechziger Jahre zusammen mit dem Widerstand gegen die Unterzeichnung der Nichtverbreitung von Kernkraft zeigte eine Strategie der Erhaltung einer Zukunftsoption für alle Möglichkeiten.

Nach der Übernahme der Regierung im Jahre 1972 unterschrieb Whitlam das Nichtverbreitungsabkommen von Kernwaffen (NPT), stoppte Kernkraft und führte neue Bildungsstandards ein. Plötzlich war es in akademischen Kreisen und der politischen Linken „in“, gegen Kernkraft zu sein. Diese frühere Periode legte den Grundstein für Australiens Anti-Kernkraft-Maßstäbe,  die Jahrzehnte lang eine nicht in Frage gestellte Doktrin geblieben ist. Ende der neunziger Jahre führte Jim Green (5) den Begriff „Strahlungs-Rassismus“ [radiation racism] ein, unter dem sich grün-linker Aktivismus, Uran-Bergbau, Landrechte der Aborigines, Waffentests und Kernkraft einfanden. Dies verkörpert dieses andauernde, aber inzwischen archaische Narrativ.

Aber es war die unkontrollierte Freisetzung radioaktiver Strahlung infolge der Kernschmelze des mit Graphit moderierten Tschernobyl-Reaktors, die in Deutschland die Anti-Kernkraft-Stimmung aufkommen ließ. Anders als in anderen betroffenen Nationen, in denen die Anti-Kernkraft-Stimmung während der folgenden Jahre pragmatischeren Erwägungen wich, war die Reaktion in Deutschland sowohl irrational als auch nachhaltig. Selbst noch nach der Veröffentlichung des UNSCEAR-Berichtes 2011, in dem gezeigt worden ist, dass die Auswirkungen der Strahlung sich als viel harmloser herausstellten als ursprünglich befürchtet (6), blieb in Deutschland der tiefe Skeptizismus bestehen. Außerdem, obwohl die Welt-Gesundheitsorganisation zu dem Ergebnis gekommen war, dass die gesundheitlichen Auswirkungen durch die Strahlung in Fukushima minimal sind (7), verfestigte sich der deutsche Skeptizismus hinsichtlich Kernkraft. Nachfolgende Berichte enthüllten die institutionalisierte Kultur regulatorischer Vorschriften in Japan, bekannt unter dem Begriff  amakudari, wörtlich übersetzt “descent from heaven” [aus dem Himmel kommend]. Hierbei ziehen sich leitende Gesetzgeber und Bürokraten auf die mächtigen exekutiven Posten zurück, die sie einst reguliert hatten (8). Die Konsequenz des „nuklearen Dorfes“ war, dass man Risiken unangemessen durch Operatoren begegnete und dass sich herausstellte, dass man routinemäßige Sicherheitsmaßnahmen, wie sie beispielsweise in den USA herrschen, einfach nicht implementiert hatte (9).

Obwohl die Gefühle zu Kernkraft in Europa zwiespältig sind, lautet die interessante Frage: Was ist anders in Deutschland im Gegensatz zu – sagen wir – Frankreich, wo man 75% des Strombedarfs durch 58 Kernkraftwerke deckt? Französische Politiker haben die Zielkonflikte der Energiepolitik verstanden. Dort fehlen die in Deutschland heimischen Kohlevorräte, und man führte eine starke institutionelle Unterstützung an, untermauert durch öffentliche Unterstützung. Eine populäre Antwort in Frankreich auf die Frage, warum sie dort so viel Kernkraft-Energie erzeugen, lautet: „Kein Öl, kein Gas, keine Kohle, keine Wahl“. In Frankreich gibt es eine Tradition großer, von der Regierung gemanagter Projekte, die genauso populär sind wie Hochgeschwindigkeits-Züge (10). Anders als das US-Modell dezentralisierter Projekte standardisierte das französische Modell einen einzelnen US-Reaktor, zusammen mit standardisierter Übung und Sicherheit.

Aber vielleicht ist die entscheidende Antwort dem Erbe der ausgeprägten Reaktion in Deutschland auf die industrielle Revolution des 19. Jahrhunderts geschuldet, die eine eigentümliche Synthese von Naturalismus und Nationalismus erzeugte (11). UK war gegen die härteren Elemente der industriellen Revolution immunisiert durch die „protestantische Arbeits-Ethik“ [the „protestant work ethic“]; die USA und Australien als Pionier-Nationen nutzten die Kraft von Dampf und Kohle für die Bildung einer Nation, und in Frankreich fehlte eine geeignete Kohlequelle. Aber eine ausgeprägte Vorliebe der Deutschen für Natur, ländliches Leben und Wälder trieb eine kulturelle Gegenreaktion vor sich her – die Romantische Bewegung [Romantic Movement] war eine Revolte gegen die rationale und strukturierte Welt der Industriellen Revolution (12). Diese Ideale waren enthalten in der völkischen Bewegung, für welche es keine einfache englische Übersetzung gibt*, sondern die lose die Gedanken eines romantischen Nationalismus‘ und Heimatgefühl verkörpert (13).

[Im Original liest sich das so: ‚ These ideals were embodied in the völkisch movement, which has no simple English translation, …’]

Der deutsche Philosoph Martin Heidegger (14) bietet einen Ansatzpunkt zur Hervorhebung einiger dieser Ideale Ende des 19. und Anfang des 20. Jahrhunderts in Gestalt eines proto-umweltlichen Denkens in Deutschland. Heidegger äußerte Kritik an den Gedanken der Aufklärung und der wissenschaftlichen Revolution. Er behauptete, dass die Wissenschaft die natürliche Landschaft zu „Zeug“ und einer „stehenden Reserve“ für die Menschheit degradiert. Heideggers Problem war der fehlende Respekt für die Natur – seine Hauptsorge war nicht Verschmutzung, Abwertung oder Grenzen des Wachstums, wie neuzeitliche Neo-Malthusianer sagen würden, sondern die reduktionistische Beziehung zwischen den Menschen und ihrer Welt. Diese zutiefst ökologischen Standpunkte fanden sich ähnlich auch bei Ernst Moritz Arndt und seinem Schüler Wilhelm Heinrich Riehl, die beide gegen die industrielle Ausbeutung von Wäldern und Boden (11) mobil machten. In den fünfziger Jahren des 19. Jahrhunderts war Riehl vielleicht der Vorläufer des modernen Umweltaktivismus‘, wenn er „für die Rechte der Wildnis“ eintrat. Sowohl Arndt als auch Riehl repräsentierten eine besondere deutsche Fusion von Naturalismus und Nationalismus und waren dem Urbanismus gegenüber feindlich eingestellt. Klaus Bergmann benutzte den Term Großstadtfeindschaft*, der sich grob übersetzen lässt mit „hostility to the City“ oder „anti-urbanism“. Er spiegelt die Ablehnung der kosmopolitischen, internationalen und kulturellen Toleranz von Städten.

[*Steht ebenfalls so im Original!]

Die Australier haben wahrscheinlich eher von Rudolf Steiner und seiner berühmten „Steiner-Bildung“ [= Waldorf-Pädagogik] gehört. Steiner vermischte rassistische Ideologie mit seiner einzigartigen spirituellen Anthroposophie-Bewegung und entwickelte eine frühe Form einer ganzheitlichen „vitalistischen“ organischen Landwirtschaft, Biodynamik genannt (11). Biodynamik betrachtet die Fruchtbarkeit des Bodens und das Pflanzenwachstum als ökologisch in Wechselwirkung stehende Dinge – tatsächlich war der Ausdruck „Ökologie“ zuerst von dem deutschen Wissenschaftler Ernst Haeckel definiert worden. Selbst heute noch findet fast die Hälfte der globalen biodynamischen Landwirtschaft in Deutschland statt (12).

Im Deutschland zu Anfang des 20. Jahrhunderts gab es keine spezifische Bewegung, die als „umweltlich“ oder „grün“ etikettiert war, so wie wir es heute definieren. Vielmehr haben Organisationen wie der Deutsche Bund Heimatschutz (Homeland Protection Association of Germany) die Gedanken von Heimat- und Naturschutz verkörpert*. Sie standen für die Ideale des Schutzes der deutschen Heimat und der Landschaft. Brüggemeier et al. (15) erklären: in der gleichen Weise, wie wir über die architektonischen Eigenschaften denken, die die Vorlieben einer Nation reflektieren, enthielt die Landschaft Deutschlands den ausgeprägten deutschen Fußabdruck.

[Wieder das Original: ‚ the Deutscher Bund Heimatschutz (Homeland Protection Association of Germany)’]

Führend bis in die dreißiger und vierziger Jahre fanden diese Ideale Eingang in Nationalen Sozialismus, am meisten kontrovers vielleicht mit der Behauptung von Anna Bramwell (16), dass die Nazi-Partei einen „grünen Flügel“ habe. Brüggemeier (15) und andere stehen solchen Polemiken kritisch gegenüber, welche kontrovers eine einfache lineare Beziehung der heutigen Grünen zu den gestrigen nationalsozialistischen Umweltaktivisten implizieren. Trotzdem haben viele Gelehrte die offensichtliche Überlappung zwischen den Zielen der Nationalen Sozialisten und der Umweltaktivisten in der ersten Hälfte des 20. Jahrhunderts diskutiert. Die Umweltschutzbewegung in Deutschland war mächtiger und beweglicher als irgendwo sonst in Europa, und die diktatorische Macht der Nazis bot Gelegenheiten, Umwelt-Agenden zu implementieren.

Aber man könnte auch in dem Begriff  Energiewende den Ausdruck Heimat (homeland) identifizieren, das „Gefühl zusammen zu gehören“ und den kommunitaristischen [?] Impulsen (17). Dies ist vielleicht die wichtigste Lektion politischer Gemeinde-Bewegungen – die Energiewende ist ein erstaunlich erfolgreiches Modell mit umfassender Unterstützung des politischen Rechts/Links-Spektrums. Deutschland ist einzigartig bei der Mobilisierung der Grassroot-Bewegung der siebziger und achtziger Jahre und konvertierte diese Unterstützung in greifbare politische Ergebnisse.

Auf einer philosophischen Ebene sehen wir die Ausdrücke Solar und nuklear als polarisierende Gegensätze des Romantik- mit dem Aufklärungs-Spektrum – solar (und Wind) als Rückkehr zum einfacheren Weg, unter Einbeziehung der Natur, und einem zeitgenössischen Ausdruck des archetypischen Instinktes der Anbetung der Sonne – wohingegen nuklear steht für die Höhepunkte von Wissenschaft, Empirismus und der Abschöpfung der unvorstellbaren Kraft des Atoms mit den begleitenden Risiken. Diese miteinander im Wettbewerb stehenden Philosophien koexistieren in allen Ländern, aber nur in Deutschland ist diese Polarität so krass an das Romantik-Ende des Spektrums gefallen. Aber der erstaunliche Erfolg von solar liegt auch begründet in den Idealen des einfacheren Weges, und durch den „hellgrünen“ Umweltaktivismus werden die Gedanken von Sonne und Wind verschmolzen mit dem Techno-Optimismus der Informationstechnologie und einer Silikon-Revolution.

Angesichts des starken vorübergehenden Zusammengehens der politischen Linken mit Umweltwerten kann die deutsche Erfahrung ungewöhnlich scheinen. Und doch, in der jüngeren Geschichte der anglophilen Länder waren konservative Werte öfter mit traditionellen konservativen politischen Werten verbunden, während die Linksaußen-Tradition ein Evangelium des Überflusses gepredigt hat und die Reduktion von Armut durch wirtschaftliches Wachstum (18). Zum Beispiel war es der republikanische Präsident Richard Nixon, der eine Reihe von Umweltinitiativen übersah, die die Grundlage des amerikanischen Umweltschutzes bildeten. In Australien waren die sechziger und siebziger Jahre eine Periode, als die konservative Seite der Politik häufig umweltliche Initiativen übernahm. In Victoria wurde das grundlegende Environmental Protection Act erlassen [ein Umweltschutzgesetz], und zwar während der Regierungszeit des liberalen Premierministers Henry Bolte. Und es war Alan, der Vater von Greg Hunt, der unter Bolte, Hamer und Thompson im Amt war. Er trieb die ‚Green Wedges urban strategy’ in den Vororten von Melbourne (20). Im größten Teil des 20. Jahrhunderts waren es oftmals die Jäger und Freizeit-Angler, die am stärksten den Schutz von Wäldern und Flüssen unterstützten. Selbst die australische Conservation Foundation wurde gegründet, und der Konservative Sir Garfield Barwick diente als Präsident.

Es ist möglich, zwei getrennte Zeiträume zu identifizieren, als traditionelle konservative Werte und moderner Umweltaktivismus auseinanderliefen. Die Erste Periode war eine Reaktion auf das neo-malthusianische Buch The Population Bomb von Paul und Anne Ehrlich. Wie Sabin in (21) anmerkte, stammte vieles der Antagonismen von der politischen Rechten von der katastrophalen Zukunft, die Bevölkerungs-Campaigner wie Ehrlich an die Wand malten. Unter der Reagan-Administration erreichte dies eine Apotheose. Der zweite Zeitraum war die Reaktion auf Kyoto 1997, welches die Energieunternehmen explosionsartig aktiv werden ließ, sich geschlossen gegen eine globale Reaktion auf die Klimaänderung zu stellen (22).

In Australien war es die Frustration der Umwelt-Linken über den Klimaskeptizismus der Regierung Howard und die „Treibhaus-Mafia“ (23, 24) während der neunziger Jahre und des ersten Jahrzehnts dieses Jahrhunderts, die den Schwall fragmentierter und ultimativ ineffektiver Treibhaus-Politik trieb. Das Grattan Institute (25) identifizierte 300 Maßnahmen der Treibhaus-Politik, wobei lediglich eine Handvoll marktbasierter Instrumente ein erstrebenswertes Ergebnis zeitigte.

Wohl das signifikanteste Einzel-Scheitern der australischen Klimapolitik bleibt die Ablehnung der Vorschläge von Robert Hill für einen moderaten Kohlenstoff-Preis nach Kyoto durch die Regierung Howard. Mit grausamer Ironie wäre ein moderater, einkommensneutraler Kohlenstoffpreis, der sowohl die Unsicherheiten der Klimaänderung als auch globales Engagement reflektierte, ein weit effektiveres und flexibleres Instrument gewesen. Außerdem hätte das viel besser zu Prinzipien der Liberal Party gepasst. Zumindest hätte es eine stabile Basis für eine kohärente Klimapolitik gebildet, während die kostspieligen und unzusammenhängenden Maßnahmen vermieden worden wären, die wir bis heute erlebt haben.

Und doch wurde das von der Regierung Howard eingeführte Ziel erneuerbarer Energie zu einem Modell-Schema für Förderung von Erneuerbaren, obwohl es die ursprüngliche Absicht der Politik war, die lokale Entwicklung sowie Industrie und Innovationen voranzubringen und nicht das Aufbringen gewaltiger Subventionen für importierte Windenergie (26). Die Schwierigkeit besteht darin, dass – einmal in Kraft gesetzt – eine ganze Industrie von Kapitalgesellschaften, Gutachtern und Lobbygruppen entstanden ist, die sich auf das RET [?] verließen, da die sich selbst erhaltende industrielle Entwicklung einfach nicht zustande kam. Wir erleben das auch in Deutschland, wo Karrieren erzeugt worden sind, die abhängig sind von fortlaufender institutioneller Unterstützung für Erneuerbare. Die Krux ist, dass die australische Klimapolitik nur dann langzeitlich glaubwürdig ist, wenn sie von der Liberal/National Party begrüßt wird; aber die Kernkraft kann nur erfolgreich sein, wenn sie als eine der zentralen Punkte von Low-Carbon-Energie eingeführt wird, falls sie von der Labor Party übernommen wird.

Die langfristige Konsequenz dieses Scheiterns von politischen Maßnahmen auf breiter Basis war es, verzweifelte Versuche anzuführen, Australien in Mainstream-Klimamaßnahmen einzubinden. Da die ökonomisch Rechte diese Rolle abgeschafft hat, wurde das resultierende politische Vakuum von Narrativen der Umwelt-Grün-Linken dominiert. Und dies bedeutete, sich dem Mekka der Klimapolitik zuzuwenden: Deutschland.

[Hier wird natürlich endgültig deutlich, warum man sich in Australien so grundlegend und umfassend Gedanken über Deutschland in dieser Hinsicht macht! Anm. d. Übers.]

Es ist interessant, wie sehr die Sprache des deutschen Umweltaktivismus’ den Weg in das Narrativ der australischen Umweltaktivisten gefunden hat. Ein Schlüsselbeispiel hierfür ist die Übernahme des FiT-Solarmodells und das damit verbundene Konzept „demokratisierter Energie“. Obwohl die erste Form von Einspeisetarifen in den USA unter der Carter-Administration implementiert worden ist, war es das deutsche Modell, das zur Vorlage für kleinteilige Unterstützungs-Mechanismen seit den neunziger Jahren geworden ist. Dies ging einher mit dem Konzept demokratisierter Energie, welche durch grüne Gruppen und Befürworter von Solarenergie nach Australien importiert worden ist.

Was den Demokratie-Gedanken in einem australischen Zusammenhang so interessant macht ist, dass es kaum Präzedenzfälle für das Konzept in Relation zu Energieversorgern und öffentlichen Dienstleistungen gibt – tatsächlich bevorzugen die Australier allgemein sozialisierte öffentliche Dienste (wie Medicare), und der langfristige Trend für Haushalte und Gewerbe ist es, Dienste auszulagern anstatt sie „demokratisch“ ins Haus zu bringen (man denke an Rasen mähen, Autowartung, Anlieferungen nach Hause, Gesundheitsfürsorge). Es ist für einen Haushalt zum Beispiel leichter, hinsichtlich der Wasserversorgung „netz-unabhängig“ zu sein, und doch diskutiert niemand die „Demokratisierung von Wasser in den Vororten“. Selbst falls man einen berechtigten finanziellen Grund für netz-unabhängige Energie geltend machen kann, gibt es wenig Hinweise darauf, dass die meisten Menschen, abgesehen von Enthusiasten, darauf vorbereitet sind, die Verantwortung für die Wartung von Batterien und deren Ersatz zu übernehmen ebenso wie für Backup-Erzeugung und Systemwartung.

Im Gegensatz dazu wird die Demokratisierung von Personentransporten – Autos – stark von grünen Gruppen kritisiert, die sich stattdessen für das sozialisierte Modell städtischer Transporte einsetzen – Eisenbahnen und öffentlicher Verkehr. Daran kann man erkennen, dass das „Demokratisierungs“-Modell ein opportunistischer Sprachgebrauch ist – Demokratie wird übernommen als ein universeller Wert und in Verbindung gebracht mit einer wertebeladenen Ursache, anstatt ein kohärentes Argument zu präsentieren. Und doch wird die unmoderne Sprache „sozialisierter“ Modelle oder „sozialisierter“ Tarife sorgfältig vermieden. Interessanterweise sind in den Staaten mit dem erfolgreichsten Betrieb von Kernkraft und deren Akzeptanz diese Staaten am stärksten in Strom involviert – Frankreich, Schweden, Japan, Russland und China.

Dieser Sprachgebrauch ist vorherrschend in Diskussionen über die erneuerbare Revolution. Zum Beispiel wird der Begriff „sporadisch“ [intermittent] häufig ersetzt durch „variabel“ oder VRE (variable erneuerbare Energie), hat doch „variabel“ den Beiklang von Anpassung, Volumen oder Kontrolle. Wir könnten vielleicht den genaueren Term „unkontrollierbar variabel“ an Stelle von „sporadisch“ verwenden, aber natürlich würde diese verbesserte sprachliche Genauigkeit kontraproduktiv für jene sein, die nach dem Ausbau sporadischer Energie trachten.

Ein weiteres heimisches Beispiel ist der so genannte „Grundlast-Mythos“ [base load myth] und der Gedanke, dass „Sporadität auch Grundlast sein kann“. Dies wurde zum ersten Mal von Mark Diesendorf (27) in Australien verbreitet, aber rasch von der Umweltgemeinde aufgenommen. Dies demonstriert eine Korrumpierung eines etablierten technischen Jargons mit dem Ziel zu verwirren anstatt zu klären. Und doch ist selbst hier die Korrumpierung der Sprache hoch spezifisch – Grundlast im Zusammenhang mit Kohle und Kernkraft wird als unnötig, ineffizient und verschwenderisch bezeichnet, im Zusammenhang mit konzentrierter Solarenergie oder geothermischer Energie aber als vernünftig proklamiert.

Hier sehen wir das Kohle/Kernkraftmodell verleugnet zugunsten von „verteilter Erzeugung“, doch war das Grundlast-Modell der Energieversorgung bemerkenswert widerstandsfähig und ein effektives Modell, um die Gemeinde zuverlässig und bezahlbar mit Energie zu versorgen. Dies ist kein Argument gegen die Erkundung alternativer oder Verbesserung bestehender Modelle. Tatsächlich verdienen jüngste Bedenken hinsichtlich steigender Kosten und der Abnahme des Nutzungsgrades infolge Air Conditioning größere Aufmerksamkeit. Trotzdem ist das zentralisierte Modell bemerkenswert effizient hinsichtlich von Verteilungs-Verlusten zwischen Kraftwerk und Verbraucher im Mittel um 6% (28), aber die Verluste zwischen Solarpaneel und Stromwandler-Output durch Widerstands-Verluste, Stromwandler-Konversion, Staub und Temperaturminderung betragen typischerweise 18% (29). Es ist also offensichtlich, dass es beim Narrativ „ineffizienter“ zentralisierter Grundlast  im Gegensatz zu den Werten der „verteilten Erzeugung“ mehr um brandmarken geht als um ein bedeutsames Statement mit Substanz.

Aber würde es wirklich funktionieren?

Perverserweise wird die Demokratisierung des Netzes manchmal auch mit der Sprache sozialer Gerechtigkeit beschrieben, obwohl dies eine Umkehr der Logik ist – Ein Exodus in großem Umfang aus dem Netz würde zum Dilemma geringerer Profite als Grundlage für die hohen Fixkosten der Netzwerke führen, was den Haushalten mit niedrigem Einkommen, Rentnern, Pensionären, Schulen, Krankenhäusern und anderen Einrichtungen eine viel höhere Kostenlast auferlegen würde. In Deutschland, Spanien und UK ist Energiearmut bereits zu einem ernsten sozialen Problem geworden. Außerdem hat ein Photovoltaik-System außerhalb des Netzes eine Gesamt-Energieausbeute während seiner Lebenszeit von wenig mehr als einer Einheit [little better than unity]. Dies impliziert, dass die Versorgung einer Gemeinde außerhalb des Netzes ökonomisch und umweltlich katastrophal wäre. Also wurden die Themen der Demokratisierung, sozialer Gerechtigkeit und verteilter Energie von Deutschland importiert und von den Grün-Linken für ihre universellen Werte übernommen. Und doch führen sie etwas an, das Frank Furedi „hoch gehaltene oberflächliche Meinungen“ nennt [shallow opinions held strongly]

Aber trotz dieser Dinge verbleibt ein Triumph über die Energiewende, der völlig fehl am Platze ist. Tatsächlich tendiert die Konzentration auf Wachstumszahlen dazu, vorbestimmte Glauben [beliefs – Plural] zu validieren anstatt als Grundlage für eine gründliche Analyse zu dienen. Kürzlich wurde ein neuer Rekord für die augenblickliche Durchdringung von Wind und Solar in Deutschland verkündet (30) – am 11. Mai 2014 um 13 Uhr erreichte der Anteil von Wind und Solar 67%. Und doch ist die Folge hiervon zu demonstrieren, dass Deutschland bereits kurz davor steht, an harte Integrations-Grenzen zu stoßen – das nächste Stadium der Integration wird umfängliche und teure Speicherung sein oder Energie als Müll zu entsorgen.

Der jährliche Beitrag von Wind und Solar beträgt jeweils etwa 8% bzw. 6%, trotz des manchmal unmittelbar auftretenden Beitrags, der sechsmal so hoch ist wie dieses Niveau. Während des Sommers werden 40% des PV-Stromes bereits exportiert (31). Aber diese Exportstrategie kann nicht europaweit funktionieren, weil alle Länder zur gleichen Zeit danach trachten, Strom zu exportieren.  Das mitteleuropäische Netz überspannt lediglich 17 Längengrade, was im Wesentlichen dazu führt, dass der tägliche Spitzenwert in jedem Land innerhalb oder in etwas mehr als einer Stunde auftritt (32). Große, sich nur langsam verlagernde europäische Tiefdrucksysteme erzeugen in ähnlicher Form hoch korrelierte Windmaxima im gesamten synchronen Netz. Dies sind keine Argumente gegen den Einschluss zeitweiliger Kraftwerke mit einer umfassenden Low-Carbon-Strategie – tatsächlich gibt es Bedingungen, unter denen zeitweilige Kraftwerke nützliche Treibstoffersparnisse bringen können – sondern beleuchten die fundamentalen Hindernisse, wenn man sich auf Energiequellen verlässt mit einem Kapazitäts-Faktor um 18% bzw. 10%. Diese Zahlen sind weitgehend immun gegen Technologie.

Der Triumph der Energiewende ist wirklich ein klassischer Fall, das falsche Ziel anzusprechen – die Messung der installierten erneuerbaren Kapazität oder der jährlich erzeugten Energie sagt wenig bis nichts über die Gesamtauswirkungen auf Treibhausgas-Emissionen, Energiesicherheit, stetige Zuverlässigkeit oder soziale Gerechtigkeit. Genauso könnten wir den Erfolg eines Football-Clubs mit der Anzahl der unbestrittenen Ballbesitze im ersten Viertel definieren. Und tatsächlich, trotz der starken politischen, sozialen und ökonomischen Unterstützung für Wind und Solar seit den neunziger Jahren bleibt der CO2-Ausstoß bei der deutschen Stromerzeugung stur 10 bis 20 mal höher als in den in dieser Hinsicht am besten abschneidenden Nationen in Europa (33), und keinem der definierten Ziele ist man merklich näher gekommen (34). Es ist schwierig, schon jetzt Schlussfolgerungen wie z. B. hinsichtlich der makroökonomischen Auswirkungen der Energiewende in Deutschland zu ziehen, aber als der unwillige Hegemon Europas hat Deutschland bisher nur gezeigt, dass ausreichend Reserven zur Verfügung stehen, um die ökonomischen Schwierigkeiten zu vermeiden, zu denen es in Spanien mit seinem PV-Programm gekommen war.

Eine großartige Anekdote aus dem Buch The Innovation Paradox (35) von Farson und Keye beschreibt vielleicht Deutschlands Energiewende-Dilemma am besten. Dort hat ein Junior-Direktor 10 Millionen Dollar verloren bei einem riskanten Venture während der frühen Jahre von IBM. Darauf hat der geschäftsführende Direktor von IBM Tom Watson Jr. sein Angebot zurückgewiesen zurückzutreten, und zwar mit der Bemerkung: „Sie können das nicht ernst meinen. Wir haben gerade 10 Millionen Dollar für Ihre Weiterbildung ausgegeben!“

Vielleicht lautet die Frage hinsichtlich der Energiewende nicht, ob die festgesetzten Ziele erreicht werden oder nicht, sondern ob es ein Reale-Welt-Fall der Grenzen der Energiedichte und Periodizität ist, wenn eine wohlhabende, technologisch fortschrittliche und absolut überzeugte Nation alles in Frage stellt. Die jüngsten Signale von Kanzlerin Angela Merkel und Vizekanzler Sigmar Gabriel scheinen auf eine heraufdämmernde Erkenntnis zu deuten, dass die Realität langsam an Raum gewinnt (36).

[Schlussbemerkung des Übersetzers: Bei der Übersetzung dieses in australischem Englisch geschriebenen Artikels hatte ich manchmal größere Schwierigkeiten. Offenbar gibt es doch gewisse Unterschiede zu US-amerikanischem Englisch, das mir viel vertrauter ist.]

References

[1] Johnson, Daniel, (2011), Why Germany said no to nuclear power, The Telegraph

[2] Brandon, Ruth (1987) The Burning Question: The Anti-Nuclear Movement Since 1945, Heinemann.

[3] Zoellner, Tom (2009) Uranium: War, Energy, and the Rock That Shaped the World, Penguin.

[4] Cawte, Alice (1992) Atomic Australia, Sydney, NSW, Australia: New South Wales University Press.

[5] Green, Jim, (1999) Radiation Racism, Green Left Weekly

[6] World Health Organisation (2011) Chernobyl at 25th anniversary Frequently Asked Questions

[7] World Health Organisation (2013) Health risk assessment from the nuclear accident after the 2011 Great East Japan earthquake and tsunami, based on a preliminary dose estimation

[8] Fam, SD et al. (2014) Post-Fukushima Japan: The Continuing Nuclear Controversy. Energy Policy

[9] Ferguson, Charles D, Jansson, Mark (2013) Regulating Japanese Nuclear Power in the Wake of the Fukushima Daiichi Accident. Federation of American Scientists

[10] Palfreman, Jon (1997) Why the French like Nuclear Power, PBS Frontline

[11] Staudenmaier, Peter/Biehl, Janet (1995) Ecofascism: Lessons From the German Experience.

[12] Paull, John (2011) Organics Olympiad 2011: Global Indices of Leadership in Organic Agriculture. Journal of Social and Development Sciences 1/4, pp. 144–150.

[13] Uekötter, Frank (2006) The Green and the Brown: A History of Conservation in Nazi Germany, Cambridge University Press.

[14] Rohkrämer, T in Brüggemeier, Franz-Josef/Cioc, Mark/Zeller, Thomas (2005) How Green Were the Nazis?: Nature, Environment, and Nation in the Third Reich, Ohio University Press.

[15] Brüggemeier, Franz-Josef/Cioc, Mark/Zeller, Thomas (2005)How Green Were the Nazis?: Nature, Environment, and Nation in the Third Reich, Ohio University Press.

[16] Bramwell, Anna (1985) Blood and Soil: Richard Walther Darré and Hitler’s” Green Party”, Kensal Press Abbotsbrook, Bourne End, Buckinghamshire.

[17] Applegate, C. (1990). A nation of provincials: The German idea of Heimat. Univ of California Press.

[18] O’Neill, Brendan (2014) There’s nothing left wing about being green, Spiked Online

[19] Palmer, Graham (2010) A Battle of Interests: The Conservative Rejection of Climate Change. Dissent Autumn/winter 2010, pp. 25–29.

[20] Colebatch, Tim (2013) Liberal hailed for his legacy, The Age

[21] Sabin, Paul (2013) The Bet: Paul Ehrlich, Julian Simon, and Our Gamble Over Earth’s Future, Yale University Press.

[22] Oreskes, Naomi/Conway, Erik M (2010) Merchants of Doubt: How a Handful of Scientists Obscured the Truth on Issues From Tobacco Smoke to Global Warming, Bloomsbury Publishing USA.

[23] ABC Four Corners (2006) The Greenhouse Mafia

[24] Hamilton, Clive (2007) Scorcher: The Dirty Politics of Climate Change, Black Inc.

[25] Daley, J., Edis, T., & Reichl, J. (2011). Learning the hard way: Australian policies to reduce carbon emissionsGrattan Institute, Melbourne.

[26] The Australia Institute (2004) Notes from a LETAG meeting

[27] Diesendorf M. (2007) The base load fallacy. Energy Science briefing paper. 2007

[28] BREE (2012) Energy in Australia 2012, Table 9

[29] Prieto, P.A./Hall, C.A.S. (2013) Spain’s Photovoltaic Revolution: The Energy Return on Investment, New York, NY, USA: Springer.

[30] Chabot, Bernard (2014) May 11, 2014: a Record Production from Wind and PV in Germany

[31]Fraunhofer Institute for Solar Energy Systems ISE (2013)Electricity Production From Solar and Wind in Germany in 2012.Reported by Burger, Bruno, see slide 180

[32] Palmer, Graham (2014) Energy in Australia: Peak Oil, Solar Power, and Asia’s Economic Growth, Springer.

[33] Germany 672 g CO2-e/kWh, Sweden 23 g CO2-e/kWh, and France 71 g CO2-e/kWh, from Brander M, Sood A, Wylie C, Haughton A, Lovell J., (2011) Electricity-specific emission factors grid electricity. Ecometrica.

[34] Mearns, Euan (2014) Germany: Energy Kaput, Energy Matters

[35] Farson, Richard/Keyes, Ralph (2003) The Innovation Paradox: The Success of Failure, the Failure of Success, Simon and Schuster.

[36] McKillop, Andrew (2014) Merkel Snubs Global Warming And Dumps The Solar Industry, Energy Matters

—————————————————-

Graham Palmer. Graham recently published the book “Energy in Australia: Peak Oil, Solar Power, and Asia’s Economic Growth” (“Springer Briefs in Energy” series).

Link: http://euanmearns.com/germanys-energiewende-as-a-model-for-australian-climate-policy/#more-3389




Teil V Videos von der VII. IKEK Mannheim jetzt verfügbar: heute Dr. Sebastian Lüning und Dr. Wolfgang Thüne

Der Geologe, Klimawissenschaftler und Sachbuchautor (Die kalte Sonne) Dr. Sebastian Lüning zeigt an vielen Beispielen in seinem Vortrag auf, welche Kräfte in der Vergangenheit das Klima beeinflusst haben. Er stellt dann die eher rhetorische Frage, warum es heute anders sein sollten. Denn dieselben Kräfte wirken heute ebenso, viele auch in bereits bekannter Stärke und mit gut bekannten Zyklen. Als Ergebnis bleibt fast festzustellen, dass für die Wirkung des "Treibhauseffektes" nur – und das auch nur theoretisch- wenig übrigbleibt.

 Vortrag von Dr. Sebastian Lüning anlässlich der 7. IKEK in Mannheim

Dr. Wolfgang Thüne, Meteorologe, ehemaliger Wettermann im ZDF und vielfacher Sachbuchautor zu Klimafragen hält hier seinen Vortrag über die Fakten, die das Klima nachgewiesenermaßen bestimmen. EIKE hat den Vortrag in voller Länge hier veröffentlicht. ().

Auf Grund der aufgezeigten Fakten wird einmal mehr deutlich, dass für Emotionen die durch angsterzeugende Panikmeldungen erzeugt wurden, weder beim Wetter, dem Ursprung allen Klimas, noch beim Klima selbst, irgendwo noch Platz bleibt. Thüne taucht dazu tief in die Historie der Wetterbeobachtungen und in soziologische Bedeutung von Wetter- und Klimawandel ein. Während das Klima sich wie eh und je entwickelt, sind die sich so aufgeklärte vorkommenden Befürworter eines anthropogenen Klimawandels einem modernen Angstmärchen aufgesessen.  Thüne zeigt auf warum das so ist.

 Vortrag von Dr. Wolfgang Tüne anlässlich der 7. IKEK in Mannheim




Antwort auf Rahmstorf-Panik Meldungen zur Ausdehnung des arktischen Eisschildes undVersauerung der Ozeane!

Update 28.6.14 : Hier der Vortrag von Prof. Rahmstorf 

Ausdehnung des arktischen Eisschildes, Versauerung der Ozeane ??

Kommentar zum Vortrag von Meeresforscher Prof. Dr. Rahmstorf (PIK) im Ausschuss für Umwelt, Energie und Klima des Landtages von Niedersachen am 16.06.2014.

Wie in der sog. Klimaforschung üblich, pflegt auch Prof. Rahmstorf einen selektiven Umgang mit Fakten: wenn sie den Zeitgeist vom menschengemachten Klimawandel widerlegen, werden sie verschwiegen. Diese Art Wissenschaft ist nicht neu – schon immer gab es Wissenschaftler, die der Obrigkeit gedient haben – und dem eigenen Nutzen. Karl Popper erkannte, dass Wissenschaft zur Ideologie wird, wenn sie auf kritisches Hinterfragen verzichtet und statt dessen nur Wiederholungen zulässt. Genug Beispiele sind bekannt und Erkenntnisse dazu auch, beispielsweise von Goethe (18.12.1828): „Man muss das Wahre immer wiederholen, weil auch der Irrtum um uns herum immer wieder gepredigt wird und zwar nicht von Einzelnen, sondern von der Masse, in Zeitungen und Enzyklopädien, auf Schulen und Universitäten.“  Prof. Rahmstorf hat in seinem Vortrag am 16.06.2014 im Ausschuss für Umwelt, Energie und Klima des Landtages von Niedersachen diese Pseudo-Wissenschaft auch wieder praktiziert, diesmal an den Beispielen des Arktischen Eisschildes und der Versauerung der Ozeane.

Angebliche Verkleinerung des arktischen Eisschildes

Die Verkleinerung des arktischen Eisschildes bis 2012 wurde von Rahmstorf als Beweis für die fortschreitende CO2-bedingte Erderwärmung angeführt. Dass der Eisschild von August 2012 bis August 2013 dann wieder um 40% gewachsen ist, wurde nicht gewähnt. Das Eis geht und kommt, denn auch in der Arktis gibt es periodische und episodische Schwankungen der Temperaturentwicklung. 

Versauerung der Ozeane

Prof,  Rahmstorf  teilte mit, dass „unser anthropogenes CO2 eine Versauerung der Ozeane bewirkt, die um 30% zugenommen hat, und dass deshalb die Korallenriffe in Gefahr sind .“ 

Die Ozeane wären sauer, könnten sie ob ihrer angedichteten Versauerung fühlen: Nicht, weil sie auch mit pH = 8,1 immer noch gut alkalisch sind, sondern vor allem, weil der Meeresforscher Rahmstorf als Agitator des Klimawandels offensichtlich nichts von der Chemie des CO2 im Ozean weiß, ganz zu schweigen von Korallenriffen, dies aber trotzdem beurteilt.

Tatsache ist, dass die CO2.Gehalte der Atmosphäre während der Erdgeschichte sie viel größer waren als heute, und wenn das so ist, waren sie es auch in den Ozeanen. Tatsache ist ferner, dass der pH-Wert der Ozeane von 8,2 auf 8,1 gefallen ist. Das ist nicht mehr als eine kleine Verringerung der Alkalinität, denn erst ab pH = 7 wird das Meerwasser sauer. Ob die gegenwärtige Änderung von 8,2 nach 8,1 neu und einmalig ist oder auch größer werden kann und wie sie früher war und sich periodisch verändert hat, ist unbekannt, denn Langzeit-Messungen liegen nicht vor.

CO2 und H2O wollen nur ganz wenig miteinander zu tun haben und trennen sich nach ihrer ersten Verbindung zu Kohlensäure sofort wieder. Nur 1% der Kohlensäure reagiert und verbindet sich mit dem im Wasser reichlich vorhandenen Kalzium zu Kalziumkarbonat, also Kalk, und da dies im Wasser nur zu 0,0114 g/l löslich ist, während sich ständig neues bildet, muss es als Kalkschlamm sedimentieren, der dann zu Kalkstein wird. Falls er irgendwann gehoben wird, kann er ganze Gebirge bilden – CO2 sei Dank! Das ist seine rein chemische Seite.

Die Biochemie ist komplizierter und hat viele Seiten *: Eine ist, dass viele Tierarten aus Kalk ihre Skelette bilden und der Laie sich wundert, wenn er beim Wandern am Watzmann Muschelschalen findet. Aber nicht nur Muscheln oder ähnliches. Unsere Kalkalpen, z.B., bildeten sich zum großen Teil aus den Kalkskeletten von Einzellern. CO2 machte es möglich, dass der Kalk ihrer Skelette entstehen konnte.  

Noch mehr: CO2 ist auch Baumeister der Korallenriffe – ihr Wachstum beginnt mit Algen, die in den Korallen leben, und die sowohl zum Leben und Wachsen CO2 benötigen als auch die Weichteile damit versorgen, die dann ihrerseits die Kalkskelette bilden, die das Riff ausmachen. Außer den großen Korallenriffen der heutigen tropischen Meere gibt es unzählige fossile Kalkmassen aus Massenkalk, auch in unseren Mittelgebirgen können wir sie bewandern – im Harz, im Sauerland und in der Eifel. Und alles waren Korallenriffe im Ozean. Ihr CO2-Gehalt war wesentlich höher als heute – und das war gut so, denn es hat jede Menge Kalkstein produziert.

Also: ohne den Baumeister CO2 kein Kalkstein, keine Korallenriffe! Zugegeben, damals waren die CO2-Gehalte größer als heute. Ob der pH-Wert möglicherweise doch etwas niedriger oder größer war als in der geologischen Gegenwart, und ob und wie er sich geändert hat, ist unbekannt.

Und last but not least:  Was bewirken die großen CO2-Mengen, die ständig und zusätzlich aus den Schloten und Vulkanen am Meeresboden austreten. Man kennt weder ihre Mengen noch ihre zeitlichen und örtlichen Änderungen. Eines ist sicher: auch sie sind an der Bildung von Kalk und von Korallenriffen beteiligt.

Eines lässt Rahmstorfs Versauerungs-Theorie allerdings fragen: was hat diese Art von Klima- bzw. Meeresforschung mit Naturwissenschaften zu tun ? 

Update 25.6.14:

Viele Fakten zur Ente von der "Versauerung der Ozeane" finden Sie hier

Friedrich Karl Ewert 

* Auszug aus die kalte Sonne zum Thema (hier):

Die Natur will aber nicht so richtig mitspielen: Viele Pazifikinseln wachsen derzeit, da die Korallen dem Meeresspiegelanstieg einfach mit verstärktem Wahstum entgegentreten (siehe “Kiribati geht unter – oder vielleicht doch nicht?“). Allmählich dämmert den Inselstaaten, dass das blöde Gejammere wohl eher Investoren abschreckt, anstatt Geld in die Kasse zu spülen (siehe “Südseeinseln trotzen dem Meeresspiegelanstieg: UNO weist Klimaschadensersatzansprüche der pazifischen Inselstaaten ab“). Auch die UNO hat jetzt genug von dem Klimaflüchtlings-Theater und wies entsprechende Ansprüche ab (siehe “Südseeinseln trotzen dem Meeresspiegelanstieg: UNO weist Klimaschadensersatzansprüche der pazifischen Inselstaaten ab“). Ob der AOSIS bekannt ist, dass im Pazifik langfristige Zyklen den Meeresspiegel beeinflussen? Siehe “Meeresspiegelentwicklung im tropischen Pazifik folgt natürlichen Zyklen“.




Gesundheitsgefährdung durch windradgenerierten Infraschall

Es wird die die Hypothese vertreten, dass dieses Signal durch den Gleichgewichtssinn wahrgenommen und als Bedrohung  interpretiert wird, auf die der Mensch mit Aggression oder Depression reagiert. Windradgenerierter Infraschall besitzt ein ähnliches diskretes Schallspektrum wie Föhn, folglich sollte er auch die gleichen  Gesundheitsstörungen bewirken, die beim Föhn nachgewiesen wurden und die tatsächlich im Umkreis von Windkraftanlagen beklagt werden.  Daher  sollte an bewohnten Orten die windradgenerierte  Infraschallamplitude das dort bei  der gleichen  Frequenz  vorhandene Rauschniveau nicht wesentlich übersteigen.

Im Internet,  aber auch in der wissenschaftlichen Literatur /1/  findet man zahlreiche Beobachtungen, die darauf hinweisen, dass der von Windrädern ausgehende Infraschall Beschwerden wie Schlaflosigkeit, Angst, Schwindel, Kopfschmerzen, Konzentrationsschwächen, Gleichgewichtsstörungen, Übelkeit, Tinnitus, Herz- und Kreislaufprobleme bis hin zu Depressionen verursacht. Während diese Hinweise in Australien, Kanada, Niederlande, Schweden, UK und den USA ernst genommen werden und dort teilweise zur Ausweitung der Schutzzonen und zur staatlichen Initiierung  von relevanten Forschungsprogrammen geführt haben, vertreten die Behörden und  die Windenergieindustrie in  Deutschland den Standpunkt, dass  Infraschall  nicht schädlich sein könnte, da er nicht hörbar sei /2/. Auch liege die Schmerzschwelle für Infraschall so hoch, dass sie selbst am Fuße von Windradtürmen nicht überschritten werden könnte.

Als erste amtliche Stellungnahme wird häufig das Bayerische Landesamt für Umweltschutz mit der Aussage /3/ zitiert, dass  „….die im Infraschallbereich liegende Schallimmissionen weit unterhalb der Wahrnehmungsschwelle der Menschen liegen und daher zu keinen Belästigungen führen.“ Diese Aussage wurde zunächst von fast allen  anderen bundesdeutschen Umweltämtern und -ministerien übernommen, später aber doch vorsichtiger formuliert /2/ „….dass alle derzeit vorliegenden Infraschallmessungen übereinstimmend zeigen, dass der Infraschall von Windkraftanlagen auch im Nahbereich deutlich unterhalb der menschlichen Hörschwelle und damit auch deutlich unterhalb einer denkbaren Wirkschwelle liegt“. Hier hat man  Wahrnehmungsschwelle durch Hörschwelle ersetzt.  Offensichtlich wollte man nicht ganz ausschließen, dass der menschliche Organismus für Infraschall über andere Wahrnehmungsorgane verfügen könnte und dass dann durchaus eine wesentlich tiefer liegende Wirkschwelle denkbar wäre.

Diese verbleibende Denkbarkeit hat vor drei Jahren das Bundesumweltministerium veranlasst, das Bundesumweltamt mit der Erstellung einer Machbarkeitsstudie mit dem Titel „Wirkung von Infraschall, Entwicklung von Untersuchungen für die Ermittlung der Auswirkungen von Infraschall auf den Menschen durch unterschiedlichen Quellen“ zu beauftragen. Offensichtlich war die Planung der Entwicklung solcher Methoden – keineswegs bereits deren Bereitstellung und Anwendung – äußerst schwierig, denn die Studie wurde erst Anfang Juni 2014, drei Jahre nach Auftragserteilung,  veröffentlicht /4/, allerdings ohne ausdrückliche Distanzierung von den zuvor geäußerten falschen Auffassungen. Schwierig ist es sicher, eine Verknüpfung extrem kleiner Druckschwankungen mit Symptomen vorwiegend psychischer Art experimentell nachzuweisen, dabei  über eine hinreichend große Anzahl von Probanden zu verfügen, um akzeptable Signifikanz zu gewährleisten, weiterhin die Verträglichkeit epidemiologischer Untersuchungen mit ärztlicher Schweigepflicht und Datenschutz zu gewährleisten und schließlich  die Auskünfte der Probanden mit der gebotenen Vorsicht zu bewerten. 

Nicht erwähnt wird in /4/, dass bereits 2003 (nach Vorarbeiten von A. Delyukov /5/) die Münchener Meteorologin Eva R. Wanka all diese Probleme auf überzeugende Weise in ihrer Diplomarbeit gelöst hat, die sie 2005 auszugsweise  mit P. Höppe veröffentlichte /6/. Sie untersuchte ein Jahr lang in einem natürlichen Experiment die Wirkung des föhngenerierten Infraschalls auf 1,8 Millionen Probanden, den Einwohnern von München und Umgebung. Dazu setzte sie die Zahl der täglichen, durch psychische Erkrankungen, Suizidversuch und Suizid bedingten Rettungsdiensteinsätze in Korrelation zu den Schwankungen des Luftdruckes im Frequenzbereich des Infraschalls. Sie konnte so mit extrem hoher Signifikanz nachweisen, dass  föhngenerierter Infraschall maximal eine Verdreifachung  dieser Einsätze bewirken kann. Damit werden frühere Beobachtungen /7/, dass Föhn zu Suizid verleitet, bestätigt. Zugleich wurde Infraschall als das Vehikel identifiziert, mit dem der Föhn auf den menschlichen Organismus einwirkt. Es erscheint kurios, dass dieser naheliegende Zusammenhang erst vor wenigen Jahren erkannt wurde, obwohl das Phänomen des Föhns, das schon den alten Römern aufgefallen war, schon seit 200 Jahren wissenschaftlich untersucht worden ist.

Obwohl nicht explizit ausgesprochen, enthält die Arbeit zwei weitere wichtige Ergebnisse. Als unabhängiger Parameter dienten nicht die beobachteten Amplituden in den einzelnen Frequenzbereichen, sondern deren Verhältnisse. Diese Verhältnisse können sich nicht ändern, wenn die Amplituden in allen Frequenzbereichen gleichmäßig ansteigen. Ein solcher gleichmäßige Anstieg in allen Frequenzbereichen ist als Zunahme eines Kontinuums zu deuten, als zunehmendes Rauschen. Somit konnte das stets vorhandene, aus natürlichen oder technischen Quellen stammende Infraschall-Rauschen den gewählten unabhängigen Parameter (die Amplitudenverhältnisse) nicht verändern und damit auch nicht den abhängigen Parameter (die Rettungsdiensteinsätze) beeinflussen. Nur bei Zunahme der Amplitude in einem einzigen Frequenzintervall ergaben sich Korrelationen zu den „Suizid“-Rettungsdiensteinsätzen.  Man ist versucht, dies als Zunahme eines schmalbandigen Signals, einer linienförmigen Schallabstrahlung (Ton) zu deuten, gegebenenfalls mit einigen Oberwellen.

Verallgemeinert lässt sich sagen, dass der menschliche Organismus  Infraschall nur dann  ignoriert, wenn dieser als Rauschen auftritt und dessen Amplitude die Schmerzgrenze nicht erreicht, ihn aber wahrnehmen kann, wenn er als schmalbandige Linie das ständig vorhandene Kontinuum überragt. Nur die Tonhaltigkeit des Infraschalls wird erkannt. Als Schwellenwert wäre dann das bei der jeweiligen Frequenz liegende Rauschniveau zu nehmen, nicht aber die Schmerzgrenze. Da zugleich der Beweis erbracht wurde, dass diese (unbewusste)  Wahrnehmung mit schwersten  psychischen Folgen für den Menschen verknüpft sein kann, sollte erst recht die selbe Ursache auch für die Klasse der leichteren psychischen Beschwerden gelten, die beim Föhn beobachtet wurden.

Es ist kein Grund ersichtlich, vorstehende Folgerungen nicht auf den Fall des windradgenerierten Infraschalls zu übertragen. Das bisherige Ausschlusskriterium, der menschliche Organismus könne Infraschall, soweit er unter der Hör-oder Schmerzschwelle liege, nicht wahrnehmen, ist falsifiziert worden. Zudem besitzt die spektrale Verteilung des  windradgenerierten  Infraschalls ebenfalls eine diskrete Komponente /8/, die natürlich nur wahrnehmbar ist, wenn sie das Rauschniveau übersteigt. Damit wird auch der oft vorgebrachte Einwand entkräftet: Warum sollte windradgenerierter Infraschall schädlich sein, wenn Infraschallrauschen, erzeugt von Fahrzeugen oder Maschinen,  dies nicht ist? Die Antwort lautet: Rauschen wird ignoriert, Signale werden wahrgenommen.

In Deutschland werden jährlich etwa 9000 Suizide gemeldet, also in München und Umgebung etwa 200 Suizide pro Jahr oder ein Suizid alle zwei Tage. Geht man von 20 Föhntagen aus, an denen im Mittel eine Verdopplung der Suizidrate vorläge, so wären dem Föhn 10 Suizide pro Jahr in München anzulasten.    

Zur guten Verständlichkeit von Sprache ist ein Signal-Rauschverhältnis größer als 10 erforderlich. Überträgt man diese Bedingung auf die Wahrnehmung des Infraschalls, so sollte in ländlichen Gegenden, für die das Hintergrundrauschen bei 1 Hz ungefähr 60 dB beträgt /8/, der Pegel des windradgenerierten Infraschalls 70 dB nicht überschreiten, andernfalls wären mit Sicherheit gesundheitsschädliche Wirkungen zu erwarten. Mit dem derzeitigen Mindestabstand von 500 m wird diese Bedingung nur von Anlagen erfüllt, deren Leistung 300 kW nicht übersteigt /8/. Für 2MW-Anlagen wäre bereits ein Abstand von 2 km erforderlich.

 Als Beispiel wird angenommen, die Standorte von 3 000 einzeln stehenden 2MW-Anlagen besäßen jeweils gerade den derzeitigen Mindestabstand von 500 m zum nächsten Wohngebäude. In diesem Falle würde die Bevölkerung einer Fläche von 36 000 km2  unter Infraschall zu leiden haben, das entspräche gerade der Einwohnerzahl von München und Umgebung, wenn man für ländliche Gegenden 50 Einwohner/km2 annimmt. Rechnet man mit 200 Betriebstagen statt mit 20 Föhntagen pro Jahr, so sollten sich 100 zusätzliche Suizide pro Jahr ergeben. Im Mittel wäre jedem dieser Windräder während einer dreißigjährigen Standzeit ein Suizid zuzuschreiben.

Dieser Aussage beruht auf der Annahme einer installierten Leistung von  6 000 000 kW und unterschätzt erheblich die bereits jetzt an Land installierte WKA-Leistung. Unterstellt man, dass der Ausbau der Windenergie im bisherigen Tempo fortschreitet und damit notwendig Flächen mit wesentlich größerer Bevölkerungsdichte beschallt werden, wäre es in wenigen Jahren nicht unrealistisch, in Deutschland dem windradgenerierten Infraschall jährlich bis zu 1ooo Suizide anzulasten. Der seit 2007 beobachtete Anstieg der Suizidrate in Deutschland steht zu dieser Aussage zumindest nicht im Widerspruch.

Zum Mechanismus der Wahrnehmung und Interpretation der Infraschallsignale  möchte ich eine Hypothese,  deren Bruchstücke vor allem im Internet zu finden sind und die die Bedeutung des Infraschalls für die Evolution unterstreicht, mit folgender Wirkungskette skizzieren:

Erzeugung von Infraschall durch die Schrittfolge eines (Fress-)Feindes,
Wahrnehmung durch das Gleichgewichtsorgan, die äußeren Haarzellen der Cochlea oder durch Barorezeptoren, Analyse mittels schmalbandiger Filter im Zentralnervensystem, Interpretation als Bedrohung, Schlaflosigkeit (richtiger: erhöhte Wachsamkeit oder Aufmerksamkeit), Fight orflight bzw. Aggression oder Depression.

Im Laufe der Evolution hat erst diese Art der Wahrnehmung vielen Fluchttieren das Überleben ermöglicht. Auch bei den nicht  wenigen Menschen, bei denen der Gleichgewichtssinn zu Fehlinterpretationen neigt, ist sie erhalten. Der Mensch kann also auf drei verschiedenen Weisen auf  Infraschall reagieren, nämlich mit Aggression, mit Depression oder mit Ignorierung. Diese  zum Teil gegensätzlichen Möglichkeiten  werden die geplanten Untersuchungen sicher nicht erleichtern.

Allgemein sollte gelten: Signale, die sich mit großem aber konstantem Zeitabstand wiederholen, interpretiert das Zentralnervensystem als Bedrohung. Diese Theorie erklärt z.B.  auch die Unerträglichkeit eines tropfenden Wasserhahnes. Dessen störende Wirkung hängt weder von der Lautstärke noch von der Wiederholfrequenz ab, sondern nur vom Signalcharakter. Es erscheint plausibel, dass das Gleiche für wetter- oder windradgeneriertem Infraschall gelten sollte. Der experimentelle Beweis sollte nicht schwierig sein. Für die Frequenzunabhängigkeit finden sich in Wankas  Arbeit weitere, hier nicht behandelte Belege.    

Selbstverständlich  verbieten sich aus ethischen Gründen Laborexperimente mit dem Ziel, Depression oder gar Suizid mit Infraschall zu bewirken.  Jedoch wäre im Schlaflabor eine Korrelation zwischen Infraschall und Schlaflosigkeit fast mühelos nachzuweisen. Abhängiger Parameter wäre die Schlaf-qualität, die mit bekannten und vorhandenen Verfahren zu quantifizieren wäre. Unabhängiger Parameter wäre einmal der Pegel von (weißem, rosa oder rotem) Infraschallrauschen, zum anderen Amplitude, Frequenz und ggf. Kohärenzlänge schmalbandigerInfraschallsignale. Das Labor müsste sich im Zentrum einer windradfreien Zone von ca. 50 km Durchmesser befinden. Die Probanden-zahlen blieben im überschaubaren Bereich, wenn zunächst nur Personen, die  wettervorfühlig sind, untersucht würden. Durch die Ruhelage der Probanden während der Untersuchungszeit wird vermieden, dass ständige vertikale Kopfbewegungen im inhomogenen Feld des Atmosphärendruckes, und sei es nur um wenige cm, als unregelmäßige Druckschwankungen wahrgenommen würden, diese wiederum würden die Nutzsignale verrauschen. 

Das Fazit lautet: Der wissenschaftliche Beweis der Gesundheitsgefährdung durch wettergenerierten Infraschall wurde durch Wankas Diplomarbeit erbracht. Solange dieser Beweis nicht experimentell widerlegt werden würde, ist konkludent von einer Gesundheitsgefährdung durch windradgenerierten Infraschall auszugehen. Daher sollte bei der Festlegung der Mindestabstände der Windkraftanlagen von Wohngebäuden berücksichtigt werden, dass der Signalcharakter und nicht die Amplitude dieses  Infraschalls das entscheidende Merkmal ist. Auch eine im Flüsterton vorgetragene Morddrohung kann wirksam sein.

/1/ Pierpont, N. Wind turbine syndrome, K-selected books (2009)

/2/ Bundesumweltminister P. Altmaier, Schreiben vom 3.8.2013 an die Umweltminister/innen der Länder, PDF

/3/ Hammerl, C. u. J. Fichtner, Langzeit-Geräuschimmissionsmessung an der 1 MW-Windenergieanlage Norde N 54 in Wiggensbach bei Kempten, Bayerisches Landesamt für Umweltschutz (2000)        

/4/ Bundesamt für Umwelt, Machbarkeitsstudie zu Wirkungen des Infraschalls, (2014), (PDF), (hier)

/5/ Delyukov, A. and L. Didyk, The effects of extra-low-frequencies atmospheric pressure oscillations on human mental activity, Int. J. Biometeor. 43, 31 – 37 (1999)

/6/ Wanka, R. and P.Höppe, Human biometeorological relevance of low frequency air pressure oscillations, MeteorologischeZeitschrift, 14, 279 – 284 (2005)

/7/ Faust, V. Biometeorologie – Der Einfluss von Wetter und Klima auf Gesunde und Kranke, Hippokrates Verlag, Stuttgart (1976)

/8/ Ceranna, L., G. Hartmann & M. Henger, Der unhörbare Lärm von Windkraftanlagen, Bundesanstalt für Geowissenschaften und Rohstoffe, PDF

Dr. Joachim Schlüter, Dipl.-Physiker, Hohlenweg 8, 79410 Badenweiler

Anhang

Wir danken Herrn Dr. Schlüter für die Überlassung seiner Unterlagen und seiner Ausarbeitung für eine Veröffentlichung bei EIKE. Herr Schlüter hat das Umweltbundesamt (UBA) angeschrieben und auf die Arbeit von Wanka/Höppe hingewiesen. Die Antwort des UBA ist hier als pdf beigefügt. Wie üblich, werden vom UBA unerwünschte Fakten oder Erkenntnisse, die seiner rotgrünen Zielsetzung widersprechen, abgewimmelt.

So einfach wird es diesmal vielleicht nicht abgehen. Es sind nämlich die beiden folgenden Punkte festzuhalten (dies insbesondere allen evtl. mitlesenden Universitäts-Neurologen ans Herz gelegt):

1) Das UBA musste in seiner Broschüre zum ersten Mal einräumen, dass das bisher stets gebrachte "Totschlagargument" – was unter der menschlichen Hörschwelle liegt, kann nicht schädlich sein – NICHT zutrifft.

2) Die Arbeit von Frau Wanka vertritt die schlüssige und daher wissenschaftlich weiter zu verfolgende Hypothese, dass nicht die Stärke des Infraschalls sondern seine HUMANBIOLOGISCHE SIGNALRELEVANZ schädigt.

Wir werden daher demnächst die Veröffentlichung von Wanka und Höppe 8 in einer EIKE-News besprechen und hoffen dabei, dass auf Grund des inzwischen hohen Bekanntheitsgrades von EIKE vielleicht der eine oder andere Neurologe an einer Universität oder einem Forschungsinstitut die bisherigen Erkenntnisse von Wanka/Höppe aufgreift und in dieser Richtung weiterforscht. Hierzu wären die Originaldaten der Diplomarbeit von Frau Wanka hilfreich, die momentan aber erwartungsgemäß "schwer" zugänglich sind. Es ist freilich kaum vorstellbar, dass diese Daten einer Universität oder einem öffentlich bestallten Forschungsinstitut vorenthalten werden können.

Der Autor des Anhangs ist kein Jurist, erlaubt sich aber dennoch alle Bürgerinitiativen gegen Windräder darauf aufmerksam zu machen, dass hier ein juristischer Hebel gegen Windradprojekte vorliegen könnte. Deutschlands Richter sehen sich zwar traditionell in ihrer Rechtsprechung veranlasst, weniger dem gesunden Menschenverstand als dem oft hoffnungslos idiotischen Zeitgeist der Deutschen zu folgen (die Historie liefert ausreichend Material), aber man darf den Kampf gegen den Windrad-Wahn als neuester deutscher Idiotie dennoch nicht aufgeben. Unsere Naturumgebung sollte es uns wert sein. Alle gesetzlich zulässigen Mittel sind dabei auszuschöpfen. Zumindest kann man aber denjenigen Parteien beim nächsten Urnengang einen Denkzettel verpassen, denen 10 tote Fledermäuse Anlass sind, ein Bauprojekt zu torpedieren, die dagegen 100.000 von einem Windrad getötete Fledermäuse für ihre ideologischen Träume tolerieren.

Prof. Dr. Horst-Joachim Lüdecke

EIKE-Pressesprecher

Stellungnahme von Dr. Schlüter zu den Leserkommentaren

Ich möchte #2 Greg House etwas in Schutz nehmen. Seine Behauptung, ein Deckenventilator wirke beruhigend, ist richtig, soweit dieser, sehr gut ausgewuchtet, unter einer glatten Decke montiert ist. Dann erzeugt  er nur  Rauschen und  ist  unschädlich, eventuell sogar nützlich, da, wie #6 Christian Wetzel zutreffend feststellt, ein Rauschgenerator die Tonhaltigkeit  maskieren kann. Nur wenn die Axialsymmetrie der an- bzw. abströmenden Luft gestört ist, entsteht ein dissonanter Klang dessen Grundfrequenz  dem Produkt aus Umdrehungs- und Flügelzahl entspricht. Erst dieser tiefe Klang wirkt sehr belästigend. Dies kann man mühelos mit einem schnelllaufenden  Axialgebläse demonstrieren.

Zur Visualisierung verweise ich auf Abb. 3  in der  Arbeit von Ceranna et al. (s.o./8/). Das dort bei 1 Hz beginnende Linienspektrum hat seine Ursache in den Passagen der Windradflügel am Turmschaft vorbei, die offensichtlich zu einer Störung der Axialsymmetrie der Luftströmung führen. Man beachte, dass zumindest bis zu Windgeschwindgkeiten von 5 m/s ein windradgeneriertes Rauschen in dem dargestellten Frequenzbereich nicht erkennbar ist. Das Zentralnervensystem registriert nur die Linien als Signal und (fehl-)interpretiert dieses als Bedrohung. Rauschen, dargestellt durch die Basiskurven, wird ignoriert.

Der in einigen Kommentaren vertretenen Annahme, die Wahrnehmbarkeit von Infraschall durch den menschlichen Organismus beruhe auf Resonanzabsorption beiEigenfrequenzen der Zellen, kann ich  nicht zustimmen. Zum einen müsste ein (wie Klaviersaiten) abgestimmter Satz von Resonatoren  zur Verfügung stehen, der den Frequenzbereich 0,001 bis 5 Hz lückenlos abdecken könnte, zum anderen sind mir (und mir bekannten Biophysikern)  physikalische Modelle, die solche schwingfähige Systeme auf zellulärer Basis beschreiben, nicht bekannt. Auch im Hörbereich werden Resonanztheorien verworfen.

Ergänzend möchte ich bemerken, dass die von mir oben vertretenen Auffassungen verträglich  zu den Ergebnissen sind,  die das Bundesumweltamt in der ebenfalls im Juni 2014 veröffentlichten Machbarkeitsstudie (s.o. /4 /) dokumentiert hat. Darin wird die wissenschaftstheoretisch sowieso unhaltbare Aussage, Infraschall sei unschädlich, da unhörbar, nicht mehr vertreten (noch im April tat dies der baden- württembergische Umweltminister vor dem Stuttgarter Landtag), vielmehr wird die Wahrnehmbarkeit des Infraschalls bis 75 dB herab experimentell belegt. Auch sei es vor allem die Ton- oder Impulshaltigkeit und der Modulationsgrad tiefer Geräusche (auch der in #21 erwähnte Begriff Fluktuierender Schall  fällt unter diese Kategorie), die belästigen – exakt mein Standpunkt. Weiterhin wird angemerkt, dass die Reichweite windradgenerierten Infraschalls wesentlich größer als der prognostizierte Wert bei Annahme einer kugelsymmetrischer Ausbreitung  sein kann. Insgesamt vollzieht das BUA damit eine sensationelle Kehrtwende. Mir fehlt allerdings ein 10-semestriges Studium der Soziologie, um die im letzten Absatz der Machbarkeitsstudie gegebene Begründung zu verstehen, warum es trotzdem nicht nötig sei, die Mindestabstände der Windräder von Wohngebäuden zu vergrößern.

Joachim Schlüter

Related Files




Das Wetter vorhersagen? Das Klima vorhersagen? Sie scherzen, stimmt’s?

Bild rechts: © Alan Caruba

Seit den achtziger Jahren, nach einer Dekade also, in der eine Eiszeit vorhergesagt worden war, begannen die Scharlatane der globalen Erwärmung beim IPCC, Vorhersagen zu erstellen hinsichtlich einer unmittelbar bevorstehenden bedrohlichen Periode der Erderwärmung, und natürlich wurde der ehemalige Vizepräsident Al Gore zum Chef-Vorhersager, wobei er so nebenbei mit diesem Job zum Multimillionär geworden ist.

Dann, vor etwa 17 Jahren, begann die Erde sich abzukühlen und damit einem durch und durch natürlichen Zyklus zu folgen, der dem Schwindel der globalen Erwärmung ein Ende bereitete. Also begannen das IPCC und der Rest der Umweltbande, stattdessen von einer „Klimaänderung“ zu sprechen.

Sie machten weiterhin Kohlendioxid dafür verantwortlich – welches sie als „Kohlenstoff-Verschmutzung“ bezeichnen – und die Environmental Protection Agency EPA steht weiterhin hinter dieser Lüge, weil sie die Grundlage für ihre kriminelle Agenda bildet, die Wirtschaft zu schädigen in Gestalt hunderttausender neuer Vorschriften für jeden Zentimeter Land und jeden Tropfen Wasser in den USA. Gerade vor kurzem hat sie mit Bemühungen begonnen, jedes Kohlekraftwerk in Amerika zu schließen, das Strom liefert.

Vor kurzem hat Joe D’Aleo, ein weithin angesehener Klimatologe, in seiner Blogosphäre bei IceCap.us geschrieben: „Erstens, Kohlenstoffverschmutzung ist ‚Ruß‘, mit dem wir kein Problem haben – die eigenen Daten der EPA zeigen, dass er deutlich unterhalb der von der EPA gesetzten Standards liegt und seit 1999 um 50% abgenommen hat. CO2, das mit Ruß in einen Topf geworfen wird, ist ein harmloses (und tatsächlich sehr nützliches) Gas, und jeder Atemzug eines Menschen emittiert 100 mal so viel CO2 als in der umgebenden Luft vorhanden ist. CO2 ist unabdingbar für Pflanzen, und wir befinden uns derzeit am unteren Ende des CO2-Gehaltes in der Erdgeschichte, gerade noch über dem Niveau, das die Pflanzen zum Überleben brauchen. Das Minimum liegt bei 280 ppm“.

Wem also wollen Sie glauben? Einem führenden Klimatologen oder einem ehemaligen Gemeinde-Organisator, Barack Obama?

Es scheint, als hätte Obama sich entschieden, eine Menge Lügen über das Klima im zweiten Durchgang seiner Amtszeit zu erzählen. Mit seinem Scheitern, die Wirtschaft der Nation wiederzubeleben und ohne merklichen Einfluss auf globale Ereignisse sowie angesichts der zunehmenden Zahl der Skandale seiner Administration hat Obama die Lügen des IPCC an sich gerissen, um unsere Aufmerksamkeit von unseren wirklichen Problemen abzulenken. Sie wurden zur Grundlage der offiziellen US-Politik.

Mit Beginn der Hurrikan-Saison von Juni bis November wird man Obama mit der Vorhersage hören, dass diese Stürme während der kommenden Monate zunehmen werden, aber mit Beginn des Juni wurde der 3142. Tag markiert, seit das US-Festland zum letzten Mal von einem starken Hurrikan betroffen worden ist. Diese Hurrikan-„Dürre“ ist seit dem Jahr 1900 beispiellos.

Man kann sicher sein, dass Obama unterstützt wird durch US-Agenturen wie der National Oceanic and Atmospheric Administration NOAA [= der amerikanische Wetterdienst] und dem National Hurricane Center in Miami, deren Budgets von seiner Unterstützung abhängig sind. Was sie uns nicht sagen werden ist, dass Dr. William Gray, ein berühmter Meteorologe an der Colorado State University, vor dreißig Jahren die Beziehung zur El Nino Southern Oscillation ENSO gefunden und dokumentiert hat, die die Hurrikan-Aktivität eher unterdrückt.

Prognostiker erwarten dieses Jahr einen starken El Nino. Es ist ein Phänomen, das gesteuert wird durch die Atmosphäre und das Meer über und im tropischen pazifischen Ozean. Wie mächtig ist er? Seine Auswirkungen spürt man auf der ganzen Welt einschließlich des Atlantischen Ozeans, wo sich die meisten das US-Festland betreffenden Hurrikane bilden. Sein Gegenpart La Nina sorgt für eine Verstärkung der Hurrikan-Aktivität, aber das wird während der kommenden Monate eben nicht passieren, weil El Ninos normalerweise mindestens 27 Monate andauern.

Wenn der US-Wetterdienst nicht zwei Wochen oder einen Monat von heute an das Wetter vorhersagen kann, sollten alle Vorhersagen hinsichtlich des Klimas – im Maßstab von Jahrhunderten – mit einem sehr hohen Grad von Zweifeln betrachtet werden. Man sollte jedoch zur Kenntnis nehmen, dass die Periode zwischen den Eiszeiten etwa 11.000 bis 11.500 Jahre dauert. Diese derzeitige Periode nähert sich ihrem Ende.

Einen Präsidenten, der das Wetter bemüht, um die Amerikaner zu ängstigen, sollte man mit deutlichem Zynismus begegnen. Man beachte, dass Obama den letzten großen Sturm heranzieht, der die Ostküste heimgesucht hat, nämlich Sandy, aber das war kein Hurrikan, sondern lediglich ein Tropischer Sturm.

Das National Center for Public Policy Research hat die Reihe „die stärksten zehn Gründe, warum Washington neue Gesetze oder Vorschriften bzgl. der globalen Erwärmung in Kraft setzen sollte“ fortgesetzt (hier).

Es wird auch in den kommenden Monaten dramatische Wetterereignisse geben, weil es immer solche Ereignisse gibt, darunter Dürren, Stürme, Tornados, Überschwemmungen, Waldbrände und so weiter. So funktioniert Mutter Erde, und so hat sie immer funktioniert.

Unter dem Strich steht: Wenn der Wetterbericht für morgen oder übermorgen Regen ansagt, nehmen Sie einen Regenschirm mit. Darüber hinaus – genießen Sie den Sommer!

© Alan Caruba, 2014

Link: http://www.nationalanxietycenter.blogspot.de/2014/06/predicting-weather-climate-youre.html

Übersetzt mit schriftlicher Erlaubnis des Autors von Chris Frey EIKE




BGR Präsident Kümpel: „Die Risiken, die im Zusammenhang mit der Schiefergasförderung dargestellt werden, halten wir für überzogen.“

"Wir kennen aus geowissenschaftlicher Sicht keinen Grund, der es verbieten sollte, Fracking durchzuführen", so Kümpel. Die Bundesregierung will dagegen dem Vernehmen nach noch vor der Sommerpause Auflagen für dieser Technologie beschließen, die auf ein Moratorium hinauslaufen könnten.

Im Koalitionsvertrag von CDU und SPD heißt es dazu, Fracking sei eine "Technologie mit erheblichem Risikopotential“ und eine „falsche Antwort auf die Energiefrage“. Umweltschützer, Bürgerinitiativen und Politiker befürchten vor allem, dass die bei dieser Technologie eingesetzten Chemikalien das menschlich nutzbaren Grundwasser kontaminieren könnten. Zwar könne er diese Bedenken bei Bürgerinnen und Bürgern verstehen, sagt Kümpel in diesem Gespräch, in dem die am meisten genannten Risiken erörtert werden. 

Aber, so Kümpel wörtlich: "Die Risiken, die im Zusammenhang mit der Schiefergasförderung dargestellt werden, halten wir für überzogen." In der Öffentlichkeit würden oft falsche Bilder benutzt und Szenarien gezeigt, die mit dem "Fracking" nichts zu tun hätten. "Fracking" sei in Deutschland zur Gewinnung von Erdgas aus tiefen Erdschichten und bei der Geothermie schon seit über 50 Jahren mehr als 320 mal angewandt worden, woraus man – wie auch aus der millionenfachen Nutzung in den USA – Erfahrungen gewonnen habe. 

Deshalb könne man sagen, "dass aus unserer Sicht die Schiefergasförderung durch Fracking und Horizontalbohrung unter Einhaltung der gesetzlichen Vorschriften und unter Einhaltung der technischen Standards eine Technik ist, die ein verschwindend geringes Risiko in sich trägt." Die Bundesanstalt für Geowissenschaften und Rohstoffe sei sich mit den geologischen Diensten der Bundesländer darin einig, so Kümpel, "dass wir Mühe haben, Risiken zu sehen, die es verbieten würden, diese Technik einzusetzen." 

Übernommen von der RBB Ingo Kahle Seite. Der Beitrag kann dort auch abgehört werden

BGR – Bundesanstalt für Geowissenschaften und Rohstoffe

1               Energiestudie 2013 der BGR

Mehr Informationen: [bgr.bund.de]

Frac Faocus Chemical Disclosure Registery

2               Häufigste Chemikalien beim Fracking

Mehr Informationen:[fracfocus.org]

ExxonMobil

3               Erdgassuche in Deutschland

Mehr Informationen:[erdgassuche-in-deutschland.de]

WEG – Wirtschaftsverband Erdöl- und Erdgasgewinnung e.V.

4               Website der Erdgasproduzenten

Mehr Informationen: [erdoel-erdgas.de]