Bemühungen zur Verringerung des CO2-Ausstoßes laufen der menschlichen Gesundheit zuwider

Bild rechts: CO2 ist für die Welt von Vorteil

Aber die Sorgen des Präsidenten hinsichtlich des Planeten beruhen auf betrügerischer und spekulativer Wissenschaft; und sein politisches Rezept ist ein Rezept für das Scheitern.

Hinsichtlich der Wissenschaft übergeht Obama bequemerweise die Tatsache, dass es buchstäblich Tausende wissenschaftlicher Studien gibt mit Ergebnissen, die seiner Ansicht des zukünftigen Klimas diametral entgegenstehen. Nur ein Beispiel, noch dazu ein zum Himmel schreiendes: Alle Computermodelle, mit denen er seine Vision begründet, haben nicht das gegenwärtige Plateau des Temperaturverlaufs simuliert, das seit nunmehr etwa 16 Jahren andauert. Dass sich die Erde trotz einer Zunahme des atmosphärischen CO2 um 8% in dieser Zeit nicht signifikant erwärmt hat, ist ein gravierender Schlag gegen die Glaubwürdigkeit der Modelle hinsichtlich der Vorhersage des zukünftigen Klimas – und ebenso gegen die Versicherung des Präsidenten, dass die Debatte zu diesem Thema „settled“ ist.

Zahlreiche andere Probleme mit Obamas modellbasierter Sicht des zukünftigen Klimas haben die Seiten begutachteter wissenschaftlicher Journale jetzt schon seit vielen Jahren gefüllt, wie aus der jüngsten Studie des Nongovernmental International Panel on Climate Change hervorgeht. Diese Institution hat im September einen 1000 Seiten starken Bericht veröffentlicht, in dem eine umfangreiche und gut belegte alternative Sicht im Mittelpunkt steht, der zufolge steigende CO2-Emissionen einen viel kleineren, wenn nicht sogar vernachlässigbaren Effekt auf das zukünftige Klima haben. Hingegen würde die Biosphäre massiv davon profitieren.

Hinsichtlich dieser Vorteile ist das atmosphärische CO2 die Grundlage des Pflanzenlebens. Es wird von den Pflanzen auf der Erde gebraucht, um über den Prozess der Photosynthese Stärke zu bilden und zu wachsen. Und genau das ist schon in zahlreichen wissenschaftlichen Studien bewiesen worden. Je mehr CO2 in die Atmosphäre gelangt, umso besser wachsen die Pflanzen. Unter Anderem erzeugen sie mehr Biomasse, verwenden Wasser effizienter und sind besser in der Lage, mit Umweltstress fertig zu werden wie Verschmutzung und hohen Temperaturen.

Die Auswirkungen dieser Vorteile sind enorm. In einer jüngeren Studie wurde berechnet, dass sich die direkten monetären Vorteile der CO2-Anreicherung in der Atmosphäre in einem Zeitraum von 50 Jahren bis zum Jahr 2001, also seit Beginn der industriellen Revolution, auf die globale Getreideernte auf atemberaubende 3,2 Billionen Dollar belaufen. Und wenn man diese positive Auswirkung in die Zukunft projiziert, wird es wahrscheinlich weitere Vorteile bis zum Jahr 2050 in Höhe von 9,8 Billionen Dollar zeitigen.

Indem er diese Realitäten ignoriert, ist Obamas politisches Rezept irrig. Die Besteuerung oder Regulierung von CO2-Emissionen ist eine unnötige und schädliche politische Option, die man sofort streichen sollte. Warum sollte irgendeine Regierung Vorschriften einführen und Energiepreise erhöhen, die auf falschen Projektionen von Computermodellen beruhen und eine Entwicklung projizieren, die niemals eintreten wird? Warum sollte irgendeine Regierung eine Politik verfolgen, die Arbeitsplätze vernichtet anstatt neue zu schaffen? Warum sollte sie „die Hand beißen, die sie füttert“?

[Hervorhebung vom Übersetzer. Dreimal darf geraten werden, worauf der damit hinweisen will! A. d. Übers.]

Wir leben in einer Zeit, in der die Hälfte der Weltbevölkerung die Grenzen ihres Zugangs zu Energie aufgezeigt bekommt – Energie, die für die grundlegendsten menschlichen Bedürfnisse erforderlich ist, einschließlich der Erzeugung sauberen Wassers, Wärme und Licht. Ein Drittel der Betroffenen sind Kinder. Und ein immer größerer Teil findet sich plötzlich unter den Armen wieder.

Als Gesellschaft ist es endlich an der Zeit, die Wahrheit anzuerkennen und anzunehmen. Kohlendioxid ist kein Verschmutzer. Dessen zunehmende Konzentration beeinflusst das Erdklima nur minimal, während dadurch die Biosphäre massiv profitiert. Bemühungen zur Regulierung und Reduktion der CO2-Emissionen werden viel mehr Schaden anrichten als dass sie zu irgendetwas nützlich sind.

Dr. Craig Idso ist leitender Herausgeber und leitender Wissenschaftler im Nongovernmental International Panel on Climate Change.

Quelle:  The Hill

Link: http://sppiblog.org/news/efforts-to-cap-co2-emissions-are-adverse-to-human-health-and-welfare#more-10882

Übersetzt von Chris Frey EIKE




Viscount Monckton fordert Seine Königliche Hoheit Prince Charles heraus, mit ihm über die Apokalypse zu debattieren

Da Ihre Königliche Hoheit seine Person als fairer Mitspieler beim Shootout der Politik hingegeben hat, kann ich endlich zwei Optionen anbieten. Ich muss sie nicht länger zurückhalten, was so Viele getan haben angesichts der Einmischungen Ihrer Königlichen Hoheit in die Politik, die immer häufiger werden und sowohl hinsichtlich ihrer Art und Weise als auch hinsichtlich ihrer Inhalte immer weniger akzeptabel sind.

Option 1: Ihre Königliche Hoheit wird auf den Thron verzichten, sofort und für immer. Jene Bemerkungen waren parteipolitisch und sollten diejenigen brüskieren, die immer noch glauben, anders als Ihre Königliche Hoheit, dass das United Kingdom ein freies Land ist und bleiben soll; wo jeder Untertan Ihrer Majestät Wissenschaft und Wirtschaft studieren, seine Schlussfolgerungen ziehen und die Ergebnisse veröffentlichen kann, so ungelegen diese Ergebnisse auch immer sein mögen.

Die Grenze ist überschritten. Niemand, der sich so unmäßig in die Politik eingemischt hat, sollte jemals legal den Thron besteigen. Die arrogante und abfällige Haltung Ihrer Königlichen Hoheit gegen fast 50 Prozent Ihrer Untertanen, die der Neuen Religion nicht länger folgen wollen, ist gleichbedeutend mit einer verfrühten Abdankung. Gute Nacht, lieber Prinz! Nie mehr „Ihre Königliche Hoheit“!

Hallo Kumpel! Sie sind jetzt ein Bürgerlicher, genau wie die meisten der Untertanen Ihrer Majestät. Sie werden sehen, dass wir eine fröhlich lärmende Menge sind. Die meisten von uns glauben nicht an Paläste, und keiner von uns geht irgendwohin mit seinen eigenen, mit Monogrammen versehenen Abdeckungen für Toilettendeckel.

Die Independence Party in UK, die in Schottland zu repräsentieren ich bis vor Kurzem die Ehre hatte, sagt mit den besten wissenschaftlichen und wirtschaftlichen Beweisen, dass sich die Profiteure des Untergangs ungerechtfertigt auf unsere Kosten bereichern.

So hat zum Beispiel selbst das unaussprechliche IPCC Ratschläge von mir und anderen Experten-Gutachtern angenommen, dass es ein Fehler war, sich bei der Vorhersage des Klimas auf schlecht konstruierte und defekte Computermodelle zu verlassen. Zwischen den Vorabversionen und der Endversion des „5. Zustandsberichtes“ hat das IPCC die Modelle fahren lassen und stattdessen seine eigene „Experten-Einschätzung“ abgegeben, der zufolge die Erwärmung der nächsten 30 Jahre nur etwa halb so stark ausfallen wird wie von den Modellen vorhergesagt.

Tatsächlich denkt die kleiner werdende Menge alter Fossilien in weißen Kitteln und klecksenden Kugelschreibern in ihrer Brusttasche jetzt, dass die Erwärmungsrate während der nächsten 30 Jahre nur halb so groß ist wie während der letzten 30 Jahre, trotz der unverminderten Zunahme von Pflanzendünger in der Luft. Wenn Sie das nächste Mal zu den Pflanzen sprechen und sie fragen, ob sie mehr CO2 in der Luft mögen, die sie atmen, wird ihre Antwort Ja lauten.

Die Wirtschafts-Fachzeitschriften sagen nahezu einstimmig, dass es 10 bis 100 mal kostspieliger ist, heute die globale Erwärmung abzuschwächen als sich an die vermeintlich nachteiligen Konsequenzen übermorgen anzupassen.

Unabhängig davon hat sich die globale mittlere Temperatur seit nunmehr 25 * vollen Jahren nicht verändert. Wenn Sie also versucht sind, den vorigen kalten Winter (mit 31.000 vorzeitigen Todesopfern) oder die Überschwemmungen dieses Jahres der globalen Erwärmung in die Schuhe zu schieben – tun Sie es nicht!

Ihre Wissenschaft und Ihre Wirtschaft sind falsch. Außerdem waren Sie sehr grob. Und Sie haben eine politische Meinung übernommen. Unserer Verfassung zufolge ist das verboten. Was den Thron betrifft, haben Sie Ihre Ambitionen fortgeblasen.

Andererseits sind wir Briten verrückt nach Sport. Hier ist also Option 2. Ich gebe Ihnen sportlich eine zweite Chance, Charlie, Baby.

Sie sehen, Junker, Sie stehen nicht länger über der Politik. Sie sind von Ihrem vergoldeten Ast heruntergefallen, und jetzt stecken Sie bis zur Halskrause in ihr drin. Um Sie also daran zu gewöhnen, in einen Gedankenaustausch auf gleicher Höhe mit Ihren Landsleuten einzutreten, gebe ich Ihnen die einmalige Chance, Ihren Thron zurückzugewinnen, und zwar in einer Debatte über das Klima. Thema: „Die globale Erwärmung ist eine Krise“. Sie sagen, dass das so ist. Ich sage, dass das nicht so ist.

Wir wollen diese Debatte an der Cambridge Union führen, weil Cambridge Ihre Alma Mater und auch meine ist. Sie können zwei Unterstützer hinzuziehen, das werde ich auch. Wir können Power Point-Darstellungen verwenden. Die Große Debatte wird international im Fernsehen übertragen, und zwar zwei kommerzielle Stunden lang. Wir lassen die Welt via Telefon abstimmen, vor und nach der Debatte. Wenn die Abstimmung zu Ihren Gunsten ausgeht, behalten Sie Ihren Thron. Anderenfalls dürfen Sie nur noch im Pub sitzen.

Prost, Kamerad!

Viscount Monckton of Brenchley

Link bei Watts Up

Übersetzt von Chris Frey EIKE

* Anmerkung der Redaktion: Die Aussage von Monckton über 25 Jahre ohne Erwärmung der mittleren Temperatur führte bei den Lesern auf Wattsup zu einiger Diskussion. Insbesondere darüber, ob sich Moncktons Anmerkung auf die CET (Mittelenglische) oder Welttemperatur bezog. Da Monckton normalerweise sehr genau recherchiert bevor er etwas nieder schreibt, dürfte hier die CET gemeint sein. 




Die fünf globalen Implikationen von Schieferöl und -gas

Bild rechts: Fracking in Louisiana (photo: Daniel Foster)

In einem früheren Artikel habe ich einige der Gründe genannt, warum die Schiefer-„Revolution“ in den USA und Kanada stattgefunden hat und nicht auch anderswo, also in Ländern mit ähnlich großen Ressourcen. Die kurze Antwort lautete: Es ging nur um Wettbewerb.

Das Erschließen dieser Ressourcen hat mit Innovation zu tun, und daher wird es dauern, sie in Ländern auf den Markt zu bringen, die sich selbst dem freien Austausch von Investitionen und Gedanken verschließen, oder die auf heimischen Märkten keinen Wettbewerb zulassen. Die Produktion von Öl und Erdgas in großem Maßstab aus Schiefer mag neu sein, aber an diesem Prinzip ist in der Geschichte unserer Industrie nichts neu – und auch nicht, wenn man genauer nachdenkt, in der Geschichte jedweder Industrie.

Inzwischen steigt die Erzeugung in Nordamerika immer weiter. Und Schiefer ändert auch die weiter gefasste Landschaft: Niemand zweifelt noch daran, dass die USA in nicht allzu ferner Zukunft zum Erdgas-Exporteur werden. Die Gesamteinfuhren von Öl haben sich bereits fast halbiert. Während der Rohölexport immer noch per Gesetz beschränkt wird, heimsen die USA die Vorteile einer billigeren heimischen Rohölförderung ein, indem sie stattdessen raffinierte Produkte exportieren: Wurden im Jahre 2007 noch insgesamt 2 Millionen Barrel raffinierter Produkte pro Tag eingeführt, sind jüngst 1,2 Milliarden Barrel pro Tag exportiert worden. Nicht nur die Energiesicherheit gewinnt dadurch: Im Vergleich zu allen anderen Ländern der Welt gab es in den USA im vorigen Jahr den stärksten Zuwachs bei der Öl- und Gaserzeugung – und gleichzeitig gab es den bei Weitem stärksten Rückgang bei den CO2-Emissionen – dank der beispiellosen Ersetzung von Kohle durch Erdgas bei der Stromerzeugung, ermöglicht durch Schiefergas. (Gaskraftwerke emittieren nur etwa halb so viel wie Kohlekraftwerke).

Da ist es kaum ein Wunder, dass man inzwischen allmählich begreift, dass die „Schiefer-Revolution“ oder unkonventionelles Gas und Öl in Nordamerika Konsequenzen über die Region und die Energiemärkte hinaus hat, und das noch viele Jahre lang. Und doch hinken Untersuchungen über die globalen strategischen Implikationen – hinsichtlich Energiesicherheit, Geopolitik, der Weltwirtschaft und der Umwelt – der aktuellen Entwicklung hinterher; was vielleicht nicht überraschend ist, weil sehr unsicher ist, wie sich die zukünftige Erzeugung entwickelt.

Welches sind einige dieser wahrscheinlichen strategischen, globalen Implikationen? Um dies zu beleuchten braucht man einen sinnvollen Bezugspunkt.

Es gibt zwei Aspekte, worin sich Schiefer-Ressourcen von konventionellem Öl unterscheiden. Erstens erstrecken sich Schiefer-Ressourcen in weit verbreiteten Gebieten. Die Einschätzungen stecken immer noch in den Kinderschuhen, aber alle verfügbaren Anzeichen zeigen, dass sich technisch abbaubare Öl- und Gas-Schieferressourcen in Asien, Australien, Afrika Südamerika, Europa und Eurasien befinden – näher an den Zentren des Verbrauchs als konventionelles Öl. Man vergesse nicht, wir wissen beklagenswert wenig über die Abbaubarkeit dieser Ressourcen in ökonomischer Hinsicht.

Zweitens, die meisten Forecaster – einschließlich wir selbst – sagen voraus, dass das Wachstum in absehbarer Zukunft in Nordamerika konzentriert bleibt, trotz der relativ gleichmäßigen räumlichen Verteilung. Gründe hierfür sind der fehlende Zugang, Wettbewerb und folglich innovative Anreize in anderen Ländern; und in Bezug dazu ein Fehlen einer geeigneten Infrastruktur, die zu bilden Zeit braucht.

Die Abbildung oben zeigt beide Punkte. Links findet sich ein Produktionsprofil aus den Energie-Aussichten von BP 2030, veröffentlicht im Januar 2013. Basierend auf unserer Sicht der Geologie, Infrastruktur-Erfordernissen und Bohraktivitäten ebenso wie die Schnelligkeit, mit der Schiefer-Ressourcen an verschiedenen Stellen erschlossen werden können zeigt sie, dass die globale Erzeugung aus Schieferöl bis 2030 auf 9% der globalen Ölproduktion wachsen soll – während der Anteil noch vor wenigen Jahren nicht existent war.

Die Wachstumsrate wird positiv bleiben, sich jedoch nach dem Jahr 2020 verlangsamen

Drei Charakteristiken müssen erwähnt werden: (a) Die Wachstumsrate wird weiterhin von Nordamerika dominiert, (b) Das Wachstum wird positiv bleiben, sich aber etwa nach dem Jahr 2020 verlangsamen im Vergleich zu den derzeitigen sehr hohen Raten, und (c) andere Länder werden dem Spiel beitreten – namentlich Russland, China, Argentinien und Kolumbien – aber ihr Beitrag wird nicht schnell genug wachsen, um die allgemeine Verlangsamung des Wachstums nach 2020 zu kompensieren.

Als Nächstes verglichen wir diese frisch erstellte Vorhersage mit anderen Vorhersagen, dargestellt durch die grau schattierten Flächen in der Abbildung rechts. Es zeigt sich (was zu jener Zeit überraschend für uns war), dass die BP-Vorhersage tatsächlich sehr konservativ war. Sie liegt am unteren Ende der Bandbreite aller anderen Vorhersagen. Tatsächlich dürfte es schwierig werden, noch niedrigere Vorhersagen als die Unsrige zu finden.

Unsere Vorhersage liegt nicht nur niedriger, auch die Verlangsamung des Wachstums nach 2020 wird nicht überall geteilt. Viele andere sagen ein stetiges Wachstum voraus oder sogar eine Beschleunigung bis zum Jahr 2030.

Die konservative Natur dieser Vorhersage ist der springende Punkt. Offensichtlich basiert angesichts der gegenwärtigen Bandbreite der Unsicherheiten jede Diskussion über globale Implikationen – explizit oder nicht – auf einer Erzeugungs-Prognose. Unsere Vorhersage impliziert, dass die unten beleuchteten Konsequenzen erweitert werden müssen, wenn die optimistischeren Vorhersagen richtig liegen.

Was also sind nun diese Implikationen? Basierend auf diesem konservativen Bezugspunkt fallen mir mindestens fünf ein.

1.Druck auf die Konfiguration der Öl- und Gasmärkte

Eine der ersten durch die Schiefer-„Revolution“ aufgeworfenen Fragen werden die Auswirkungen steigender Schieferöl- und –gaserzeugung auf Markt und Preise sein. Wir wollen uns auf Öl konzentrieren. In einem normalen Markt sollten die Preise fallen, und das Einzige, womit sich Ökonomen befassen müssen, ist zu berechnen, wie schnell und um wieviel sie fallen. Aber der Ölmarkt ist nicht exakt ‚normal‘: Es gibt dort ein Erzeuger-Kartell mit einer langen Geschichte der Versuche, Preise und Produktion zu kontrollieren. Beim Ölmarkt geht es bei der Frage nach den Konsequenzen höherer Schieferölmengen also darum, wie die OPEC wahrscheinlich reagieren wird.

Es gibt gute Gründe für die Annahme, dass die OPEC-Mitglieder willens und in der Lage sind, mit Produktionsbeschränkungen auf die steigende Versorgung aus Nicht-OPEC-Ländern zu reagieren.

Produktionsbeschränkungen wiederum führen zu Überkapazitäten. Die Ausbildung von Überkapazitäten in OPEC-Ländern, die notwendig sind, um die zusätzliche Versorgung zu neutralisieren (einschließlich Biotreibstoffe und Ölsande) ist wirklich substantiell: Nimmt man unser Produktionsprofil als Ansatz, müsste die Überkapazität zum Ausgleich der neuen Mengen in diesem Jahrzehnt über 6 Millionen Barrel pro tag liegen – das ist der höchste Wert seit Ende der achtziger Jahre, wie die rechte Karte in der Abbildung unten zeigt.

Das wird keine leichte Aufgabe für die OPEC. Der Zusammenhalt der Organisation steht im Mittelpunkt der Unsicherheiten, vor allem im jetzigen Jahrzehnt. Es wird eine Welt sein, in der Russland, die USA und Saudi-Arabien ein Drittel der globalen Erzeugung beisteuern. Von diesen dreien wird wahrscheinlich nur das OPEC-Mitglied Saudi-Arabien die Last großer Mengen überschüssiger Kapazität auf sich nehmen. Und Saudi-Arabien liegt zwischen Irak, einem OPEC-Mitglied mit ständig steigendem Output, aber ohne Quotenregelung, und Iran, wo noch niemand vorhersagen kann wie lange die bestehenden Sanktionen die Produktion noch limitieren.

Die Rolle politischer Diskussionen wird wahrscheinlich neue Höhepunkte erreichen bei der Bestimmung, ob, wo und wann auf Schieferressourcen zugegriffen werden kann.

Andererseits werden wir wahrscheinlich nicht die Rückkehr zu den sehr niedrigen Ölpreisen erleben, die es in den neunziger oder achtziger Jahren gab (unter der Annahme, dass die OPEC so bleibt wie bisher). Die Schieferölproduktion ist nicht nur relativ teuer; mit seiner hohen Dichte der Bohrlöcher ist sie auch eminent skalierbar (anders als die konventionellen Vorräte in Alaska oder in der Nordsee seit den achtziger Jahren). Die Versorgung wird reagieren, sobald die Preise substantiell fallen.

Zunächst wird das Auftreten von Schieferöl (und –gas) Druck auf die Preise ausüben, indem die Konfiguration der Märkte, so wie wir sie kennen, auf den Prüfstand kommt. Im Falle des Öls ist die OPEC der Eckpunkt dieser Märkte. Im Falle des Gases ist es die Indexbindung der Gaspreise an das Öl.

2.Eine neue Rolle für die lokale Politik

Unsere Industrie ist stolz darauf, zwischen „Tagebau-„ und „Untergrund“-Faktoren zu unterscheiden, wenn es um den Zugang zu Ressourcen geht. Untergrund heißt Geologie, also von der Natur vorgegebene Bedingungen; Tagebau erfordert vom Menschen festgelegte Bedingungen, wie z. B. einen politischen, gesetzlichen oder ökonomischen Rahmen.

Die Rolle von politischen Diskussionen zum Thema „Tagebau“ wird vermutlich neue Höhepunkte erreichen bei der Festlegung, ob, wo und wann Schieferressourcen erschlossen werden sollen. Diese Diskussionen werden sich eher um lokale als um große geopolitische Themen drehen – einfach als Folge der weiträumigen geographischen Verteilung der Schiefer-Ressourcen.

Die Zufälle der Natur, die nennenswerte ‚konventionelle‘ Ölressourcen vor Millionen Jahren angelegt hatte, haben diese in hoch konzentrierter Weise verteilt. Bei der traditionellen Politik hinsichtlich Öl und Gas geht es als Konsequenz mehr oder weniger lediglich um die einfache Regelung, wer diese Stellen effektiv unter Kontrolle hat.

Hinsichtlich knappen Öls und Schiefergases wird es bei lokalen Debatten im Gegensatz dazu hauptsächlich um die Haltung bzgl. Energie, Wettbewerb und Umwelt vor Ort gehen – all dies als Wechselwirkung zwischen der relativ gleichmäßigen Verteilung von Schiefer-Ressourcen und der Rolle des freien Zugangs, und nicht zuletzt um Umweltaspekte bei der Erschließung.

Die Anzeichen sind schon jetzt überall erkennbar.

In Europa wetteifern Polen und die Ukraine aggressiv um Investitionen, während in Frankreich und Bulgarien Moratorien gegen Fracking verhängt worden sind, was den Schieferaspekt bis auf weiteres aufs Abstellgleis schiebt. In Deutschland und UK debattiert man noch.

Der fehlende Erfolg Chinas hinsichtlich des Zugangs zu Schiefer wie geplant ist zum größten Teil zurückzuführen auf die bevorzugte Bereitstellung entsprechender Gebiete für nationale Monopolisten und hohe Barrieren gegen den Eintritt von außen – einschließlich von Unternehmen, die über bessere Technologie verfügen und weniger vor den Risiken zurückschrecken, seien diese nun heimischer oder auswärtiger Natur. Russland steht vor einem interessanten Ausgleich zwischen der Verfolgung gänzlich neuer und kostspieliger Technologien, um die Erzeugung in arktische Gebiete zu verlagern, oder um ein wenig mehr Ausprobieren, neue Technologien zum Zugang zu den inzwischen bekannten Schieferressourcen zu bekommen. Obwohl zögerlich, reformiert Russland sein Steuersystem in Verfolgung der zweiten Option.

Selbst in den USA konzentrierte sich die Erzeugung aus Schieferformationen bislang in den zentralen Gebieten des Landes, wobei man große bekannte Felder in den küstennahen Bereichen Kaliforniens und von New York State außen vor lässt, in diesem Falle wegen Umweltbedenken.

All diese Beispiele reflektieren die politischen Diskussionen über der Erde. Sie spiegeln die Haltung vor Ort hinsichtlich des freien Zugangs, des Wettbewerbs auf den Energiemärkten und der Umwelt. Wir sollten erwarten, dass dies noch eine Weile so weitergeht.

Zunehmend wird die Festlegung, ob und wie diese Ressourcen auf den Markt geworfen werden, in den Rathäusern und Parlamenten der Verbraucher entschieden – und nicht durch die ‚große‘ Geopolitik, die die launische Art der Natur bei der Verteilung konventioneller Ölfelder in weit entfernten Gebieten spiegelt.

3.Geopolitik der Energie – die große Unbekannte

Wenn man Entscheidungen vor Ort treffen muss, heißt das nicht, dass die Geopolitik hinsichtlich Energie weniger wichtig wird. Tatsächlich ist die dritte Implikation inzwischen verbreitet erkannt worden: Es betrifft die geopolitischen Konsequenzen der Verschiebungen in den etablierten Zentren von Produktion und Verbrauch. Nirgends kommt das besser heraus als bei einem Blick auf den Nahen Osten.

Wir alle sind aufgewachsen in einer Welt, in der Öl der zentrale Treibstoff ist, und der Nahe Osten steht im Mittelpunkt der Versorgung der Welt mit Öl. Ob das nun gut oder schlecht ist – die nachfolgenden Beziehungen zwischen dem größten Ölverbraucher der Welt und diesem regionalen Vorratszentrum hatte schon immer enorme politische Konsequenzen: Man kann nicht bestreiten, dass sich mit der Zeit spezielle zweiseitige Beziehungen entwickelt haben zwischen den USA (und im größeren Rahmen der OECD) und kleinen Ökonomien des Nahen Ostens, die zufällig große Ölproduzenten sind.

Diese Beziehungen könnten sich ändern, und zwar in ziemlich unvorhersagbarer Weise.

So unwahrscheinlich das klingt, aber vor zwanzig Jahren war China insgesamt ein Exporteur von Energie. Bis zum Jahre 2030 wird das Land vermutlich zum größten nationalen Einzel-Importeur (auch bzgl. Erdgas und Kohle), kann es doch zu einer Abhängigkeit von 80% von seinem Öl und über 40% von seinem Gas kommen. Während des gleichen Zeitraumes dürfte Europa ein großer Importeur fossiler Treibstoffe bleiben – dies ist in der Karte links in der Abbildung unten dokumentiert.

Die USA stehen vor anderen Perspektiven. Nehmen wir erneut unser konservatives Erzeugungsprofil als Vergleich, wird das Land nahezu energieunabhängig sein bis zum Jahr 2030. Nordamerika als Region (Mexiko, Kanada und die USA), wird diesen Punkt schon früher erreichen. Schon jetzt sind die USA insgesamt ein Kohleexporteur, und es gibt kaum noch Zweifel, dass sie bald auch zu einem Gasexporteur werden. Und selbst wenn unserem konservativen Profil zufolge die USA bis 2030 ein Importeur von Öl bleiben, werden die Importen drastisch zurückgegangen sein.

Welche Konsequenzen ergeben sich daraus? Ist es denkbar (und das ist absolut keine Vorhersage), dass eine zukünftige amerikanische Administration noch auf diese von Wirren durchzogene Region schaut, wenn sie nur noch sehr wenig Öl von dort braucht – und das Wenige, das sie noch braucht, auch aus Kanada und Mexiko geliefert werden kann? Das können wir nicht wissen. Es ist nicht vorhersagbar.

Klar ist lediglich, dass weder die Natur noch Märkte und vermutlich die Politik ein Vakuum mögen. Wir können nicht wissen, wie dieses Vakuum ausgefüllt wird. Aber die Geopolitik der Energie-Beziehungen so wie wir sie kennen, verschiebt sich.

4.Gute Nachrichten für die Weltwirtschaft – zumindest auf den ersten Blick

Bislang wird die öffentliche Diskussion über die ökonomischen Implikationen von Schieferöl und –gas von der Frage dominiert, ob niedrigere Energiepreise den USA einen Wettbewerbsvorteil verschaffen werden und sogar deren industrielles Wiedererstarken verursachen könnten. Im Gesamtbereich dieses Themenkomplexes wird sich dies jedoch nur als peripher herausstellen.

Wichtiger sind die globalen Kapitalflüsse in Verbindung mit den neuen Produktionszentren von Öl und Gas. Auf eine entsprechende Frage hätten die meisten Ökonomen während der letzten Jahre wahrscheinlich geantwortet, dass eine der größten permanenten Bedrohungen der globalen wirtschaftlichen Stabilität in dem liegt, was unter der Bezeichnung globales Ungleichgewicht bekannt ist: Der Ausdruck bezieht sich (zumeist) auf die Notwendigkeit, ein permanentes externes Defizit der USA sowie ein solches im öffentlichen Bereich zu finanzieren, und zwar mit Kapitalzuflüssen aus Ländern, die einen äußeren Überschuss haben.

Das prominenteste Beispiel hierfür ist natürlich China. Aber die USA importieren ebenfalls Kapital aus dem Nahen Osten und anderen exportorientierten Nationen. Das Risiko hinsichtlich dieser Situation besteht darin, dass sich das Überrollen dieser Finanzerforderlichkeiten eventuell als nicht nachhaltig herausstellen könnte. Globale Instabilität könnte die Folge sein.

Die kürzlich besprochenen Energie-Ungleichgewichte enthalten das Potential, diese Ungleichgewichte der Zahlungsbilanzen zu lindern. Derzeit machen diese Importe immer noch etwa 50% des äußeren Defizits der USA in Gütern und Dienstleistungen aus. Auf den ersten Blick wird der Trend zur Selbstversorgung hinsichtlich Energie dieses Defizit verringern (es wird auch der fiskalischen Situation helfen). Gleichzeitig werden aber steigende Energieimporte den chinesischen Handelsüberschuss erniedrigen. Sollte es wirklich zu niedrigeren Ölpreisen kommen, würde dies auch eine Delle in den gegenwärtigen Überschuss der Ölproduzenten des Nahen Ostens schlagen.

Urplötzlich scheint sich eine Kraft des Guten aufgetan zu haben, noch dazu von unerwarteter Seite – von den Energiemärkten, die in gewisser Weise die globale Wirtschaft neu auszurichten unterstützen.

Natürlich muss man da vorsichtig sein. Die USA könnten beschließen, mehr von irgendetwas Anderem als Energie zu exportieren. Komplizierte Auswirkungen von Wechselkursen müssen evaluiert werden, bevor am Rückschlüsse auf Kontingente ziehen kann. Bis heute hat noch niemand eine solche detaillierte Abschätzung der makroökonomischen Auswirkungen von Schieferöl und –gas vorgenommen.

Eines jedoch ist offensichtlich. Selbst nach unserem moderaten Produktionsprofil verspricht die Größenordnung dieser globalen Auswirkungen gewaltig zu sein – groß genug, um eine solche Abschätzung dringlich zu machen. Schließlich kann man wohl darauf wetten, dass dieser Zahlungsgleichgewichts-Effekt den gegenwärtigen Streit um Energiepreise und die Wettbewerbsfähigkeit der USA marginalisieren könnte.

Die Produktion von Schieferöl und –gas wird vermutlich einen deutlichen Fußabdruck in der globalen makroökonomischen Landschaft hinterlassen. Und zumindest auf den ersten Blick sieht das wie eine gute Nachricht für die globale Wirtschaft aus.

5.Ein Entscheidungskriterium für an der Umwelt Interessierte

Die Erzeugung einer Kilowattstunde Strom mit einem modernen Gaskraftwerk emittiert etwa 50% weniger Kohlenstoff als die Erzeugung mittels eines Kohlekraftwerkes. Die Konsequenzen sind erheblich.

Im vorigen Jahr hatten die USA, nicht gerade bekannt für eine gewissenhafte Umweltpolitik, nicht nur den größten Zuwachs bei der Öl- und Gaserzeugung, sondern es gab auch den größten Rückgang der CO2-Emissionen weltweit – weil massiv Kohle bei der Energieerzeugung durch billigeres Schiefergas ersetzt worden ist. Im Gegensatz dazu gingen die Emissionen in der EU nur marginal zurück und auch nur als Folge einer wirtschaftlichen Rezession – wie die Abbildung unten zeigt. Die Kohlenstoff-Intensität, also die Menge des emittierten Kohlenstoffs pro Energieeinheit, stieg, als die europäischen Ökonomien Gas durch billigere Kohle, importiert aus den USA, ersetzt haben.

Die Kohle der USA wird durch die Schiefer-„Revolution“ auf das Abstellgleich geschoben: die überflüssige, weil durch billigeres Schiefergas ersetzte Kohle wird nach Europa verschifft, wo es die teureren Importe verflüssigten Gases bei der Energieerzeugung verdrängt. Die nun überflüssigen Gasvorräte dort wiederum fließen jetzt nach Asien, wo sie für Spitzenpreise erwünscht sind – auch aus anderen Gründen, nämlich als Ersatz für die Kernkraft in Japan. In dieser Weise erzeugt die europäische Energieerzeugung ein unglückliches Spiegelbild der USA: In Europa steigt der Kohleanteil und sinkt der Gasanteil; in den USA ist es genau umgekehrt. Die Konsequenzen für den Ausstoß von Kohlenstoff liegen auf der Hand.

Man denke an die schiere Größenordnung. Gas und Kohle decken derzeit jeweils ein Viertel bzw. ein Drittel des globalen Energieverbrauchs; Erneuerbare (ohne Wasserkraft) schlagen lediglich mit 2% zu Buche. Unvermeidlich führt dies zu der Frage, ob man den Zielen hinsichtlich CO2 nicht besser dient, wenn man mehr Kohle durch Erdgas ersetzt, einschließlich Schiefergas, anstatt die Erneuerbaren allein graduell und sehr kostspielig auszubauen. Das Argument, viel stärker auf den globalen Handel zurückzugreifen – zum Beispiel in dem man die Auspreisung von Kohlenstoff ernst nimmt – wird gestärkt durch die Effizienz, mit der diese beiden fossilen Treibstoffe über Grenzen und sogar Kontinente hinweg gehandelt werden, was mit Sonne und Wind einfach nicht möglich ist.

Und so erhebt sich die Frage: Was ist stärker, die Angst vor dem Fracking oder die gewissenhafte Befürwortung, mehr Kohle durch Erdgas zu ersetzen einschließlich Schiefergas? Ich habe dazu meine eigene Meinung. Fracking ist ein lokales Problem, Kohlenstoffemissionen sind abstrakt und global. Wir wissen, wie so etwas vermutlich endet. Aber für jetzt ist der Punkt, dass diese Frage in der gesamten Umweltdiskussion noch gar nicht gestellt worden ist.

Damit schließt diese Abhandlung über die globalen Auswirkungen von Schiefer. Man behalte im Hinterkopf, dass diese Einschätzung auf den bisherigen Energieaussichten vom Januar 2013 basieren. Aber sie wurde auch vorgenommen als Vorbereitung des Folgeberichtes im Januar 2014.

Editor’s Note

Christof Rühl is Group Chief Economist and Vice President of BP plc. He manages BP’s global Economics Team, providing economic input into the firm’s commercial decisions. BP’s Economics Team produces the annual Statistical Review of World Energy and the Global Energy Outlook.

Prior to joining BP, Rühl worked at the World Bank (1998-2005) where he served as the Bank’s Chief Economist in Russia and in Brazil. Before that, he worked in the Office of the Chief Economist at the EBRD (Economic Bank for Reconstruction and Development) in London. He started his career as an academic economist, first in Germany and from 1991 as Professor of Economics at the University of California in Los Angeles.

He wrote this article originally as a five-part piece on LinkedIn in December 2013: http://www.linkedin.com/today/post/article/20131206211204-259060403-on-the-global-implications-of-shale-setting-the-scene

It is published here with permission from the author.

Link: http://www.energypost.eu/five-global-implications-shale-revolution/

Übersetzt von Chris Frey

Hinweis: Der Autor hat sein Einverständnis für die Übersetzung erklärt, aber darum gebeten, die Übersetzung zu begutachten. Nachdem ich ihm diese Übersetzung vorgelegt habe und keine Antwort kam, habe ich ihm vor einigen Wochen noch einmal geschrieben, wieder ohne Antwort.

Weil ich davon ausgehe, dass daraus zu schließen ist, dass er nichts gegen die Übersetzung einzuwenden hat, wird der Artikel jetzt hier beim EIKE gepostet.

Die Angaben zur Biographie habe ich absichtlich nicht übersetzt.

C. F.




Das Rätsel der Eiszeiten, Teil I und II

Was ist SOD, wer ist verantwortlich und was ist seine Philosophie

Science of doom (SOD) (hier) ist ein Klima-Wissenschaftsblog von bester Qualität. Es ist etwas mühsam herauszubekommen, wer ihn betreibt. Schließlich wird man bei Wikipedia fündig. Es sind die beiden Professoren Peter Ward (Paläontologe, Univ. Washington, USA, hier) sowie Donald Brownlee (Atronom an der Univ. Washington, USA, hier). Wer Englisch mag, sollte SOD im Original lesen, denn in der deutschen Übersetzung geht einiges von der angelsächsischen Ironie verloren. Außerdem sind wir der Meinung, dass insbesondere die SOD-Kommentare oft fast ebenso wertvoll sind wie der SOD-Text selber. Hier tummeln sich meist Fachleute. Verbissene Auseinandersetzungen wie in manch anderen Klima-Blogs (wir nennen besser keine Namen), die sich durch mangelnde Fachkenntnissen und der sich daraus ergebenden Unbelehrbarkeit der Streithähne auszeichnen, sucht man in SOD glücklicherweise vergebens. Wir möchten fernen betonen:

Die von uns verfasste deutsche Version ergänzt in vielen Einzelheiten das Original und ist nicht immer die wörtliche Übersetzung. Insbesondere haben wir – wenn es uns zur Verdeutlichung als notwendig errschien – eigene Textteile, Kommentare und fachliche Ergänzungen hinzugefügt.

Das Rätsel der Eiszeiten, Teil 1 – Einführung

Für viele Teilnehmer an der Klimadebatte ist es ein Schock, wenn sie zum ersten Mal erkennen, wie oft und wie stark sich das Klima in der Vergangenheit geändert hat. Selbst Prinz Charles war vermeintlich irritiert, als er fragte:

Nun, wenn es ein Mythos ist und die globale wissenschaftliche Gemeinschaft in eine Art Verschwörung involviert ist, wie kommt es dann, dass auf der ganzen Welt der Meeresspiegel über sechs Inches [über 15 cm] höher liegt als vor 100 Jahren?

Dieser Kommentar von Prinz Charles ist komisch, aber nicht überraschend, da die meisten Menschen keine Ahnung von der Klimavergangenheit haben (Meine tief empfundene Entschuldigung an Prinz Charles, falls er von den Englischen Medien falsch zitiert worden sein sollte)

Man schaue sich nur die folgende "unbequeme" Temperaturgraphik an, wenn man sehen will, wie sich die Temperaturen im Laufe der letzten 150.000 Jahre und weiter noch während der letzten Millionen Jahre verändert haben:


Quelle: “Holmes’ Principles of Physical Geology” 4th Ed. 1993

Die letzte Million Jahre sind unglaublich. Der Meeresspiegel – soweit wir das mit einiger Sicherheit sagen können – hat sich um mindestens 120 m nach oben und unten bewegt, vielleicht sogar noch um mehr. Es gibt nun zwei Sichtweisen, die diese massiven Änderungen zu erklären meinen. Besonders interessant ist dabei, wie die gleichen Daten auf derart unterschiedliche Weisen interpretiert werden können. Entweder nämlich so:

Die gewaltigen Änderungen des Klimas der Vergangenheit, die wir aus Meeresspiegel- und Temperatur-Rekonstruktionen erkennen können, zeigen, dass sich das Klima immer ändert. Sie zeigen, dass die Temperaturzunahme des 20. Jahrhunderts nichts Ungewöhnliches sind. Und sie zeigen, dass das Klima viel zu unvorhersagbar ist, um genau modelliert werden zu können.

Oder ganz anders so:

Die gewaltigen Änderungen des Klimas der Vergangenheit zeigen die sensitive Natur unseres Klimas. Kleine Änderungen der Solarstrahlung und kleinere Änderungen der Verteilung der Sonnenenergie über die Jahreszeiten (durch kleinere Änderungen im Erdorbit) haben zu Klimaänderungen geführt, die heute katastrophal wären. Klimamodelle können diese Änderungen der Vergangenheit erklären. Und wenn wir den Strahlungsantrieb des anthropogenen CO2 mit diesen kleinen Änderungen vergleichen, erkennen wir, was für eine unglaubliche Gefahr wir für unseren Planeten erschaffen haben.

Ein Datensatz also, aber zwei völlig verschiedene Sichtweisen. Wir werden versuchen, diese "Geister der Klimavergangenheit" im Nachfolgenden besser zu verstehen.

Das Rätsel der Eiszeiten, Teil II – Lorenz

Vor sehr langer Zeit habe ich den Beitrag Ghosts of Climates Past geschrieben. Ich habe viele Paper zu den Eiszeiten und den Zwischeneiszeiten gelesen, bin aber nie an den Punkt gelangt, von dem ab ich irgendetwas Zusammenhängendes schreiben konnte. Dieser Beitrag ist mein Versuch, wieder in die Gänge zu kommen – nachdem ich lange Zeit zu beschäftigt gewesen war, irgendwelche Artikel zu schreiben.

In seinem Paper aus dem Jahr 1968 mit dem Titel Climatic Determinism – präsentiert auf einem Symposium unter dem Motto Causes of Climatic Change – schreibt der berühmte Edward Lorenz:

Die oft akzeptierte Hypothese, dass die physikalischen Gesetze, die das Verhalten der Atmosphäre bestimm, das Klima eindeutig festlegen, wird kritisch geprüft. Es ist zu betonen, dass es physikalische Systeme gibt, deren Statistiken über unbegrenzte Zeitintervalle eindeutig durch herrschende Gesetze und Umweltbedingungen gesteuert werden (transitive Systeme); und es andere Systeme gibt, bei denen das nicht der Fall ist (intransitive Systeme).

Es gibt auch bestimmte transitive Systeme (fast intransitive Systeme), deren Statistiken sich über sehr lange, aber begrenzte Zeitintervalle merklich von einem Intervall zum nächsten unterscheiden. Es wird hier die Möglichkeit in Erwägung gezogen, dass langzeitliche klimatische Änderungen eher aus der Fast-Intransitivität der Atmosphäre resultieren, als dass sie von äußeren Umweltänderungen verursacht werden.

Diese Sprache könnte vielen Lesern etwas dunkel vorkommen. Aber Lorenz verdeutlicht in seinem Paper weiter:

……Während dieses Symposiums kann erwartet werden, dass viele alternative und manchmal Widerspruch auslösende Erklärungen angeboten werden. Einige davon werden Änderungen des Klimas den Änderungen der Eigenschaften der Ozeane zuordnen. Andere können sich auf Variationen vulkanischer Aktivität beziehen. Wieder andere werden Fluktuationen der Sonnenstrahlung berücksichtigen.

Die von mir gewählten Erklärungen haben als Hauptgrund für die Änderungen des Verhaltens der Atmosphäre die Änderungen der Umgebung dieser Atmosphäre. Jene, die solche Erklärungen propagieren, könnten mit sehr guten Gründen annehmen: falls Umwelteinflüsse vor langer Zeit die Gleichen gewesen wären wie heute, müsste auch das historische Klima das Gleiche gewesen sein; daher die Notwendigkeit des Bezugs auf Umweltänderungen als eine Erklärung. Kurz gesagt, sie könnten zu der nicht unvernünftigen Schlussfolgerung kommen, dass die Umgebung der Atmosphäre zusammen mit der internen Physik der Atmosphäre das Klima auf mehr oder weniger eindeutige Weise bestimmt.

Genau diese Hypothese, nämlich dass einzig die die Atmosphäre steuernden physikalischen Gesetze für das Klima verantwortlich sind, möchte ich kritisch überprüfen.

[Link zum Original dieses Ausschnitts: http://scienceofdoom.files.wordpress.com/2013/10/lorenz-1968-1.png]

Lorenz fasst hier also transitive Systeme ins Auge – das heißt, die Anfangsbedingungen bestimmen nicht den zukünftigen Klimazustand. Stattdessen tun dies die Physik und die „äußeren Einflüsse“ oder Antriebe (wie die auf dem Planeten einfallende Solarstrahlung). Lorenz schreibt weiter:

Vor allem, wenn die ein physikalisches System steuernden Gleichungen linear sind, kann ein einheitlicher Satz langfristiger Statistiken oft in analytischer Form ausgedrückt werden. Allerdings sind die die Atmosphäre steuernden Gleichungen in höchstem Maße nicht linear. Die den Hauptteil der Schwierigkeiten ausmachenden Nichtlinearität ist Advektion – der Transport von bestimmten Eigenschaften der Atmosphäre von einem Gebiet zu einem anderen Gebiet durch die Bewegung der Atmosphäre selbst. Da die Bewegung der Atmosphäre von einer Stelle zu einer anderen ebenfalls eine der Eigenschaften der Atmosphäre ist, die von abhängigen Variablen repräsentiert wird, werden jene Terme in den Gleichungen, die die Advektion repräsentieren, quadratisch sein, was das gesamte System nichtlinear macht.

Im Falle nichtlinearer Gleichungen ist die Einheitlichkeit langzeitlicher Statistiken nicht sicher. Die mathematische Modellbildung als System von gekoppelten Gleichungen, ausgedrückt in deterministischer Form, zusammen mit einem spezifizierten Satz von Anfangsbedingungen, bestimmen die zeitabhängige Lösung. Diese erstreckt sich unendlich in die Zukunft und legt daher einen Satz langzeitlicher Statistiken fest. Bleibt die Frage, ob derartige Statistiken unabhängig von der Wahl der Anfangsbedingungen sind. Wir definieren ein transitives System von Gleichungen als eines, bei dem dies der Fall ist. Gibt es jedoch zwei oder noch mehr Sätze langzeitlicher Statistiken, von denen jede eine Wahrscheinlichkeit größer als Null für die Abhängigkeit von den gewählten Anfangsbedingungen aufweist, nennen wir das System intransitiv.

Bisher sind dies nur Definitionen. Die mathematische Theorie sagt uns aber, dass sowohl transitive als auch intransitive Systeme existieren. Mehr noch, bislang wurde kein einfacher Weg gefunden, zu entscheiden, ob ein willkürliches vorgelegtes Gleichungssystem transitiv oder intransitiv ist.

[Link: http://scienceofdoom.files.wordpress.com/2013/10/lorenz-1968-21.png]

Hier führt Lorenz das verbreitet bekannte Konzept eines „chaotischen Systems“ ein, in dem unterschiedliche Anfangsbedingungen zu unterschiedlichen langzeitlichen Ergebnissen führen. (Man beachte, dass es chaotische Systeme geben kann, in welchen unterschiedliche Anfangsbedingungen unterschiedliche Zeitreihen mit den gleichen statistischen Eigenschaften über einen Zeitraum erzeugen – daher ist "intransitiv" die restriktivere Bezeichnung (siehe die Originalarbeit für mehr Einzelheiten).

3. Beispiele eines intransitiven Systems

Da ein intransitives physikalisches System, in dem die physikalischen Gesetze nicht einheitlich das Klima steuern, ein ungewöhnliches Konzept ist, seien ein paar Beispiele genannt. Eines wird durch Laborexperimente zur Simulation bestimmter atmosphärischer Vorgänge geliefert (siehe Fultz et al. 1959 und Hide 1958). Der Versuchsaufbau besteht im Wesentlichen aus einem rotierenden Bassin mit Wasser, das einer unterschiedlichen Erwärmung ausgesetzt wird. Die Bewegung des Wassers wird durch ein Kontrastmittel sichtbar gemacht. Unter geeigneten Bedingungen ensteht ein sich um die Rotationsachse bewegendes Wellenmuster.

Unter bestimmten festgelegten Bedingungen wird eine Anordnung von vier Wellen unbegrenzt lange bestehen bleiben, wenn es sich erst einmal gebildet hat; aber eine Anordnung von fünf Wellen bleibt ebenfalls unbegrenzt lange bestehen. Das ist ein wirklich intransitives System. Externes Manipulieren wie umrühren des Wassers mit einem Bleistift kann das System von vier Wellen in eines mit fünf Wellen umwandeln und umgekehrt. Unter geringfügig veränderten festgelegten äußeren Bedingungen wie z. B. einer etwas höheren Rotationsgeschwindigkeit, wird sich nur das System mit fünf Wellen ausbilden. In diesem Falle ist das System transitiv. Transitivität ist eine qualitative Eigenschaft des Experiments, aber sie hängt definitiv ab von den quantitativen Eigenschaften der Eingangsgrößen.

Ein anderes Beispiel wird durch einfache numerische Modelle zur Simulation allgemeiner Eigenschaften der Atmosphäre geliefert (siehe z. B. Lorenz 1963). Sowohl transitive als auch intransitive Systeme sind leicht zu konstruieren. Der Unterschied zwischen ihnen kann einfach der numerische Wert eines einzelnen vorbestimmten Parameters sein.

Wie ist das nun in der realen Atmosphäre? Ist sie transitiv? Wir wissen es nicht. Die Atmosphäre ist weder ein Laborexperiment noch ein Zahlensatz in einem Computer, und wir können sie nicht abschalten und dann erneut in Bewegung setzen, um zu sehen, ob sich ein neues Klima bildet. Auch die derzeit bekannte mathematische Theorie gibt uns darauf keine Antwort.

Wie war das doch gleich wieder mit der realen Atmosphäre? Es war nicht meine ursprüngliche Absicht, einen Pflock "Fast-Intransitivität" als Hauptgrund für eine Klimaänderung einzuschlagen. Allerdings ist die Fast-Intransitivität ein zu wichtiges Phänomen, um als Ganzes missachtet zu werden. Was dieses Symposium angeht, habe ich den deutlichen Eindruck, dass auch niemand anders einen solchen Pflock einschlagen wird. Lassen Sie mich also sagen, dass ich Fast-Intransitivität als prinzipiellen Grund für Klimaänderungen für möglich halte, aber nicht in der Lagen bin zu sagen, sie sei der wahrscheinlichste Grund. Vielleicht kann man einmal mehr sagen, wenn wir die Gelegenheit erhalten, die Lösungen von viel größeren numerischen Modellen auf viel längere Zeitintervalle auszudehen und dabei zu sehen, ob Fast-Intransitivität im Zeitmaßstab von Jahrhunderten und nicht nur von Jahren auftritt.

5. Schlussfolgerungen

Trotz unseres mageren Wissens über die Fast-Intransitivität können wir ein paar Schlussfolgerungen ziehen. Zum Einen kann die bloße Existenz langzeitlicher Klimaänderungen nicht aus sich selbst heraus als Beweis für Umweltveränderungen herangezogen werden; es gibt jetzt alternative Erklärungen. Und schließlich, was ist mit der nicht unwahrscheinlichen Möglichkeit, dass die Atmosphäre fast-intransitiv ist, falls die Umwelteinflüsse konstant sind, während gleichzeitig äußere Umweltveränderungen stattfinden? Die Auswirkungen dieser Änderungen werden dann schwieriger zu entdecken  und kausale Beziehungen schwieriger zu etablieren sein. Zum Beispiel: eine Umweltveränderung, die einen Temperaturanstieg um 2°C zur Folge hat, könnte genau zu der Zeit erfolgen, wenn die Temperatur als Folge der Fast-Intransitivität um 2°C fällt. Die Umweltveränderung bleibt dann unbemerkt, weil niemand einen Grund erkennt, nach ihr zu suchen.

Zusammengefasst kann das Klima deterministisch sein oder auch nicht. Möglicherweise werden wir das niemals sicher sagen können. Wenn aber die mathematische Theorie weiter entwickelt wird, könnten wir hinsichtlich unserer Ansichten allmählich sicherer werden.

Nun, das ist ein interessanter Ansatz des bedeutenden Lorenz‘. Ein späteres Paper, nämlich von Kagan, Maslova & Sept (1994) kommentierte Lorenz‘ Studie aus dem Jahr 1968 und erzielte mit einem ziemlich einfachen Modell interessante Ergebnisse:

Bild: Spektrale Intensität von Klimaperiodizitäten gegen Frequenz in [1/tausend Jahre], die Periodenlänge ergibt sich aus dem Kehrwert der Frequenz.

Im paper von Kagen und Maslova findet sich weiter folgender Kommentar:

Man beachte folgende bemerkenswertesten Eigenschaften: erstens, die starken Maxima bei den Perioden 80 x 10³, 41 x 10³, 21 x 10³ und 18 x 10³ Jahren nahe der Exzentrizitäts-Periode (~100 x 10³ Jahre), der "precessional"-Periode (~41 x 10³ Jahre) sowie der Präzessions-Perioden (~23 x 10³ und ~19 x 10³ Jahre).  zweitens, eine Abnahme der Amplituden der Ozeantemperatur-Oszillationen mit Perioden von 21 x 10³ und 18 x 10³ Jahren mit zunehmender Tiefe (oder Breite); und drittens die führende Rolle der Änderungen des Partialdrucks des atmosphärischen CO2 während Änderungen der kontinentalen Eismassen (cf. Abbildungen 2a und 2b).

Diese Eigenschaften der Lösung sind ähnlich den aus geochemischen Studien gewonnenen Daten (Broecker und Danton 1989; Imbrie 1992; Ruddiman und McIntyre 1984), jedoch in keiner Weise verbunden mit Variationen der astronomischen Parameter. Im Einzelnen sind 80 x 10³ Jahre eine Periode diskontinuierlicher Auto-Oszillationen. 41 x 10³ und 21 x 10³ Jahre sind Perioden ihrer Schwingungen, und 18 x 10³ Jahre ist eine Periode, die definiert wird durch die Differenz zwischen der Lebenszeit einer normalen (gegenwärtigen) und anormalen (umgekehrten) Zirkulation (Abbildung 2c). Mit anderen Worten, in unserem Fall ist der Grund für die oben genannten Eigenschaften die interne Variabilität des Klimasystems als Folge von diskontinuierlichen Auto-Oszillationen der ozeanischen thermohalinen Zirkulation.

Das heißt, ein paar zusammen arbeitende gekoppelte Systeme können ausgeprägte Veränderungen des Erdklimas auslösen in Zeiträumen wie 80.000 Jahren. Falls irgendjemand denken könnte, dass es lediglich obskure ausländische Journale sind, die über Lorenz‘ Arbeit schreiben, so hat der viel veröffentlichte Klimaskeptiker(?) James Hansen dazu Folgendes zu sagen {– Redaktionelle Anmerkung: Das Fragezeichen wurde von uns hinzugefügt, denn wir kennen J. Hansen nur als AGW-Aktivisten, seine Eigenschaft als "Klimaskeptiker" ist uns neu –}:

Die Variation der globalen mittleren jährlichen Lufttemperatur während des 100-jährigen Kontrolllaufes zeigt die weiter unten stehende Abbildung. Die globale mittlere Temperatur am Ende des Laufes ist sehr ähnlich derjenigen zu Beginn, aber es gibt eine substantielle Variabilität ohne äußeren Antrieb in allen Zeiträumen, die untersucht werden können, das heißt bis zu Zeiträumen von Jahrzehnten. Man beachte, dass eine Änderung (ohne äußeren Antrieb) der globalen Temperatur von etwa 0,4°C (0,3°C, wenn die Kurve mit einem 5-jährigen gleitenden Mittel geglättet wird) in einem 20-Jahres-Zeitraum aufgetreten ist (Jahre 50 bis 70). Die Standardabweichung über das 100-jährige Mittel beträgt 0,11°C. Diese Variabilität (ohne äußeren Antrieb) der globalen Temperatur im Modell ist nur wenig kleiner als die beobachtete Variabilität der globalen Temperatur während des vorigen Jahrhunderts wie in Abschnitt 5 diskutiert. Die Schlussfolgerung, dass eine (ohne äußeren Antrieb und unvorhersagbare) Klimavariabilität für einen Großteil der Klimaänderung ursächlich sein kann, ist von vielen Forschern betont worden; zum Beispiel Lorenz (1968), Hasselmann (1976) und Robock (1978).

Und hier nun der Kontrolllauf aus der Studie von J. Hansen:

Abbildung (J. Hansen): Trend der globalen jährlichen Mitteltemperatur während des 100-jährigen Kontrollaufes.

{– Redaktionelle Anmerkung: Inzwischen weiß man, dass solche Fluktuationen, wie in der Abbildung von J. Hansen gezeigt, durch "Persistenz" oder Autokorrelation jeder realen Temperaturreihe auftreten. Die hier geltende Theorie (Hurst-Exponent) ist rein empirisch, also modellfrei, physikalische Ursachen der Persistenz von Temperaturreihen sind nicht bekannt (hier) –}.

In späteren Artikeln werden wir einige Theorien der Milankovitch-Zyklen beleuchten. Verwirrenderweise laufen viele unterschiedliche Theorien, die zumeist auch noch jeweils inkonsistent miteinander sind, alle unter der gleichen Bezeichnung "Milankovitch".




Europa flüchtet aus die Wirtschaft zerstörenden grünen Initiativen, während Obama weiter zudrückt

In Deutschland zum Beispiel, einer der stärksten Befürworter von Umwelt-Regulationen in der EU, sind die Preise himmelwärts gestiegen auf das höchste Niveau in Europa. Dem Telegraph zufolge muss ein drei-Personen-Haushalt bald 90 Euro pro Monat für Strom zahlen, und 300.000 Haushalten pro Jahr wird der Strom abgedreht, weil sie die Rechnung nicht mehr bezahlen können.

Diese hohen Preise sind teilweise den hohen Subventionen (= Steuergelder) für Wind- und Solarenergie geschuldet. Außerdem wird den „grünen“ Energieerzeugern ein garantierter Preis für ihren grünen Strom minimum price for their energy, whether the demand exists or not. Thus, energy prices have doubled in the last ten years, even though, at times, supply has exceeded demand. When supply exceeds grid capacity, Germany must pay its neighbors to t>gezahlt, und es ist vorgesehen, restliche Kraftwerke bis 2022 zu schließen.

Deutschland hat wie alle anderen, die den Standpunkt der Umweltaktivisten übernommen haben, „grün“ über das Wohlergehen seiner Bevölkerung gestellt. Sie haben Gottes Schöpfung vergessen, und das Ergebnis ist, dass immer mehr Menschen, gewöhnlich die Ärmsten, durch schlechte Politik geschädigt werden. Umweltaktivisten setzen sich vehement für Subventionen zugunsten „grüner“ Energie ein, aber „Du sollst nicht stehlen“ ist ein Gebot, das man nicht vergessen sollte. Deutschland hat Geld von seiner Bevölkerung gestohlen, um damit solare und windige Abenteuer zu fördern, und wie immer in solchen Fällen wird dieses Gehabe annulliert werden müssen, um weiteren und noch größeren Schaden zu verhindern.

Angesichts der besorglichen wirtschaftlichen Lage und den Befürchtungen der deutschen Industrie, bald nicht mehr wettbewerbsfähig zu sein, hat Umweltminister Sigmar Gabriel seinen Plan kundgetan, die „grünen“ Subventionen bis zum Jahr 2015 um ein Drittel zu beschneiden. Aber ist das nicht zu wenig zu spät?

Die EU hat ihre Klimaschutzziele zurückgefahren. Obwohl sie auf europäischer Ebene weiterhin bindend sind, werden die Mitgliedsstaaten nicht länger daran gebunden sein. Die Ziele enthalten immer noch eine „grüne“ Energieerzeugung von 27%, ohne dass den Mitgliedsstaaten jedoch vorgeschrieben wird, wie sie dieses Ziel erreichen.

Die Europäische Kommission hat nach einer „industriellen Renaissance“ in Europa gerufen. Man hat aber erkannt, dass „grüne“ Vorschriften die Industrie schädigen und dass dies ein Grund für die sich abschwächende Wirtschaft ist (Die Arbeitslosigkeit in der EU lag im Oktober bei 10,9%). Daher versucht die Kommission jetzt, eine industriefreundlichere ökonomische Umgebung zu schaffen.

Die Kommission beabsichtigt, die Vorschriften „stabiler und vorhersagbarer“ und die EU-Gesetze „leichter zu machen und bürokratische Hürden abzubauen“.

Eine industriefreundlichere Umgebung besteht aus Gesetzen, die das Fracking nach Schiefergas erlauben. Die EU setzt grundlegende Prinzipien für Gesundheit und Sicherheit fest, wird sich aber „nicht in den Energiemix einmischen, der von den Mitgliedsstaaten gewählt wird“, behauptet Kommissionspräsident José Manuel Barroso.

Dies hat Druck von der UK-Regierung genommen, weiterhin Windparks und Solarfarmen zu errichten, und es hat dem Land freigestellt, Optionen für Kernkraft und Schiefergas zu verfolgen. Premierminister David Cameron verkündete am 27. Januar, dass seine Regierung „80.000 Seiten mit Umwelt- und Bauvorschriften in den Müll werfen will“.

Inzwischen macht Präsident Obama damit weiter, die USA an die Klippe zu führen, indem er mit Plänen fortfährt, die globale Erwärmung zu bekämpfen, die es seit mindestens 17 Jahren gar nicht mehr gibt, und zwar mit Maßnahmen, die bis zur Mitte dieses Jahrhunderts Billionen Dollar kosten, bis zum Ende dieses Jahrhunderts aber keine nennenswerte Abkühlung der globalen Temperatur bringen.

Eines der Mittel von Präsident Obama, den Amerikanern die Agenda der Umweltextremisten aufzuzwingen, ist die Environmental Protection Agency EPA. Deren Krieg gegen die Kohle zerstörte zwischen 13.000 und 17.000 Arbeitsplätze direkt oder indirekt allein im Jahr 2012 [hier], indem sie die Schließung von Kohlekraftwerken anordnete. Kaum war das Jahr 2014 angebrochen, hat die EPA eine Vorschrift erlassen, die die Kohleindustrie effektiv töten wird. Jedes neu gebaute Kohlekraftwerk, egal ob als Neubau oder Ergänzung bestehender Kraftwerke, muss einem Emissionsstandard genügen, der mit der gegenwärtigen Technologie unmöglich zu erreichen ist.

Dann gibt es da natürlich noch die Hindernisse, die der Keystone XL Pipeline in den Weg gelegt werden. Von dieser Pipeline hat der Präsident behauptet, dass sie lediglich „50 dauerhafte Arbeitsplätze“ erzeugen würde. Dabei hat sein eigenes State Department geschätzt, dass bis zu 42.000 Arbeitsplätze entstehen können.

Auf [US-bundes-]staatlichem Niveau gibt es ebenfalls bedeutende ökonomische Schwierigkeiten durch „grüne“ Politik. In Colorado sind die Energiepreise um 20% schneller gestiegen als in allen anderen Staaten der USA. Warum? Weil Colorado den Europäern gefolgt ist und im Jahre 2004 ein Mandat bzgl. erneuerbarer Energie eingeführt hat. Die Preise sind sogar noch stärker gestiegen, nachdem dieses Mandat in den Jahren 2007, 2010 und 2013 immer mehr verstärkt worden ist. Damit belaufen sich die Steigerungen der Energiepreise insgesamt seit 2007 auf 4,2 Milliarden Dollar zusätzlich.

Die Amerikaner werden weiterhin wegen der Umweltvorschriften Arbeitsplätze verlieren. Außerdem werden die Energiepreise noch weiter steigen und die Steuern ebenso. Lassen Sie uns einige Kopfschmerzen ersparen und eine Lektion aus Europa lernen!

Megan Toombs is Communications and Outreach Coordinator for the Cornwall Alliance.

Link: http://www.cornwallalliance.org/blog/item/europe-flees-economy-destroying-green-initiatives-while-obama-presses-on/

Übersetzt von Chris Frey EIKE

Wieder jemand, der vor dem europäischen Weg warnt…! A. d. Übers.




Veranstaltung in Berlin: Die Klimadebatte und ihre Folgen

Hier der Einladungstext:

Die nächste Folge unserer Diskussionsreihe „Fokus@Helmholtz“ soll unter dem Titel: „Was können wir glauben? Die Klimadebatte und ihre Folgen“ laufen. Ende März wird der zweite Teil des IPCC-Berichtes in Yokohama, Japan veröffentlicht. Er wird erneut Fragen um den Klimawandel, seine Folgen und Auswirkungen auf Mensch und Umwelt aufwerfen. Internationalen Wissenschaftler diskutieren schon jetzt zum Teil kontrovers und ringen um gemeinsame Antworten in der Klimafrage. Wenn Wissenschaftler sich schwer tun, wie können da die Bürgerinnen und Bürger verstehen, was mit unserem Klima passiert und verantwortungsvoll handeln. Warum verläuft der Streit zwischen den Forschern so heftig? Was treibt die Klimaskeptiker an? Und: Welche Fragen können Klimamodelle überhaupt beantworten? Viele Menschen fragen sich, woran sie eigentlich glauben sollen: Ist der Klimawandel doch nicht so schlimm, wie gedacht? Welchen Einfluss hat der Mensch auf ihn und in welchem Maße? Welche Rolle spielen politische Interessen, wenn es um Vorhersagen geht?

Wir laden Sie herzlich zur vierten Veranstaltung der Reihe Fokus@Helmholtz am Montag, 17. März 2014, um 19:00 Uhr (Einlass ab 18:30 Uhr) ins DKB-Atrium (Taubenstraße 7, 10117 Berlin) ein. Unter der Überschrift „Was können wir glauben? Die Klimadebatte und ihre Folgen“ wollen wir gemeinsam mit Ihnen und mit Vertretern aus Wirtschaft, Hochschule und außeruniversitärer Forschung diskutieren.

Wir bitten um An­mel­dung.

Die Veranstaltungsreihe Fokus@Helmholtz bringt regelmäßig Forschung, Politik und Gesellschaft zusammen, um miteinander über strittige Zukunftsfragen zu diskutieren. Die Helmholtz-Gemeinschaft möchte dabei gemeinsam mit ihren Gästen den Blick über den Tellerrand wagen, Handlungsoptionen hinterfragen und Denkanstöße liefern.

Und hier das Podium:

Pro­gramm

Begrüßung:

♦  Prof. Dr. Jürgen Mlynek, Präsident Helmholtz-Gemeinschaft

Podiumsdiskussion:

   Frank Drieschner, Die Zeit

   Dr. Oliver Geden, Stiftung Wissenschaft und Politik

  Dr. Peter Heller, „Science Skeptical Blog”

   Prof. Andreas Hense, Universität Bonn

   Prof. Hans von Storch, Helmholtz Zentrum Geestacht Zentrum für Material- und Küstenforschung

Moderation: Jan-Martin Wiarda, Helmholtz-Gemeinschaft

Die Veranstaltung ist öffentlich und vielleicht für den ein oder anderen Leser aus der Berliner Region interessant. Auch wenn ich nur der “Quotenskeptiker” bin, es ist schon mutig von der Helmholtz-Gemeinschaft, jemanden wie mich einzuladen. Vor vier oder fünf Jahren wäre dies wohl kaum möglich gewesen. Wenn man es denn überhaupt in Erwägung gezogen hätte. Meine Teilnahme geht übrigens nicht auf die Bekanntheit und die Wirkung von Science Skeptical zurück, sondern schlicht auf die Vermittlung durch Hans von Storch, bei dem ich mich an dieser Stelle dafür bedanken möchte.

Der Teaser zeigt allerdings einen immer noch vorhandenen Mangel an Unvoreingenommenheit. Was die Skeptiker antreibt weiß ich nicht, es ist auch nicht relevant. Die Frage ist doch vielmehr, was eigentlich die Alarmisten an ihren Horrorszenarien und Transformationsphantasien so toll finden. Schließlich bedarf Vernunft keiner weiteren Begründung, das Beharren, an etwas glauben zu müssen, aber schon. Glauben mag man, was man will, solange man den Unterschied zum Wissenberücksichtigt.

Ich bin gespannt, wie das laufen wird. Und wenn am Ende des Abends die Leute mit dem Wissen nach Hause gehen, daß Skeptiker keine okkulten Rituale feiern und Satan anbeten, sondern die eigentlich kühlen Köpfe in der Klimadebatte sind, dann wäre das schon genug.

Peter Heller übernommen von Science Sceptical




Wird das Herumreiten auf der globalen Erwärmung in ein neues Dunkles Zeitalter der Wissenschaft führen?

Paltridge war leitender Forschungswissenschaftler bei der Commonwealth Scientific and Industrial Research Organization (CSIRO). Letztere ist das australische Äquivalent zur National Science Foundation, unsere massive Agentur, in der alle Zweige regierungsnaher Wissenschaft konzentriert sind.

Paltridge spricht zunächst alle wohlbekannten Unsicherheiten der Klimavorhersage an. Diese enthalten unsere Unfähigkeit, Wolken angemessen zu simulieren, obwohl wir sie in der realen Welt immer sehen, ebenso wie das ärgerliche Fehlen der Erwärmung im nunmehr 17. Jahr und das Herumfummeln bei den Versuchen, dieses Fehlen hinweg zu erklären, häufig mit sich widersprechenden Äußerungen.

Während der politisch korrekte Name der letzten 17 Jahre der Begriff „Stillstand“ ist [the Pause], scheint sie eher so eine Art P-Welle zu sein, wie sie Bewegungen der Erdkruste vorangeht, bevor ein katastrophales Erdbeben (und der Tsunami, falls dies untermeerisch stattfindet) ausbricht. Menschen können diese P-Welle nicht fühlen, sehr wohl aber viele Tiere, weshalb Vögel kurz vor dem Losbrechen der Hölle auffliegen.

Klimawissenschaftler haben sich angesichts der bekannten Probleme ausgesprochen defensiv verhalten. Paltridge erklärt elegant, warum dies so sein muss, und beschreibt die wahrscheinlich schlimmen Konsequenzen, wenn der Tag der Abrechnung schließlich da ist.

Dieser Tag kommt immer näher, weil, wie Paltridge anmerkt, „…der Kleine Mann auf der Straße, der inzwischen die Anzeichen einer übertriebenen Umweltkampagne schon meilenweit im Voraus riechen kann, allmählich den Verdacht schöpft, dass es mehr die Politik als die Wissenschaft ist, die in dieser Angelegenheit treibend wirkt“.

Das wissenschaftliche Establishment hat sich selbst bzgl. der globalen Erwärmung in die Ecke manövriert. Paltridges Erklärungen hierfür kommen einem erschreckend bekannt vor.

In den siebziger Jahren hat sich die Wissenschaft dramatisch verändert, als sich die Struktur der Bezahlung um die Akquise massiver Förderungen seitens der Steuerzahler rankte, die über die normalen Budgets der Universitäten und öffentlichen Agenturen hinausgingen. Dies bedeutet in der Klimawissenschaft, dass man sich zu diesem Thema immer politisch korrekt ausdrücken musste und häufig Allianzen mit Umweltorganisationen einging. Wie vorherzusehen war, fielen die Wissenschaftler (und ihre Institutionen) der Gier nach Wohlstand, Ruhm und vielen Flugreisen anheim:

„Ein neuer und reiche Früchte tragender Forschungsstil entwickelte sich. Darunter fiel auch das Austeilen von Ratschlägen an alle Ebenen der Regierung, die Verbreitung nicht in Frage zu stellender Meinungen an die allgemeine Öffentlichkeit und die einfache Rechtfertigung der Teilnahme an internationalen Konferenzen – letzteres viel luxuriöser als bislang in der normalen wissenschaftlichen Erfahrung und mit einer zuvor nie gekannten Häufigkeit“.

Jeder neue Anreiz verstärkte dieses Verhalten, hat doch die selbst ernannte Gemeinschaft der Klima-Clowns [climate boffins] jetzt begonnen, sowohl für sich selbst als auch im Dienst drastischer regulatorischer Maßnahmen seitens der Politik zu sprechen. In der maßvollen Tonart der bemerkenswert klaren und präzisen Sprache, für die Paltridge bekannt ist, erklärt er, wie die Ecke ausgestaltet worden ist:

„Die Falle ist schon in vollem Umfang zugeschnappt, als viele der weltweit führenden nationalen Wissenschaftsakademien (z. B. die Royal Society in UK, die National Academy of Sciences in den USA sowie die Australian Academy of Science) sich selbst dazu hergegeben haben, die Schlussfolgerungen des IPCC unterstützende Berichte herauszugeben. Die Berichte wurden als nationale Zustandsbeschreibungen hinaus posaunt, die vermeintlich unabhängig vom IPCC und voneinander seien, vielfach aber mit Hilfe und auf Geheiß von Wissenschaftlern durchgeführt worden sind, von denen viele in die internationalen Verflechtungen des IPCC involviert waren. Im Endeffekt haben sich die Akademien, eigentlich die hervorragendsten Institutionen der Wissenschaften, formal in die Ecke des politisch Korrekten gestellt.

Seit dieser Zeit vor etwa drei oder vier Jahren gab es für die wissenschaftliche Gemeinschaft keinen bequemen Weg mehr, das Spektrum der ernsten Unsicherheiten hinsichtlich der Vorhersagen einer Klimakatastrophe zu beleuchten“.

Jedes weitere Jahr ohne eine signifikante Erwärmung erodiert die Glaubwürdigkeit nicht nur der Klimawissenschaft, sondern der Wissenschaft allgemein immer mehr:

„Im Lichte all dieser Umstände müssen wir die Möglichkeit zumindest in Betracht ziehen, dass das wissenschaftliche Establishment hinter dem Thema globale Erwärmung in eine Falle der ernsten Übertreibung des Klimaproblems gezogen worden ist – oder, was das Gleiche ist, einer ernsten Untertreibung der mit dem Klimaproblem verbundenen Unsicherheiten – in dem Bemühen, die Gründe zu erklären. Vor allem im Zusammenhang mit der Wissenschaft ist es eine sehr üble Falle, weil sie droht, möglicherweise mehrere Jahrhunderte lang, den einhelligen und hart erarbeiteten Ruf der Ehrlichkeit als Basis des Respektes der Öffentlichkeit für wissenschaftliche Forschungen zu zerstören“. (Hervorhebung hinzugefügt).

Das ist der beängstigendste Teil, und es ist offensichtlich, dass die Bloßstellung bereits begonnen hat. Ernstzunehmende Scholaren der Wissenschaft wie Daniele Fanelli von der University of Montreal und John Iaonnadis von Stanford veröffentlichen quantitative Analysen der Wucherungen wissenschaftlicher Fehler, die wie Geschwüre die professionelle Wissenschaft befallen, zumindest teilweise wegen des Hungers nach Förderung und Anerkennung. Wenn dies aktiv von Personen dieser Güte erforscht wird, ist es offensichtlich, dass die Krankheit der Klimawissenschaft nicht auf die Klimawissenschaft beschränkt ist.

Wenn der Tsunami der Klimawissenschaft hereinbricht, wird die Zerstörung massiv und universal sein. Man kann guten Gewissens sagen, dass wissenschaftliche Seismologen wie Garth Paltridge die P-Welle der Erdbebens bereits entdeckt haben, und zwar in Form der fehlenden Erwärmung, die sich jetzt wahrscheinlich noch auf 23 Jahre ausdehnen wird. Die S-Welle folgt nicht lange danach. Wissenschaftler, sucht Schutz! Jetzt!

Link: http://www.forbes.com/sites/patrickmichaels/2014/02/03/will-the-overselling-of-global-warming-lead-to-a-new-scientific-dark-age/

Übersetzt von Chris Frey EIKE




Stromautobahn oder Schmalspurbahn?

Versorgung oder Entsorgung?

Zuerst sollte man einmal den Sinn und Zweck dieser neuen Hochspannungs-Gleichstrom-Übertragung (HGÜ) hinterfragen: Dient sie der Versorgung von Süddeutschland mit elektrischer Energie oder vielmehr der Entsorgung norddeutscher Küsten vom Abfallstrom? Durchaus zwei völlig verschiedene Ansätze, die noch zahlreiche Juristen beschäftigen werden. Noch funktioniert die Stromversorgung in Bayern, nicht zuletzt wegen der hohen Eigenerzeugung der lokalen Kernkraftwerke (Isar2, Grafenrheinfeld, Gundremmingen mit zusammen 5.257 MWel). Jedenfalls ist noch kein Blackout eingetreten. Diese Gefahr soll erst durch deren Abschaltung heraufbeschworen werden, damit die Anhänger der Planwirtschaft richtig zuschlagen können. Apropos Richtung: Selbst, wenn man gegen die vorhandenen Kernkraftwerke ist, könnte man diese durch konventionelle Kraftwerke oder Stromimporte aus dem benachbarten Ausland ersetzen. Will man partout keine eigenen Kraftwerke (Arbeitsplätze und Steuereinnahmen), könnte man sie leicht und schnell "hinter der Grenze" bauen. Die Lage ist also alles andere, als alternativlos — jedenfalls für Bayern.

Schauen wir uns deshalb etwas näher den Anfang dieser Stromtrasse an. Wenn dort der Wind mal richtig weht — das heißt nicht zu schwach und auch wieder nicht zu stark — versinkt Norddeutschland in elektrischer Energie. Selbstverständlich gehört es zur unternehmerischen Freiheit, ein Solarium in der Sahara zu errichten. Nur gehört zum Unternehmer auch das Risiko tragen zu müssen. Eine Tatsache, die bei deutschen Energieversorgern längst verdrängt worden ist. Wenn man nach der Fertigstellung feststellt, daß die Kunden nicht Schlange stehen, weil die Wüste zu gering bevölkert ist, kann man dafür nicht Menschen in einer Entfernung von über tausend Kilometern verantwortlich machen. Fairerweise muß man unseren Kombinatsleitern zubilligen, daß sie die Windmühlen nicht als leuchtende Köder für die zahlreicheren Fische einsetzen wollten. Jedenfalls haben sie sich die erforderliche Bauzeit für die Anschlüsse an die Küste von uns Stromkunden fürstlich vergüten lassen. An der Küste treffen nun diese Windmühlen auf zahlreiche "Windparks", die dort unter tatkräftiger Förderung lokaler Politiker aus dem Boden gestampft wurden — alles wegen der "grünen Arbeitsplätze" — denn sonst ist da nicht viel los! Wohin, aber nun mit dem Abfallstrom, den man selbst gar nicht verbrauchen kann und den auch sonst keiner haben will, weil einfach viel zu teuer? Ab ins reiche Bayern, als eine weitere Variante des Länderausgleich, könnte man meinen.

Kernenergie versus Wind

Die neue Stromtrasse soll bei den Kernkraftwerken enden. Es ist durchaus sinnvoll, die dort vorhandenen Stromleitungen weiter zu nutzen. In erster Linie geht es jedoch darum, den Eindruck zu erwecken, man ersetze den "Atomstrom" durch "Erneuerbare Energien". Physikalisch ist das natürlich unmöglich: Man kann konventionelle Kraftwerke nicht durch Windenergie ersetzen, da der Windstrom so zufällig, wie das Wetter ist! Wirtschaftlich ist es unsinnig, da man (selbst bei Windparks in der Nordsee) mehr als die vierfache Leistung benötigt, um die gleiche Energie erzeugen zu können. Die bayrischen Kernkraftwerke haben eine Arbeitsverfügbarkeit von durchweg 90 %, während die Windenergie in Ost- und Nordsee auf gerade mal 20 % kommt. Wohlgemerkt, das sind die tatsächlich gemessenen Werte und nicht irgendwelche Phantasiewerte der Schlangenölverkäufer. Da es auch auf hoher See mehrtägige Flauten und Orkane gibt, kommt man nicht umhin, die Kernkraftwerke trotzdem durch fossile Kraftwerke zu ersetzen. An dieser Stelle wird es noch einmal deutlich: Die neuen Stromtrassen können nicht zu einer sicheren und unterbrechungsfreien Stromversorgung von Bayern dienen. Sie dienen lediglich zur Verteilung von Stromabfall aus Norddeutschland. Bisher gibt es nicht einmal "überzählige Kraftwerke" in Norddeutschland, die die bayrischen Kernkraftwerke ersetzen könnten: Weht kein Wind an der Küste, brauchen die ihre Kohlekraftwerke selber, um die Großräume von Hamburg, Bremen und Berlin ausreichend mit Strom zu versorgen.

Ein Solitaire ist kein Stromnetz

Besonders aberwitzig ist, eine Hochspannungs-Gleichstrom-Übertragung (HGÜ) bauen zu wollen. Gleichstrom und Drehstrom sind physikalisch verschieden und lassen sich nicht einfach mischen! Man muß den erzeugten Drehstrom erst aufwendig in Gleichstrom umwandeln und später wieder zurück wandeln. Beides ist mit Verlusten behaftet und erfordert sehr kapitalintensive Anlagen. Wirtschaftlich lohnt sich das nur, bei sehr großen Entfernungen durch dünn besiedelte Regionen. Man kann nämlich nirgendwo unterwegs Strom abzweigen, um ihn in lokale Netze einzuspeisen. Der Gleichstrom müßte erst wieder in Wechselstrom gewandelt werden. Die Bezeichnung "Stromautobahn" ist bewußt irreführend. Auf einer Autobahn kann man mit jedem Kraftfahrzeug, mit dem man im sonstigen Straßennetz fahren kann, ebenfalls fahren. In Berlin sogar einmal im Jahr mit dem Fahrrad. Die Bezeichnung "Schmalspurtrasse" wäre treffender. Genauso, wie man mit keinem Normalspurwaggon auf einer Schmalspur fahren kann und erst alles aufwendig (zweimal) umladen muß. Eine solche HGÜ-Trasse bleibt ewig ein Fremdkörper im vorhandenen (europaweiten) Stromnetz.

Wäre das Stromnetz in Deutschland in der Lage, auch ohne die Kernkraftwerke in Süddeutschland die Versorgungssicherheit aufrecht zu halten, bräuchte man keine zusätzlichen Stromleitungen. Andererseits bringt eine einzelne HGÜ-Trasse fast nichts für die Bayrische Versorgungssicherheit. Fällt nämlich diese einzelne Leitung (Eisregen, Sturm, Unfälle, Terrorismus etc.) aus, müßte das vorhandene Netz die Versorgung sicher übernehmen können. Ein Widerspruch in sich! Es ist die alt bekannte Salamitaktik, die hier angewendet werden soll. Erst mal eine Milliarde versprechen, aus denen dann ohnehin drei werden und dann das bereits vergrabene Geld als Begründung für weitere notwendige Kosten nehmen. Michel, wann lernst du endlich dazu!

Die Kosten

Die Kosten sind immens. Um die Regeln für Netzwerke (z. B. N-1) einhalten zu können, wird man noch mehrere HGÜ-Trassen durch Deutschland schlagen müssen. Das ist halt der Preis, den man für eine zentrale Versorgung zahlen muß. Schon unsere Großväter haben aus gutem Grund, viele Kraftwerke, möglichst nah am Verbraucher, gebaut. Wir können aber gerne die Fehler anderer Kontinente nachmachen.

Interessant wird sich die Finanzierung gestalten. Bei einer Stromtrasse für Windkraft, muß man von einer sehr geringen Auslastung (unter 20%) ausgehen. Dies treibt die Kosten pro transportierter kWh in Schwindel erregende Höhen. Hinzu kommt ein enormes wirtschaftliches Risiko. Bei der einseitigen Ausrichtung auf Windparks in der Nordsee, ist dies kaum zu kalkulieren. Wer kann garantieren, dass dieses tote Pferd, von einer uns noch völlig unbekannten Regierung, in 10 oder 20 Jahren noch geritten wird? Wer vermag heute voraus zu sagen, in welche Höhen der Strompreis in Deutschland durch die Laiendarsteller und Schlangenölverkäufer noch getrieben wird? Wo liegt die Schmerzgrenze, die zumindest von der Wirtschaft nicht mehr getragen werden kann? Was hätte das für Konsequenzen, da nicht einmal unsere Nachbarn gewillt sind, diesen Irrweg nach zu machen? Was es für eine Volkswirtschaft bedeutet, wenn Milliardenkredite bei Immobilien platzen, zeigen übrigens Spanien und Irland eindrucksvoll (dort war es ein durch die Politik erzeugter Bauboom bei Wohnungen).

Die tolle Idee einer Bürgerbeteiligung dürfte sich schon vor dem Start in Luft aufgelöst haben. Der Bürger hat dank Prokon gelernt, was es bedeutet, wenn das Risiko der Windkraft von Banken als zu hoch eingeschätzt wird. Es war — wie immer — ein sicheres Zeichen, für ein totes Geschäftsmodell, aus dem nichts mehr herauszuholen ist.

Ein möglicher Ausweg

Man macht endlich Schluß mit dieser "Energiewende", an deren Ende nicht nur die Zerstörung unserer Volkswirtschaft und Natur steht, sondern unserer gesamten Gesellschaft. Sind die Lehren aus der "DDR" schon so schnell vergessen? Diesmal wird es kein Beitrittsgebiet geben. Diesmal, wird die Suppe bis zum letzten Tropfen selbst ausgelöffelt.

Wenn die Bayern ihre Kernkraftwerke nicht mehr mögen, sollten sie sich selbst um Ersatz kümmern. Wer Kernkraftwerke generell ablehnt, muß sich entsprechende Kohlekraftwerke als Ersatz bauen. Wer als Entscheidungsträger nicht durchsetzungsfähig ist, sollte neue Kraftwerke gleich hinter der Grenze bauen. In Polen und Tschechien sind (gut bezahlte) Arbeitsplätze noch heiß begehrt. 

Der "Netzausbau" ist nach den Sonnenkollektoren und den Windparks auf hoher See, die dritte Schnapsidee. Jetzt soll auch noch unser funktionierendes und robustes Stromnetz auf dem Altar der Planwirtschaft geopfert werden. Nach zweimal Sozialismus, sollten wir uns endlich mal eine "Irrtumskultur" zulegen und diesmal rechtzeitig vor dem Zusammenbruch aufhören, unseren (Alb)Träumen nachzujagen.

Der Beitrag erschien zuerst bei NukeKlaus hier




Saubere Rosinenpickerei

Vergrößert:

● Wir erkennen den roten Graphen von HadCRUT4, der von 1960 bis 1975 zurückgeht und steiler wächst nach dem Jahr 2000 sowie eine leichte Abnahme während der letzten 10 Jahre.

● Wir erkennen einen blauen Trend mit einer alarmierenden Anstiegsrate von 0,4°C innerhalb nur einer Dekade! Zu dieser Zeit begannen einige Wissenschaftler, sich Sorgen hinsichtlich der globalen Erwärmung zu machen.

● Wir erkennen den grünen Trend, der vom Blogger Tamino in seiner ersten Graphik verwendet worden ist und der einen Anstieg von weniger als 0,1°C pro Dekade zeigt.

● Unten erkennen wir die Sonnenfleckenzahlen, die mit einer Frequenz von 11 Jahren pulsieren. Vergleicht man dies mit dem roten Temperaturverlauf, erkennen wir die gleiche Schwingung von etwa 11 Jahren. Das ist ein klarer Beweis dafür, dass die Temperatur mit der Sonnenflecken-Aktivität zusammenhängt.

Tamino hat mit seiner Trenddarstellung bei hoher Sonnenaktivität begonnen und bei niedriger Sonnenaktivität aufgehört. Daher die geringe Zunahme während 18 Jahre.

Was die Frage aufwirft: Wie lang sollte der Zeitraum sein, um eine Klimaänderung zu beobachten? Wenn wir die Sonnenflecken-Aktivität betrachten und die klare Spur, die diese im Temperaturverlauf hinterlässt, lautet die Antwort: 11 Jahre oder ein Vielfaches dieser Zahl.

Oder wir können irgendwo in folgenden Spannen messen:

-hohe Sonnenaktivität bis zu einem weiteren Maximum derselben

-niedrige Sonnenaktivität bis zu einem weiteren Minimum derselben

-zunehmende Sonnenaktivität bis zu einer weiteren Zunahme-Phase

-abnehmende Sonnenaktivität bis zu einer weiteren Abnahme-Phase,

um die Verteilung der Sonnenfleckenzahlen zu eliminieren.

Versuchen wir es mal:

Der letzte Beobachtungspunkt dieses Trends liegt zwischen 2003 und 2014, etwa um 2008. Aber selbst hier können wir erkennen, dass sich der Trend geändert hat.

Wir wissen nichts über die Zukunft. Ein Abwärtstrend scheint möglich, aber einige andere sagen einen scharfen Anstieg voraus, was unsere bisherigen Gedanken hinfällig machen würde.

Der Neugier halber: Wie würde diese Graphik mit Satellitendaten aussehen? Dazu RSS

Das ist wirklich interessant. Die Spitze beider Graphen scheint in den Jahren 2003 oder 2004 aufzutauchen. HadCRUT4 zeigt einen Rückgang um 0,05°C, RSS einen solchen von 0,1°C pro Dekade.

Ein einfacher Weg, eine Kurve zu glätten

Es gibt einen einfacheren Weg, Verteilungen zu mitteln (wie den Einfluss der Sonnenflecken). Ich habe ein Mittel über 132 Monate (11 Jahre) hinzugefügt. Dies bedeutet, dass jeder Punkt auf dem Graphen mit allen benachbarten Punkten (5,5 Jahre nach links und 5,5 Jahre nach rechts) gemittelt worden ist. Es bedeutet auch, dass der Graph 5,5 Jahre vor Beginn oder Ende [des Zeitraumes] endet. Und siehe da, die die Kurve sieht genauso aus wie nach unserer Methode im vorigen Beitrag und zeigt die gleiche Steigung einer Verteilung.

Wie ich schon sagte, die Spitze der Kurve liegt um das Jahr 2003 und unser letzter Beobachtungspunkt einer 11-Jahres-Verteilung liegt bei 2008. Von 2003 bis 2008 sind nur fünf Jahre. Dieser Abwärtstrend ist selbst gemittelt zu kurz, um eine langzeitliche Vorhersage zu erstellen. Aber wie auch immer, der starke Anstieg der Periode von 1975 bis 2000 hat aufgehört, und die Erwärmung ist zum Stillstand gekommen – vorerst.

Anmerkung: ich habe den Graph (blasslila) mit dem gleitenden Mittel um 0,2°C verschoben, um ihn vom Durcheinander aller anderen Trendlinien unterscheidbar zu machen.

Hätte Tamino den 11-jährigen Einfluss der Sonne auf den Temperaturverlauf gemittelt, bevor er den Trend wie hier bei WFT geplottet hätte, würde sein grüner Trend die gleiche Steigung aufweisen wie der blaue 33-Jahre-Trend:

Sogar noch mehr geglättet

Nachdem wir nun wissen, wie man eine Kurve doppelt und dreifach glättet, habe ich das auch mit dieser Graphik versucht:

Von Judith Curry’s Blog haben wir erfahren, dass am Höhepunkt einer einfach geglätteten Kurve ein Trog erscheint. Die Beule des Jahres 2004 scheint der Mittelpunkt der über 132 Monate geglätteten Welle zu sein. Ich habe die Kurve doppelt geglättet und auch das Jahr 2004 erreicht, wobei die Beule jetzt verschwunden ist.

Anmerkung: jede Glättung verkürzt das Ende des Graphen um die Hälfte des Glättungszeitraumes. Also wird die Kurve mit jeder Glättung kürzer. Aber selbst die nicht sichtbaren Daten sind bereits in der sichtbaren Kurve enthalten.

Den Daten zufolge und nach Eliminierung allen „Rauschens” (vor allem des 11-jährigen Zyklus der Sonnenaktivität) wurde im Jahr 2004 der absolute Spitzenwert der 60-jährigen Sinuswelle erreicht, und seitdem geht es fortschreitend abwärts.

Falls man den 60-Jahres-Zyklus nicht beachtet – ich habe einfach HadCRUT4 benutzt und die 11-jährige Sonnenfleckenaktivität geglättet, welche die Temperatur in signifikanter Weise beeinflusst.

Man erkennt eindeutig die Maxima und Minima der Welle um die Jahre 1880, 1910, 1940 1970 und 2000. Falls sich diese Verteilung wiederholt, wird es noch 20 weitere Jahre abwärts gehen – mehr oder weniger steil. Etwa 10 Jahre des 30-jährigen Abwärtstrend sind bereits vergangen.

Noch eine Darstellung

Man erkennt auch eine Doppelbeule während des Abwärtstrends von etwa 10/10 Jahren hinauf oder herab. Schaut man näher hin, erkennt man eine Spur davon sogar im Aufwärtstrend. Wenn wir uns jetzt wirklich am Beginn des Abwärtstrends befinden – der 30 Jahre lang dauern könnte – könnten wir diese Beulen wieder sehen.

Noch weiter zurück

Unglücklicherweise gibt es vor 1850 keine globalen Temperaturaufzeichnungen. Aber es gibt eine von einer einzelnen Station in Deutschland, nämlich dem Hohenpeißenberg in Bayern, der nicht von Seewind oder Städten beeinflusst wird.

Sicher, das ist nur eine einzelne Station, aber die Messungen wurden kontinuierlich durchgeführt, es gibt keine Lücke, und wir können in etwa den Punkt verstehen, wenn wir das Gesamtbild betrachten. Nicht zu 100% perfekt, aber gerade hinsichtlich der Trends. Das globale Klima hat hier mit Sicherheit auch seinen Einfluss.

Wir erkennen einen kurzen Aufwärtstrend von zehn Jahren, eine negative Steigung von 100 Jahren von etwa 1°C, eine positive Steigung für weitere 100 Jahre und einen leichten Abwärtstrend über etwa 10 Jahre. Es sieht wie eine 200-Jahres-Welle aus. Wir können nicht über die beiden Enden der Kurve hinaus blicken, aber falls sich diese Verteilung wiederholt, bedeutet das nur eines: Wir befinden uns jetzt auf dem Abwärts-Trend. Vielleicht während der nächsten 100 Jahre, wenn es keine zusätzlichen Einflüsse gibt.

Der Artikel von Greg Goodman über mittlere Glättungen steht hier.

Link: http://wattsupwiththat.com/2014/02/07/proper-cherry-picking/#more-102783

Übersetzt von Chris Frey EIKE




Klimawandel in Deutschland: Real sinken seit 25 Jahren die Temperaturen

„Kampf dem Klimawandel“ heißen die Parolen, unter denen dann gegen den vermeintlichen Feind, das vom Menschen erzeugte Kohlendioxid vorgegangen wird. Dieser vermeintliche Klimaschädling CO2 muss mit allen finanziellen Mitteln bekämpft werden. Wo die herkommen, ist auch klar, siehe nur die immer weiter steigenden Stromkosten. Viele Wissenschaftler und Heilsbringer, bis hinunter zu den Klimabeauftragten der Gemeinden, haben sich hier bequem eingerichtet und leben gut von unseren Steuermitteln und Abgaben, ohne jemals für die Gesellschaft auch nur den geringsten Mehrwert zu erbringen, im Gegenteil, unserem Land Schaden zufügen. Unser Bericht wird zeigen, dass sowohl der staatlich verordneten Abzocke (insbesondere der EU) und den IPCC-Behauptungen jedwede reale Grundlage fehlt und deren Klimawissenschaft, als Pseudowissenschaft zu bezeichnen ist, wie sich der Physik-Nobelpreisträger Ivar Giaever ausdrückte. 

Wie sieht nun die Wirklichkeit der angeblich von CO2 verursachten Erwärmung aus? Soll sich die Menschheit doch bereits mitten in der Erwärmungsphase befinden, zumindest wird dies regelmäßig von den gut bezahlten Erwärmungswissenschaftlern verkündet.

Die letzten Jahrhunderte

Nur aus Zentralengland liegen einigermaßen zuverlässige Temperaturaufzeichnungen für mehr als 350 Jahre vor. Diese wurden unter dem Kürzel CET (Central England Temperature Records) bekannt. Zu Beginn der Aufzeichnung herrschte die „Kleine Eiszeit“ (die kälteste Epoche der letzten 2.000 Jahre), die nach heutigem Kenntnisstand durch eine außergewöhnlich geringe Sonnenaktivität („Maunder- Minimum“, es waren über längere Zeiträume keine Sonnenflecken zu beobachten) verursacht und eventuell durch stärkere Vulkanausbrüche verstärkt wurde. Im 18. Jahrhundert war dann eine leichte Erwärmung zu verzeichnen. Doch mit dem „Dalton- Minimum“, einem erneuten Einbruch der Sonnenaktivität, und zeitweise verstärkt durch den schweren Ausbruch des indonesischen Vulkans Tambora 1815 („Jahr ohne Sommer“ 1816) sanken die Temperaturen bis zur Mitte des 19. Jahrhunderts erneut, bevor dann die oft als „Beginn einer Klimakatastrophe“ fehlgedeutete Erwärmung einsetzte:

 

Abb. 1 :Temperaturgangreihe Zentralenglands von 1659 – 2008 (Quelle, Prof. Ewert, EIKE). Kein Trend erkennbar. Auch kein Ansteigen der Temperaturen auf ein noch nie dagewesenes Niveau, wie so gern immer von den Warmisten der sog. Klimaforscher verkündet wird. Anmerkung: Im ausgeglichenen Seeklima Englands zeichnet sich der Höhepunkt der Kleinen Eiszeit etwas weniger deutlich ab.

Dass sich das Klima in Europa in den letzten Jahrzehnten lediglich von dieser kältesten Epoche der letzten 2.000 Jahre erholt hat, zeigt hingegen die folgende Langzeitbetrachtung.

Abb. 2, Quelle: Prof. Augusto Mangini aus Wiener Zeitung. Prof. Augusto Mangini (Universität Heidelberg) hat in Zusammenarbeit mit Prof. Spötl von der Universität Innsbruck Stalagmiten der Spannagel-Höhle (Tirol) ausgewertet. Mittels weiterer Proxys (13C, Strontium, Barium, Yttrium, Blei, Schwefel sowie ins Meer gespülte Sedimente) hat das Forscherteam seine Temperaturreihen abgesichert, so dass aus Sicht von Mangini et al. die Temperaturwerte (blaue Kurve) genauer, als mit Vergleichsmethoden (rote Kurve) angegeben werden konnte. Dabei fällt auf, dass die Temperaturwerte sehr viel variabler sind, als vom IPCC ausgewiesen. So stieg im 4. Jahrhundert n.Chr. die Temperatur um 1,6°C in 120 Jahren. Hierzu ist der heutige Temperaturanstieg von 0,8°C im 20. Jahrhundert vergleichsweise gering. Aber auch bei Schönwiese (rote Kurve) ist deutlich zu sehen, dass das heutige Temperaturniveau vergleichsweise niedrig und als „Erholung“ des Kälteeinbruchs der Kleinen Eiszeit zu betrachten ist. 

Die letzten 25 Jahre

Seit 1850, dem Ende der Kleinen Eiszeit wurde es also langsam wärmer. Das war auch gut so. Denn die Kleine Eiszeit war eine harte Zeit für die Menschen. Doch wie verhielten sich die letzten 25 Jahre? Der Deutsche Wetterdienst in Offenbach (DWD) unterhält ein Netz von gut 2.000 Messstationen und veröffentlicht regelmäßig die Temperaturwerte Deutschlands. Und die zeichnen ein ganz anderes Bild als uns von PIK und CO. vermittelt wird. Keine Spur einer durchgehenden sich ständig fortsetzenden Erwärmung. Seit 25 Jahren gibt es keine Erwärmung mehr:

 

Abb. 3: In den letzten 25 Jahren sind die gemittelten Temperaturen in Deutschland nahezu konstant geblieben. 1988 betrug die Jahrestemperatur 9,1°C, genauso wie 24 Jahre später, im Jahre 2012. 1989 war sie 9,5 Grad und 2013 nur noch 8,7 Grad, deswegen die fallende Tendenz. Dazwischen gab es Phasen von leichten Abkühlungen, aber auch Erwärmungen. Derzeit liegt wieder ein Abkühlungstrend vor. Die Datenreihe des DWD (gezeichnet nach den Originalangaben des DWD) zeigt vielmehr, dass es keine konstanten Temperaturen und schon gar keinen konstanten Aufwärtstrend gibt.

1. Ergebnis:

Die Wiedererwärmung Deutschlands und Europas nach der Kleinen Eiszeit (1450 bis 1850) fand um 1998 ein vorläufiges Ende. Da die Temperaturen seitdem fallen, sind wir wieder bei den Temperaturen wie vor 25 Jahren angekommen.

Somit gilt: Seit 25 Jahren gibt es neben einem üblichen Auf und Ab keine weitere Erwärmung mehr.

Die letzten 17 Jahre

Wie sieht der aktuelle Trend aus und wohin geht der weitere Trend? Hierzu analysieren wir die DWD-Daten:

Das Jahr 1997 wird beim DWD mit 8,9°C und 1998 mit 9,1°C in der Statistik geführt und 2013 war mit 8,7°C unwesentlich kälter.

Ob der Trend nach oben oder nach unten geht, darüber entscheiden die Jahre dazwischen. Ab 1997 stiegen zunächst noch die Temperaturen bis zur Jahrtausendwende. Das Jahr 2000 war laut DWD-Statistik das wärmste Jahr in Deutschland in den letzten 150 Jahren. Das haben wir uns vom Deutschen Wetterdienst auch schriftlich bestätigen lassen: „Weltweit war 1998 das wärmste Jahr und in Deutschland ist es das Jahr 2000. Das ist kein Geheimnis und das darf auch jeder wissen.“ Doch seit diesem Temperaturwendepunkt zur Jahrtausendwende waren alle Jahre kälter, und das bedeutet für die Statistik einen abnehmenden Trend.

 

Abb. 4:  Die Deutschlandtemperaturen der letzten 17 Jahre. (Quelle: DWD-Werte Offenbach) Die in Excel errechnete Trendlinie sinkt um 0,4°C in den letzten 17 Jahren. Vorhergesagt war eine Erwärmung um denselben Betrag.

2. Ergebnis:

In den letzten 16/17 Jahren wurde es kälter, nicht nur in Deutschland. Anstatt der weiteren postulierten Erwärmung, zeigt die Temperaturtrendlinie in den letzten 17 Jahren eine Abkühlung von 0,4°C. Somit ist die immer wieder gehörte und insbesondere in Schulpropagandabüchern propagierte Aussage, besonders in den letzten Jahren sei es wärmer geworden, grundsätzlich falsch.

Und das Kohlendioxid?

Während des ganzen Zeitraumes ist das angebliche klimaschädliche CO2, das die Ursache der Erwärmung sein soll, die aber gar nicht stattfindet, weiter gestiegen. Das zeigt Abb. 5, die verkleinert in die vorigen Abbildungen eingearbeitet ist.

Vor 25 Jahren betrug die CO2-Konzentration der Atmosphäre nach berechneten Daten der Station auf dem Mauna Loa knapp 0,035%, während sie momentan bei ca. 0,040% liegt. Bei so geringen Konzentrationen verwenden die Naturwissenschaftler die Einheit ppm (1 ppm = 1 Millionstel). Wir haben also in den letzten 25 Jahren einen CO2-Anstieg in der Atmosphäre von 50 ppm. Dieser CO2-Anstieg hat aber keine steigenden Temperaturen bewirkt, diese sind vielmehr gefallen.

 

Abb. 5: Anstieg der Kohlendioxidkonzentration in der Luft, gemessen auf dem Mouna Loa. Dieses Jahr sollen bereits kurzfristig Konzentrationen von 400 ppm gemessen worden sein. 400ppm wären 0,04% CO2-Anteil in der Luft. (ppm = parts per million)

3. Ergebnis:

Die Kohlendioxidkonzentration ist gestiegen, die Temperaturen sind gefallen.

Somit steht fest: Das Kohlendioxid hat auf den Temperaturverlauf der Luft keinen Einfluss, bzw. er ist nicht messbar, was in der Praxis aufs Gleiche hinausläuft. Die Temperaturen der Erde werden von anderen Faktoren, in der Hauptsache von der Sonnenaktivität gesteuert. Was nun nicht wirklich verwundern kann, da die alleinige Energie von der Sonne stammt (der geringe Anteil, 0,02% aus dem Erdinnern, sei hier vernachlässigt). Weiteren Einfluss haben die kosmischen Strahlung, sowie, zeitlich begrenzt (siehe Pinatubo) Vulkanausbrüche und aus den v.g. Einflüssen  resultierenden kurz- mittel- und langfristigen Schwankungen der Intensität der Meeresströmungen, der Häufigkeitsverteilung bestimmter Großwetterlagen und weiterer natürlicher Faktoren. Demnach ist es abenteuerlich, wenn behauptet wird, CO2 habe irgendeinen erkennbaren Einfluss auf die Temperatur. Wie Abb. 6 zeigt, ist genau das Gegenteil der Fall, die Temperatur hat Einfluss auf den CO2-Gehalt der Atmosphäre. Dies kann wiederum nicht verwundern, weil der überwiegende Anteil von CO2 in Gesteinen und im Meer gebunden und deren Aufnahme temperaturabhängig ist. Will heißen, bei Erwärmung gast CO2 aus Meerwasser und Böden aus (Abb. 6).

 

Abb. 6 zeigt den aus Eisbohrkernen gewonnenen Zusammenhang zwischen Temperaturerhöhung und CO2, ermittelt von drei unabhängigen Forscherteams. Sie belegt, dass die Aussage, CO2 würde die Temperatur erhöhen, falsch ist, weil zuerst die Temperaturerhöhung auftritt und danach erst der CO2-Gehalt steigt. Da der postulierte Zusammenhang zwischen CO2 und Temperatur logarithmisch ist, belegt die Abbildung weiter – sie zeigt eindeutig lineares Verhalten, dass es sich nicht um eine CO2-induzierte Erwärmung handeln kann, sondern um eine CO2-Ausgasung. Diese ist linear!

Die vier folgenden Teilabbildungen (in Abb. 7 zusammengefasst) zeigen den jahreszeitlichen C-Emissionsunterschied der Landfläche zwischen den Monaten Januar, April, Juli und Oktober.

 

Abb. 7 zeigt die Veränderung der C-Emissionen im Januar, April, Juli und Oktober. Die Datenerfassung erfolgte in einem 0,5°-Raster, Quelle: (http://cdiac.ornl.gov/epubs/db/db1015/db1015.html). Sie zeigt, dass die C-Emissionen im Rhythmus der Jahreszeiten schwanken, wie die Mauna-Loa-Kurve und zum anderen, dass CO2 verstärkt durch Wärme ausgast.

Vor allem die Schulbücher müssen von der Unwahrheit entrümpelt werden, CO2 habe Einfluss auf das Klima. Die allermeisten Schüler haben, wie die vorherigen Abbildungen nach Daten des DWD belegen, in ihrem Leben noch gar keine Erwärmung erlebt.

4. Ergebnis:

CO2 hat keinen erkennbaren Einfluss auf die Temperatur.

Anstatt in unsinnigen Klimaschutz zu investieren – allein das Wort ist schon eine Zumutung, da Klima vom Sinn her Neigung bedeutet und meteorologisch Mittelwerte darstellt und es unsinnig ist, Mittelwerte zu schützen – sollte besser in Naturschutz investiert werden. Allen voran, muss ein Stopp und der Abriss unsinniger Windräder angegangen werden, da diese nicht nur, wie dies jüngst Oskar Lafontaine formulierte, ganze Landstriche verschandeln, sondern auch zig-tausendfachen Tod für Vögel und Fledermäuse jedes Jahr bedeuten. Umweltschonend sind nur solche Energieerzeugungsanlagen, die den geringsten Flächenbedarf und den höchsten Wirkungsgrad haben und dies sind nun einmal Kohle- und Kernkraft. Bei einer Energiedichte z.B. Kernenergie zu Windenergie von 100 Millionen zu 1 !!, braucht nun wirklich, jedwede ideologische Betrachtung abgelegt, nicht weiter darum gestritten zu werden, welche Energiegewinnung für ein modernes Land, mit seinem Anspruch auf modernste Techniken, die sinnvolle darstellt und die umweltverträglichste ist. Sicherlich nicht die des Mittelalters, mit ihren Windmühlen. Wie unsere Industrie, der Säule unseres Wohlstandes, angesichts der immer weiter steigenden Energiekosten, sinnlosen Klimaauflagen und der damit immer größer werdenden Kostenschere zu unseren Konkurrenten im Ausland weiter unseren Wohlstand garantieren soll, wird immer schwieriger und ist zusehends gefährdet und damit Millionen von Arbeitsplätzen.

So sind weiter der „Energiepflanzenanbau“ für die Faulgasanlagen mitsamt dem starken Gift- und Düngereinsatzeinsatz nicht umweltverträglich, sondern wirken sich meist naturzerstörend aus. Außerdem ist der Wirkungsgrad der „Biotreibstoffe“ äußerst gering. Bei der Berücksichtigung der gesamten Prozesskette, von der Saatbettbereitung bis zum fertig extrahierten und aufbereitetet „Biotreibstoff“ oder Faulgas, muss annähernd so viel Energie eingesetzt werden, wie am Ende im fertigen „Biotreibstoff“ zur Verfügung steht. Rechnet man die Umweltzerstörung, die Vergiftung der Böden und des Grundwassers durch Pestizide, und die Vernichtung von Anbauflächen für die Nahrungsmittelproduktion (Preissteigerungen für Nahrungsmittel wegen der Konkurrenz durch „Biotreibstoffe“ sind besonders für die ärmsten Länder ein wachsendes Problem!) mit ein, wird klar, dass „Biotreibstoffe“ ungeeignet sind, die Energieprobleme der Menschheit zu lösen. Dies können nur Energieträger, mit einer hohen Leistungsdichte. Denn die Physik setzt die Maßstäbe, nicht irgendwelche Ideologien.

Es wird höchste Zeit, den Umwelt- und Naturschutz anstelle eines fragwürdigen, wissenschaftlich nicht konsensfähigen Klimaschutzes in den Mittelpunkt des Handelns zu stellen. Saubere Luft, sauberes Wasser, ein intaktes Ökosystem kommen den Menschen heute und zukünftig zugute. Natur- und Umweltschutz ist deshalb ein konsensfähiges Ziel. Wie ideologisch vermessen muss man sein, um der Natur ein „2-Grad-Ziel“ vorzugeben.

5. Ergebnis:  

Anstatt Klimaschutz, sollte der Natur- und Umweltschutz das Kriterium sein, nach welchem wir uns richten. Klimaschutz gibt es nicht. Klimaschutz ist eine Erfindung der Lobbyisten, die sich im Weltklimarat zusammengefunden haben. Klimaschutz ist ein Geschäftsmodell und bringt denen Geld, unser Geld, die ihn propagieren.    

Dr. Hartmut Bachmann war dabei, als der Club der Lobbyisten mit dem gezielt gewählten Namen Weltklimarat gegründet wurde. In seinen Schriften und Büchern legt er deren Machenschaften offen. Siehe: http://www.klima-ueberraschung.de/     

Teil 2, Deutschlandtemperaturen unter Berücksichtigung des Wärmeinseleffekts in Kürze

Raimund Leistenschneider, EIKE

Stefan Kämpfe, Weimar

Josef Kowatsch, Hüttlingen




Statistik und Verfügbarkeit von Wind- und Solarenergie in Deutschland

 Windkraft

Wetter ist ein zufälliges Phänomen – vor einem Ausflug ins Grüne kann die Wettervorhersage schon mal eine spannende Sendung sein. Wir sind diesem Zufall auch ausgeliefert – nicht umsonst können Ausflüge buchstäblich ins Wasser fallen. Und obwohl Wind und Wetter zufällig sind, hat jeder ein vernünftiges Gefühl dafür: Im Sommer kommen sonnige Tage öfter vor als etwa im Spätherbst. Mit windigem Wetter verhält es sich eher umgekehrt. Wie würden wir uns ein Bild davon machen, ob es an einem bestimmten Ort eher windiger oder weniger windig ist? Wir würden die Windintensität als Windgeschwindigkeit messen und dann die Tage oder Stunden auszählen, an denen die Windgeschwindigkeit z. B. zwischen 2 und 2,5m/s liegt. Das ganze würden wir in einem Diagramm auftragen – dieses Häufigkeitsdiagramm, auch Histogramm genannt, charakterisiert die Windigkeit an einem Ort. In diesem Diagramm kann man ablesen, wie sich die Windgeschwindigkeit im Verlaufe eines Zeitraums auf niedrige und hohe Windgeschwindigkeiten verteilt. Für diese Verteilung hat sich in der Szene der Begriff Windhöffigkeit eingebürgert.

Diese Wind-Häufigkeitsdiagramme haben überwiegend eine ähnliche Struktur, gleichgültig wo man sie gemessen hat: Lediglich die durchschnittliche Geschwindigkeit und die Höhe der Histogramm – Linien verschiebt sich etwas. Bei großen Windgeschwindigkeiten verschieben sich die Linien zu höheren, bei kleinen Windgeschwindigkeiten zu niedrigeren Werten hin. Es ist allgemein anerkannt, dass der Wind nach einem ganz bestimmten Häufigkeitsschema verteilt ist, das nach dem schwedischen Mathematiker Weibull benannt ist. Man spricht daher von einer Weibull-Verteilung.

 

Abbildung 1: Weibull- Verteilung bei einer mittleren Windgeschwindigkeit von 5,75m/s

Bei einem Windrad erzeugt nun der Wind auf die Rotorflügel einen Druck, der den Rotor in Drehung versetzt. Diese Kraft auf den Rotor erzeugt im Generator den Strom, den ein Windrad ins Netz einspeist. Die Menge an produziertem Strom wird nach Kilowattstunden (kWh) bemessen – so wie im Privathaushalt die Strommenge nach kWh abgerechnet wird, wird auch die Stromproduktion so gemessen. Genaugenommen verbirgt sich hinter der Kilowattstundenzahl nicht die Strommenge, sondern der Gegenwert an Energie, den ein Windrad produziert. Wenn ein Windrad nun gemütlich vor sich hin trudelt, wird es einen längeren Zeitraum brauchen, um eine bestimmte Strommenge zu produzieren. Bei schwachem Wind (Windgeschwindigkeit 4 m/s)  braucht ein 3000 kW Windrad ungefähr 20 Stunden, um den Jahresverbrauch eines Haushalts von 2500 kWh zu erzeugen. Bei starkem Wind (Windgeschwindigkeit 10 m/s) kann es die gleiche Strommenge in nur einer Stunde produzieren – das Windrad läuft mit weitaus höherer Anstrengung und leistet mehr. Der Grad der Anstrengung einer Maschine wird in der Fachsprache als deren Leistung bezeichnet. Die größte Leistung einer Maschine ist deren Nennleistung. Die Leistung wird in der Einheit kW gemessen- bei Autos hat sich bis heute die Angabe in PS gehalten. Die PS-Zahl ist beim Auto die Nennleistung des Motors.

Strom muss im Augenblick des Verbrauchs produziert werden- die Leistung der Stromquelle muss in jedem Augenblick mit der Leistung des Verbrauchers übereinstimmen. Aus diesem Grund ist für die Beurteilung der Verfügbarkeit die sogenannte momentane Leistung (kW) und nicht die Strommenge (physikalisch korrekter: die Arbeit, gemessen in kWh) für die Beurteilung maßgeblich.

Die Leistung (kW) eines Windrads steigt und fällt mit der Windgeschwindigkeit. Die im Windrad produzierte elektrische Leistung schwankt mit der Windgeschwindigkeit.  Man würde salopp sagen, je höher die Windgeschwindigkeit ist, desto höher ist auch die Leistung des Windrads. Leider ist es nicht ganz so einfach, weil die Leistung sehr viel stärker anwächst als die Windgeschwindigkeit selbst: Wie man sagt, ist dieser Zusammenhang bei einem Windrad „kubisch“, d. h. die Leistung des Windrads ändert sich mit der 3. Potenz der Windgeschwindigkeit. Dieser Zusammenhang ist bekannt, seit man Ventilatoren, Propeller und Schiffsschrauben baut. Das bedeutet, dass sich die Leistung verachtfacht, wenn sich die Windgeschwindigkeit verdoppelt. Die Leistung eines Windrads reagiert also sehr empfindlich auf Änderungen der Windgeschwindigkeit. Das kann man auch daran ablesen, dass die Produktion der gleichen Strommenge mal fast einen ganzen Tag und bei günstigem Wind nur eine Stunde dauert. Bei einem Windrad mit einer Leistung von 3000 kW bedeutet das, dass die Leistung von 37 kW auf 480 kW anwächst, wenn sich die Windgeschwindigkeit von 3 m/s auf 6 m/s erhöht. Die genannten Zahlen stammen aus einem Datenblatt für eine Enercon 101- Windkraftanlage. Diese Leistungscharakteristik könnte für eine Stromversorgung ungünstiger nicht sein – schließlich ändert sich die Windgeschwindigkeit zufällig je nach Wetterlage. Eine kaum spürbare Erhöhung der Windgeschwindigkeit um 10% bewirkt eine Leistungserhöhung von 30%. Bei schwachem Wind trudelt ein Windrad eher gemütlich vor sich hin, bei starkem Wind läuft es zur Höchstleistung auf. Ein Auto mit zufälligen Zündaussetzern, das mit Vollgas gefahren wird, hat ein ähnliches Leistungsverhalten.

 

Abbildung 2: Häufigkeitsdiagramm eines 3000 kW- Windrads

Wenn man nun das Häufigkeitsdiagramm der Windgeschwindigkeit kennt, wie kommt man nun auf das Häufigkeitsdiagramm der eingespeisten Leistung? Hier hilft die Mathematik: Man kann das Häufigkeistdiagramm der Windgeschwindigkeit umrechnen auf das Häufigkeitsdiagramm der eingespeisten Leistung. Hier kommt man zunächst zu dem überraschenden Ergebnis, dass die Häufigkeit der eingespeisten Leistung einer gänzlichen anderen Gesetzmäßigkeit folgt als die Windgeschwindigkeit. Diese Tatsache ergibt sich aus der kubischen Abhängigkeit der Leistung von der Windgeschwindigkeit. Das Häufigkeitsdiagramm eines 3000 kW Windrads ist in Abbildung 2 dargestellt. Unschwer kann man erkennen, daß niedrige Leistungen sehr häufig und hohe Leistungen eher die Ausnahme sind. In dieser Abbildung kann man ablesen, dass die Leistung eines 3000 kW Windrads an 132 Tagen im Jahr (also mehr als 4 Monate) zwischen 0 und 145kW (das sind rund 5 % der Nennleistung) liegt. Die volle Leistung (hier 3000 kW) erreicht ein Windrad nur selten. Dass Windräder häufig still stehen, ist also kein subjektiver Eindruck, sondern eine mathematisch beweisbare und damit erwiesene Tatsache. In einer Propagandaschrift der Windlobby unter dem Titel ‚A bis Z- Fakten zur Windenergie‘ wird dieser Zusammenhang wie folgt umschrieben „Allerdings drehen sich die Rotoren nicht immer mit maximaler Leistung“.

 Aus diesem Grund ist die weit verbreitete Behauptung der Windlobby unzutreffend, dass Windräder Haushalte mit Strom versorgen können – die Versorgungsaufgabe scheitert schon daran, dass Windräder keinen Strom liefern wenn, und das ist sehr häufig, der Wind nur mäßig weht und Leistung daher klein ist. Letztlich ist dies Folge aus der Weibull-Verteilung der Windgeschwindigkeit und dem (kubischen) Zusammenhang zwischen eingespeister Leistung und Windgeschwindigkeit.

Betrachtet man nun eine größere Fläche, in der eine große Anzahl von Windkraftanlagen verteilt ist, stellt sich die Frage, in welchem Umfang sich diese Windräder untereinander ergänzen können. Produzieren die einen Windräder Strom, wenn andere still stehen? Weht der Wind immer irgendwo? Ohne eine genaue statistische Analyse vorzunehmen, kann man sich dieser Frage vorläufig ganz anschaulich nähern: Hohe Windgeschwindigkeiten treten typischerweise bei Tiefdruckwetterlagen auf und die Größe des Tiefdruckgebiets bestimmt die Fläche, in der mit erhöhten Windgeschwindigkeiten zu rechnen ist. In der gesamten Fläche sind dann hohe eingespeiste Windleistungen zu erwarten. Die umgekehrte Aussage gilt in der gleichen Weise: Bei geringen Windgeschwindigkeiten sind die Windleistungen in der gesamten Fläche niedrig. In beiden Fällen können sich Windräder in dieser Fläche nicht untereinander ergänzen. Bei Hochdruckwetterlagen können diese Flächen schon mal so groß wie ganz Deutschland sein. Mittlere Tiefdruckgebiete haben praktisch immer die Größe von mindestens mehreren Bundesländern, normale Tiefdruckgebiete überdecken fast immer ganz Deutschland.

 

Abbildung 3: Häufigkeitsdiagramm der Windleistung im Amprion- Netz

Wenn man nun das Häufigkeitsdiagramm der eingespeisten Windleistung in einem kleineren Gebiet, wie etwa das vom Netzbetreiber Amprion, erstellt, findet man diese Überlegungen bestätigt:

Auch in einem Gebiet von der Größe des Amprion-Netzes ergänzen sich Windräder untereinander nicht. Das Häufigkeitsdiagramm zeigt noch immer den fallenden Verlauf: Niedrige Leistungen bis zum Stillstand sind besonders häufig, große Leistungen sind eher selten. Auch eine große Zahl von Windrädern verhält sich offensichtlich ähnlich wie ein einzelnes Windrad. Auch in einer mittleren Fläche ist der häufigste Betriebszustand aller Windräder zusammen der Stillstand.

Nimmt man die eingespeiste Leistung von ganz Deutschland (Abbildung 5), kann man im Häufigkeitsdiagramm zumindest erkennen, dass kleine Leistungen seltener werden. Die Leistung Null kommt, anders als bei Flächen von der Größe Niedersachsens oder Nordrhein- Westfalens, nicht mehr vor. Windräder können sich in geringem Umfang durchaus ergänzen: Gleichwohl sinken die Leistungen im großflächigen Verbund auf sehr geringe Werte ab. Bei einer installierten Windrad-Leistung von 31000 MW im Jahre 2012 ist die niedrigste Einspeiseleistung aller Windräder in Deutschland zusammen auf 170 MW (also auf 0,5% der installierten Leistung) gesunken. Dieser Wert ist so nahe bei Null, dass man die Aussage treffen kann, dass die gesicherte Leistung aller Windkraftanlagen in Deutschland zusammen mit Null anzusetzen ist. Damit ist nachgewiesen, dass sich die Anlagen auch bei einer Fläche von der Größe Deutschlands nicht untereinander zu einer gesicherten Leistung ergänzen.

 

Abbildung 4: Zeitverlauf der Windleistung in ganz Deutschland

Immer wieder, so auch im IWES Windenergie Report 2012, wird behauptet, „andererseits erreicht man nur durch eine gleichmäßige geografische Verteilung über eine große Fläche eine Glättung der Netzeinspeisung“. Abgewandelt findet sich diese These auch in der Agora Kurzstudie Entwicklung der Windenergie in Deutschland  in der Form „Ein geographisch verteilter Ausbau führt zu einer stetigeren Einspeisung aus Windenergieanlagen.“

Alle 23000 Windkraftanlagen in Deutschland verhalten sich in ihrem Häufigkeitsdiagramm ungefähr so, wie ein einzelnes Windrad (Abbildung 2). Daraus ergibt sich, dass die Einspeisungen der einzelnen Windräder untereinander stark korreliert sind- wenn ein Windrad hohe Leistungen einspeist, ist das auch für eine große Zahl anderer Windräder der Fall. Das erklärt den ausgeprägt ungleichmäßigen Verlauf der Einspeisung in Abbildung 4. Ein weiterer Ausbau der Windenergie bewirkt aufgrund dieser Korrelation keine stetigere Einspeisung, sondern vielmehr einen Anstieg der Ungleichmäßigkeit. Diese Aussage fußt auf einem Satz aus der mathematischen Statistik, demzufolge die Ungleichmäßigkeit (mathematisch korrekter: Streuung bzw. Standardabweichnung) korrelierter zufälliger Größen mit dem Mittelwert anwächst. Am IWES- Institut hat man durchaus richtig erkannt, dass es „eine grundsätzliche Korrelation der Erzeugung aus Wind in ganz Deutschland“ gibt. Dass diese Aussage mathematisch im Widerspruch zur behaupteten „stetigeren Einspeisung“ steht, gehört dort offenbar (noch) nicht zum Stand des Wissens.

Der nunmehr von der Politik beschlossene weitere Ausbau der Windkraft in Deutschland wird daher die bekannten technischen und ökonomischen Probleme mit der schlichten Strenge mathematischer Notwendigkeit weiter verschärfen.

Dass sich technisch vorgebildete Autoren zu der ganz offensichtlich unzutreffenden Behauptung „Aufgrund der Distanz von über 600 km, flaut der Wind üblicherweise nicht zum selben Zeitpunkt in Hamburg und München ab“ hinreißen lassen und bei einem Zeitverlauf wie in Abbildung 4 von „Glättung“ sprechen, wirft ein Schlaglicht auf die Qualität und Seriosität wissenschaftlicher Arbeit einschlägiger Studien und Konzepte.

 

Abbildung 5: Häufigkeitsdiagramm der Windleistung in ganz Deutschland

Leistung immer sicher zur Verfügung zu stellen, wird als Grundlastfähigkeit bezeichnet. Die oft verbreitete Aussage, der Wind wehe immer irgendwo ist erwiesenermaßen unzutreffend. Auch über das ganze Land gesehen sind Windkraftanlagen nicht grundlastfähig. Ohne zusätzliche grundlastsichere Kraftwerke ist eine unterbrechungsfreie sichere Stromversorgung mit Windrädern in Deutschland schon aus Gründen der statistischen Verfügbarkeit nicht möglich. In dem Häufigkeitsdiagramm für die gesamte bundesweit eingespeiste Windleistung kann man außerdem ablesen, dass die Windleistung an 120 Tagen (also rund 4 Monaten) im Jahr unterhalb von 10% der installierten Leistung liegt.

Fazit:

Bei einem Versorgungsgebiet von der Größe Deutschlands ist Windkraft nicht in der Lage, einen Beitrag zur Sicherung der Grundlast bei der Stromversorgung zu leisten.

Photovoltaik

Die Nennleistung aller Photovoltaikanlagen in Deutschland belief sich per Ende 2012 auf rund 32.700 MW. Diese Leistung steht aus naheliegenden Gründen bei Dunkelheit nicht zur Verfügung, womit klar, ist, dass Photovoltaikanlagen keinen Beitrag zur Sicherung der Grundlast leisten. Das Häufigkeitsdiagramm in Abbildung 6 zeigt, dass alle Solaranlagen zusammen in 52% ihrer Betriebsdauer (das sind rund 190 Tage im Jahr) keinen Strom liefern.

 

Abbildung 6: Häufigkeitsdiagramm der Solarleistung in ganz Deutschland

An 292 Tagen (diese Zeitspanne entspricht ungefähr neuneinhalb Monaten) liegt die Leistung unter 6700 MW, also unter 20% der Nennleistung. Diese Zahlen verdeutlichen, dass die Angabe der Nennleistung nichts über die Verfügbarkeit einer Energieform aussagt. Die durchschnittliche Leistung aller Solaranlagen in Deutschland liegt bei 3200 MW, also bei 10% der installierten Leistung.

Windkraft und Photovoltaik

Der Gedanke, dass die aus Wind- und Photovoltaikanlagen gewonnenen Energien sich gegenseitig ergänzen, hat etwas Verlockendes und scheint zunächst sogar naheliegend. Schließlich überwiegt im Sommer der Sonnenschein und in den eher dunklen Wintermonaten der Wind. In Deutschland sind per Ende 2012 Wind- und Solarkraftwerke mit einer Nennleistung von rund 64.000 MW installiert. Einen Beitrag zur sicheren Grundlast können beide Energieformen nicht leisten, weil die Grundlast von Wind- und Photovoltaik einzeln und auch zusammen bei Null liegt.

 

Abbildung 7: Häufigkeitsdiagramm der Wind- und Solarleistung in ganz Deutschland

Das Häufigkeistdiagramm in Abbildung 7 zeigt, dass die summarische Leistung aus Wind- und Sonnenenergie an 90 Tagen im Jahr (3 Monate) unter 3200 MW (entsprechend 5% der installierten Leistung) und an 180 Tagen (6 Monate) unter 6550 MW (entsprechend 10% der installierten Leistung) liegt. Während eines halben Jahres stehen die sogenannten erneuerbaren Energien nur zu einem  Bruchteil der Nennleistung zur Verfügung. Die Behauptung, dass sich beide Energieformen im Mix ergänzen, ist daher unzutreffend.

Bei einem Versorgungsgebiet von der Größe Deutschlands sind Wind- und Solarenergie nicht in der Lage, einen Beitrag zur Sicherung der Grundlast bei der Stromversorgung zu leisten. Auch im Verbund liegt deren sichere zur Verfügung stehende Leistung bei Null – ein Netz kann mit diesen Kraftwerken ohne Speicher bzw. zusätzliche Kraftwerke nicht betrieben werden. Ohne Stromspeicher benötigt jede Wind- oder Solaranlage ein konventionelles Kraftwerk, das bei zurückgehender Leistung einspringen kann.

Da bis heute Speicher von nennenswerter Größe nicht vorhanden sind und auch nicht absehbar ist, dass eine Technologie zur Speicherung in ausreichendem Umfang zur Verfügung steht, können Windkraft- und Solaranlagen nur im Zusammenspiel mit konventionellen Kraftwerken betrieben werden- hierbei ist es zunächst gleichgültig, ob diese Kraftwerke mit Kohle oder Erdgas befeuert werden. Diese konventionellen Kraftwerke laufen im Hintergrund und werden in ihrer Leistung zurück gefahren, wenn die Leistung aus Wind- und Solarkraft ansteigt und wieder hoch gefahren, wenn die Leistung sinkt. Hierzu sind diese Kraftwerke im allgemeinen in der Lage, weil sie schnell auf Lastwechsel reagieren können  und müssen. Ein modernes Kohlekraftwerk ist ohne weiteres in der Lage, die Leistung um 60% der Nennleistung in 15 Minuten also beispielsweise von 200 MW auf 500 MW zu erhöhen. Dieser Lastwechselbetrieb einer Kraftmaschine ist für jeden Autofahrer völlig selbstverständlich, wenn er beim Beschleunigen auf das Gaspedal tritt: Binnen einiger Sekunden steht die Nennleistung zur Verfügung. Dieses Regelverhalten eines Kraftwerks ist für den sicheren Betrieb eines Stromnetzes unabdingbar, weil Kraftwerke in der Lage sein müssen, Schwankungen der Last augenblicklich auszugleichen! Die Grenzen der Regelungsfähigkeit von Kraftwerken sind erreicht, wenn die eingespeiste Leistung aus sogenannten erneuerbaren Energien schneller ansteigt, als ein Dampfkraftwerk zurückgefahren werden kann. Um das Stromnetz vor einem Zusammenbruch zu bewahren, werden konventionelle Kraftwerke dann im sogenannten Drosselbetrieb gefahren: Der Dampf aus dem Dampferzeuger wird an der Turbine vorbei geleitet und im Kondensator wieder zu Wasser kondensiert. Diese Kraftwerke verbrauchen dann zwar Brennstoff und produzieren CO2, liefern aber keinen Strom. Der Verbundbetrieb von konventionellen Kraftwerken mit Windkraft- und Solaranlagen bestimmt auch die Grenze des weiteren Ausbaus. Wenn die konventionellen Kraftwerke auf ihre kleinste Leistung zurückgefahren sind, kann die Leistung aus Solar- und Wind vom Netz nicht mehr aufgenommen werden, die Anlagen müssen abgeregelt, also in ihrer Leistung begrenzt werden, weil der Strom dann vom Netz nicht mehr aufgenommen werden kann oder ins Ausland verkauft werden muss.

Mit der beschlossenen Abschaltung der Kernkraftwerke in Deutschland steht deren Leistung zur sicheren Versorgung der Netze in wenigen Jahren  nicht mehr zur Verfügung. Da die gesicherte Grundlast von Photovoltaik und Windenergie bei Null liegt, muss diese Leistung durch konventionelle Kraftwerke ersetzt werden. Ein Zubau an Kapazitäten ist eine physikalische und technische Notwendigkeit, will man das Stromnetz auch in Zukunft sicher betreiben. Hierfür kommen nur Gas- oder Kohlekraftwerke in Frage – die Abschaltung der Kernkraftwerke ist daher nur mit einem Ausbau der konventionellen Kraftwerkskapazitäten möglich. Wer die Abschaltung von Kohlekraftwerken fordert, oder den Neubau von konventionellen Kraftwerken verhindern will, hat die Physik gegen sich.

Es ist daher fragwürdig, ob sich die CO2- Emissionen durch Solar- und Windkraftanlagen senken lassen- es ist eher zu erwarten, dass diese Emissionen in Zukunft -wie im letzten Jahr- weiter ansteigen werden.

Literatur

Hennig, H.-M., Palzer, A.:

100 % erneuerbare Energien für Strom und Wärme in Deutschland

Fraunhofer-Institut für Solare Energiesysteme ISE

Stuttgart, Kassel, Teltow, 2012

NN:

A bis Z

Fakten zur Windenergie

Hrsg.: Bundesverband Windenergie e.V., Berlin

Rohrig, K.:

Windenergie Report Deutschland 2012

Hrsg.: Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES), Kassel, 2012

Pape, C. et. al:

Entwicklung der Windenergie in Deutschland

Agora Kurzstudie erstellt vom Fraunhofer- IWES, Kassel, Juni 2013

Über den Autor: Dr.-Ing. Detlef Ahlborn ist bei Vernunftkraft Leiter Fachbereich Technologie

Jahrgang 1960, selbständiger Unternehmer, Vater von 2 Kindern, Motorradfahrer und Naturwissenschaftler aus Leidenschaft, aus Großalmerode in Hessen. Bürgerinitiative Pro Kaufunger Wald und Hirschberg.

Fachgebiet: Energie- und Kraftwerkstechnik, Speicherung von erneuerbaren Energien, statistische Analyse und Verfügbarkeit von Wind- und Solarenergie. 




Neue Eisbohrkern-Daten zeigen die Klimavariabilität in der Westantarktis

Die Autoren berichten, dass ihr Eisbohrkern zeigt, dass sich die Region seit Ende der fünfziger Jahre erwärmt hat, und zwar mit einer Rate ähnlich derjenigen auf der Antarktischen Halbinsel und der zentralen Westantarktis.

Allerdings schreiben die Autoren auch, dass sich dieser jüngste Erwärmungstrend hinsichtlich seiner Größenordnung nicht von Erwärmungs- und Abkühlungstrends jeweils zur Mitte des 19. Und des 1^8. Jahrhunderts unterscheidet. Das bedeutet, falls es wirklich vom Menschen verursachte Klimaänderungen in diesem Gebiet gibt, sind diese nicht über die Variabilität der letzten 300 Jahre hinausgegangen.

Quelle: Geophysical Research Letters, doi:10.1002/2013GL057782, 2013 http://onlinelibrary.wiley.com/doi/10.1002/2013GL057782/abstract

A 308 year record of climate variability in West Antarctica

Autoren: Elizabeth R. Thomas, Thomas J. Bracegirdle and John Turner: British Antarctic Survey, Cambridge, UK; Eric W. Wolff: Department of Earth Sciences, University of Cambridge, Cambridge, UK.

Abstract:

Wir präsentieren neue Aufzeichnungen aus stabilen Isotopen aus dem Ellsworth Land. Von dort haben wir einen Eisbohrkern gezogen, der die letzten 308 Jahre (1702 bis 2009) der Klimavariabilität in den Küstengebieten der Westantarktis abdeckt. Die Klimavariabilität dieses Gebietes wird stark beeinflusst von der Wassertemperatur und dem Luftdruck im tropischen Pazifik und ist verbunden mit lokalen Meereisbedingungen vor Ort. Die Aufzeichnungen zeigen, dass es in diesem Gebiet seit Ende der fünfziger Jahre zu einer Erwärmung gekommen ist, und zwar mit einer ähnlichen Rate wie auf der Antarktischen Halbinsel und in der zentralen Westantarktis; allerdings ist dieser Erwärmungstrend nicht einheitlich. Dramatischere Erwärmungs- und Abkühlungstrends gab es jeweils Mitte des 18. und des 19. Jahrhunderts. Dies zeigt, dass gegenwärtig die Auswirkungen anthropogener Klimaantriebe an dieser Stelle noch nicht über die Bandbreite der natürlichen Klimavariabilität der letzten rund 300 Jahre hinausgegangen ist.

Link: http://wattsupwiththat.com/2013/12/05/new-ice-core-record-shows-climate-variability-in-west-antarctica/

Übersetzt von Chris Frey EIKE




Was in der deutschen Energiepolitik fehlläuft – Bedroht sind Versorgungssicherheit, Bezahlbarkeit und Freiheit – Ein „Report“ plädiert für das „Aufräumen in den Köpfen“

Auf grüne Dogmen abgerichtet

Das Wort „Dressurplatz Schule“ verwendet der neue Ermecke-Report zur deutschen Energiepolitik.*) Dort liest man: Dass sich Wind- und Sonnenenergie zur Stromversorgung in der heutigen Lebenswelt nicht eigneten, erführen die Kinder in deutschen Schulen nicht. Nicht selten bekämen sogar organisierte Öko-Aktivisten zu den Schulen Zugang und hielten dort „Unterricht“ ab. Die Schüler würden auf grüne Dogmen regelrecht abgerichtet. Einen Report wie diesen des Ökonomen Klaus Ermecke mit dem Titel Energiepolitik im Konzeptnebel – Ein Plädoyer für das „Aufräumen in den Köpfen“ bekommen die Schüler sicher nicht zu Gesicht und die weitaus meisten Bürger ebenfalls nicht. „Was läuft falsch in der deutschen Energiepolitik?“ fragt der Report rhetorisch. Steige man in die Sichtung der Energiedebatte ein, staune man bald über deren schillernde Vielschichtigkeit: Kaum eine Organisation, die nicht daran teilnehme, und kaum ein Thema, das nicht mit ihr verknüpft werde.

Nur eines ist selten: fachliche korrekte Aussagen

Wörtlich heißt es: „In der Energiedebatte mischen sich abgrundtiefe Ängste und leuchtende Heilserwartung, Branchenwerbung und ideologisches Feldgeschrei. Gesinnung ist Trumpf. Nur eines ist in dieser Debatte selten: fachlich korrekte Aussagen mit klugen Schlussfolgerungen. Stattdessen stoßen wir auf ein wiederkehrendes Grundschema:
– Politiker schüren Ängste und Befürchtungen, um sich dann als „Retter“ zu inszenieren.
– Zum Zwecke der Rettung setzen Politiker ‚ambitionierte Ziele’, und das sehr konkret: Hunderttausend Solardächer, eine Million Elektroautos, CO2-freie Städte, Stromversorgung zu 80 Prozent aus Windparks und Solardächern.
– Damit die Ziele der Politiker auch erreicht werden, werden Bürger und Unternehmen gesteuert und gepresst: mit Zwang und Subventionen und einem Strom von ‚Aufklärung’. Die reicht inzwischen bis in den Kindergarten.
– Die Freiheit erodiert. Wo die Gefahr so groß ist, die Rettung so dringend, ist für eigene Entscheidungen des Bürgers kein Platz.
– Derweil wird Geld milliardenweise umgeleitet – jedes Jahr mehr.“

Geschürt werden drei „Mega-Ängste“

Der Report beurteilt die deutsche Energiepolitik insgesamt, nicht nur die „Energiewende“ allein, und misst sie an ihren Ergebnissen. Die deutsche Energiepolitik beruhe auf der Angst der Bevölkerung. Die Politik schüre Angst planmäßig seit Jahrzehnten: als Grundlage für die Umverteilung von Geld und Macht. Dominiert werde die Debatte von drei „Mega-Ängsten“: Rohstoffe würden knapp und versiegen, vor allem die fossilen Energieträger Kohle, Öl, Gas; eine „Klimakatastrophe“ zeichne sich ab; Kernkraftwerke und Endlager brächten den „Tod durch Strahlung“.

Die Energierohstoffe sind nicht knapp

Der Report nennt alle drei Ängste unbegründet: „Die Rohstoffe versiegen nicht und sind keineswegs knapp: Die gesamte Erdkruste besteht aus Rohstoffen, die für den einen oder anderen Zweck genutzt werden könnten. Kohle wird bis zu einer Tiefe von 1,5 Kilometern, Gold bis zu 3,9 Kilometern gefördert. Experimentelle Ölbohrungen wurden bis über 12 Kilometer Tiefe geführt. Öl und Gas bestehen aus Kohlenwasserstoffen. Kohlenstoff und Wasserstoff gehören zu den meistvorhandenen Elementen im Weltall und sind auch in der Erde reichlich vorhanden. Gegen das Dogma, alle auf der Erde vorhandenen Kohle-, Öl- und Gasvorkommen seien „fossil“ und daher knapp, gibt es bedeutende Einwände. Die geologischen Befunde werden durch diese „biogene“ Hypothese nicht zufriedenstellend erklärt. Immer wieder werden neue Öl- und Gasvorkommen entdeckt.“

Die fortschreitende Systemveränderung

Weiter heißt es, die deutsche Politik habe den Pfad der Marktwirtschaft verlassen und unter dem Vorwand „Schutz der Umwelt“ einen ökologistischen Obrigkeitsstaat eingerichtet, Grundrechte würden kassiert. Die fortschreitende Systemveränderung sieht der Report in einer Vielzahl von Maßnahmen und zählt diese auf:
– das CO2-Zertifikate-Regime („Emissionshandel“),
– das Energiewirtschaftsgesetz (EnWG) und Erneuerbare Energien-Gesetz (EEG),
– die Beseitigung der eigenen Kernenergiebasis,
– Zwangsmaßnahmen gegen Bürger und Industrie,
– Sondersteuern, Steuerprivilegien, Subventionen,
– die Umsteuerung von Forschung und Lehre,
– Agitation und Propaganda auf allen Kanälen.

Die „Große Transformation“

Die vorgeblichen Gefahren würden der Bundesregierung als Vorwand dafür dienen, von einem „Wissenschaftlichen Beirat“ (WBGU) die „Große Transformation“ vorbereiten zu lassen.**)  Hinter diesem Begriff verberge sich nicht weniger als die Entmachtung des Parlaments, die Gleichschaltung der Wissenschaft und die zwangsweise Umerziehung der Bevölkerung. Die solle die Voraussetzung schaffen für die „Dekarbonisierung“ der deutschen Wirtschaft und laufe auf deren Zerstörung hinaus. Eine maßgebliche Rolle bei diesen Fehlentwicklungen spiele die Umweltbürokratie (vor allem das Bundesministerium für Umwelt) sowie einige zu „Psycho-Konzernen“ mutierte Nichtregierungsorganisationen (NGO). Unternehmen, Verbände und Kammern hätten sich dem Öko-Wahn unterworfen und würden sich an dem grünen Propagandasystem beteiligen. Dafür erhofften sie sich von der Politik Erleichterungen (z.B. durch Ausnahmeregelungen). Die eigentlichen Fachleute der Energiewirtschaft würden durch Medien und Politik systematisch ausgeschlossen und ausgeblendet. Die „Energiekonzepte“ von Bundes- und Landesregierungen und Parteien strotzten von unsinnigen Annahmen, naiven Schlussfolgerungen und purem Wunschdenken.

Zwei Pfade der wirtschaftlichen Tugend verlassen

Der Report sieht die gegenwärtige deutsche Energiepolitik – wie auch Michael Limburg***) vom Europäische Institut für Klima und Energie (EIKE) – schon jetzt als gescheitert an und nennt dafür die zwei Hauptgründe. Erstens: „Der Pfad der Sachdiskussion wurde verlassen. Ideologie und Wunschdenken bestimmen die Debatte. Die eigentlichen Fachleute werden ausgegrenzt bzw. ignoriert.“ Zweitens: „Der Pfad der Marktwirtschaft wurde verlassen. Politische Zirkel erfinden planwirtschaftliche Vorgaben (hunderttausend Solardächer, 1 Million Elektroautos), die dann Bevölkerung und Wirtschaft aufgezwungen werden sollen.“ Und mit der Marktwirtschaft opfere Deutschland auch die Freiheit.

Ein parasitäres System, in dem sich wenige bereichern

Das Fazit des Reports lautet: „Politik misst man an ihren Ergebnissen. Viermal höhere Strompreise als in Texas offenbaren das deutsche Desaster. Ursache des Desasters war die Abwendung von der Marktwirtschaft: Es entstand ein neues, parasitäres System, in dem sich wenige auf Kosten aller hemmungslos bereichern. Das Grundgesetz wurde gleich mehrfach ignoriert. Voraussetzung dafür war ein planmäßig herbeigeführter Massenwahn. Dazu wurden drei „Mega-Ängste“ geschürt. Als Ausweg offeriert wird eine utopische Heilserwartung. Zeit für das Aufräumen in den Köpfen! Die Mega-Ängste sind unfundiert. … Die derzeitige ‚Energiepolitik’ beruht auf Illusionen und Selbstbetrug.“

Freiheit und Wohlstand sind jetzt insgesamt in Gefahr

„Es ist der Staat selbst, der diese Desinformation betreibt bzw. finanziert (Schulen, Kindergärten, Wissenschaft, Öko-Kampagnen) und dadurch seine eigene Existenz unterminiert. Mit der Marktwirtschaft wurden deren Ziele geopfert. Statt um „zuverlässige Versorgung“ und „minimale Preise“ geht es jetzt um die „Große Transformation“: in ein verkapptes Zwangsregime ohne Freiheit und Demokratie. Konzerne und Verbände haben sich dem „grünen System“ unterworfen und versuchen, sich durch Anbiederung Luft zu verschaffen. „Kuhhandel-Ökonomie“ ersetzt die Marktwirtschaft. Diese Strategie ist aber offensichtlich gescheitert. Freiheit und Wohlstand sind jetzt insgesamt in Gefahr. Bürger und Wirtschaft müssen sich dieser Herausforderung stellen.“

„Der Bürger, der resigniert, muss …

Damit ist der Report auch ein Aufruf an die Bürger, sich diese Energiepolitik nicht mehr länger bieten zulassen. Ermecke zitiert Gustav Heinemann (Bundespräsident 1969 bis 1974): „Der Bürger, der resigniert, muss mit dem leben, was man ihm diktiert.“

Die natürlichen Rollen wieder herstellen

Die Empfehlungen für die künftige deutsche Energiepolitik lauten unter anderem: „Vorrang hat die Rückgewinnung der Freiheit, und damit die dauerhafte Wiederherstellung der natürlichen Rollen: Bürger und Unternehmen kaufen die Energie, die sie wollen und bei wem sie wollen. Unternehmer bieten die Energie an, die sie wollen – mit allein von ihnen gewählten Technologien, Zulieferern und Partnern. Der Staat stellt durch Raumordnungspolitik Standorte bereit, an denen ggf. neue Anlagen errichtet werden können. Der Staat sichert das Rechtssystem und damit die Investitionen. Prüf- und Genehmigungsverfahren sind straff und effizient zu führen, das Schikanieren der Industrie ist zu unterlassen. Der Staat sichert im Rahmen der Außenwirtschaftspolitik den Zugriff der deutschen Unternehmen auf Rohstoffe. Der Staat gewährleistet die natur- und wirtschaftswissenschaftliche sowie technische Grundbildung an den Schulen und unterbindet dort ideologiegetriebene Desinformation. Die „neue Energiepolitik“ beginnt mit dem Verzicht des Staates auf planwirtschaftliche Lenkung und auf jegliche Propaganda, die Planwirtschaft rechtfertigen soll.“

Am interessantesten sind die 221 Fußnoten

Der Ermecke-Report umfasst 88 Seiten. 14 davon sind mit „Analyse“ überschrieben. Am umfangreichsten mit 61 Seiten sind die 221 Fußnoten. Sie erläutern, ergänzen, stellen den eigentlichen, informativen Hauptteil dar und sind am interesantesten. Sieben der 88 Seiten enthalten Quellenangaben.

Ergänzung der Redaktion

Der Ermecke-Reprot ist in zwei Versionen verfügbar

Energiepolitik im Konzeptnebel

Ein Plädoyer für das Aufräumen in den Köpfen

www.ke-research.de/downloads/Konzeptnebel.pdf

und wem die 19 Seiten (plus 68 Seiten Anhang) für den ersten Einstieg zu lang sind, dem bieten wir diesmal eine Zusammenfassung:

Energiepolitik im Konzeptnebel

Management Summary

www.ke-research.de/downloads/KN-Summary.pdf

______________________________________________________

*) Der „Report“ stammt von der Klaus Ermecke GmbH KE Research in Oberhaching. Zwei andere Berichte waren vorausgegangen: „Das deutsche Fukushima-Desaster“ im Oktober 2011 und „Rettung vor den Klimarettern“ im Dezember 2009. Der jüngste und dritte Report hier im Wortlaut: www.ke-research.de/downloads/Konzeptnebel.pdf Die Ermecke GmbH ist nach eigenen Angaben ein Forschungs- und Beratungsunternehmen und unterstützt Entscheidungsträger in Politik und Wirtschaft bei der Beurteilung und Entscheidung in Zukunftsfragen mit weitreichender Bedeutung für den Wirtschaftsstandort Deutschland. Weiteres über das Unternehmen hier: www.ke-research.de

**) Fertiggestellt 2011 unter dem Titel „Gesellschaftsvertrag für eine Große Transformation“ (446 Seiten), als Annette Schavan Bundesministerin für Bildung und Forschung (BMBF) war, und von ihrem Ministerium finanziert. Die „Zusammenfassung für Entscheidungsträger“ findet sich hier: www.wbgu.de/fileadmin/templates/dateien/veroeffentlichungen/hauptgutachten/jg2011/wbgu_jg2011_ZfE.pdf

Im Ermecke-Report liest man:

„Unter der Bundesforschungsministerin Schavan (CDU) begeisterten sich Wissenschaftler für Elektroautos, Windparks und „Klimaschutz“. Hätten sie es nicht getan, hätte es vielleicht keinen Ruf mehr gegeben – und für ihre Institute keine Forschungsmittel. Auf unsere wiederholten Anfragen hin konnte uns das BMBF kein einziges Forschungsprojekt benennen, in dem ein kritisches Hinterfragen des Treibhausdogmas gefordert und gefördert worden wäre. Die Tatsache, dass weltweit Tausende von Forschern der betroffenen Fachrichtungen den CO2-Kult angreifen, wurde und wird in Berlin und Brüssel konsequent ignoriert. Die Dinge haben sich bisher nicht geändert.“




Energiewende wirkt: Reservekraftwerke werden Milliarden verschlingen – 200.000 Kraftwerker bereits unterbeschäftigt!

….Es ist keine zwei Wochen her, dass der neue Bundeswirtschaftsminister Sigmar Gabriel (SPD) seine Pläne für eine Reform des Erneuerbaren-Energien-Gesetzes (EEG) und damit der Energiewende präsentierte. Mit neuen Vorschriften will der Sozialdemokrat die Kosten des Atomausstieges und der Umstellung der Stromproduktion von fossilen Energieträgern auf Wind und Solar bremsen.

Doch Gabriels Vorschlag enthält nicht nur weiterhin Treibsätze für Kostensteigerungen, vor allem für Deutschlands Industrieunternehmen. Mehr noch: Der Minister weiß auch, dass er den künftigen Aufwand für Reservekraftwerke à la Marbach bei der Reform der Energiewende noch gar nicht berücksichtigt hat. Denn darüber, ließ er in den Koalitionsvertrag schreiben, sei erst „mittelfristig“ zu reden…

….Aber mittelfristig ist bald. Denn schon 2016, in zwei Jahren, will die Bundesregierung einen Mechanismus in Gang setzen, den es in Deutschland bisher nicht gab: Statt ausschließlich für den verbrauchten Strom zu bezahlen, sollen die Kunden künftig auch für Kraftwerke aufkommen, die die Energieversorger wie in Marbach lediglich in Reserve halten. Dazu soll ein sogenannter Kapazitätsmarkt etabliert werden, der die bisherige Versorgungssicherheit gewährleistet. Im Klartext: Wenn Wind- und Solarkraftwerke nicht genügend Volt und Ampere produzieren, sollen fossile Kraftwerke einspringen, die ansonsten aber auf Standby stehen…

… Noch kann niemand genau sagen, wie teuer ein doppelter Boden für die Energieversorgung in ganz Deutschland genau wird. Experten gehen aber davon aus, dass den Stromkunden zusätzliche Kosten drohen, die sich in den ersten zehn Jahren auf einen mittleren zweistelligen Milliardenbetrag addieren könnten. Damit käme zur EEG-Umlage ein weiterer dicker Batzen.

… Schätzungen der Energiekonzerne zufolge sind derzeit gut 200.000 Mitarbeiter in fossilen Kraftwerken in Deutschland durch die Energiewende unterbeschäftigt. Holger Grzella, Betriebsratsvorsitzender der E.On-Tochter Kraftwerke Ruhr mit den Kohlemeilern Datteln, Scholven, Shamrock und Knepper, berichtet von vielen Mitarbeitern, die die Zeit mit Putz- und Ausbesserungsarbeiten totschlügen.

PDF zum Download: Modelle für die Vorhaltung fossiler Kraftwerke

PDF zum Download: Kraftwerke, für die bei der Bundesnetzagentur die Stilllegung beantragt wurde

Lesen Sie den ganzen Artikel bei WiWo 




Satelliten: Keine Erwärmung seit 17 Jahren und 5 Monaten

Würden Leser von Main Stream Medien eine Projektion wagen? Wie viele von diesen Medien werden über diese nicht uninteressante Tatsache berichten?

Dieses Verschweigen zeigt, dass sich die Stillstands-Phobie [Hiatus hernia] für wirkliche Gläubige der Neuen Religion fortsetzt.

Meine eigene Vorhersage lautet, dass die Anzahl der Medien, die über diese 17 Jahre und 5 Monate ohne jede globale Erwärmung berichten, in etwa der Anzahl der Klimamodelle gleicht, die einen solchen Stillstand trotz unablässiger CO2-Konzentrationen simuliert haben.

Man drucke diese Graphik als Postkarte aus und sende sie an den Herausgeber einer Zeitung vor Ort, die eine demokratische Debatte ausgeschlossen hat mit der Ankündigung, dass man es ablehnt, überhaupt irgendwelche Briefe von „Klimaleugnern“ abzudrucken.

Link: http://wattsupwiththat.com/2014/02/06/satellites-show-no-global-warming-for-17-years-5-months/

Übersetzt von Chris Frey EIKE

Ergänzung der Reaktion.

Unser Autor Josef Kowatsch weist darauf hin, dass die schöne Erwärmung leider für Deutschland bereits in eine langjährige und kräftige Abkühlung umgeschlagen ist. Datenquelle DWD