Bekämpft den Jihad, schafft CO2-Steuern ab!

Bild rechts: Teile einer Raffinerie. Wenn die Preise fallen, müsste Iran seine ruchlosen Aktivitäten zurückfahren.

Diese Falken sollten ihre Position überdenken. Die Gesetzgebung zur globalen Erwärmung hat sich zur größten Einzelbedrohung der Energiesicherheit in der westlichen Welt entwickelt und zum größten Segen für die meisten der geopolitischen Feinde des Westens. Der Spielverderber ist Schieferöl. Die USA haben so viel davon, dass die USA einem jüngst veröffentlichten Bericht von Citigroup zufolge in fünf Jahren alle Ölimporte aus dem Nahen Osten und von anderen feindlichen Versorgern stornieren und insgesamt zum Exporteur von Energie werden können. Bereits jetzt haben die USA die Ölimporte seit 2006 um die Hälfte verringert.

Andere Expertengremien sind hinsichtlich der Perspektiven von Schieferöl genauso stur. Die Internationale Energie-Agentur IEA sagt voraus, dass die USA bis zum Jahr 2017 sowohl Russland als auch Saudi-Arabien überholen und zum größten Ölerzeuger der Welt werden, und dass sie bis zum Jahr 2035 in der Lage sein werden, nahezu alle Ölimporte zu eliminieren, einschließlich derer aus Kanada. PricewaterhouseCoopers (PwC) glaubt, dass die Erzeugung von Schieferöl in den USA bis zum Jahr 2035 vier Millionen Barrel pro Tag erreichen kann, mehr als drei mal so viel wie die offiziellen Schätzungen der US-Regierung. Dies ist eine über-erfolgreiche Industrie gewesen, heißt es dort, mit einer gewaltigen Wachstumsrate von 26% schon heute und geschätzten 33 Milliarden Barrel in der Erde, was eine dramatische Steigerung der Schätzung aus dem Jahr 2007 über nur 4 Milliarden Barrel darstellt.

Die globalen Perspektiven – Schätzungen abbaubarer Schieferöl-Reserven sind inzwischen bis auf 1,5 Billionen (trillions) Barrel gestiegen – verändern das Spiel erneut. PwC glaubt, dass der Ölstrom, den die Erde erleben wird, zu dramatisch niedrigeren Ölpreisen führen wird, möglicherweise bis 50 US-Dollar pro Barrel, was der Weltwirtschaft einen Schub bis zu 2,7 Billionen (trillions) US-Dollar pro Jahr bis 2035 verleihen könnte. Die größten Gewinner dieses Schieferöl-Fallouts sind Indien und Japan, deren BIP um zusätzliche 7% steigen könnte, gefolgt von den USA und der Eurozone, die ein zusätzliches Wachstum um 5% sehen könnten.

Aber es gibt auch Verlierer. Russland und die Exporteure im Nahen Osten „könnten sich mit einer signifikanten Verschlechterung ihrer Handelsbilanzen konfrontiert sehen, und zwar von 4% bis 10% ihres BIP“, sagt PwC. Citigroup zufolge könnten die Ölpreise sogar noch unter das kostendeckende Niveau fallen, das viele Länder brauchen, wenn man Schieferöl den bereits existierenden konventionellen Vorräten von Öl und Ölsanden hinzuaddiert. Russland könnte nicht mehr zu einer ausgeglichenen Handelsbilanz in der Lage sein. Das Bild für „Venezuela ist ziemlich düster“. Einige Länder laufen Gefahr, zu „gescheiterten Staaten“ zu werden.

Anders gesagt, alle Demokratien werden gewinnen, die Diktaturen und autoritären Staaten werden meistens verlieren. „Business as usual“ wird für viele der „Bad Guys“ zu Ende gehen. Iran, von dem man annimmt, dass es der Hauptgeldgeber der Terroristen ist, müsste seine ruchlosen Aktivitäten zurückfahren. Venezuela, Geldgeber für anti-amerikanische Aktivitäten in ganz Latein-Amerika, würde ähnlich gebeutelt. Saudi-Arabien könnte nicht länger in der Lage sein, die riesigen Komplexe von Moscheen und Medressen [= Universitäten] zu unterhalten – von denen man annimmt, dass sie radikalisierte Terroristen ausbilden – die sie in Pakistan und im Westen unterstützen. Das wären willkommene Einschränkungen – einer Gallup-Umfrage zufolge betrachten 96% aller Amerikaner den Schutz vor dem internationalen Terrorismus als oberstes Ziel der Außenpolitik. Mit fast gleicher Leidenschaft wünschen sich die Amerikaner Energiesicherheit.

Keiner der aus den reichlichen Energievorräten und geringen Energiekosten resultierenden Vorteile für den Westen – ob bei dem Zurückdrängen des Terrorismus, steigender Energiesicherheit oder wachsender ökonomischer Wohlstand – ist jedoch in Stein gemeißelt. Falls die Regierungen mit Regulationen bzgl. der Klimaänderung intervenieren, könnte die kommende Öl-Revolution bereits in ihren Kinderschuhen abgewürgt werden, stellt eine HSBC-Studie fest. Die US-Administration möchte die Kohlenstoff-Konzentration in der Atmosphäre auf 450 ppm begrenzen, einer Menge, die es lediglich erlauben würde, nur ein Drittel der gegenwärtigen Vorräte zu verbrennen. Zahlreiche Ölprojekte – jene, die für mehr als 50 US-Dollar pro Barrel entwickelt werden – könnten sehr gut annulliert werden. Alles in Allem, warnt HSBC, könnten die Größen Öl und Gas in einer Low-Carbon-Welt bis zu 60% ihres Marktwertes verlieren – die Reserven würden „unverbrennbar“ werden.

Weil HSBC ein Low-Carbon-Szenario als glaubhaft ansieht, rät es seinen Kunden, wachsam zu sein. „Unserer Ansicht nach sollten sich Investoren hauptsächlich auf Unternehmen mit Zukunftsprojekten zu niedrigen Kosten konzentrieren“, stellt man fest. „Kapitalintensive teure Projekte wie Schweröl und Ölsande sind unter unserem Szenario am meisten gefährdet“. PwC und Citigroup stellen weiter fest, dass ihre Projektionen durch Umweltfaktoren beeinträchtigt wären, wie es auch die OPEC in ihrem Februar-Bericht darstellt. Genauso sehen es die Umweltaktivisten, die ihr Bestes tun, um eine Low-Carbon-Welt zu erschaffen. David Hughes vom Post Carbon Institute und Autor einer in dieser Woche veröffentlichten Studie zu Schiefer und anderen Energie-Technologien, sagt: „Die Projektionen durch Kritiker und einige Regierungsagenturen, dass diese Technologien endloses Wachstum verheißen und eine Neue Ära der ‚Energieunabhängigkeit’ einläuten können, wobei die USA zu einem substantiellen Gesamt-Exporteur von Energie werden wird, sind nach Ansicht der Fundamentalisten vollständig ohne Garantie… diese überschwänglichen Vorhersagen werden sich als sehr schwierig oder unmöglich zu erreichen herausstellen“.

Bis heute werden diese Vorhersagen erreicht – ja tatsächlich sogar übertroffen. Weil sich Beschränkungen fossiler Treibstoffe und von der Regierung subventionierte Projekte erneuerbarer Energie als ruinös teuer herausgestellt haben, und weil die Projektionen der Untergangspropheten permanent nicht eintreffen – der Vorsitzende des IPCC hat diese Woche eingeräumt, dass sich die globalen Temperaturen seit 17 Jahren nicht mehr verändert haben – hat sich die allgemeine Öffentlichkeit gegen die Opferung der Wirtschaft für einige dubiose Umwelt-Vorteile gesperrt. Diese Sperre wird nur immer fester werden, wenn die Leute merken, dass Regulationen bzgl. der Klimaänderung sowohl dem Wunsch nach Energiesicherheit als auch der Abwehr terroristischer Angriffe im Wege stehen.

Financial Post

Lawrence Solomon is executive director of Energy Probe.

E-Mail: LawrenceSolomon@nextcity.com

Link: http://opinion.financialpost.com/2013/02/21/lawrence-solomon-shale-means-security/

Übersetzt von Chris Frey EIKE




Der Emissionshandel – ein System ohne jede Wirkung, nur um Geld zu schröpfen

Der Kyoto-Vertrag legte für insgesamt 190 Staaten Verpflichtungen zur Reduzierung von Treibhausgasen, vor allem CO2, fest. Die großen Emittenten fehlen aber dabei,  China und die USA sowie die sogenannten Schwellenländer Indien, Brasilien u.a.. Russland, Kanada, Japan und Neuseeland sind an der 2. Verpflichtungsperiode des Kyoto-Protokolls (von 2013 – 2020) nicht mehr beteiligt. Übrig bleiben die 27 EU-Staaten, einige weitere europäische Länder und Australien.

Weniger als 13 % der weltweiten Emissionen sind damit noch betroffen.

Mindestens hundert Milliarden Dollar pro Jahr sollen ab 2020 aus öffentlichen, privaten und sonstigen Mitteln fließen, um Entwicklungsländer bei Klimaschutz und der Bewältigung von Klimafolgen zu unterstützen. Dies wurde im Dez. 2012 in Doha auf dem letzten Klimagipfel so bekräftigt. Für die Zeit bis 2020 sollen die bisherigen Mittel aufgestockt werden. Eine konkrete Vereinbarung woher das Geld kommen soll, wurde aber nicht erreicht. Bislang haben nur einige europäische Staaten freiwillige Zusagen gegeben. Für 2013 sind dies 7 Milliarden Euro, davon allein aus Deutschland 1,8 Milliarden Euro.

Wie funktioniert der Emissionshandel ?

Wer CO2 in die Luft bläst, braucht dafür ein Zertifikat, das zum Ausstoß einer bestimmten Menge Kohlendioxyd (CO2) berechtigt. Dies wird in grotesker Verballhornung der Tatsachen von den Medien „Verschmutzungsrecht“ genannt.  Diese Zertifikate werden von einer EU-Behörde ausgegeben, anfangs kostenlos, ab 2013 jedoch vom potentiellen CO2 Erzeuger zu bezahlen. Nicht benötigte Papiere können vom Erwerber zum Marktpreis wieder verkauft werden. (z.B. hier) Wer mehr CO2 ausstößt, als er Zertifikate besitzt, muß Papiere dazu kaufen. Doch nun ist der Handel mit den „Verschmutzungsrechten“ ist wirkungslos geworden, denn der Preis dafür ist am 24. Januar 2013 auf unter 3 Euro gefallen. Grund ist vermutlich die europaweit eingetretene Wirtschaftskrise. Inzwischen ist er wieder dank der anvisierten Verknappungspolitik auf etwas über 5 € gestiegen (siehe Erläuterung am Ende)

Die Einnahmen aus diesem Emissionshandel speisen den Energie- und Klimafond (EKF) und sind durch den niedrigen Preis um mehr als 2/3 = 2,3 Milliarden Euro  zurückgegangen. Damit fehlen sie unserem Umweltminister Altmaier bei der Finanzierung der Energiewende. Die fehlenden Mittel durch den schlappen Emissionshandel werden notfalls durch Kredite ergänzt, da wird eben in einen anderen Topf gegriffen, denn es geht ja um die Verhinderung der Klimakatastrophe. Außerdem ist der Handel mit den Emissionsrechten umsatzsteuerpflichtig und bringt daher zusätzliches Geld in die Staatskasse.

Wer bezahlt nun das Ganze ?

Die Industrie und andere Verursacher von CO2 müssen für die "Verschmutzungsrechte"  bezahlen. Dies erhöht deren Produktionskosten sowie die Verkaufspreise und am Ende der Kette steht der Verbraucher. Es ist genau so wie bei dem EEG (Erneuerbare Energien Gesetz), wo alle staatlich festgelegten Vergütungen (Einspeisungsgarantien  m i t  V o r r a n g  und festgesetzten Preisen) des erzeugten Stromes aus regenerativen Quellen, zwar am Staat (bis auf die Mehrwertsteuer) vorbei, per gesetzlichem Zwang in jeder Menge und zu festgelegten überhöhten Preisen vom Netzbetreiber zu bezahlen aber komplett auf den Endverbraucher umgelegt wird.

Unser Staat hat sich damit ein doppeltes Instrumentarium mit einer gewaltigen zusätzlichen Bürokratie ausgedacht, um jeden Bürger an die Hand zu nehmen und dabei kräftig zu schröpfen. Es wird in gigantischem Maßstab Kaufkraft abgeschöpft, die allein dem Staat und wenigen Investoren zugute kommt. Damit ist das ganze System eine riesige Umverteilung von unten nach oben. Beim Emissionshandel funktioniert das jedoch nicht mehr, der Preis ist im Keller doch in Brüssel werden tausend Pläne geschmiedet, wie man doch noch an das bereits verplante Geld der Erzeuger – und damit uns allen- kommt. Zum Beispiel indem man das Angebot künstlich verknappt. () Ein Verhalten, das man sonst von gewalttätigen oft staatlichen Monopolen wie z.B. der OPEC kennt, und das zu Recht insbesondere von den Poltikern, als „unfaires“ Marktverhalten gegeißelt wird. Nun, wo man selber dem Verbraucher in die Taschen greifen will, wird es ungeniert praktiziert.

Damit ist das Ende der freien Marktwirtschaft erreicht, mit der die normalen Bürger in unserem Land  einen bescheidenen Wohlstand erreicht haben.

Heinz Hofmann EIKE

Ergänzung

Manager Magazin 

KLIMASCHUTZ BIZARR

Der total verrückte CO2-Markt

Von Arvid Kaiser

Auszüge:

Dem Bund fehlen wegen des Preisverfalls Milliardeneinnahmen für seinen Klimafonds, der allein aus der Versteigerung der Zertifikate gespeist wird. Ursprünglich sollte der Fonds in diesem Jahr 3,3 Milliarden Euro einnehmen, aktuell geplant sind zwei Milliarden, doch bei einem Zertifikatepreis von fünf Euro reicht es noch nicht einmal für eine Milliarde. Am Freitag, wie bereits einmal im Januar, platzte gar eine Auktion mangels Nachfrage…..EU-Klimakommissarin Connie Hedegaard hat durchaus Ideen, wie der Emissionshandel zu reparieren wäre. So könnten Zertifikate nicht nur zurückgehalten sondern ganz gestrichen werden. Eine andere Variante wäre, den Zertifikatepreis zentral zu Steuern – ähnlich wie die Notenbanken die Zinsen. Die systemkonformste Lösung wäre, die Nachfrage zu steigern, indem mehr Branchen und private Autofahrer oder Hausbesitzer einbezogen werden. Doch schon an den Fluglinien beißt sich die EU die Zähne aus.

Mehrere EU-Staaten haben sich bereits darauf eingestellt, dass eine Reform des Systems scheitert. Weil sie an ihren eigenen Klimaschutzzielen festhalten wollen, ergreifen sie aber eigene Schritte. Großbritannien führt ab April einen Mindestpreis für CO2-Zertifikate ein, der über die Jahre steigen soll. Ähnlich handeln Belgien und die Niederlande. Dänemark und Finnland haben den Ausstieg aus der Kohleenergie per Gesetz beschlossen. China und die USA planen jetzt CO2-Steuern, keine Kopie des europäischen Marktanreizsytems.

So kommt die Regulierung wieder auf die altmodische Art: mit Steuern und Strafen, mit Ge- und Verboten. Und gar nicht europäisch koordiniert.

oder

Die deutschen Wirtschaftsnachrichten berichten wie folgt (mit Dank an Spürnase R. Sibiller):

Handel kostete Europäer 300 Milliarden Dollar

Deutsche Wirtschafts Nachrichten  |  Veröffentlicht: 18.02.13, 17:36  |  Aktualisiert: 19.02.13, 11:28  |  43 Kommentare

Der Handel mit CO2-Emissionszertifikaten in der EU steht vor dem Aus. Das Projekt war ein milliardenschwerer Flop der EU. Wegen des extremen Preisverfalls der CO2-Zertifikate können keine Investitionen finanziert werden. Die europäischen Steuerzahler zahlen auch für dieses Debakel.

Der Handel mit CO2-Emissionszertifikaten in der EU habe die Stromkunden ohne jeden Effekt für das Klima circa 300 Milliarden Dollar gekostet, sagte UBS bereits im Jahr 2011. Doch nun steht das gesamte Projekt vor dem Aus, berichtet Euractiv. Denn da es keine Erfolge vorweisen könne, würden immer mehr EU-Mitgliedsstaaten ihre eigenen Wege gehen….

Eine Abstimmung im EU-Parlament am Dienstag über die Fortsetzung des Projekts steht auf der Kippe. Und selbst wenn das Parlament eine Fortsetzung beschlösse, würden die Preise der Emissionszertifikate in den kommenden Jahren nicht auf die nötigen 40 Euro pro Tonne steigen, um Investitionen in CO2-arme Energien finanzieren zu können (mehr hier). Derzeit liegt der Preis bei 4 Euro… Die EU-Kommission machte 2012 den Vorschlag, vorübergehend das Überangebot an CO2-Zertifikaten zu reduzieren, um die Preise wieder zu erhöhen. Doch der Vorschlag scheiterte am Widerstand Deutschlands und Polens. Vor allem das kohle-abhängige Polen war strikt gegen den erneuten Markteingriff…

Die deutsche Regierung strebt eigentlich auch höhere Preise für die Zertifikate an, um damit Investitionen finanzieren zu können. Doch Kanzlerin Angela Merkel kann erhöhte Stromkosten im Wahlkampf nicht gebrauchen. Die Wähler sind schon unzufrieden genug mit dem massiven Preisanstieg bei Kraftstoffen und beim Heizöl (mehr hier)

Erläuterung zur vorgesehenen Verknappung der Emissionsrechte Quelle CO2 Handel.de :

EU-Umweltausschuss stimmt Reform des Emissionshandels zu (19.02.2013)

Heute (19.02.2013) hat der Umweltausschuss des Europäischen Parlaments (EP) in einer wegweisenden Entscheidung mit deutlicher Mehrheit für die Reform des Emissionshandels gestimmt. In den vergangenen Wochen hatten Unternehmen, Gewerkschaften, Experten und Umweltorganisationen immer wieder auf die verheerenden Folgen einer verschleppten Reparatur des CO2-Handels aufmerksam gemacht.

In der EU wurde schon länger über eine Reform des Emissionshandels gestritten. Durch den geringen Preis der Verschmutzungsrechte kann das System seiner Funktion, Investitionen in EU-Flagge Bild: pixelio / Victor MildenbergerKlimaschutzmaßnahmen anzuregen, nicht mehr gerecht werden. Die EU-Kommission will das System nun stabilisieren, indem sie überschüssige Emissionszertifikate vorübergehend vom Markt nimmt, das sogenannte Backloading.

Insgesamt gefährde ein gewaltiger Überschuss von rund 1,9 Milliarden Emissionszertifikaten das Vertrauen in die Funktionsfähigkeit des Instruments, so die Umweltschutzorganisation WWF. Entgegen der aktuellen Diskussion sei nicht nur die kriselnde europäische Wirtschaft ab dem Jahr 2009 für diesen Überschuss verantwortlich. Falsche Rahmenbedingungen wie beispielsweise die großzügige kostenlose Zuteilung und Nutzung von flexiblen Mechanismen – außerhalb von Europa erbrachte Emissionsreduktion, die angerechnet werden dürfen – hätten die Funktionsfähigkeit des Systems von Anfang an belastet.

Marktknappheit muss wiederhergestellt werden
Der aktuelle Vorschlag der EU-Kommission nur kurzfristig 900 Mio. Zertifikate aus dem Markt zu nehmen, reiche absolut nicht aus. Aus Sicht von Germanwatch, des Verbandes kommunaler Unternehmen (VKU) und des WWF müsse der kurzfristige Eingriff durch langfristige Maßnahmen ergänzt werden. Die jetzt zur Entscheidung anstehende zeitliche Verschiebung der Auktion von Emissionszertifikaten allein hätten keine langfristigen und vor allem nachhaltigen Auswirkungen. Um Knappheit im Markt wieder herzustellen, bedürfe es dringend weiterer Maßnahmen, wie die Verschärfung des sogenannten linearen Reduktionsfaktors und die überfällige Erhöhung des EU Klimaschutzziels auf 30 Prozent bis 2020. Durch die niedrigen Zertifikatserlöse fehlen der Bundesrepublik nun auch fest eingeplante Gelder für Projekte zur Unterstützung der Energiewende. 

Deutsche Unterstützung als Rückhalt der Reform nötig
Nach dem heutigen positiven Beschluss des Umweltausschusses folgt nun bis Ende April eine Abstimmung im Europaparlament sowie im Europäischen Rat. Dafür braucht der Rat dringend Rückendeckung aus Deutschland, damit der Reform-Prozess an Fahrt gewinnt.




Bzgl. des Gesetzes zur Klimaänderung hatte ich unrecht

Am meisten bereue ich, als Abgeordneter des Parlaments im Jahre 2008 nicht gegen das Gesetz zur Klimaänderung [climate change act] gestimmt zu haben. Das war ein Fehler. Es tut mir sehr leid.

An genau diesem Tag machte die Labour-Regierung diesen törichten Versuch, die „globale Erwärmung zu stoppen“; wenn ich mich recht erinnere, hat es damals geschneit. Hätte ich gegen das Gesetz gestimmt, hätte es zwar keinen großen Unterschied gemacht, aber ich hätte es besser wissen müssen.

Es hat sich herausgestellt, dass dieses Gesetz anders als die häufig symbolische Gesetzgebung, die durch das Parlament gewunken wird, echte Konsequenzen hatte.

Der Climate Change Act hat die Energiepreise nach oben schnellen lassen, hat die Haushalte ausgepresst und die wirtschaftliche Erholung sogar noch schwerer gemacht.

Ziel des Climate Change Act war, eine Low-Carbon-Wirtschaft zu erzeugen. Ich fürchte, das Gesetz wird genau das erreichen, aber vielleicht nicht so, wie sich das dessen Initiatoren vorgestellt haben.

Der Climate Change Act verschafft uns eine Low-Carbon-Economy der Art und Weise, wie es in Britannien in der vorindustriellen Zeit der Fall war.

Die Kürzung der Kohlenstoff-Emissionen um 26% bis zum Jahr 2020 – den das Gesetz verlangt – bedeutet im Endeffekt, dass die Energiekosten so stark steigen, dass einige sich das nicht mehr leisten können. Wie kann man so etwas Fortschritt nennen?

Das Gesetz sorgt für steigende Preise. Anstatt dass die Energieerzeuger im Wettbewerb stehen, um Haushalte und Industrie mit einem Produkt zu versorgen, das sie bezahlen können, führt die Gesetzgebung ein System der starren Preise ein. Die Versorger schwenken um auf „erneuerbare“ Energiequellen, und der Endverbraucher zahlt.

Eine unverantwortliche QUANGO [=quasi-autonomous non-governmental organisation], das Committee on Climate Change – ist drauf und dran, die Energiepolitik genauso zu bestimmen wie es die Zentralbankiers jetzt mit der Geldpolitik machen.

Das Vorbild ist kein Gutes. Adair Turner, oberster Boss bei der Financial Service Authority, war deren Vorsitzender.

Die Tragödie dabei ist, dass es nicht so sein muss. Technische Innovationen zeigen neue Wege der Erschließung riesiger Mengen fossilen Öls. Mit unserem zunehmenden Verständnis scheint der Gedanke, dass menschliche Aktivitäten allein für den Klimawandel verantwortlich sind, viel weniger gewiss als früher. Außerdem hat sich herausgestellt, dass Windturbinen erneuerbar sind in der Hinsicht, dass sie alle 25 Jahre ausgetauscht werden müssen – oder sogar alle 15 Jahre.

Viel zu oft wird die öffentliche Politik in Whitehall von rückständigen Gedanken und Vermutungen beeinflusst – die sich als falsch herausstellen.

Nirgends ist das in stärkerem Maße der Fall wie in der Energiepolitik. Es ist an der Zeit für ein grundlegendes Überdenken der Energiepolitik – am Besten mit dem Eingeständnis, dass das Gesetz aus dem Jahr 2008 der völlig falsche Weg war.

Douglas Carswell

Link: http://www.talkcarswell.com/home/i-was-wrong-about-the-climate-change-act/2607

Übersetzt und mit einer Einführung versehen von Chris Frey EIKE




EIKE ist wieder online! Hackerangriff erfolgreich abgewehrt!




Eisenbahningenieur Pachauri vom IPCC räumt ein: ‚keine globale Erwärmung seit 17 Jahren‘

Die Aufzeichnungen des Hadley Centre/CRU zeigen keine Erwärmung seit 18 Jahren (v.3) oder 19 Jahren (v.4), und der Datensatz des RSS-Satelliten zeigt seit 23 Jahren keine Erwärmung (Dank an Werner Brozek für die Bestimmung dieser Werte).

 Christopher Monckton of Brenchley auf der UNEP Sitzung in DOHA Dezember 2012

Ingenieur Pachauri sagte, dass die Erwärmung „30 oder 40 Jahre mindestens“ pausieren müsse, um den langzeitlichen Erwärmungstrend zu unterbrechen. Allerdings haben die führenden Klimamodellierer der Welt im State of the Climate-Bericht der NOAA im Jahr 2008 geschrieben, dass 15 oder mehr Jahre ohne Erwärmung eine Diskrepanz zwischen den Modellen und der beobachteten Realität darstellen würden.

The Australian berichtet: Dr. Pachauri… sagte, dass eine offene Diskussion über kontroverse Wissenschaft und politisch inkorrekte Ansichten ein wesentlicher Bestandteil waren, gegen die Klimaänderung vorzugehen.

„In einem breit angelegten Interview über Themen, unter denen auch die Rekord-Eiszunahme dieser Saison in der Arktis, die Schiefergas-Revolution in den USA, der Kollaps der Subventionen für erneuerbare Energien in ganz Europa und der in sich zusammenfallende Kohlenstoffmarkt waren, sagte Dr. Pachauri, dass kein Thema in der öffentlichen Diskussion außen vor gelassen bleiben sollte.

Während eines 24-Stunden-Besuchs für eine Vorlesung an der Deakin University in Melbourne sagte Dr. Pachauri, dass die Leute das Recht hätten, die Wissenschaft zu hinterfragen, unabhängig von ihren Gründen.

‚Die Leute müssen diese Dinge in Frage stellen, und Wissenschaft entwickelt sich nur auf der Basis von Fragen‘, sagte Dr. Pachauri.

Er sagte, dass es ‚keinen Zweifel darüber gebe’, dass es für kontroverse Themen gut ist, wenn ‚sie hinaus in die öffentliche Arena geworfen würden‘.

Die Ansichten Dr. Pachauris kontrastieren mit Aussagen in Australien, denen zufolge über Ansichten, die außerhalb der orthodoxen Position der anerkannten Wissenschaftler stehen, nicht berichtet werden sollte.

Anders als in UK gab es in Australien nur wenig Publicity zu jüngsten Äußerungen von Spitzengremien der Klimawissenschaft in UK und den USA, dass es eine 17 Jahre lange Pause bei der globalen Erwärmung gegeben habe. Das Met. Office in UK hat seine eigene Vorhersage eines globalen Temperaturanstiegs nach unten korrigiert und sagte keine weitere Zunahme bis zum Jahr 2017 vorher. Dies würde die Pause auf 21 Jahre verlängern“.

Quelle: http://www.theaustralian.com.au/news/nothing-off-limits-in-climate-debate/story-e6frg6n6-1226583112134

Angesichts der Tatsache, dass das IPCC sich sehr viel mehr Gedanken darüber macht, die Propaganda-Mühle ordentlich zu drehen, als über die Durchführung von Klimawissenschaft sollte man den Ansichten von Ingenieur Pachauri mit gesundem Misstrauen begegnen.

Immerhin haben sich die Bürokraten entschlossen, nicht länger so zu tun, als ob meine Aussage bzgl. der 16-jährigen Pause falsch sei. Das kann man nicht mehr in die Flasche zurück drücken. Also haben sie beschlossen, sich auf n Jahre ohne Erwärmung zu stürzen, so dass sie, wenn ein kleiner Knick nach oben die Periode ohne Erwärmung zu einem Ende bringt, geschickt die Tatsache übergehen können, was wirklich bei der zunehmenden und jetzt akut empörenden Diskrepanz zwischen vorhergesagten und beobachteten langzeitlichen Erwärmungstrends eine Rolle spielt.

Irgendwann – wahrscheinlich ziemlich bald – wird es zu einem El Niño kommen, und die globale Temperatur wird wieder steigen. Daher wären wir gut beraten, uns nicht nur auf das Fehlen einer Erwärmung für n Jahre zu konzentrieren, sondern auch auf die wachsende Diskrepanz zwischen der längerzeitlichen, vom IPCC vorhergesagten Erwärmung und der tatsächlichen Rate der letzten 60 Jahre oder so.

Seit dem Jahr 1950 hat sich die Erde mit einer Rate äquivalent zu etwas mehr als 1°C pro Jahrhundert erwärmt. Und doch liegt die zentrale Projektion des IPCC bei einem drei mal so hohen Wert für dieses Jahrhundert. Wir sollten unser Augenmerk auf diese fundamentale und andauernde Diskrepanz richten, die eine vorübergehende Unterbrechung der langen Zeit ohne globale Erwärmung überdauern wird, die die Main Stream-Medien einst so lange zu verbergen versuchten.

Dies bedeutet, dass die Versuche der UN, mich von künftigen jährlichen Klima-Plauderstündchen fernzuhalten, um den Delegierten zu sagen, es hat seit 16 Jahren keine Erwärmung gegeben, scheitern werden, weil es schon bald keine jährlichen Klima-Plauderstündchen mehr geben wird, von denen man mich fernhalten müsste.

Link: http://wattsupwiththat.com/2013/02/22/ipcc-railroad-engineer-pachauri-acknowledges-no-warming-for-17-years/

Übersetzt von Chris Frey EIKE




Sind Ressourcen endlich? Eine Zeitreise in die Welt der Rohstoffe

Nachhaltigkeit ist ein sehr populäres Schlagwort.

Wir müssen nachhaltig wirtschaften, nicht mehr verbrauchen, als nachwächst und wenn nichts nachwächst, müssen wir sparen. Wirklich? Waren Mammutjäger nachhaltig? Naturverbunden, ernteten sie einen ‘nachhaltigen’ Rohstoff, eben Mammuts. Wenn sie nicht mehr verbrauchten als nachwuchs, waren sie, wie zum Beispiel Wölfe, noch Teil der Natur und kein verschlingender Parasit – so ähnlich mag es sich ein romantischer Geist zusammen reimen. Leider starben aber die Mammuts aus. Also doch kein nachhaltiges Wirtschaften? Oder Schicksal? Wohl beides. Der natürliche Klimawandel änderte die Fauna sicherlich in der frühen Steinzeit erheblich. Aber auch die Menschen trugen ihren Teil bei.

Tatsächlich verschwanden mit dem Auftauchen des Menschen auffallend viele Großsäuger für immer. Sie wurden ausgerottet. Aber es gab immer noch Menschen und weil sie ihre Nahrungsquellen wechselten, überlebten sie ‘Peak Mammut’ problemlos.

Ein nachwachsender Rohstoff

He that shall live this day, and see old age,
Will yearly on the vigil feast his neighbours,
And say ‘To-morrow is Saint Crispian.’
Then will he strip his sleeve and show his scars,
And say ‘These wounds I had on Crispian’s day.’
(Shakespeare, Henry V.)

 

Am St. Crispinstag (25. Oktober) des Jahres 1415 starben die stolzen Ritter des französischen Adels in der Schlacht von Agincourt im Pfeilhagel der englischen Langbogenschützen. Die Bögen, die bis zu 400 Meter weit schiessen konnten und deren Pfeile Rüstungen durchbohrten, waren aus Eibenholz.

Schon ‘Ötzi’ trug einen solchen Bogen. In unseren Breiten liefert kein anderer Baum ein besseres Material für das Verschiessen von Pfeilen. Da sowohl die Jagd als auch der Kampf überlebenswichtig war, hatten Eiben einen hohen Wert. Der Baum wächst sehr langsam, Raubbau hätte fatale Folgen gehabt. Deshalb gab es schon sehr früh Schutzgesetze. Sie waren, der Zeit entsprechend, radikal: Auf Eibenfrevel stand manches mal der Tod!

Wer im Mittelalter einen Eibenwald besaß, war ein reicher Mann; solch ein Wald war genau so wertvoll wie später eine Kanonengießerei. Die Bäume durfte ein einfacher Holzhauer gar nicht fällen; dafür wurden spezielle Eibenhauer ausgebildet.

Da Eiben sehr langsam wachsen, sie haben eine Umtriebszeit von 250 Jahren, war so ein Wald auch eine besonders markante Zukunftsvorsorge für nachfolgende Generationen. Also geradezu der Traum eines jeden Ökologisten, wenn man einmal davon absieht, dass in diesen Wäldern Waffen heranwuchsen. Ganz sicherlich konnte sich auch niemand, der einen Eibensetzling pflanzte, vorstellen, dass seine Vorsorge in 250 Jahren vielleicht gar nicht mehr gebraucht würde.

Wir wissen das natürlich besser.

Die Feuerwaffen waren dem Langbogen überlegen, eine neue Technologie machte die Eibe überflüssig. Ein Setzling, der im Jahr der Schlacht von Agincourt gepflanzt wurde, war im Jahr seiner Reife, 1665, bereits ein Anachronismus.

Nicht so ganz auf der Hand liegt, dass dieser Rohstoff, obwohl nachwachsend, eine Sackgasse darstellte. Das begrenzte Rohstoffpotential führte nicht zu einer entspannten und sorgenlosen Lage, wie er von den Verfechtern der Selbstgenügsamkeit gewissermaßen als Lohn versprochen wird, sondern zu einem stetem Empfinden des Mangels. Die Abhängigkeit von einer begrenzten Rohstoffquelle wurde als Hindernis empfunden, weil Gesellschaften niemals statisch sind; es ist geradezu ein Naturgesetz, dass sie nach dynamischer Expansion verlangen. Gesellschaften handeln nicht anders als eine Schimmelpilzkolonie, sie wollen den gesamten verfügbaren Lebensraum so rasch und effizient wie möglich besetzen und ausnützen und stehen dabei in Konkurrenz mit anderen Gesellschaften. Sie können nicht ‘zufrieden’ sein! Jeder limitierende Faktor wird als Hindernis betrachtet und es werden Wege gesucht, dieses Hindernis entweder zu umgehen oder zu überspringen.

Daraus erwächst ‘Fortschritt’

Zum zweiten führte der Mangel an dem begehrten Rohstoff zu restriktiven Gesetzen und damit zu einer Einschränkung der persönlichen Freiheit. Anders als gewöhnliche Bäume war die Eibe etwas, das man nicht einmal mit Geld so ohne weiteres erwerben konnte, weil ‘höhere’ Interessen der Herrschenden hinein regierten.

Knappheit ist freiheitsfeindlich und tatsächlich ist es geradezu ein typisches Merkmal autoritärer und totalitärer Gesellschaftsordnungen dass sie Knappheit sogar bewusst erzeugen, um durch die Kontrolle über die Zuteilung ihre Untertanen zu belohnen oder zu bestrafen und damit zu beherrschen. Die Parallele zur künstlichen Verknappung und Verteuerung von Elektrizität in unseren Tagen liegt auf der Hand.

Typisch für eine Mangelverwaltungsgesellschaft waren auch die vielfältigen Privilegien und Zuteilungen in den ‘sozialistischen’ Staaten; vom Telefon bis zur Urlaubsreise wurden die natürlichen Wünsche der Untertanen als Disziplinierungsinstrument eingesetzt.

Doch halten wir fest: Nachwachsende Rohstoffe sind keineswegs eine Lösung für Probleme und vor allem keine Zukunftsversicherung für anhaltenden Wohlstand oder auch nur Zufriedenheit. Ganz im Gegenteil ist eine auf solche Art selbstgenügsame Gesellschaft letztendlich zum Untergang verurteilt, weil fortschrittlichere Konkurrenten früher oder später die Oberhand gewinnen und die gesellschaftliche Basis entwerten. Grund dafür ist die Dynamik der menschlichen Entwicklung oder ganz einfach gesagt der ‘Fortschritt’.

Ein begrenzter Rohstoff

Nur sehr selten kommt es vor, dass sich aus der reichlich im Boden liegenden Kohle auf natürlichem Weg Graphit bildet. Im 18, Jahrhundert war in Europa nur eine einzige Lagerstätte für hochwertigen Grafit bekannt: Die Minen von Borrowdale in England. Diese Minen wurden – wenn man die ökologistische Weltsicht zugrunde legt – in geradezu vorbildlicher Weise verwaltet.

Es stellte sich nämlich heraus, dass der Graphit von größter, sogar staatswichtiger Bedeutung war. Man fand, dass dieser Stoff ein eminent nützliches Hilfsmittel für den Eisenguss darstellte, denn Gießformen, die mit Grafit bestäubt wurden, lieferten glattere und fehlerfreiere Abgüsse. Dazu wird Graphit übrigens heute noch verwendet. Besonders wichtig war diese Eigenschaft beim Guß von Kanonenkugeln, die selbstverständlich möglichst glatt, rund und fehlerfrei sein müssen. Wachmannschaften sicherten die Minen und nur zu bestimmten Zeiten wurden streng kontrollierte Mengen entnommen und auf den Markt gebracht (Allerdings hatte das vorwiegend ökonomische Gründe). Hier wurde also ‘Nachhaltig’ gedacht und gehandelt.

Wieder ist aus unserer heutigen Sicht eines sofort offensichtlich: Was gestern noch knapp war, muss nicht knapp bleiben; Graphit ist heutzutage ein billiger, im Überfluss verfügbarer Stoff den man künstlich in viel besserer Qualität herstellen kann als die Erde ihn natürlich liefert und die Royal Navy braucht keine eisernen Kanonenkugel mehr, sie schießt längst mit ganz anderen Geschossen. Die Sparsamkeit, so naheliegend sie auch scheinbar war, erwies sich also aus sogar zweierlei Gründen als gänzlich unnötig.

Man kann dies als Beispiel nehmen, dass der ökologistische Katechismus, der äusserste Sparsamkeit mit begrenzten Rohstoffen befiehlt, um auch den kommenden Generationen noch etwas zu hinterlassen, völlig an der historischen Realität vorbei geht, weil die kommenden Generationen den Rohstoff aus anderen Quellen viel besser decken können und/oder für den vorgesehenen Zweck überhaupt nicht mehr brauchen.

Diese historische Lektion lädt aber zu einer ganz grundsätzlichen Überlegung ein, die das ‘Vorsorgeprinzip’ völlig ad absurdum führt.

Ein begrenzter Rohstoff muss selbst bei sparsamsten Verbrauch unweigerlich einmal erschöpft sein. Sparsamkeit ist also langfristig auf jeden Fall nutzlos und ganz bestimmt keine ‘nachhaltige’ Lösung sondern bestenfalls nur ein hinauszögern des unvermeidlichen Endes. ‘Nachhaltig’ wäre allein der VOLLSTÄNDIGE Verzicht, denn nur dann würden auch in fernerer Zukunft noch Vorräte da sein. Da diese Pflicht zum vollständigen Verzicht aber gewissermaßen vererbt werden müsste, hätte letztendlich KEINE Generation einen Nutzen davon!

Man kann sich das anschaulich machen, wenn man sich einen Menschen mit einem begrenzten Nahrungsmittelvorrat ansieht: Ganz egal wie sparsam er ist, muss er doch letztendlich verhungern. Da kann er die Rationierung auch gleich lassen, sie nützt ihm gar nichts. Die einzige echte Vorsorge ist die Suche nach neuen Nahrungsquellen und wenn er zu dem Zweck reichlich ißt, um bei vollen Kräften Ausschau zu halten, ist das eine gute und tatsächlich die einzig richtige Investition.

Halten wir fest: Es hat sich nicht nur in der Praxis erwiesen, sondern es ist sogar mathematisch beweisbar, dass es unsinnig ist mit irgend einem Rohstoff sparsam umzugehen; Obwohl dieses Verhalten naheliegend zu sein scheint, ist es völlig unlogisch und sogar kontraproduktiv.

Abfall?

Wat den einen sin Uhl is den andern sin Nachtigal

 

In Deutschlands öffentlicher Meinung geistert ein Popanz: Das ominöse ‘Endlager für Kernbrennstäbe’, das angeblich fehlt und gar nicht möglich sei. Man könne schon aus dem Grund nicht für Kernkraft sein, weil es unmöglich ist, grosse Mengen hochaktiver und höchst gefährlicher radioaktiver Abfälle über -zigtausende von Jahren sicher zu lagern. Niemand hinterfragt, ob das denn wirklich Abfall ist. Dabei wäre das höchst naheliegend.

Das Erzgebirge (nomen est omen) war einmal von grösster Bedeutung für die Gewinnung des wertvollen Metalls Zinn, das insbesonders zur Bronzeherstellung unentbehrlich und daher sehr wertvoll war.

Die damaligen Bergleute waren verständlichweise gar nicht glücklich darüber, dass das Zinnerz häufig mit einem Mineral verunreinigt war, das die Verhüttung sehr erschwerte. ‘Wie ein Wolf’ fraß es ihre wertvolle Ausbeute. ‘Wolfert’ nannten sie es daher und warfen es weg, auf die Abraumhalden, denn es war zu nichts nutzbar. Es dauerte sehr lange, bis man erkannte, was in diesem Mineral steckte. Am Ende des 18. Jahrhunderts wurde das Wolfram in ihm entdeckt, der Name ging vom Mineral auf das chemische Element über.

Wolfram ist ein einzigartiges Metall, extrem schwer (fast dreimal so dicht wie Eisen) und mit dem höchsten Schmelzpunkt aller Metalle, fast unvorstellbare 3420 °C (Eisen schmilzt schon bei 1600°C)! Dazu ist es in Legierungen auch noch äusserst hart.

Diese Eigenschaft überträgt es auf seine Legierungen und dadurch gelang es, Stähle mit einzigartigen Fähigkeiten zu schaffen. Normalerweise wird Stahl schon bei mehreren hundert Grad merklich weicher. Wolframstähle aber behalten ihre ohnehin ausserordentlich hohe Härte sogar noch wenn sie bereits glühen, sie sind ‘warmfest’.
Zusammen mit anderen Legierungselementen, die die Zähigkeit und Schnitthaltigkeit verbessern, entstanden damit die ‘Hochleistungs Schnell Stähle’ oder HSS-Stähle. Zur Bearbeitung extrem harter Stoffe wurde eine weitere Klasse von Werkstoffen entwickelt, die WIDIA (‘Wie Diamant’) ‘Stähle’, die eigentlich ein Verbundwerkstoff sind: Ultrahartes Wolframcarbid wird in eine Matrix aus Kobalt eingesintert. Sie sind tatsächlich sogar dem Diamant überlegen, obwohl sie nicht ganz so hart sind, denn sie sind elastischer und können daher eine höhere Arbeitsgeschwindigkeit als selbst Diamanten erreichen, ohne zu brechen.

Trotz der massiven Kühlung erreichen die Schneiden so einer Fräse Betriebstemperaturen von 600 °C. Gewöhnlicher Hartstahl würde dadurch seine Härte verlieren und sehr rasch verschleißen.

Das hat eine enorme Bedeutung bei der spanenden Bearbeitung von Stahl, z. B. auf einer Drehbank. Das Spanen erzeugt Wärme, sehr viel Wärme sogar. Arbeitet man mit hohem Tempo, werden die Werkzeuge glühend heiß. Normaler Stahl hält das nicht aus, er wird weich und man muss langsamer arbeiten um das zu vermeiden.

Nun sind Werkzeugmaschinen aber sehr teuer. Wenn man die Arbeitsgeschwindigkeit erhöht, wird das Werkstück billiger. Wolfram-Werkzeuge können die Geschwindigkeit auf das Dreifache erhöhen! Deshalb ist die moderne Industrie ohne Wolfram kaum denkbar: Wolfram ist ein ‘strategisches’ Metall das für die Überlebensfähigkeit von Nationen heute eine mindestens so große Rolle spielt wie einst das Zinn als unersetzliche Zutat zur Bronze, aus der Geschütze, die ‘ultima ratio regum’* gegossen wurden. Noch in den letzten Kriegsmonaten des II Weltkriegs fuhren deshalb deutsche U-Boote um die halbe Welt bis nach Japan, um wenigstens einige Tonnen dieses Metalls durch die Blockade zu bringen.

Aus Abfall wird Rohstoff

Aber die ersten industriellen Quellen für das Wolfram waren die Abraumhalden der mittelalterlichen Zinnbergwerke, auf die die Bergleute einst das schädliche Wolframit als Abfall warfen. Wolfram zeigt wie kaum ein anderer Stoff, wie wandelbar die Begriffe ‘Abfall’ und ‘Rohstoff’ sind. Man darf nichts als gegeben annehmen weil es heute so ist. Es war in der Vergangenheit anders und es wird in der Zukunft anders sein, unsere Technologie ist NICHT das ende. Aller Voraussicht nach stehen wir immer noch erst am Anfang der Technologischen Revolution, die mit der Einführung der Dampfmaschine begann. Unsere Nachkommen in hundert Jahren werden unsere Welt als genau so primitiv, unwissend und rückständig ansehen, wie wir die Zeit zu Beginn des 20. Jahrhunderts, als Pferde noch das Hauptverkehrsmittel waren, als Zeppeline und winzige Flugzeuge die ersten zaghaften Versuche zur Eroberung der Luft machten, als Telegramme, die mit Morsezeichen übermittelt wurden, als Wunder der Technik galten und die Kernspaltung reine Utopie war.

Mit Sicherheit können wir jedoch heute schon sagen, dass ein ‘Abfall’ unserer Welt sich zu einem wertvollen Rohstoff wandeln wird, denn dieser Prozess ist bereits im Gang: Abgebrannte Brennelemente aus unseren Leichtwasser-Reaktoren werden ein wertvoller Brennstoff für Kernreaktoren der nächsten Generation werden. Der Streit um ein ‘Endlager’ ist absurd, da überhaupt kein Endlager benötigt wird. Reaktoren, die auf dem Prinzip der ‘schnellen Neutronen’ beruhen, hinterlassen keinen Abfall, der lange strahlt, sie verbrennen in nuklearen Kettenreaktionen alle Elemente der Gruppe der Actiniden, insbesonders Plutonium und Americium und nur diese Actiniden sind problematisch, da sie die sogenannte mittelaktive Fraktion bilden: Hohe Radioaktivität kombiniert mit langer Lebensdauer. Was dann doch noch als ‘Abfall’ übrig bleibt, ist schon nach 200 Jahren so weit abgeklungen, dass es keinerlei Gefahr mehr darstellt.

Die Legende vom ‘Atommüll’

 

In diesem Lager in Paducah, Ky. liegen tausende Tonnen abgereichertes Uran (Depleted Uranium DU). Es ist viel zu wertvoll, um daraus panzerbrechende Munition zu machen

Zu den Actiniden gehört auch das Uran selbst. Da Leichtwassser-Reaktoren auf das Isotop 235U angewiesen sind, das aber im natürlichen Uran nur zu 0,72% enthalten ist, muss das Uran angereichert werden. Als ‘Abfall’ entstanden riesige Mengen 238U, das für die Spaltung nicht geeignet ist. In den ‘schnellen’ Reaktoren verbrennt es aber sehr wohl!

Diese ‘Abfälle’ enthalten so viel Energie, dass die USA mit ihren gelagerten Mengen 3000 Jahre lang ihren gesamten Elektrizitätsbedarf decken könnten.

Reaktoren dieser Bauart sind in China bereits keine Zukunftsmusik mehr. Nach Angaben der World Nuclear Association ist geplant:

Etwa um 2040 sollen Leichtwasser-Reaktoren [Das sind die, die wir auch in Deutschland haben] bei einem Erzeugungslevel von 200 GWe stagnieren [Das entspricht etwa 150 deutschen KKW] und ‘schnelle’ Reaktoren [Gemeint ist die Bauart IFR Integral Fast Reactor] sollen ab 2020 mit wachsenden Zubauraten auf eine Leistung von 200 GWe bis 2050 und 1400 GWe bis 2100 ausgebaut werden.

Zum Vergleich: Die gesamte Stromleistung Deutschlands liegt bei 80 GWe

Fazit

Niemals in der Geschichte der Menschheit wurde ein Rohstoff wirklich dauerhaft knapp. Als die Eiben, trotz aller Vorsorge, immer weniger wurden, wurden sie gar nicht mehr gebraucht. Weil Grafit knapp war, wurden synthetischen Verfahren erfunden die ihn zu einem billigen Massenprodukt machten.

Auch das wichtigste Metall der modernen Industrie, Wolfram, wird niemals knapp, weil Ersatz bereits vorhanden ist: Hochfeste und ultraharte Keramiken (Bornitrid und synthetischer Sinterdiamant sind bereits in der Praxis eingesetzt) können seinen Platz einnehmen. Momentan sind sie noch zu spröde um HSS zu verdrängen; sie verlangen deshalb auch steifere und präzisere und damit teurere Maschinen, aber das ist nur eine Zeitfrage und je knapper Wolfram wird, desto mehr wird sich die Entwicklung beschleunigen. Die Keramiken, die Wolfram ersetzen, werden uns aber auch Turbinen und Verbrennungsmotoren mit heute fantastischen Wirkungsgraden bescheren, weil sie weitaus höhere Betriebstemperaturen bei weniger Gewicht und daher auch noch höheren Drehzahlen versprechen.

Knappheit hat stets ‘Ersatz’ hervorgebracht, der aber nicht minderwertiger oder teurer, sondern im Gegenteil auch stets ein Fortschritt in jeder Hinsicht war. Nur deshalb geht es jetzt 7000 Millionen Menschen auf der Welt besser als 700 Millionen vor 300 Jahren. Wir müssen uns stets vor Augen halten, dass der Istzustand der Technologie im stetigen Fluß ist und morgen sich von heute genau so unterscheiden wird wie gestern von heute. Das wir völlig außerstande sind, weiter als höchstes etwa 50 Jahre zu planen, ist sehr leicht zu zeigen:

Welche ‘Vorsorgen’ hätte denn ein Mensch im Jahr 1913 für uns treffen können und welche hätte er wohl gewählt?

Alles, was ihm kostbar und knapp erschienen sein mag, ist für uns Tinnef, wertloser Plunder.

Hätte er Energie sparen sollen?

Damals war Kohle die unangefochtene Nummer eins und die wurde im Ruhrgebiet gefördert. Wir haben aber keine Knappheit an Ruhrkohle, wir versuchen im Gegenteil die Schächte möglichst schnell zu schliessen, obwohl da noch genug liegt. Wir brauchen das Zeug einfach nicht! Aussserdem verbrauchen wir rund 10 x mehr Energie als er. Wenn er sich unter grössten Opfern 50% seines Bedarfs abgespart hätte, wäre das für uns nur ein Tropfen auf dem heissen Stein.

Hätte er die Stadtplanung schon mal ‘vorsorglich’ gestalten sollen?

Damals gab es allen ernstes die Besorgnis, weiter wachsende Städte würden unweigerlich im Pferdemist der vielen Fuhrwerke ersticken, die zur Versorgung notwendig seien. Vorgeschlagen wurden daher große Kanäle, um den Mist wieder auszuschwemmen. Auch ein ziemlicher Flop….

Dann gab es damals den Glauben, nur Völker mit Kolonialbesitz hätten eine Zukunft. Deshalb wurde ‘vorgesorgt’, in Gestalt einer Kriegsflotte die den ‘Platz an der Sonne’ sichern sollte, aber schon im Folgejahr 1914 Mitauslöser des Weltkriegs wurde ohne dass sie je ihren Zweck auch nur annähernd erfüllen konnte. Aber machen wir es kurz:

Niemals in der Geschichte der Menschheit hat eine längerfristige ‘Vorsorge’ irgendwelche positiven Früchte getragen. Oder kennen SIE ein Beispiel, das dies widerlegt?

Tatsächlich waren immer die Gesellschaften im Vorteil die pragmatisch die Gegenwartsprobleme anpackten und sich mit grösstmöglicher Flexibilität dem Tagesgeschäft widmeten und ansonsten eigentlich nur ein Prinzip gelten liessen: Freiheit.

Denn Freiheit heisst Pluralität und ist das Gegenteil von Lenken. Lenken geht von der falschen Prämisse aus, dass Zukunft vorhersehbar sei. Lenker handeln wie Kapitäne, die den Kurs der Eisberge ‘wissenschaftlich’ vorausberechnen und dann ohne Ausguck mit Volldampf in den Nebel fahren; Bei Beginn der Reise mag das noch einigermassen funktionieren, doch je länger sie dauert, desto sicherer wird es zu einer Kollision kommen. Klüger ist der Kapitän, der nicht versucht, mittels einer Glaskugel über den Horizont zu sehen, sondern auf den Ausguck hört und schnell den Kurs ändert, wenn ein Eisberg in Sicht kommt. Das kann manches mal knapp zugehen und es gibt auch mal Schrammen, aber genau so haben wir das Schiff bisher erfolgreich gelenkt seit wir von den Bäumen gestiegen sind.

Das Verführerische an den ‘Lenkern’ ist, dass die Koordinierung und Gleichschaltung tatsächlich für kurze Zeit einen klaren Vorteil bringen kann und diese scheinbaren Erfolge blenden**. Doch Prognose und Realität driften unweigerlich immer mehr auseinander und unweigerlich werden die Kosten der Fehlentscheidungen immer höher und der Gewinn immer kleiner.

Sehr praktisch lässt sich das auch aus der Evolutionstheorie ableiten: Es sind nicht die hocheffizienten Spezialisten, die auf Dauer überleben, sondern die Universalisten, die zwar nichts richtig gut können, aber von allem ein bisschen und die daher hochflexibel alle möglichen Nischen und Gelegenheiten ausbeuten können. Dazu muss aber bei Gemeinschaften die grösstmögliche Freiheit für den einzelnen gegeben sein. Und das ist dann auch die einzige Zukunfts-Vorsorge, die wirklich Sinn macht.

*’Letztes Wort der Könige’. Diesen Wahlspruch liess Friedrich II von Preußen auf seine Kanonen prägen.

** Weit öfter allerdings sind es Erfolge ‘auf Pump’, wie zum Beispiel Hitlers Rüstungsboom, der auf Wechselreiterei (‘MEFO-Wechsel’) beruhte.

 Nachtrag:

Ein früherer Kommentar von FK9 Pilot beschreibt in gleicher Weise die Wandlung des Rohstoffs ‘Salz’. Er ist so treffend, dass er hier mit dazu gehört:

Im Mittelalter war Salz ein knappes und teures Gut, die Nachfrage konnte damals kaum durch das Angebot dieses lebenswichtigen Minerals befriedigt werden. Ganze Städte und Infrastrukturen verdanken dem Salz ihre Existenz. Für Salz wurde gemordet und es wurden Kriege geführt. Die damals erschließbaren Salzressourcen waren durch die kaum vorhandenen Gewinnungstechnologien beschränkt. Die Nachfrage stieg durch die zunehmende Bevölkerung sowie die beginnende Urbanisierung.

Mit der Industrialisierung nahm die Bevölkerung exponentiell zu, als linear-denkend, beschränkter Mensch müsste man eigentlich gen Roma gezogen und dort einen Club gegründet haben, weil ja proportional zur Weltbevölkerung auch der Salzbedarf exponentiell hätte steigen müssen. Hilfe, wir müssen gegensteuern, Salz sparen sonst versalzt die Erde und die Reserven reichen — na — wie immer nur noch für 40 Jahre.

Dennoch kam es nie zu “Peak Salt”. Warum nicht? Nun ganz einfach: Schon Anfang des 17. Jahrhunderts entwickelte man erste Technologien zur industriellen Erzeugung von Salz, indem man Sole über Pumpsysteme transportieren lies und erste industrielle Herstellungsformen entwickelte. Die industiellen Abbau von Salzstöcken in größerer Tiefe, der Salz zum Pennystock machte konnte man sich damals allerdings noch kaum vorstellen, genau so wenig, wie Wilhelm II sich vortellen konnte, Elektrizität nicht aus Kohle, sondern aus der Spaltung von Atomen gewinnen zu können.

Und: Hätte es damals schon Nachhaltigkeitsapologen gegeben, die mit geschürter Angst vor Bodenversalzung (50-50% Chance) gefordert hätten, das Salz im Meer bzw. im Boden für zukünftige Generationen zu belassen, hätte es zwar Millionen Tote wegen Lebensmittelvergiftungen bzw. Nahrungsmittelknappheit gegeben, man hätte zukünftigen Generationen (Uns) aber nicht genützt, da diese (Wir, damals kaum vorstellbare) Kühltechniken entwickelt haben, die Pökelfleisch allenfalls noch zur exotischen Delikatesse, aber nicht zur Kerntechnologie der Haltbarkeitsmachung degradierten — und das alles, weil wir inzwischen genügend Energie haben (hatten).

“Peak Irgendwas” ist immer vor allem “Peak Brain” eines Teiles einer Generation, also die fehlende Vorstellungsgabe, dass zukünftige Generationen völlig andere Lösungswege beschreiten werden, in unserem eigentlichen Kontext also völlig auf Erdöl oder Gas verzichten können werden, dieser Ressourcen also gar nicht bedürfen, diese also gar keine Ressourcen mehr darstellen.

Autor: Tritium; zuerst erschienen auf Science Sceptical am 23.2.13 

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):

•    Wasser: Eine unendliche Ressource (von Christian Strunden)

•    Die Ressourcen und das Primat der Technologie

Und wieder wird eine neue Sau durchs Dorf getrieben – Der Dioxinskandal




Es ist die Sonne, Dummkopf – die geringe Bedeutung des CO2

…basieren auf dem einfachen Gedanken, der im AR 4 des IPCC festgeschrieben worden ist:

„Wir folgern, dass die globale mittlere Gleichgewichts-Erwärmung bei Verdoppelung des CO2-Gehaltes – oder die ‚Gleichgewichts-Klimasensitivität’ wahrscheinlich bei 2°C bis 4,5°C liegt mit einem wahrscheinlichsten Wert bei 3°C. Die Gleichgewichts-Klimasensitivität ist sehr wahrscheinlich größer als 1,5°C“

Diese Werte können nur durch die Übernahme von zwei vollständig unbegründeten und tatsächlich unlogischen Hypothesen und Prozeduren erreicht werden:

1. CO2 wird einfach als der Hauptklimatreiber betrachtet. Dies ist ganz klar unlogisch, weil in allen Zeitbereichen Änderungen des CO2-Gehaltes Änderungen der Temperatur hinterher laufen.

2. Positive Rückkopplungen der anderen Treibhausgase – vor allem Wasserdampf und Methan – werden dann den Auswirkungen des CO2 hinzuaddiert und diesem zugeordnet. Offensichtlich sind die CO2- und Feuchtigkeits-Zunahme in der Natur an steigende Temperaturen gekoppelt. Es ist auch möglich, eine insgesamt positive Rückkopplung zu haben, weil Systeme mit einer totalen positiven Rückkopplung nicht stabil sind und sich einfach immer weiter verstärken bis hin zur Katastrophe. Wir wären nicht hier, wenn das stimmen würde.

Seit seiner Gründung war es die Aufgabe des IPCC, die anthropogene Klimaänderung zu messen, und tatsächlich wurde die Klimaänderung als anthropogen definiert bis zum SREX-Bericht aus dem Jahr 2011, wonach die Definition verändert worden ist. Die Gemeinschaft der Klimawissenschaftler richteten ihre Modelle einfach so aus, dass die politischen Anforderungen der Geldgeber erfüllt wurden. – Es war unwahrscheinlich, dass Veröffentlichungen, akademische Positionen, gutachterliche Bestätigungen, Vorankommen in den jeweiligen Instituten und Zuwendungen ohne pflichtgemäße und geeignete Vorhersagen einer katastrophalen Erwärmung darin Beachtung und Förderung erfahren würden. Die Klimamodelle stecken voller ungeheuerlicher struktureller Fehler, und – schlimmer noch – in ihren Abschätzungen der Unsicherheiten hat das IPCC in seinen Berichten für politische Entscheidungsträger diese strukturelle Unsicherheit einfach ignoriert und der allgemeinen Öffentlichkeit ein völlig falsches Bild hinsichtlich der Genauigkeit ihrer Temperaturvorhersagen vermittelt. Es ist dieser Aspekt bei AGW, der besonders skrupellos ist.

Die Unzulänglichkeit, um nicht zu sagen Hirnverbranntheit der Klimamodelle kann man einfach durch Betrachten der folgenden Abbildung 2-20 aus dem AR 4- Bericht (WG 1) ablesen:

Bild_1: aus dem AR 4 des IPCC

Der einzige natürliche Treiber ist die TSI, alles andere ist anthropogen. Dabei sollten beispielsweise unter den natürlichen Treibern auch Dinge wie Milankovitch-Zyklen, mondbezogene Gezeiteneffekte auf die Meeresströme, die Stärke des Erdmagnetfeldes und sämtliche Daten der Sonnenaktivität sein – z. B. die Stärke des solaren Magnetfeldes, TSI, SSNs, GCRs (Auswirkungen auf Aerosole, Wolken und Albedo), CHs, MCEs, EUV-Variationen und damit assoziierte Ozon-Variationen sowie Forbush-Ereignisse. Solange Bandbreite und Gründe der natürlichen Variationen innerhalb vernünftiger Grenzen nicht bekannt sind, ist es einfach nicht möglich, die Auswirkungen des anthropogenen CO2 auf das Klima zu berechnen.

Die Folgen dieses fundamentalen Fehlers der wissenschaftlichen Beurteilung werden deutlich in der zunehmenden Diskrepanz zwischen den globalen Temperaturtrends und den Modellprojektionen. Die Wassertemperaturen der NOAA zeigen, dass es trotz eines Anstiegs des CO2-Gehaltes um 8% seit 1997 keine Gesamterwärmung mehr gegeben hat, der Erwärmungstrend im Jahr 2003 seinen Höhepunkt erreicht und seitdem ein Abkühlungstrend eingesetzt hat.

ftp://ftp.ncdc.noaa.gov/pub/data/anomalies/annual.ocean.90S.90N.df_1901-2000mean.dat

Die Lücke zwischen Projektionen und Beobachtungen sieht man hier:

Abbildung 2 ( Von Prof. Jan-Erik Solheim (Oslo) )

2 Die wirklichen Klimatreiber

Das Klima der Erde ist das Ergebnis einer Vielzahl verschiedener quasi-zyklischer Prozesse mit verschiedenen Wellenlängen. Die langwellige Milankovitch-Exzentrizität, Neigungs- und Präzessionszyklen werden moduliert durch Zyklen der Sonnen-„Aktivität“ im Zeitscale von Jahrtausenden, Jahrhunderten und Jahrzehnten. Diese wiederum stehen in Wechselwirkungen mit Mondzyklen und endogenen Änderungen der Erde hinsichtlich der Stärke des geomagnetischen Feldes, Vulkanausbrüchen und wirklich langzeitlichen tektonischen Plattenverschiebungen. Die Kombination all dieser Treiber wird durch die großen Meeresströme und atmosphärische Druckgebilde modifiziert, die das Klima der Erde ausmachen.

Als Hilfsmittel bei der Vorhersage dekadischer und jährlicher Änderungen können wir beispielsweise ENSO, PDO, AMO und NAO-Indizes heranziehen und basierend auf deren Verhalten in der Vergangenheit vernünftige Vorhersagen zukünftiger Perioden vornehmen. Gegenwärtig legt die PDO nahe, dass wir in unmittelbarer Zukunft 20 bis 30 Jahre lang Abkühlung erwarten können. Ähnlich müssen wir für multidekadische, Jahrhunderte und Jahrtausende lange Vorhersagen wissen, wo wir relativ zu den Sonnenzyklen stehen. Die besten Proxies für die Sonnen-„Aktivität“ sind gegenwärtig der Ap-Index und die von GCR erzeugte Neutronenzahl. [?] Die solaren Indizes sind im Einzelnen wichtig, weil deren Verlauf in der Vergangenheit aus den 10 Be-Daten abgeleitet werden kann.

In einem früheren Beitrag auf http://climatesense-norpag.blogspot.com vom 22.1.2013 mit dem Titel Global Cooling – Timing and Amount.(NH) habe ich auf eine mögliche zukünftige globale Abkühlung hingewiesen, die auf einer Wiederholung Jahrtausende langer solarer Zyklen basiert. Hier weise ich für die Modellierer auf den Wert der Verwendung des Ap-Index’ hin als Proxy der Sonnenaktivität. Man vergleiche die HADSST3-Temperaturanomalie seit 1910 mit dem Ap-Index seit 1900. Wegen der thermischen Trägheit und langsamen Änderungen in der Enthalpie der Ozeane gibt es eine Zeitverzögerung von 10 bis 12 Jahren zwischen dem Treiber-Proxy und der Temperatur.

Abbildung 3 – Vom Hadley Center

Abbildung 4:  Von  http://www.leif.org/research/Ap-1844-now.png

Da gibt es einige gute Korrelationen. Die Tiefstwerte des Ap-Index’ der Jahre 1900 und 1965 korrespondieren jeweils mit den Temperaturminima der NH der Jahre 1910 und 1975. Der Spitzenwert des Ap-Index’ (Sonnenzyklus 22) im Jahr 1992 korrespondiert mit der Temperaturspitze des Jahres 2003 und der Trendumkehr – und wie ich in dem o. g. erwähnten früheren Beitrag gezeigt habe, könnte er auch gut den Trendübergang der Jahrtausend-Sonnenzyklen repräsentieren, der zu den Mittelalterlichen bzw. Römischen Wärmespitzen geführt hat. Die NH wird betrachtet, weil sie sensibler auf Änderungen der Antriebe reagiert, und die größere Variabilität macht die Korrelationen deutlicher.

Als einfaches konzeptuelles Modell kann man sich den Ap-Index al seine einfache Proxy für die Anzahl der Sonnenstunden vorstellen, vor allem, wenn man ihn im Geiste über einen Zeitraum von 10 bis 12 Jahren integriert. Siehe Wang et al.
http://www.atmos-chem-phys.net/12/9581/2012/acp-12-9581-2012.pdf

Soweit es die Zukunft betrifft, liegt das Ap-Minimum des Sonnenzyklus’ 23/24 Ende 2009 genauso niedrig wie das Minimum im Jahr 1900. Das würde sowohl eine säkulare Änderung der Sonnenaktivität etwa im Jahr 2006 als auch ein bevorstehendes Temperaturminimum in den Jahren 2019/20 bedeuten. Diese Änderung wurde auch für die TSI dokumentiert, und zwar von Abdussamatov 2012 http://www.ccsenet.org/journal/index.php/apr/article/view/14754:

Abbildung 5.

Als ein letztes Beispiel in diesem Beitrag möchte ich die folgende Graphik von Steinhilber et al zeigen (hier). Sie zeigt die enge Korrelation zwischen den aufeinander folgenden Minima der Kleinen Eiszeit mit der Intensität der kosmischen Strahlen:

Abbildung 6

Schlussfolgerungen:    

Es ist jetzt klar, dass die Ap/GCR/10 Be-Daten im Zeitscale von Jahrtausenden, Jahrhunderten und Jahrzehnten die besten Proxy-Messungen der Temperaturtreiber auf der Erde sind. Der beste Weg, zukünftige Verhältnisse vorherzusagen ist die Vorhersage der Sonnenzyklen über diese Wellenlängen unter Berücksichtigung der Feldstärke des irdischen Magnetfeldes und Unregelmäßigkeiten in den Trends während längerer Zeitperioden.

3 Die Antwort der Modellierer, des IPCC und der politischen Alarmisten

Sowohl die Zunft der Modellierer als auch das IPCC haben erkannt, dass sie ein Problem haben. Zum Beispiel haben sowohl Hansen als auch Trenberth nach der fehlenden Wärme Ausschau gehalten und epizyklisch-artige [?] Theorien erstellt, um ihre Modelle zu retten. Hansen glaubt, dass es etwas mit den Aerosolen zu tun hat, und Trenberth wollte die Wärme zunächst im schwarzen Loch der Tiefsee versteckt haben. Hansen ist hinsichtlich objektiver Wissenschaft ein hoffnungsloser Fall, aber Trenberth war immer ein mehr objektiver und urteilsfähigerer Wissenschaftler, der kürzlich exzellente Fortschritte mit der Entdeckung einer echten negativen Rückkopplung im System gemacht hat. Siehe http://www.cpc.ncep.noaa.gov/products/outreach/proceedings/cdw31_proceedings/S6_05_Kevin_Trenberth_NCAR.ppt.

Er sagt:

Dies ist ein ermutigender Beginn, und deren Einfügung würde die Modelle signifikant verbessern. Klarerweise würde sie sehr substantiell die derzeit vom IPCC berechnete Klimasensitivität des CO2 reduzieren. Er fühlt sich gedrängt, den Modellen den Iris-Effekt [?] der GCR-Modulation des einfallenden Strahlungsflusses via Wolken, möglicherweise in Zusammenhang mit natürlichen Aerosolen, und daraus resultierende Änderungen der Albedo hinzuzufügen. Hat man dies getan, wird die Sensitivität bei Verdoppelung des CO2-Gehaltes 1 Grad oder weniger betragen, ähnlich separaten Rechnungen von Lindzen, Spencer und Bjornbom: http://hockeyschtick.blogspot.com/2013/01/new-paper-confirms-findings-of-lindzen.html

Die Antwort des IPCC auf die fehlende Erwärmung steht im SREX-Bericht 2011. Dort heißt es:

„Die Unsicherheit hinsichtlich projizierter Änderungen der Klimaextreme während der nächsten zwei bis drei Dekaden ist relativ groß, weil die Signale der Klimaänderung relativ klein sein dürften im Vergleich zur natürlichen Klimavariabilität“.

Mit anderen Worten, sie haben erkannt, dass sie auf der Basis des Trends nicht länger Angst erzeugen können, und so haben sie sich entschlossen, sich im bevor stehenden AR 5 auf „Extrem“-Ereignisse zu konzentrieren, um ihre Angst erzeugende Anti-CO2-Agenda voranzutreiben, während sie ihre Berechnungen zur Klimasensitivität unverändert lassen. Die zentralen Alarmisten Hansen, Mann, McKibben und Romm und ihre Main Stream-Medien sowie ihre politischen Erfüllungsgehilfen einschließlich Obama folgen einfach dem IPCC-Skript mit ihren sogar noch schlimmeren hysterischen Vorhersagen zukünftiger extremer Katastrophen, obwohl die Erde sich gegenwärtig weigert, sich weiter zu erwärmen.

Die Summary for Policy Makers des AR 5 liegt gegenwärtig im Entwurf vor. Trenberth und die mit ihm verbundenen Modellierer können die Modelle nicht zeitnah restrukturieren, um den wissenschaftlichen Abschnitt noch zu ändern, aber vielleicht können sie zumindest darauf bestehen, dass der endgültige Bericht auf die strukturellen Unsicherheiten der Modellergebnisse hinweist.

Schlussfolgerung:

Trenberths jüngste Arbeit impliziert, dass die ganze CAGW-Panik kollabieren wird, wenn man all das in die Modelle integrieren würde.

Die einzige Auswirkung des zunehmenden CO2-Gehaltes wird dann sein, den bevor stehenden Abkühlungstrend ein wenig abzumildern, und dass er der weltweiten Produktion von Nahrungsmitteln helfen wird, weil er auf die Ernten wie Dünger wirkt.

Link: http://wattsupwiththat.com/2013/02/20/its-the-sun-stupid-the-minor-significance-of-co2/

Dr. Norman Page

Übersetzt von Chris Frey EIKE




Deutschland und Spanien treten grüne Energie in die Tonne

Bild rechts: Shutterstock

Aus Furcht vor einem Denkzettel der Verbraucher über die einseitige Finanzierung grüner Energie hat Merkels Regierung am Donnerstag vorgeschlagen, diesen zusätzlichen Betrag bis Ende 2014 zu deckeln und danach einen Anstieg nicht größer als 2,5% pro Jahr zuzulassen. Die Regierung plant auch, Ausnahmeregelungen zurückzufahren, was mehr Unternehmen zum Zahlen verpflichtet, sowie einen Schnitt bei den grünen Subventionen in Höhe von 1,8 Milliarden Euro zu erreichen. Der Plan ist Regierungsvertretern zufolge eine schnell umsetzbare Reform [quick fix pending comprehensive reform] nach der Wahl.

Merkel hofft, mit diesen Maßnahmen zur Deckelung von Subventionen für grüne Energie Stimmen zu gewinnen. Inzwischen folgt ihr Spanien auf dem Fuße, kürzt man doch dort Subventionen für erneuerbare Energien in einem Versuch, die Energiekosten zu senken. Die Logik ist klar:

Die Erzeuger erneuerbarer Energien „werden geringere Einnahmen erzielen, aber die Maßnahmen sind besser für die Verbraucher“, sagte der spanische Energieminister José Manuel Soria.

Die Erfahrung, die beide Länder gerade machen, ist der Schaden des Versuchs, eine Industrie zu subventionieren, die bei Weitem nicht der Hauptstromerzeuger ist. Sollte erneuerbare Energie eventuell überlebensfähig sein, braucht sie keine Subventionen; Kapitaleigentümer, die damit Geld verdienen können, werden sicherstellen, dass sie auch verbraucht wird. Aber bis dahin sind diese Versuche, eine strauchelnde Industrie aufzupäppeln, eine Dummheit und schädlich für die Verbraucher.

[Image: Shutterstock]

Link: http://blogs.the-american-interest.com/wrm/2013/02/17/germany-and-spain-throw-green-energy-under-the-bus/

Übersetzt von Chris Frey EIKE




Energiewende wirkt: Operation gelungen-Patient (fast) tot!

Nachdem im letzten Jahr die Meldung von 800.000 Haushalten die Runde machte, die wegen der hohen Stromkosten ihr Stromrechnung ganz oder teilweise nicht mehr bezahlen können, und deswegen im Dunkeln und im Kalten sitzen, verdichtet sich nun der Verdacht zur Gewissheit,  dass nicht nur die großen Versorger in die Verlustzone geraten und massenhaft Elektrizitätswerke schließen, Leute entlassen und in die Verlustzone fahren, sondern auch div, Stadtwerke.

So beschreibt die WiWo in ihrer Onlineausgabe vom 21.2.13 die Situation so:

Stromkonzerne: Politik der Energiewende macht große Versorger kaputt

Die vier großen Versorger sind ein Schatten ihrer selbst. Die Politik der Energiewende hat den Unternehmenswert, die Finanzkraft und die Substanz dezimiert. Den Chefs bleibt vorläufig nur, sich durchzuwurschteln – Ziel und Ausgang offen…

und weiter liest man dort:

Es sieht düster aus für die großen vier der deutschen Energiebranche, speziell auch für die Nummer drei EnBW. 13.400 Megawatt Strom kann der Energiekonzern derzeit erzeugen, genügend, um zwölf Städte der Größe Stuttgarts mit Energie zu versorgen. Aber Geld verdient der Riese im Eigentum des grün-rot regierten Baden-Württembergs und mehrerer oberschwäbischer Kommunen keines…Hohe Rohstoffpreise und der Vorrang der erneuerbaren Energien bei der Stromeinspeisung ins Netz machen die Gas- und Kohlekraftwerke zum Minusgeschäft. Seitdem EnBW vor fast zwei Jahren zwei seiner vier Atomkraftwerke abschalten musste, drehten die Zahlen ins Minus. Nach einem Verlust von 867 Millionen Euro 2011 dürfte auch die Bilanz 2012, die Mastiaux im März vorlegen will, nicht rosig ausfallen.

Ob EnBW oder RWE, Branchenprimus E.On oder die Nummer vier hierzulande, Vattenfall: Der mittelfristige Ausstieg aus der Atomkraft, obwohl erst für 2022 terminiert, hat zusammen mit dem rasanten, hoch subventionierten Ausbau der Solar- und Windenergie die Geschäftsmodelle zerbröselt und die Konzerne geschwächt.

…Schuld an dem Ausverkauf ist die Politik, die ohne Rücksicht auf die Unternehmen gleich eine doppelte Wende durchpeitschte und ihnen damit beträchtlichen Teil der Geschäftsgrundlage entzog….Überflüssige Puffer

Auf der anderen Seite zehrt der beschleunigte Ausbau der erneuerbaren Energien an den Verdienstmöglichkeiten…Zusammen mit dem staatlich verordneten Vorrang für Grünstrom bei der Einspeisung ins Netz führt das dazu, dass konventionelle Kraftwerke immer weniger Stunden gebraucht werden, wenn Sonne und Wind nicht genügend Strom liefern. Die Stilllegung solcher unrentablen Anlagen hatte die Bundesnetzagentur im vergangenen Winter sogar verboten. Künftig wollen sich die Kraftwerksbetreiber das nicht bieten lassen….

Das damit neben den zigtausenden von wertschöpfenden Arbeitspätzen auch die Versorgungssicherheit auf der Strecke bleibt, war jedem Experten sofort klar, unabhängig von theoretisierenden Gefälligkeits- Studien von Lobby Verbänden wie dem Forschungs-Verbund Erneuerbare Energien (FVEE) mit seinen Visionen für ein 100% erneuerbares Energiesystem. So berichten die Netzbetreiber übereinstimmend von ca. 1000 Netzeingriffen, die sie zur Aufrechterhaltung der Stabilität allein im Jahr 2012 vornehmern mussten, ausgelöst durch die unkontrollierte, nicht planbare aber  vorrangig einzuspeisende NIE (Neue Instabile Energien). In den Jahren zuvor, als die NIE noch keine große Rolle spielten, lagen diese Eingriffe hingegen im unteren einstelligen Bereich pro Jahr.

"Die Energiewende" – von der Politik so gewollt- kostet die Verbraucher, den normalen Steuerzahler, die Wirtschaft Billionen Euro. Die sind aber nicht sofort verloren, sie werden erst mal in großem Stil umverteilt.

Unter der Überschrift : 

Die große Verteile

beschreibt WiWo Chefredakteur Roland Tichy in der Online Ausgabe vom 23.2.13 was ist.

Die Energiewende könnte bis zu 1000 Milliarden kosten, gesteht jetzt der Umweltminister ein. Aber wer kriegt die Kohle, wer zahlt?

Die größte Umverteilung findet nicht mehr durch Steuern statt – sondern durch die Energiewende. Dabei geht es nicht um den Atomausstieg. Es sind die Effekte des Erneuerbaren-Energien-Gesetzes (EEG) der rot-grünen Koalition aus dem Jahr 2000. Das funktioniert so: Wer Strom aus Sonne oder Wind erzeugt oder Getreide vergast, erhält einen Strompreis, der weit über den Stromkosten aus Atom, Kohle oder Gas liegt. Und: Dieser grüne Strom hat Vorfahrt. Egal, wie teuer er ist – er verdrängt jeden billigen Strom aus den Netzen. Klar, dass die großen Stromkonzerne die Verlierer sind. Sie müssen Dutzende moderner Kohle- und Gaskraftwerke verschrotten. Das trifft auch viele Stadtwerke. Sie müssen, wie die Stadtwerke München, ihre Anteile an Atomkraftwerken, aber mehr noch an vielen fossilen Kraftwerken abschreiben. Damit sind sie das Großrisiko ihrer kommunalen Eigner. Die Energiewende kostet so Aktionäre und Kommunen einen dreistelligen Abschreibungsbetrag, der in Peter Altmaiers 1000 Milliarden Euro noch nicht enthalten ist – die größte Kapitalvernichtung seit Kriegsende….Auch die Umwelt kennt Sieger – und Verlierer. Energiepflanzen ruinieren Land und Boden. Nur eine Alt-Energie hält sich noch gegen Solar und Wind: Braunkohle. Ihr Abbau aber verschlingt Dörfer und Landschaften. Sie ist auch dafür verantwortlich, dass erstmals seit Jahren der CO₂-Ausstoß wieder steigt. Dumm gelaufen. Im grünen Gewand kommt eine soziale und industrielle Revolution daher. Jetzt frisst sie ihre Kinder.

Den ganzen Text finden Sie hier

Die Redaktion,

mit Dank an div. Leser, die uns auf diese Texte aufmerksam machten.




Videovorträge (Teil III) der 5. IKEK in München. Schwerpunkte Energie & Politik

Hingegen deutet alles auf eine Energieschwemme aus fossilen Ressourcen hin, die die energiepolitische Landkarte dramatisch verändern wird.  Ironischerweise ist dies ein weiterer Sargnagel für die "Energiewende"

Dr. Utz Tillmann, Hauptgeschäftsführer des Verbandes der Chemischen Industrie (VCI) ,

stellt fest, dass die Energiewende die Chemie und andere stromintensive Industriezweige vor wachsende Probleme stellt. Jedoch stellte er Merkels Energiepolitik nicht grundsätzlich in Frage, zumal auch Mitgliedsunternehmen seines Verbandes von der „Energiewende" profitieren. Er bot der Politik sogar Unterstützung in Form eines fachlich kompetenten Projektmanagements an.

Prof. Lüdecke EIKE

Im vergangenen Jahr (2011) erreichte die reale Gesamtleistung aller deutschen Windräder, wie EIKE-Pressesprecher Prof. Horst Lüdecke nur 16 Prozent der installierten Nennleistung. Von den im Jahre 2011 von allen EEG-Anlagen erzeugten 124 Terawattstunden Strom stand nur etwa ein Zehntel einigermaßen zuverlässig zur Verfügung. Die langen Stillstandszeiten mussten durch Kohle- und Gaskraftwerke überbrückt werden. Deshalb konnten die EEG-Anlagen kaum CO2 einsparen. Doch für diese klägliche Leistung kassierten die Betreiber von Ökostrom-Anlagen im vergangenen Jahr bereits über 17 Milliarden Euro Subventionen. Das sind 375 Euro je Durchschnittshaushalt.

Der Doktorand Jacob Nordångaard

aus Schweden erläutert unter dem Titel "The History of Biofuels in the European" Union den erschreckend spannenden Inhalt seiner Doktorarbeit, über die Vernetzung immer derselben Leute aus immer denselben Verbänden, Vereinen, Lobbygruppen und EU-Kreisen, die verbissen am "EU-Klimaschutzprogramm" und EU-Biosprit Desaster mitgewirkt haben, bzw. immer noch mitwirken.

Dr. Thomas Teluk

erläutert in seinem Vortrag den Spannungsbogen für Polen einerseits die EU-Vorgaben für den "Klimaschutz" erfüllen zu müssen und dabei die eigenen Energieinteressen einer aufstrebenden Wirtschaftsmacht nicht aus den Augen zu verlieren. Eine Spannungsfeld was nur zu Gunsten der konventionellen Energieversorgung aufgelöst werden kann.

Prof. Dr. Alt

"Tatsache hierzu ist für den Energiesektor, dass mit jeder weiteren Windenergie und mit jeder weiteren Photovoltaikanlage sowie mit jeder neuen Transportleitung oder zusätzlichen Verteilungsleitung die Strompreise nur deutlich ansteigen müssen – die Stromversorgung nicht sicherer, mit dem Wegfall der Kernkraftwerke auch nicht CO2-ärmer, sondern CO2-reicher wird." 
Die Verfügbarkeitsproblematik von Wind- und PV-Strom lässt sich an den Leistungsganglinien leicht ablesen. Egal wie hoch die in diesem Bereich installierte Leistung ist, es muss immer die zusätzliche gleiche Leistung an Gas-, Kohle- oder Kernkraftwerken vorhanden sein, wenn man 24 Stunden am Tag Strom zur Verfügung stellen will. Der Irrsinn scheint hier keine Grenzen mehr zu kennen.

Dr. Michael Goetz,

Assoc. Director CFACT Europe, gibt einen Einblick in die "neue Klima- und Energiepolitik nach der US.Wahl. Die US-Bürger machen sich eher Sorgen um reines Wasser als um "global warming". Es gibt drei politische Gruppen: Republicans, Democrats and Independents. Selbst bei Al Gore ist Klima in USA kein "primary issue". Im Wahlkampf spielte das Klima überhaupt keine Rolle. Klimaverträge benötigen im Senat 2/3-Mehrheit. Die Mehrheit der Republikaner werden dagegen stimmen.

Die Reihe der Vorträge zur 5. IKEK ist hiermit beendet!

Danksagung:

Das EIKE Präsidium dankt allen Beteiligten, die bei der Erstellung dieser Videomitschnitte beteiligt waren, von ganzem Herzen. Wir wissen deren – fast immer ehrenamtliches Engagement- sehr, sehr zu schätzen. Ohne sie und viele andere wäre unsere Arbeit nicht möglich, da Exxon und alle anderen virtuellen Geldgeber wie die "Kohlelobby" – so wie es uns eine bestimmte Medienmeute und deren Nachbeter immer wieder andichtet- stets vergessen, die Schecks  abzuschicken. 

Die Redaktion