Obamas „Klimaschutzplan“ – Kreuzzug gegen die Kohle

Die Situation in den USA

Im letzten Jahr sanken der Kohlendioxid-Ausstoß und die Netto-Ölimporte auf den geringsten Wert in den letzten 20 Jahren und gleichzeitig stiegen die USA zum größten Erdgasförderer der Welt auf. Zahlen, mit denen sich ein Präsident zu schmücken können glaubt. Die Frage wäre allerdings noch, welcher. Wenn schon ein Präsident, dann eher sein Vorgänger Bush, der hier bevorzugt als alkoholkranker, schießwütiger Texaner dargestellt wird. Der war es nämlich, der mit Unterstützung zahlreicher "Rechter Militärs" die Senkung der Abhängigkeit von Ölimporten zielstrebig einleitete. Ein Abfallprodukt dieser Politik, ist der verringerte CO2-Ausstoß. Als Texaner war ihm klar, daß zur Senkung der Ölabhängigkeit nur ein Mittel wirksam ist: Bohren, bohren und noch einmal bohren im eigenen Land. Die Früchte werden heute in Form des "Shale-Gas" und "Shale-Oil"-boom eingefahren — ganz entgegen dem über 60 Jahre andauernden Gefasel von "Peak-Oil". Deswegen mußte "Greenpeace-Klimaexperte Martin Kaiser" auch sofort anmerken: "…dass Obama aber auch auf "Risikotechnologien" wie Fracking oder Atomkraft setze, sei ein falsches Signal…". Auch der erste Neubau von fünf Kernkraftwerken seit 30 Jahren passt in diese Strategie: Man hatte nicht vergessen, daß bis zur "Ölkrise" in den 1970er Jahren fast 70% der elektrischen Energie mit Öl erzeugt wurde. Erst durch den massiven Ausbau der Kernenergie gelang die "Freisetzung" fossiler Energien für andere Anwendungen. Deshalb der immer wehrende Kampf der "Systemveränderer", gegen neue Fördermethoden bei fossilen Energien und die Kernenergie. Nur, wenn man ein "Marktversagen" durch politische Eingriffe erzeugen kann, läßt sich dem Zombie "Planwirtschaft" wieder neues Leben einhauchen.

Die "Shale-Gas Revolution"

Das sogenannte "Fracking" ist eine seit 80 Jahren bei der Öl- und Gasförderung angewendete Technik. Hinzu kam die Methode "horizontaler Bohrungen", die in den letzten Jahrzehnten eine bemerkenswerte technische — und vor allem wirtschaftliche — Entwicklung genommen hat. Heute ist es möglich, schmale öl- oder gashöffige Schichten zu erschließen. Auch diese Vorkommen waren den Geologen seit langem bekannt. Es ist auch kein Zufall, daß diese von eher kleinen Ölfirmen in Angriff genommen wurden. Wie so oft, wurde die anfängliche Nische sehr schnell zu einer breiten Bewegung. So funktioniert nun mal die Marktwirtschaft.

Gasförderung ist noch kapitalintensiver als Ölförderung. Im Prinzip muß jedes einzelne Bohrloch mit dem Verbraucher durch eine feste Rohrleitung verbunden werden. Auch eine Gasverflüssigung (LNG) schafft nur bedingt Abhilfe. Sie lohnt erst ab Entfernungen von etwa 3.000 km. Dies führt zu stark schwankenden Preisen. Die gigantischen Anfangsinvestitionen müssen über Jahrzehnte getilgt werden. Ist erstmal das "Erdgasnetz" gebaut, fallen nur relativ geringe Betriebskosten an. Der Investor ist gezwungen, praktisch zu jedem noch so geringen Preis (heutige Situation in USA) zu verkaufen, damit er wenigstens seine Kredite bedienen kann. Kann er das nicht mehr, geht er pleite. Sind genug Produzenten verschwunden und keine Ersatzinvestitionen (neue Bohrungen) mehr erfolgt, schießen die Preise wieder in die Höhe: Ein neuer "Schweinezyklus" beginnt.

Der wichtigste "swinging user" in diesem Geschäft sind Kraftwerke. Sie sind fest mit dem Erdgasnetz verbunden und können sehr große Leistungen ziehen. Oft sind sie auch noch mit Öl zu betreiben. Ist das Gas entsprechend billig, werden sie hoch gefahren und andere Kraftwerke mit teureren Brennstoffen gedrosselt. Durch diese zusätzliche Abnahme kann bei einem Überangebot an Gas verhindert werden, daß die Preise ins bodenlose fallen. Andersherum werden solche Erdgaskraftwerke (z. B. an kalten Wintertagen) bei übermäßig hohen Gaspreisen vom Netz genommen. Dies geschieht z. B. zur Zeit in Deutschland, weil hier Kohle weitaus günstiger ist. Genau dieser Mechanismus führte in den USA zu dem verringerten CO2-Ausstoß im vergangenen Jahr: Durch die Konjunkturschwäche war der Verbrauch an Elektroenergie gefallen. Gleichzeitig wurde mehr Erdgas in den Kraftwerken eingesetzt.

Sogar die Energieversorger haben ein Interesse an stabilen Erdgaspreisen. Sie wissen aus leidvoller Erfahrung, daß einem zu niedrigen Preis (nicht mehr akzeptabel für die Erdgasproduzenten) ein steiler Anstieg mit wenigen Jahren Verzögerung folgt. In den USA ist es aber erklärtes Ziel, mit dem billigen Erdgas eine neue Industriealisierung einzuleiten. Die Umstellung in der chemischen Industrie und auf dem Verkehrssektor hat gerade begonnen, dauert aber mehrere Jahre. Es wäre zu dumm, wenn diese Anlagen bei Fertigstellung auf einen zu hohen Gaspreis treffen würden, nur weil die Gasförderer aus Kapitalmangel keine neuen Bohrungen ausgeführt hätten. Es bleibt also nur die Möglichkeit Erdgas als LNG nach Europa und Asien zu exportieren oder massiv in der Stromwirtschaft einzusetzen. Anlagen zur Verflüssigung sind aber extrem teuer und lohnen sich nur, wenn sie über Jahrzehnte betrieben werden können. Gerade in kommenden Jahrzehnten will man aber den Heimvorteil billigen Erdgases nutzen.

Kohle

Die USA werden auch gerne als das Saudi Arabien der Kohle bezeichnet. Kaum ein Land verfügt über so große und leicht zu fördernde Kohlevorkommen. Kohle ist immer noch ein bedeutender Wirtschaftszweig. Für viele Bundesstaaten (Wyoming, Utah, Kentucky etc.) ist es der zentrale Wirtschaftssektor. Genau in dieser wirtschaftlichen Bedeutung liegen die Stolpersteine für Obama: Umweltschutz und Bergbau ist Ländersache. Der Präsident hat auf diesem Gebiet praktisch keinen Einfluß. Er kann nur durch Worte versuchen zu überzeugen. Die Gesetze werden im Parlament und im Senat gemacht oder sogar in den Bundesstaaten. Die Umweltschutzbehörde EPA hat auf die Luftverschmutzung auch nur geringen Einfluß. Sie ist lediglich für die, die Staatsgrenzen überschreitenden Anteile zuständig. Die Aufforderung an die EPA, doch bitte strengere Grenzwerte zu erlassen, hat bereits harsche Kritik von Verfassungsrechtlern provoziert. Energiepolitik fällt in den Aufgabenbereich der Parlamente. Gesundheits- und Umweltschutz muß durch wissenschaftliche Erkenntnisse abgesichert sein. Da die USA nicht nur aus linken, klimagläubigen Wissenschaftlern bestehen, ist schon allein auf diesem Gebiet, noch mit einigen harten Auseinandersetzungen zu rechnen.

Eigentlich niemand hat in den USA ein Interesse, die Kohleförderung wesentlich zu senken. Dies macht auch keinen Sinn, da es sehr teuer und langwierig ist, Bergwerke in Betrieb zu nehmen. Es wird also eine massive, vorübergehende Flucht in den Export geben. Man wird den asiatischen und europäischen Markt mit billiger Kohle überschwemmen. In den letzten fünf Jahren allein, hat sich der Kohleexport der USA von 36 Millionen in 2002 auf 114 Millionen Tonnen in 2012 mehr als verdreifacht. Dies ist sehr hilfreich für die deutsche "Energiewende". Die Kernenergie kann fast vollständig durch Kohle ersetzt werden. Das Kohlendioxid wird halt nur nicht mehr auf amerikanischem Boden freigesetzt, sondern z. B. von deutschen "Gutmenschen", die ja (gefühlt) ihrem Präsidenten immer so begeistert zujubeln.

Für die USA ist das alles eine kluge Doppelstrategie: Man baut sich eine komfortable und preiswerte Energieversorgung auf und nutzt die dafür notwendige Zeit, lästige europäische Industriekonkurrenz mit vermeintlich preiswerter Energie einzuschläfern und abzuhängen.

Das ist beileibe nichts neues: Vor einigen Jahren gab es in den USA eine lebhafte Diskussion über folgenden Weg: Man ersetzt die Kohle in der Stromerzeugung durch Kernenergie. Die dadurch freiwerdende Kohle setzt man zur Herstellung synthetischer Kraftstoffe ein. Ein Großteil des bei der Wasserstoffproduktion anfallenden CO2 wird gleich wieder in alte Gas- und Öllagerstätten versenkt. Man senkt die Ölimporte auf Null (strategische Forderung konservativer Politiker) und spart dabei auch noch enorme Mengen des "Klimakillers" (als Geschenk an die linke Ökobewegung) bei deutlich steigender industrieller Produktion.

Anmerkung

In den USA entstammen 40% aller CO2-Emissionen überhaupt, aus Kraftwerken. Will man also werbewirksam den Ausstoß von Kohlendioxid verringern, verspricht dieser Sektor den schnellsten Erfolg. In den USA wurden 4344 Milliarden kWh elektrischer Energie im Jahr 2011 verbraucht. Rund 2/3 entstammen fossilen Energien (43% Kohle, 24% Gas) und 1/3 wurden "CO2-frei" (19% Kernenergie, 8% Wasserkraft, 2,8% Wind) produziert.

Eine typisch vollmundige Obama-Formulierung in seinem Bericht lautet:

During the President’s first term, the United States more than doubled generation of electricity from wind, solar, and geothermal sources. To ensure America’s continued leadership position in clean energy, President Obama has set a goal to double renewable electricity generation once again by 2020.

Was soll uns das sagen? Weniger als 5% der Stromproduktion wurden auf diese Weise gewonnen. Eine Verdoppelung hört sich gewaltig an, ist Balsam für die Ohren seiner linken Unterstützer, die schon durch seine erfolglose "Guantanamo-Schließung" auf eine harte Probe gestellt wurden. Wenn nur die fünf in Bau befindlichen Kernkraftwerke (2 x Vogtle, 2 x Summer, 1x Watts Bar) ans Netz gegangen sind, erzeugen sie schon mehr als 1% der gesamten Stromerzeugung "CO2-frei".

Dr. Klaus Dieter Humpich übernommen von NUKE Klaus

  




Klimaänderung: Russland regt sich auf über Ergebnis von UNFCCC-Verhandlungen bzgl. Kohlenstoff-Zertifikaten

Bild rechts: Einen Unterhändler übernehmen

Die dahinter stehende Absicht war, unseren Planeten vor einer befürchteten, durch CO2-Anstieg ausgelösten globalen Erwärmung zu bewahren. Es hätte sich zufälligerweise ergeben können, dass wir diesen Plan als sehr erfolgreich hätten begrüßen können, gäbe es da nicht die Tatsache, dass der globale Temperaturverlauf der letzten 17 Jahre flach verlaufen ist, während der atmosphärische CO2-Gehalt kontinuierlich gestiegen ist.

Schon, aber Russland hat das schon immer erwartet

Ursprünglich hatte Präsident Putin am 2. Dezember 2003 angekündigt, dass sein Land das Kyoto-Protokoll nicht ratifizieren werde, weil die Grundlage dazu „wissenschaftlich fehlerhaft [flawed]“ sei. Er führte aus, dass selbst eine Erfüllung von 100 Prozent des Abkommens die Klimaänderung nicht umkehren werde.

Die russische Akademie der Wissenschaften legte in einem Statement vom 1. Juli 2005 wissenschaftliche Argumente vor, die gegen eine Unterzeichnung sprachen. Darin stellte sie fest, dass die Temperaturen der Welt nicht dem CO2-Gehalt folgen. Stattdessen hatte man dort eine viel engere Korrelation zwischen der Welttemperatur und der Sonnenaktivität beobachtet. Die Akademie hat auch errechnet, dass der Meeresspiegel mit einer Erwärmung nicht schneller steigen würde; stattdessen war dieser Anstieg seit dem Ende der Kleinen Eiszeit um das Jahr 1850 stetig mit etwa 6 Inches [ca. 15 cm] pro Jahrhundert erfolgt.

Außerdem verwarf die Akademie Behauptungen bzgl. einer der wichtigsten Gefahren der globalen Erwärmung, dass sich nämlich tropische Krankheiten ausbreiten würden, und verwies darauf, dass das Problem von der Sonne erwärmte Pfützen und Teiche sind, in denen Mücken brüten können, und nicht die Klimaerwärmung. Sie verwies auch auf die fehlende Korrelation zwischen globaler Erwärmung und Extremwetter. Eine wissenschaftliche britische Delegation musste einräumen, dass man keine Beweise zur Stützung der Behauptung gefunden habe.

Was also war der Hauptgrund, dass Putin und die russische Staatsduma ihre Haltung geändert und das Protokoll ratifiziert haben? Weithin wird spekuliert, dass die Europäer ausschlaggebend waren, Russland den Weg in die Welthandelsorganisation WTO zu ebnen. Folglich hat man sich als ein Entwicklungsland kategorisiert und nicht als ein entwickeltes Land, um die Regeln des Protokolls anzuwenden. Dies bedeutete, dass Russland eine Gelegenheit erhalten hatte, den europäischen Ländern Emissions-Zertifikate im Wert von Milliarden Dollar aus der Sowjetzeit zu verkaufen, in Verbindung mit früheren schmutzigen Industrien, die Opfer des ökonomischen Niedergangs geworden waren. Dies würde auch helfen, die Forderungen der ersten Phase des Kyoto-Protokolls zu erfüllen, ohne dass man tatsächlich die Emissionen oder den Energieverbrauch senken müsste.

Die CO2-Emissionen in Europa fielen von 4245 Millionen Tonnen im Jahr 1990 auf 4123 [Millionen?] Tonnen im Jahr 2002 infolge der verringerten Verbrennung von Kohle sowohl in UK als auch in Ostdeutschland. Das Kyoto-Protokoll verlangte jedoch einen weiteren Rückgang in der Europäischen Union auf 3906 Millionen Tonnen vor dem Jahr 2012. In einem UN-Bericht aus dem Dezember 2003 fand sich die Vorhersage, dass die EU dieses Reduktionsziel um einen sogar noch höheren Betrag verfehlen werde, wenn nicht weitere 311 Millionen Tonnen eingespart werden würden. Da die russischen Emissionen von 2405 Millionen Tonnen im Jahr 1990 bis zum Jahr 2001 auf 1614 Millionen Tonnen zurückgegangen waren, konnte das Land Zertifikate über 800 Millionen Tonnen an die Europäer verkaufen zu einem „Auktionspreis“. Das würde Europa billiger kommen als mit fossilen Treibstoffen betriebene Kraftwerke zu schließen oder die Lastwagen aus der lebenswichtigen Infrastruktur zu entfernen durch weitere Erhöhungen der ohnehin schon hohen Treibstoffsteuern.

Aber kein so großer Handel für die USA

Vielleicht war es keine Überraschung, dass die UN den USA nicht ähnliche Beschränkungen wie den Europäern und den Russen angeboten haben. Erstens, im Gegensatz zu Europa und den früheren Sowjetstaaten, die jeweils als separate Handelseinheiten für Emissionszertifikate behandelt wurden, zählten die USA als eine einzige Nation (was es den US-Staaten verwehrte, untereinander Zertifikate zu tauschen, um Quoten zu erreichen). Zweitens, Die US-Emissionen im Jahr 1990 wurden nicht auf so hohe erlaubte Niveaus aufgebläht wie in Deutschland, UK und Russland, was es viel schwieriger machte, die Ziele zu erreichen[?].

Als Antwort auf diese Ungerechtigkeiten und anderer Umstände ließ der US-Senat in seltener Einstimmigkeit beider Parteien eine Byrd-Hagel-Resolution passieren, die klarstellte, dass die USA kein wie auch immer geartetes Abkommen unterzeichnen würden, das „ernste Schädigungen der Wirtschaft in den USA zur Folge hätte“. Der damalige Präsident Clinton, dem politischer Pragmatismus alles andere als fremd war, hatte verstanden und leitete niemals einen Antrag einer Genehmigung des Kyoto-Protokolls seitens der USA an den Kongress zur Ratifizierung weiter.

Hitzige Klimaverhandlungen auf Eis gelegt

Am 6. Juni berichtete Reuters, dass Gespräche der UN, die auf einen neuen Klimapakt bis zum Jahr 2015 gerichtet waren, infolge Widerstands aus Russland, Weißrussland und der Ukraine unterbrochen worden sind, und zwar hinsichtlich verfahrenstechnischer Übertretungen, die mit dem Ziel begangen worden sind, ihren Gratis-Kohlenstoff-Fußabdruck zu eliminieren. Das UNFCCC möchte sich jetzt nicht mehr an einen Handel halten, mit dem Russland von Anfang an in den Kyoto-Zug geholt werden sollte.

Mit dem kürzlichen Kollaps des europäischen Kohlenstoff-Marktes, in dem der Preis von Kohlenstoff (heißer Luft) Rekord-Tiefststände erreicht hatte, sorgen sich die Europäer jetzt, dass man Russland, der Ukraine, Polen und anderen ehemaligen Ostblock-Staaten erlauben könnte, mit dem riesigen Stapel von Kohlenstoff-Zertifikaten, die sie unter Kyoto gesammelt haben, den Markt weiter zu überschwemmen und die Preise weiter zu drücken.

Ironischerweise wurden diese Zertifikate früheren Ostblock-Staaten als Belohnung gewährt, weil der Kommunismus die ökonomische Entwicklung vor 1990 unterdrückt hatte. Damit wollte man den wirtschaftlichen Niedergang kompensieren, den die eigenen kommunistischen Regimes zu verantworten hatten. Polen, Gastgeber des nächsten COP 19-Treffens im November, plant weiterhin, die in seinem Besitz befindlichen 500 metrischen Tonnen Kohlenstoff-Zertifikate an andere Nationen zu verkaufen, einschließlich Japan, Irland und Spanien, um sich von seinen Emissionen durch den starken Verbrauch von Kohle zu entlasten.

Seitdem hat Russland angekündigt, sich unter diesen Bedingungen nicht an einem zweiten Zeitraum des Kyoto-Protokolls zu beteiligen, und zwar unter Hinweis auf Pläne, diese Zertifikate zu behalten und an andere Länder zu verkaufen, ohne Berücksichtigung eines behaupteten COP-„Konsens’“, das sie beenden würde. Sie leiden immer noch unter der Brüskierung während der zweiwöchigen UN-Klimagespräche in Doha im vorigen Jahr, als Vizepremier Abdullah bin Hamad al-Attiya die 18. COP-Tagung kurzerhand für beendet erklärte, bevor die russische Delegation ihrem Wunsch gemäß zu Wort gekommen war. Während die Klimachefin der UN Christiana Figueires behauptete, dass ein Konsens erzielt worden ist, nannte der russische Chefunterhändler Oleg Shamanov dies einen „absolut offensichtlichen Bruch des Verfahrens. Das ist eine systemrelevante Angelegenheit. Solange wir unser Haus nicht in Ordnung bringen, sind wir nicht in der Lage zu garantieren, dass wir im Jahr 2015 mit etwas Produktivem aufwarten können“.

Der Markt des Handels mit Kohlenstoff-Zertifikaten ist nur eines der auf dem Klimaalarm basierenden profitablen Schemata zur Umverteilung des globalen Wohlstands. Eine anderer wichtiger Punkt auf der Agenda des Vertrags, den die UNFCCC 2015 in Paris ansprechen möchte, ist ein geplanter „Verlust- und Schadens“-Mechanismus, um Kompensation seitens der entwickelten „Tier 1“-Nationen zu erreichen für eine von Anwälten vertretene Gruppe kleiner Inselstaaten, der Alliance of Small Island States (AOSIS). Diese machten Katastrophen infolge der globalen Erwärmung geltend. Die AOSIS-Staatschefs einschließlich Tuvalu, Kirabati, St. Lucia und den Malediven behaupten, dass es durch die vom Menschen verursachte globale Erwärmung zu Super-Hurrikanen und steigendem Meeresspiegel kommt.

Und wer ist dafür am meisten verantwortlich? Zufälligerweise haben natürlich diese Anwälte die Schuldigen unter denjenigen mit den tiefsten Taschen ausgemacht … die USA, Westeuropa und Japan. Obwohl China derzeit der größte CO2-Emittent ist, wurde es nicht erwähnt. Immer noch zu bestimmen ist das Problem, welche Strafen wie durchsetzbar sind. Wenn zum Beispiel ein Hurrikan der Stufe 4 auf das Festland trifft, wie kann dann irgendjemand wissen, welchen Anteil daran jede einzelne Nation hat? Und auch, welcher Anteil stammt von diesen Kohlekraftwerken und SUVs, und welcher aus Mutter Natur?

Der Gedanke, den Westen für vermeintliche vergangene und künftige Klimasünden zu bestrafen ist sicher nicht neu. Vor dem Treffen in Kopenhagen (COP 15 im Jahr 2015) haben viele lateinamerikanische Länder, die Philippinen und die Afrikanische Union behauptet, dass westliche Länder den Entwicklungsländern Trillionen Dollar schulden.

Repräsentanten der Delegationen aus den USA und Europa, die an der Klimakonferenz in Kopenhagen teilgenommen haben, haben unterschrieben, ihren „fairen Anteil“ zu übernehmen und versprochen, von den Jahren 2010 bis 2012 pro Jahr 10 Milliarden Dollar zu zahlen. Das Angebot wurde als Unverschämtheit zurückgewiesen, die Diskussionen wurden kurzzeitig unterbrochen, als Repräsentanten vieler unterentwickelter Länder die Treffen verließen, und wütende Unruhen brachen in den Straßen aus über Ungerechtigkeit einer so schäbigen Buße.

Der damalige Präsident von Venezuela Hugo Chavez erklärte dem Auditorium, wen man für die sozialen, ökonomischen und klimatischen Probleme der Welt verantwortlich machen kann:

● „Wäre das Klima eine Bank, hätte der Westen sie bereits gerettet“.

● „Das destruktive Modell des Kapitalismus rottet das Leben aus“.

● „Unsere Revolution trachtet danach, allen Menschen zu helfen … Sozialismus, der andere Geist, der wahrscheinlich in diesem Raum herumgeht, ist der Weg zur Rettung des Planeten; Kapitalismus ist der Weg in die Hölle … Lasst uns den Kapitalismus bekämpfen und ihn uns untertan machen!“

Die damalige Außenministerin Hillary Clinton eilte dann zur Rettung herbei und bot an, eine Vorauszahlung in Gestalt eines jährlichen Beitrags in Höhe von 100 Milliarden Dollar jährlich seitens der USA und anderen wohlhabenden Freunden zu leisten an die „ärmsten und verletzlichsten Nationen auf unserer Welt“ bis zum Jahr 2020. Sie sagte, das Geld würde von „einer Vielfalt von Quellen kommen, öffentlich und privat, bi- und multilateral einschließlich alternativen Finanzierungsquellen“. Wo das genau herkommen sollte wusste niemand, auch nicht Hillary und ihr Chef (hat jemand Vorschläge?)

Zeit, das Klima der Verrücktheit zu beenden

Es liegt schon länger zurück, dass man erkannt hat, dass der Zertifikatehandel à la UNFCCC, Verlust- und Schadensausgleich und andere Umverteilungen des Weltvermögens wenig oder gar nichts damit zu tun haben, eine Klimakrise zu verhindern, geschweige denn um irgendwelche Vorteile zu bieten. Trotz steigenden CO2-Gehaltes der Atmosphäre waren die Temperaturen seit ein oder zwei Dekaden nicht nur flach verlaufen, sondern führende Wissenschaftler erwarten sogar, dass es sich während vieler kommender Jahre oder Jahrzehnte abkühlen wird.

Russland war dem Kyoto-Protokoll beigetreten, bevor man erkannte, dass es keine überzeugende wissenschaftliche Basis gibt, das zu tun. Jüngeren Berechnungen von Forschern am angesehenen Pulkovo Observatory in St. Peterburg zufolge wird die globale jährliche Mitteltemperatur bald anfangen zu sinken, was der Beginn einer sehr kalten und langzeitlichen Klimaphase ist.

Der Leiter des Pulkovo Observatory, Dr. Habibullo Abdussamatov, einer der führenden Solarwissenschaftler der Welt, Mitglied der russischen Akademie der Wissenschaften und Direktor des russischen Bereiches der ISS, glaubt, dass die Kälte bis zum Ende dieses Jahrhunderts dauern wird. Er sagt voraus: „Von dem Maximum des Sonnenzyklus’ 24 etwa im Jahr 2014 an kann man den Beginn des nächsten zweihundertjährigen Zyklus’ einer starken Abkühlung erwarten bis hin zu einer Kleinen Eiszeit bis zum Jahr 2055 plus/minus 11 Jahre“ (das wäre die 19. der letzten 7500 Jahre).

Dr. Abdussamatov weist darauf hin, dass es während der letzten 1000 Jahre fünf mal zu Kaltphasen gekommen war. Jede ist korreliert mit der Solarstrahlung in einer Weise, wie wir sie jetzt auch erleben, ohne jeden menschlichen Einfluss. „Globale Kälte wird kommen, egal ob industrialisierte Nationen ihre Treibhausgasemissionen begrenzen oder nicht. Die verbreitete Ansicht, dass die industriellen Aktivitäten der Menschheit ein bestimmender Faktor bei der globalen Erwärmung sind, ergab sich aus einer Fehlinterpretation von Ursache und Wirkung“.

Pulkovo Observatory: „Messungen temporärer Variationen von Gestalt und Durchmesser der Sonne ebenso wie die Feinstruktur und die Dynamik der Granulation wurden vom Service-Modul des russischen Segmentes der ISS durchgeführt“.

Die russischen Wissenschaftler Vladimir Bashkin und Raulf Galiullin von Institute of Fundamental Problems of Biology der russischen Akademie der Wissenschaften stimmen zu, dass Klimaänderungen durch natürliche Zyklen charakterisiert werden, die nichts mit menschlichen Aktivitäten zu tun haben. Bashkin: „Eine globale Erwärmung, von der so Viele reden, ist kein wissenschaftliches Problem, sondern vielmehr ein Marketing-Trick … es liegt keine globale Erwärmung vor uns. Sondern stattdessen eine Abkühlung“.

Ja, und dieser Marketing-Trick ist etwas, das die UNFCCC einschließlich der Russen erstklassig zu spielen gelernt haben.

Larry Bell

Link: http://www.forbes.com/sites/larrybell/2013/06/23/climate-change-russia-is-steamed-about-u-ns-kyoto-carbon-credit-cop-out/

Übersetzt von Chris Frey EIKE




Hitzewelle nach wochenlanger Kälte, dann genauso abrupt wieder Kälte – spielt das Wetter wirklich verrückt?

Aber natürlich funktioniert Klima nicht so. Dennoch bleibt die Frage, ob es schon die Klimakatastrophe ist, wenn eine sommerliche Hitzewelle gleich so extrem ausfällt wie dieser Tage. Und nach vier Tagen ist dieser Hitzespuk schon wieder vorbei. Ist das noch normal? Ja, natürlich! Unter bestimmten Bedingungen. Dazu einige Anmerkungen aus meteorologisch-synoptischer Sicht.

Zunächst einmal: Der abrupte Wechsel zwischen längeren kühlen Perioden einerseits und kurzen, aber intensiven Hitzewellen andererseits im Sommer ist eine eindrucksvolle Bestätigung der hier beim EIKE veröffentlichten Arbeiten von Leistenschneider et al. zu diesem Thema. Diesmal war dieser Wechsel erst in die eine, dann in die andere Richtung sogar sehr gut ausgeprägt.  In ihrem letzten diesbezüglichen Beitrag haben Leistenschneider et al. diese Erkenntnis noch einmal untermauert.  Die ersten Vorhersagen dieser Art seitens der Autoren gab es jedoch schon vor Jahren. Ihnen zufolge sind solche abrupten Wechsel von kalt nach heiß und umgekehrt typisch für den Übergang in eine Kaltzeit.

Nun ist eine aktuelle Wetterlage natürlich nicht Klima. Aber solche starken Schwankungen gab es auch schon während der letzten Jahre. Der Autor möchte diese starken Schwankungen hier einmal aus synoptischer Perspektive beleuchten. Sie haben nämlich alle eines gemeinsam.

In diesem Jahr kommt aber noch ein zweites hinzu. Dem Autor war schon seit Beginn dieses Jahres etwas aufgefallen, das aus der folgenden Abbildung hervorgeht:

Hier ist die Temperaturverteilung im 850 hPa-Niveau jeweils vom 12. Juni 2012 und 2013 dargestellt – ein völlig willkürlich gewählter Termin zum Zeitpunkt der Abfassung dieses Aufsatzes – und kein ausgewählter Parade-Termin. Es gibt augenfällige Unterschiede, und der Deutlichkeit halber sei hier betont, dass damit nicht die gänzlich andere Wetterlage über Mitteleuropa gemeint ist, obwohl in beiden Fällen kühle Witterung herrschte.

Sondern: Im Jahr 2012 erkennt man die 15°C-Isotherme, die über Osteuropa weit nach Norden reicht. Gleichzeitig ist über dem Nordmeer ein großer Bereich erkennbar, in dem die Temperatur in dieser Höhe unter -5°C liegt. Diese Verteilung ist Mitte Juni zu erwarten.

Anders dagegen in diesem Jahr: Die 15°C-Isotherme ist rudimentär ganz weit im Osten am Kartenrand zu finden, und nur die 10°C-Isotherme reicht weit nach Norden. Gleichzeitig findet sich über dem Nordatlantik lediglich eine größere Zone mit Temperaturwerten unter dem Gefrierpunkt. Die -5°C-Isotherme ist lediglich über Nordskandinavien erkennbar.

Nebenbemerkung: Solche Schwankungen am Nordzipfel Europas von Jahr zu Jahr sind nicht ungewöhnlich. Die größere Kälte im Norden spiegelt sich jedoch in der im Vergleich zum vorigen Jahr deutlich geringeren jahreszeitlichen Abschmelzrate der nordpolaren Eiskappe (hier).

Aber zurück zum Thema. Im atlantisch-europäischen Raum zeigt sich also in diesem Frühsommer ein signifikant geringerer Temperaturgegensatz zwischen warm und kalt als im Frühsommer des vorigen Jahres. Dies hat auch eine Abschwächung des zonalen Grundstromes zur Folge, d. h. vereinfacht ausgedrückt, der Westwindimpuls ist herabgesetzt.

Ähnlich starke Schwankungen zwischen mild und sehr kalt gab es auch schon im vergangenen Winter. Einer in Osteuropa tödlichen Extrem-Kältewelle im Dezember 2012, die gerade noch bis in den Nordosten unseres Landes reichte, folgte um Weihnachten ein ausgeprägtes „Weihnachtstauwetter“. Nicht nur, dass es in Deutschland Heiligabend ungewöhnlich mildes Wetter gab, sondern milde atlantische Luftmassen setzten sich innerhalb weniger Tage bis zum Ural durch. Auch in Moskau war es daher nach der wochenlangen extremen Kälte zu einem Weihnachtstauwetter gekommen.

Worin besteht nun die Gemeinsamkeit? Wie kann es zu so abrupten Wetter- und Temperaturänderungen kommen?

Antwort: Die Höhenströmung – oder der Jet-Stream – ist stark meridional orientiert. Die Luftmassen werden also nicht im Bereich einer vom Atlantik kommenden Westwindzone nach beiden Richtungen abgemildert, sondern strömen direkt von Norden bzw. von Süden nach Mitteleuropa. Dies ist typisch für eine schwache NAO, worauf Leistenschneider et al. ebenfalls schon hingewiesen haben. Eine stark meridionalisierte Strömungskonfiguration kommt natürlich immer wieder vor und muss vom Zeitscale her unter dem Begriff „Witterung“ eingeordnet werden. Unter Witterung versteht der Fachmann eine längere Periode ähnlichen Wetter- und Temperaturverlaufs, also beispielsweise warm/trocken, kühl/nass, im Winter stürmisch/mild, usw. Der Zeitscale für Witterung beträgt etwa drei bis sechs Wochen mit ziemlich großer Streuung.

Bleibt jedoch ein solches Strömungsmuster mehrere Monate bis zu über einem Jahr erhalten, ist das nicht mehr Witterung, aber natürlich auch immer noch nicht Klima. Der Begriff dafür lautet „Zirkulationsanomalie“.

Eine Zirkulationsanomalie liegt vor, wenn der Jet Stream mehrere Monate lang nicht in seiner klimatologisch normalen Position verläuft, sondern deutlich weiter südlich, und/oder wenn der deutlich schwächer als üblich ist. Musterbeispiel für eine Zirkulationsanomalie ist beispielsweise ein die Westströmung blockierendes Hochdruckgebiet über Nord- und Mitteleuropa. Ist ein solches mehrere Monate lang mit höchstens kurzen Unterbrechungen vorhanden, kann man das schon als Anomalie bezeichnen.

Eine solche Anomalie bewirkt auch die Verschiebung der Wetteraktivitäten. Wetterereignisse, die für ein Gebiet typisch sind, finden jetzt ganz woanders statt und sind dort sehr untypisch, das heißt extrem. Der Sommer 2003 war ein klassisches Beispiel dafür.

Bei einer Zirkulationsanomalie kann Mitteleuropa also Monate lang auf der warmen (Sommer 2003), aber auch auf der kalten Seite liegen. Eine ausgesprochen langlebige Anomalie dieser Art gab es zuletzt 1962/63, als auf einen ungewöhnlich kühlen Sommer einer der kältesten Winter des vorigen Jahrhunderts folgte. Es war auch das letzte Mal, dass der Bodensee so zugefroren war, dass man mit dem Auto über das Eis von Lindau nach Konstanz fahren konnte.

Und was soll das Ganze hier?

Nun, nach Einschätzung des Autors liegt derzeit eine solche Zirkulationsanomalie vor. Durch den stark verringerten Temperaturgegensatz im europäisch-atlantischen Raum ist auch der Jet-Stream schwächer ausgeprägt. Dann aber erreicht die meridionale Komponente eine deutlich größere Varianz im Zirkulationsmuster. Die Luftmassen werden also nicht beim Transport über den Atlantik erwärmt bzw. abgekühlt, sondern erreichen uns hier in Mitteleuropa mehr oder weniger direkt von Norden bzw. Süden. Insofern ist die drastische Erwärmung innerhalb weniger Tage und auch die vier Tage später erfolgte, genauso drastische Abkühlung leicht zu erklären. Leistenschneider zufolge lag während der sonnenbasierten Erwärmungsphase der Polarfrontjet in höheren Breiten, und daher war Deutschland in den Genuss vergleichbarer langer und warmer Sommerperioden kam, die sonst typisch für europäische Südländer sind.

Es kommt aber noch etwas hinzu. Der verringerte Temperaturgegensatz zwischen kalt und warm (der noch dazu offenbar zu Lasten der Wärme geht), führt zu einer Verlagerung des subpolaren Jet Streams nach Süden. Man vergleiche diesen mit der Wand einer Schüssel mit flachem Boden. Wird der Boden angehoben, verschiebt sich der geneigte Rand nach außen. Die warme Luft auf der warmen Seite des Jet Streams ist damit weiter südlich als sonst. Die kurze Unterbrechung derzeit ändert an diesem Bild nichts, denn die Warmluft ist nicht nur aus Deutschland ostwärts abgedrängt worden, sondern vollständig aus dem Wetterkartenbild verschwunden.

Wir haben es also in diesem Jahr offenbar mit zwei Phänomenen zu tun, die in die gleiche Richtung gehen: Einmal überwiegt die meridionale Komponente, zum anderen ist der zonale Grundstrom abgeschwächt, und der Jet Stream verläuft weiter südlich. Nach Beobachtungen des Autors liegt eine derartige Anomalie seit etwa Mitte Januar dieses Jahres vor. Das Fehlen jeglicher Warmluft in ganz Europa deutet jedenfalls darauf hin.

Und damit kommen wir allmählich zu dem Punkt, der mir etwas Sorgen macht. Sollte sich die Anomalie – wodurch auch immer gekennzeichnet – in diesem Sommer fortsetzen und vor allem im Juli längere Zeit eher kühles und regenreiches Wetter bringen (muss ja nicht immer gleich Hochwasser bedeuten), ist die Chance groß, dass die Anomalie auch im kommenden Winter noch andauert. Die Parallelen zu 1962/63 sind nämlich im Großen und Ganzen recht deutlich. Dann (aber nur dann!) dürften wir vor einem extrem kalten Winter stehen mit lange andauernden Ostwind-Wetterlagen. Leistenschneider, dem ich u. A. diese Arbeit zur Begutachtung vorgelegt habe, merkt dazu noch an: Dies dürfte noch dadurch verstärkt werden, da sich der derzeitige 24. Solare Zyklus zu seinem 2. Maxima aufmacht – das er im Juni oder Juli erreicht – und die solare Aktivität wird dann im Winter auf low sein, wie nach jedem solaren Maximum im Schwabe-Zyklus . Im Frühjahr dieses Jahres gab es solche Lagen ja schon, nur war die Jahreszeit damals schon so weit fortgeschritten (März/April), dass es wohl zu starken Frösten reichte, nicht aber mehr zu Superkälte.

Fazit: Es besteht in dieser Hinsicht unabhängig von allen Klima-Überlegungen die Gefahr eines kommenden Extrem-Kaltwinters. An sich ist das natürlich nichts Anomales, denn Anomalien sind durchaus normal und treten immer wieder auf. Anomal wäre es höchstens, wenn es solche Anomalien gar nicht mehr gäbe. Und was den Winter betrifft, wäre das natürlich kein Beweis für eine Klima-Abkühlung. Man sollte ihn aber, so er wirklich auftritt, als Fingerzeig sehen, wohin der Klimazug aller Wahrscheinlichkeit nach bei uns rollt.

Was aber Sorgen bereitet: Wenn es im kommenden Winter wirklich wochenlang extrem kaltes Wetter gibt und man dies vor dem Hintergrund der Stromlücke in Deutschland sieht…

Dipl.-Met. Hans-Dieter Schmidt

Leistenschneider fügt aus seiner 750 Seiten starken Abhandlung noch folgende Abbildung hinzu und macht dazu folgende Bemerkungen:

 

Die Abbildung links zeigt im Vergleich Juli 2004 mit August 2003, wie der Jetstream  das Wettergeschehen einstellt, Quelle: http://myweb.tiscali.co.uk/g0sd/Weather.htm. Die Abbildung rechts zeigt den Jetstreamverlauf über ganz Europa, Quelle: ZDF. Der beispielhaft gezeigte Verlauf war typisch für den Sommer 2008 und zeigt wandernde Tiefdruckgebiete über Mittel- und Nordeuropa, die Deutschland die niedrigen Temperaturen und das nasse Wetter bescherten. Aufgrund der Druckunterschiede können die Hochs den Jetstream nicht überwinden und verbleiben südlich seines Wellenverlaufs.

Anmerkung:

2003 war bekanntlich der Hitzesommer in Europa, als der Hauptsonnenzyklus (208-jährige de Vries/Suess-Zyklus, einige Quellen geben das Jahr 2002 an, könnte auch stimmen, da z.B. ein El Nino immer!!!! 11 Monate nach seinem solaren Ereignis ausgelöst wird und es durchaus sein kann, dass die Sonne dieselbe Zeitverzögerung auf die anderen großen irdischen Wettersysteme hat) sein Maximum hatte und besonders über die Hadleyzellen die Sonne ihre erhöhte Energie auf das irdische Wettersystem einbrachte. Diese Energieeinfuhr führt zu einer höheren Temperatur- und Druckkomponente, wodurch die Jet´s weiter nach Norden wandern. Wie ich zeigen konnte, löst die Sonne über die Hadleyzellen (deutliche Änderung der Luftmassenströmung) einen El Nino aus und zwar kann man die Uhr danach stellen. Über den Drehimpulserhaltungssatz hat ein El Nino weiter globale Auswirkungen, auch auf Ferrel- und Polarzelle (meine These erklärt z.B. die Untersuchungen von Brönnimann, ETH, zu El Ninos). Auf EIKE hatte ich dies gezeigt.

Folgend die solare Aktivität im 24. Sonnenzyklus (Stand 03. Juni 2013). Sie sehen, dass wir derzeit auf ein 2. Maximum zugehen. Ich rechne noch bis einschließlich Juli (maximal August) mit einer Zunahme, dann wird die Aktivität wieder fallen. Vergleichen Sie dazu das 1. Maximum und dessen Rückgang. Leider kann ich (außer bei El Ninos) nicht belegen und erklären, wie schnell die Sonne ihre Aktivitätsschwankungen auf die irdischen Wettersysteme einprägt und wie sie dies macht (habe mich auch schon seit geraumer Zeit nicht mehr wirklich damit beschäftigt). Sie sollten jedoch Recht behalten, dass wir wieder einen kalten Winter bekommen. Alles, was wir kennen, spricht dafür.

Schlusswort des Autors: Ich danke Herrn Leistenschneider für die fachliche Begutachtung dieses Aufsatzes.

Und ich bedanke mich bei  meinem Freund, dem Schriftsteller Chris Frey, der diesen Aufsatz stilistisch überarbeitet hat.

H.-D. S.




Riesige Schiefergas-Vorkommen in UK – lasst uns fracken!

Der British Geological Survey (BGS) hat eine Studie mit einer Schätzung veröffentlicht, der zufolge 1300 Trillionen Kubikfuß (tcf)* Schiefergas allein im Bowland-Schieferbecken liegen könnten. Tatsächlich liegt die Obergrenze der Schätzung des BGS bei sagenhaften 2281 tcf – fast genauso viel wie die gesamte geschätzte Menge in den USA (2500 tcf).

[*Bei diesen großen Zahlen verzichte ich auf eine Umrechnung. Auch im Folgenden werden diese Zahlen und Einheiten unverändert übernommen. A. d. Übers.]

Unglaublicherweise sind in dieser Schätzung noch nicht die riesigen Vorkommen im Süden Englands oder im Central Basin in Schottland enthalten. Tatsächlich gibt es noch viele andere Schiefergas-Lagerstätten in UK. Und dann sind da noch die gigantischen Reserven offshore. Dem BGS zufolge könnten die Offshore-Reserven fünf bis zehn mal so groß sein wie die Reserven an Land.

UK verbraucht derzeit etwa 2,7 Trillionen Kubikfuß pro Jahr. Etwa 130 Trillionen Kubikfuß würde die Briten bei diesen Verbrauchsraten etwa 50 bis 100 Jahre lang mit Erdgas versorgen – was die zurückgehende Förderung aus den alternden Nordseefeldern ausgleichen würde. Es könnte die industrielle Aktivität im Norden des Landes neu beleben und eine gänzlich neue Industrie hervorbringen.

Das Energy and Climate Change Committee des Unterhauses hat eine konservative Schätzung von 10 Prozent angelegt, um die technisch förderbaren Schiefergas-Reserven abzuschätzen. In den USA jedoch ist die Fracking-Technologie bereits so weit fortgeschritten, dass die Förderrate im Mittel bei fast 20 Prozent liegt. Mancherorts wurden auch schon bis zu 30% unkonventionelles Gas gefördert. Die britischen gigantischen Schieferreserven bestätigen schließlich, dass unser Land genügend billige und verfügbare Energie für Jahrhunderte besitzt.

Schiefer-Fracking wird schon lange betrieben. Die meisten Umweltagenturen und nationalen Wissenschafts-Akademien, die diese Technologie untersucht haben, sind zu dem Ergebnis gekommen, dass die Risiken sehr klein sind. Schließlich wohnt jeder Form von Energieerzeugung ein inhärentes Risiko inne und zeitigt Einflüsse auf die Umwelt. Schiefergas muss aber im Zusammenhang mit anderen Arten von Energie gesehen werden. Im Vergleich mit den Umweltrisiken des Kohlebergbaus, der Ölförderung und der Kernkraft ist Fracking nun wirklich eine Technologie mit sehr geringem Risiko.

Durch die Verringerung des Energie-Imports wird UK durch die Schiefergas-Revolution signifikant gewinnen. Billigere Energie würde die Produktion der Firmen in UK wettbewerbsfähiger machen. Gas- und Stromrechnungen würden zurückgehen, und der steigende Trend zu Energiearmut könnte umgekehrt werden.

Wegen der potentiellen Größenordnung der Schieferbohrung in UK könnten signifikant viele neue Arbeitsplätze geschaffen werden über eine ganze Palette von Arbeitsfeldern. Energieintensive Industrien und Hersteller, die sich schon überlegt haben, ihre Tätigkeiten wegen der steigenden Energiekosten nach Übersee zu verlagern, würden dann vermutlich bleiben.

Die herauf dämmernde Schiefer-Revolution in UK ist ein klarer Sieg für diejenigen von uns, die gesagt haben, dass die erneuerbare Energie viele Familien in die Energiearmut stürzen und in wirtschaftlich nicht nachhaltige Positionen bringen wird. Die Ausbeutung von Schiefergas kann ein gewaltiges Potential sein, sowohl die Industrie als auch die privaten Haushalte enorm zu stärken. Das Land sollte jetzt diesen Super-Jackpot heben. Lasst uns fracken!

Dr Benny Peiser is the director of the Global Warming Policy Foundation think-tank in the United Kingdom

Read more: http://www.publicserviceeurope.com/article/3654/huge-uk-shale-reserves-lets-get-fracking#ixzz2XZrzraQR

Link: http://www.publicserviceeurope.com/article/3654/huge-uk-shale-reserves-lets-get-fracking

Übersetzt von Chris Frey

Bemerkung des Übersetzers: Was der Autor hier gar nicht anspricht, was aber gerade in Deutschland von eminenter Bedeutung ist: Dieses Potential kann ohne jede Subvention abgeschöpft werden! Und die gigantischen Umweltschäden beispielsweise durch Windräder würden beim Fracking nicht einmal ansatzweise auftreten!

Ergänzung:

Riesige Ölfelder in Deutschland entdeckt

Probebohrungen von Geologen haben ergeben: In Teilen Mecklenburg-Vorpommerns und Brandenburgs schlummern Millionen Barrel Öl unter der Erde. Was Klimaschützern ein Graus ist, könnte für die wirtschaftsschwachen Regionen ein Millionengeschäft werden.

Deutschland hat 2012 Öl im Wert von fast 60 Milliarden Euro importiert. Einen Teil der Ausgaben hätte es sich offenbar sparen können – denn ein Teil der Bundesrepublik sitzt selber auf einem Ölschatz: Probebohrungen eines deutsch-kanadischen Gemeinschaftsunternehmens namens Central European Petroleum GmbH (CEP) machen insbesondere dem finanziell gebeutelten Mecklenburg-Vorpommern Hoffnungen auf Millioneneinnahmen.




Der große Betrug mit den Erneuerbaren kommt ans Tageslicht

Insider der Energiebranche wissen schon lange, dass der Begriff ‚erneuerbare Energie’ ein romantisch verklärtes Bild ist – und eine ökonomische Pleite. Aber es ist erstaunlich, was mit dem Lockmittel von garantierten Subventionen der Regierung alles möglich ist. Selbst die großen Ölgesellschaften haben sich in die Erneuerbaren-Revolution eingebracht, wenn auch meistens aus PR-Gründen. Viele haben ihre erneuerbaren Ableger aber noch im Anfangsstadium wieder fallen gelassen, wie z. B. Shell. Nach dem Jahr 2008 wusste jeder, dass die Subventions-Regimes nicht von Dauer sein konnten. Auch die Öffentlichkeit hat ihnen die neue PR-Botschaft nicht abgenommen.

Es war jetzt lediglich noch eine Frage der Zeit, bevor die führenden europäischen Pioniere bzgl. Wind und Solar, Deutschland und UK, zu dem Schluss gekommen sind, dass sie genug von den selbst auferlegten ökonomischen Schäden hatten. Angesichts des gerade zusammen brechenden deutschen Solar-Sektors und den in UK ins Bewusstsein dringenden Kosten für jeden Arbeitsplatz bzgl. Wind, deuten alle Anzeichen darauf hin, dass die langsame Implosion der Erneuerbaren-Revolution in vollem Gange ist.

Die nackte Tatsache lautet, dass die Installation von Solarpaneelen in der Nordhemisphäre etwa ökonomisch so sinnvoll ist wie wenn man dem Iran den Vorsitz der Menschenrechts-Kommission der UN übertragen würde (was übrigens schon mal passiert ist). Genauso war die Brauchbarkeit von Windparks immer das am schlechtesten gehütete Geheimnis der Erneuerbaren-Industrie.

Und doch wurden Windturbinen und die Photovoltaik-Industrie unter aggressiven und erheblich geförderten grünen Lobbys, linken Sozialingenieuren, einem erschreckenden Journalismus, naiven Politikern und skrupelloser opportunistischer Unternehmer bzgl. der Erneuerbaren rasch zu etablierten Tatsachen in der Landschaft, was ihnen den Anschein ökonomischer Realisierbarkeit verleiht. Warum sonst würde eine Regierung diese mit unserem Geld stützen?

Ich habe früher schon über Hamish’ geschrieben, der davon überzeugt ist, dass seine Investition in eine Windturbinen ihm etwas Gratis-Energie bietet – ‚gratis’, solange man den doppelten Schlag von Einspeisetarifen und anderer grüner Abgaben vorne sowie hohe Tarife von Stromrechnungen hinten übersieht, die von den Energie-Unternehmen für Andere eingeführt worden sind, die jetzt gezwungen werden, den Strom von Hamish zu Preisen über dem Marktwert zu kaufen.

Dazu kommen dann noch die Wartungskosten von Hamish, seine Notwendigkeit, über Strom aus Kohlenwasserstoffen als Backup zu verfügen, eine nur zeitweilige und unzuverlässige Erzeugung und die Tatsache, dass das Energie-Unternehmen sein Produkt nicht speichern kann, so dass es niemals genutzt werden wird.

Komischerweise ist Hamish ein radikaler grüner Sozialist, der seine Turbine gekauft hat, um der Gesellschaft Vorteile zu verschaffen. Niemals ist ihm der Gedanke gekommen, wie sehr seine grüne Extravaganz subventioniert worden ist, und zwar über stark erhöhte Stromrechnungen, die inzwischen Tausende in die Energiearmut getrieben haben. Das zeugt nicht von sehr viel sozialem Gewissen.

Ein für allemal: Wind- und Solarenergie ist niemals ‚gratis’, wie sehr das auch dem heimischen Kleinunternehmer so vorkommen mag. Wie bei jeder anderen Ressource auch muss irgendjemand irgendwo für die Entwicklung, Nutzung und Verteilung zahlen. Wenn das einzige Kriterium lautet, dass Wind und Solar gratis sind, kann man das Gleiche auch von Öl und Gas sagen [was ich schon seit Langem immer wieder betone! A. d. Übers.]. Und das bringt mich zu den jüngsten Katastrophen erneuerbarer Energie in großem Rahmen.

In Europa war Deutschland ein wesentlicher grüner Pionier, vor allem hinsichtlich Solarenergie. UK, das windigste Land in Europa, hat sich auf Windkraft konzentriert. In beiden Ländern jedoch lösen sich, bildlich gesprochen, in hohem Tempo die Räder vom Karren.

Im Juni hat die Sonne schließlich den deutschen Solarsektor überfallen, sahen doch Energieunternehmen, kleine und große, ihre Investitionen in Höhe von 21 Milliarden Pfund [knapp 25 Milliarden Euro] im Äther verschwinden. Wie ein deutscher Kommentator trocken anmerkte: „Nun schickt die Sonne schließlich doch eine Rechnung“.

Mitte Juni hat Siemens angekündigt, seine Sparte Solar zurückzufahren bis zur vollständigen Abwicklung im nächsten Frühjahr. Siemens ist in den Solarmarkt eingetreten mit dem Kauf des israelischen Unternehmens Solel, und zwar in dem Glauben, dass der Markt rapide wachsen würde. Dieses Lotteriespiel ist gescheitert. Siemens hat etwa 1 Milliarde Euro verloren.

Im März hat Bosch seinen Rückzug aus dem Markt von Solarzellen und –modulen signalisiert. Bosch-Manager Franz Fehrenbach, der bislang hinter den Aktivitäten des Unternehmens bzgl. Solarenergie seit dem Jahr 2008 gestanden hatte, hat außerdem eingeräumt, dass der deutsche Solarsektor ganz allgemein „zum Sterben verurteilt“ ist. Bosch wird sogar noch größere Verluste einfahren als Siemens, nämlich etwa 2,4 Milliarden Euro.

Aber es sind die privaten Investoren, die die volle Last der Verluste zu tragen haben, und zwar die früheren Senkrechtstarter am Aktienmarkt SolarWorld und Q-Cells in Deutschland, neben anderen Solarunternehmen. Sie haben mehrere zehn Milliarden Euro Kapitalverlust zu verkraften.

Unterdessen sorgt in UK die Windenergie erneut für Schlagzeilen, jedoch aus ganz unerwarteten negativen Gründen. Eine neue Analyse von Zahlen der Regierung und der Industrie enthüllte, dass jeder Arbeitsplatz in der Windindustrie in UK effektiv mit 100000 Pfund pro Jahr subventioniert wird. In manchen Fällen waren es sogar 1,3 Millionen Pfund. In Schottland mit seinen 230 Windparks an Land beläuft sich diese Summe auf 154000 Pfund pro Arbeitsplatz. Selbst bei der überaus optimistischen Schätzung für die Schaffung von 75000 Arbeitsplätzen in der Windindustrie würde diese Summe lediglich auf 80000 Pfund sinken.

Aber worauf die Renewable Energy Foundation, eine Denkfabrik in UK, schon hingewiesen hat: um die EU-Vorgaben von 15 Prozent des erzeugten Stromes aus erneuerbaren Quellen bis zum Jahr 2020 zu erfüllen – ein lächerlich unhaltbares Ziel – müssen die verschwenderischen Subventionen immer weiter steigen bis auf 6 Milliarden Pfund pro Jahr. Diese Zahlen berücksichtigen noch nicht die Kosten für das Land bei einem Abwandern energieintensiver Industrien; eine sehr reale Bedrohung, wenn die grünen Abgaben auf die Stromrechnungen weiter steigen. Die europäische Industrie und Kraftwerke haben sich schon jetzt in dem verzweifelten Bemühen, die Kosten niedrig zu halten, der Verbrennung von Millionen Tonnen aus Amerika importierter Holz-Pellets zugewandt. Und das geht dem Vernehmen nach zum Schaden der Wälder in den USA und einer daraus resultierenden Auswirkung auf das CO2-Niveau.

Die Aussichten auf schnelles Geld, wenn es um Schmiergeld-Subventionen der Regierung geht, war immer für Unternehmer attraktiv, ebenso wie für Firmengruppen und Investoren. Das Problem ist, dass verschwenderische Subventionen immer Gegen­stand dessen sind, was unsere gallischen Freunde die Guillotine nennen. Es gibt einen Punkt, an dem solche Dinge abbrechen – und dieser Punkt rückt sehr schnell immer näher.

In vielen Gebieten von Nordeuropa mögen Wind- und Solarprojekte weithin sichtbare Tatsachen sein. Aber die Schlagzeile der ökonomischen Realität hinter der erneuerbaren Energie ist und war immer deren schiere und nur zu offensichtliche „Nicht-Nachhaltigkeit“.

Und wie lautet der Tipp des Tages für Investoren im Energiemarkt? Ein Wort: Schiefergas. Das mag keine erneuerbare Ressource sein, aber mit Sicherheit eine nachhaltige – und weit jenseits unserer Generation.

The Commentator, 21 June 2013

Link: http://www.thegwpf.org/great-renewables-scam-unravels/

Übersetzt von Chris Frey EIKE




Das „Ensemble” von Modellen ist statistisch vollkommen bedeutungslos

rgbatduke sagt:

Wenn man sagt, dass wir einen bestimmten Zeitraum lang warten müssen, um zu der Schlussfolgerung zu gelangen, dass „die Modelle falsch sind“, ist das aus zwei Gründen gefährlich und falsch. Erstens – und dieser Punkt wird erstaunlich stark ignoriert – gibt es sehr viele verschiedene Modelle, die alle für sich in Anspruch nehmen, auf  der Physik zu basieren. Und doch ergeben keine  zwei von ihnen etwa die gleichen Ergebnisse!

Dies spiegelt sich in den von Monckton veröffentlichten Graphiken, wobei die AR5-Trendlinie das Mittel all dieser Modelle ist. Trotz der Anzahl der hierzu beitragenden [Modelle] ist die Varianz gewaltig. Falls jemand einen „Spaghetti-Graphen“ der einzelnen Modellprojektionen veröffentlicht (wie es Roy Spencer kürzlich in einem anderen Beitrag getan hat), sieht er aus, wie das ausgefranste Ende eines Seiles und nicht wie eine kohärente Verteilung um ein bestimmtes, von der Physik gestütztes Ergebnis.

Man beachte den impliziten Schwindel in dieser Graphik. Wenn man ein Mittel und die Standardabweichung über die Modellprojektionen bildet und dann dieses Mittel als eine „sehr wahrscheinliche“ Projektion und die Varianz als repräsentativ für die Fehlerbandbreite darstellt, behandelt man die Differenzen zwischen den Modellen so, als ob sie nicht-korrelierte Zufallsvarianten wären, die sich in einer Abweichung um das wirkliche Mittel scharten. 

Was soll denn das heißen?!

Es ist ein solch horrender Missbrauch von Statistik, dass man gar nicht so recht weiß, wo man am besten anfangen soll. Man möchte am liebsten dem Erzeuger dieser Graphik-Zusammenstellung – wer auch immer das war – eine runterhauen und dafür sorgen, dass diese Person niemals wieder etwas Wissenschaftliches oder Statistisches veröffentlicht. Man darf kein Ensemble unabhängiger und gleich verteilter Modelle erzeugen, die einen unterschiedlichen Code haben. Man kann eventuell ein einzelnes Modell erzeugen, das ein Ensemble von Vorhersagen erzeugt, indem man gleichartige Abweichungen (Zufallszahlen) verwendet, um „Rauschen“ (zur Repräsentation der Unsicherheit) in die Inputs mit eingehen zu lassen.

Was ich sagen möchte: die Varianz und das Mittel des „Ensembles” der Modelle ist vollständig bedeutungslos in statistischer Hinsicht, weil der Input nicht die wirklich grundlegenden Eigenschaften besitzt, die für eine bedeutungsvolle Interpretation erforderlich sind. Sie sind nicht unabhängig, ihre Unterschiede basieren nicht auf einer Zufallsverteilung von Fehlern, es gibt keinen wie auch immer gearteten Grund zu glauben, dass die Fehler oder Differenzen nicht auf Vorurteilen beruhten (unter der Voraussetzung, dass es nur eine einzige Möglichkeit für den Menschen gibt, etwas Vorurteilfreies zu erzeugen: nämlich die Verwendung eines Würfels oder anderer objektiver Zufallsgeneratoren).

Warum sollte man also diesen Unsinn hinnehmen und lineare Fits für eine Funktion – die globale Temperatur – anpassen, die niemals in ihrer gesamten Historie linear verlaufen ist, obwohl sie natürlich immer annähernd so glatt war, dass man jederzeit eine Taylor-Reihe in hinreichend kleinen Intervallen erzeugen und einen linearen Term erhalten kann, der – durch die Natur von Taylor-Reihen-Fits an nichtlinearen Funktionen – garantiert scheitern wird, wenn er extrapoliert wird, weil nichtlineare Terme höherer Ordnung sich draufsetzen und die Herrschaft übernehmen? Warum sollte man ein Lippenbekenntnis abgeben für die Vorstellung, dass R² oder p für eine lineare Anpassung oder für einen Kolmogorov-Smirnov-Vergleich der realen Temperaturaufzeichnung mit der extrapolierten Modellvorhersage irgendeine Bedeutung hätten? Sie haben keine.

Noch einmal: Es ergibt keine Bedeutung! Und ist unhaltbar in Theorie und Praxis der statistischen Analyse. Genauso könnte man ein Hexenbrett nehmen [siehe hier bei wikipedia, Bild oben rechts] als Basis für Behauptungen über die Zukunft des Klimas, und zwar als Ensemble-Mittel unterschiedlicher berechneter physikalischer Modelle, die sich nicht durch wirklich zufällige Variationen unterscheiden und die allen Arten von ausgelassenen Variablen unterworfen sind, dazu ausgewählten Variablen, der Implementierung und vorurteilsbefangener Initialisierung. Das Brett könnte uns die richtige Antwort liefern oder auch nicht, außer, dass es Glück bringen kann bei der Begründung einer Antwort auf irgendeiner vernünftigen Grundlage.

Wir wollen diesen Prozess einmal umkehren und tatsächlich die Verteilung der Modellergebnisse einer statistische Analyse unterwerfen. Zur Erinnerung: es geht um die Behauptung, dass sie alle nach den gültigen Gesetze der Physik korrekt implementiert sind. Zum Beispiel, wenn ich versuche, eine a priori-Berechnung der Feinstruktur – sagen wir – eines Kohlenstoff-Atoms durchzuführen, könnte ich damit so beginnen, dass ich ein Einzel-Elektronenmodell auflöse, wobei ich die Wechselwirkung zwischen den Elektronen unter Verwendung der Wahrscheinlichkeits-Verteilung des Einzel-Elektronenmodells bestimme, um eine sphärisch symmetrische „Dichte“ von Elektronen um den Kern zu erzeugen. Dann stelle ich eine in sich widerspruchsfreie Wiederholungs-Feldtheorie-Iteration auf  (indem ich das Einzel-Elektronenmodell für das neue Potential auflöse) bis es konvergiert. (Das ist als „Hartree-Approximation bekannt“).

Nun könnte jemand sagen „Moment mal, das ignoriert das Pauli-Ausschlußprinzip [Pauli exclusion principle]“ sowie die Forderung auf vollkommene Antisymmetrie der Elektronen-Wellenfunktion. Man könnte dann das (immer noch Einzel-Elektronen-)Modell komplizierter machen und eine Slater-Determinante [?] konstruieren, die man als vollständig antisymmetrische Repräsentation der Elektronen-Wellenfunktionen verwendet; sodann die Dichte erzeugen und die widerspruchsfreie Feldberechnung zur Konvergenz durchführen (das ist Hartree-Fock).

Jemand anders könnte dann darauf hinweisen, dass dies immer noch die „Korrelations-Energie“ des Systems unterschätze, weil das Behandeln der Elektronenwolke als kontinuierliche Verteilung die Tatsache ignoriert, dass einzelne Elektronen sich stark abstoßen und folglich nicht in die Nähe eines anderen kommen wollen. Beide frühere Herangehensweisen unterschätzen die Größe des Elektronen-Loches und machen das Atom folglich „zu klein“ und „zu stark gebunden“. Eine Palette von Schemata wird zur Behandlung dieses Problems vorgeschlagen – wobei die Verwendung einer semi-empirischen lokalen Dichtefunktion das wahrscheinlich erfolgreichste ist.

Und noch jemand könnte dann anmerken, dass das Universum wirklich relativistisch ist, und dass wir beim Ignorieren der Relativitätstheorie und der Durchführung einer klassischen Berechnung einen Fehler einführen in alles oben Gesagte (obwohl es in das halb empirische LDF-Verfahren heuristisch eingebracht werden kann).

Am Ende könnte man sehr gut ein „Ensemble” von Modellergebnissen in der Hand haben, die alle auf der Physik basieren. Tatsächlich basieren auch die Unterschiede auf der Physik. Die  von einem Versuch zum nächsten weggelassene Physik, oder die zur Annäherung und zur Einbringung der Physik verwendeten Methoden, können wir nicht in eine Berechnung der Grund-Prinzipien einschließen (man beachte, wie ich mit der LDF eine semi-empirische Note eingeschmuggelt habe, obwohl man Dichtefunktionen aus den Grund-Prinzipien ableiten kann (z B. Thomas-Fermi-Approximation), die normalerweise nicht besonders gut sind, weil sie nicht im gesamten Bereich der in wirklichen Atomen beobachteten Dichte gültig sind). Was ich hervorheben möchte, die Durchführung der präzisen Berechnung ist keine Option. Wir können das Vielkörperproblem in der Quantentheorie nicht mehr exakt lösen, wie wir auch nicht mehr das Vielkörperproblem in der klassischen Theorie exakt lösen können, auch nicht den Satz von offenen, nicht-linearen, gekoppelten, gedämpften, angetriebenen Navier-Stokes-Gleichungen in einem nicht-inertialen Bezugsrahmen, wie es das Klimasystem darstellt.

Wohlgemerkt: die Lösung der exakten, vollständig korrelierten, nichtlinearen Elektronen-Wellenfunktion des einfachen Kohlenstoffatoms – oder des weitaus komplexeren Uranatoms – ist trivial einfach (hinsichtlich der Berechnung) im Vergleich zum Klimaproblem. Wir können beides nicht berechnen, aber wir können einer konsistenten Annäherung an die Lösung von Ersterem viel näher kommen als bei Letzterem.

Sollten wir also das Ensemble-Mittel von „physikalisch fundierten” Modellen heranziehen, um die Quanten-Elektron-Struktur eines Kohlenstoffatoms zu bestimmen und dieses als die beste Vorhersage der Kohlenstoff-Quantenstruktur ansehen?

Nur wenn wir sehr dumm, oder geisteskrank sind, oder etwas glauben machen wollen. Wenn man das von mir Gesagte sorgfältig liest (was Sie vielleicht nicht getan haben – man überliest vieles, wenn ein Jahr oder mehr an Elektronen-Quantentheorie in einigen Sätzen zusammengefasst wird, dabei habe ich noch die Perturbations-Theorie, die Feynman-Diagramme usw. ausgelassen), merkt man, dass ich geschummelt habe – ich bin in eine semi-empirische Methode geraten.

Wer wird gewinnen? LDF natürlich. Warum? Weil die Parameter so angepasst sind, dass dabei der beste Fit für das wirkliche empirische Spektrum von Kohlenstoff herauskommt. Alle anderen unterschätzen das Korrelations-Loch, die Fehler werden systematisch vom korrekten Spektrum abweichen. Ihr Mittel wird systematisch abweichen. Durch die Gewichtung von Hartree (dümmster vernünftiger „auf der Physik beruhender Ansatz“) in gleichem Maße wie wie LDF beim „Ensemble“-Mittel wird garantiert, dass der Fehler in diesem „Mittel“ signifikant sein wird.

Nehmen wir mal an, wir wüssten nicht (ganz so, wie wir mal nicht wussten), welches Modell die besten Ergebnisse brächte. Nehmen wir weiter an, dass niemand das Spektrum von Kohlenstoff wirklich gemessen hätte, so dass dessen empirische Quantenstruktur unbekannt wäre. Wäre das Ensemble-Mittel dann sinnvoll? Natürlich nicht. Ich habe die Modelle in der Weise präsentiert, wie die Physik selbst eine Verbesserung vorhersagt – und habe später wichtige Details hinzugefügt, die von Hartree ausgelassen wurden. Man kann nicht sicher sein, dass das nachträgliche Hinzufügen dieser Details die Dinge wirklich verbessert, weil es immer möglich ist, dass die Korrekturen nicht monoton sind (und tatsächlich sind sie es in höheren Größenordnungen der Perturbations-Theorie mit Nahezu-Sicherheit nicht). Und doch würde niemand so tun, als sei das Mittel aus einer Theorie und einer verbesserten Theorie  „wahrscheinlich“ besser als die verbesserte Theorie selbst, weil das sinnlos wäre. Auch würde niemand behaupten, dass Ergebnisse der diagrammatischen Perturbations-Theorie notwendigerweise semi-heuristische Methoden wie LDF in den Schatten stellen könnten, weil das oft genug nicht der Fall ist.

Was man in der realen Welt tun würde wäre: das Spektrum von Kohlenstoff messen, dies mit den Vorhersagen des Modells vergleichen und erst dann dem Gewinner den Siegerkranz aushändigen. Niemals umgekehrt. Und da keiner der Gewinner exakt sein wird – tatsächlich war trotz jahrzehntelanger Forschung keiner der Gewinner auch nur in der Nähe beobachteter/gemessener Spektren, trotz des Gebrauchs von Supercomputern für die Berechnungen (zugegeben, die waren damals langsamer als Ihr Mobiltelefon heute) – würde man dann dennoch zurück am Zeichenbrett und der Eingabe-Konsole versuchen, es besser zu machen?

Können wir diese Art sorgfältigen Nachdenkens auf den Spaghetti-Knoten der GCMs und ihrer erheblich divergierenden Lösungen anwenden? Natürlich können wir das! Zuerst sollten wir aufhören so zu tun, als ob das „Ensemble“-Mittel und die Varianz irgendeine Bedeutung hätten und sie einfach nicht mehr berechnen. Warum sollte man eine bedeutungslose Zahl ausberechnen? Zweitens könnten wir wirkliche Klimaaufzeichnungen von einem beliebigen „Epochen-Startpunkt“ nehmen – der Startpunkt spielt langfristig keine Rolle, wir müssen den Vergleich über einen langen Zeitraum durchführen, weil für jeden beliebigen kurzen Zeitraum  von einem beliebigen Startpunkt aus ein vielartiges Rauschen die systematischen Fehler verschleiert – und wir können nur die Realität mit den Modellen vergleichen. Wir können dann die Modelle aussortieren, indem wir (mal angenommen) alle außer den oberen fünf in eine Art von „Fehler-Papierkorb“ legen und sie nicht mehr für irgendeine Art Analyse oder politische Entscheidungsprozesse heranzuziehen, es sei denn, sie fangen an, sich mit der Wirklichkeit zu vertragen.

Danach könnten sich echte Wissenschaftler hinsetzen und die fünf Gewinner betrachten – und darüber nachdenken, was sie zu Gewinnern gemacht hat – was sie dazu gebracht hat, der Realität am nächsten zu kommen – und den Versuch machen, sie noch besser zu machen. Zum Beispiel, wenn sie weit oben rangieren und von den empirischen Daten divergieren, könnte man überlegen, früher nicht beachtete physikalische Phänomene hinzuzufügen, semi-empirische oder heuristische Korrekturen oder Input-Parameter anzupassen, um den Fit zu verbessern.

Dann kommt der schwierige Teil – Abwarten. Das Klima ist nicht so einfach gebaut wie ein Kohlenstoffatom. Das Spektrum von Letzterem ändert sich nie, es ist immer gleich. Ersteres ist niemals gleich. Entweder ein dynamisches Modell ist niemals das Gleiche und spiegelt die Variationen der Realität, oder man muss sich damit abfinden, dass das Problem ungelöst und die unterstellte Physik falsch ist, wie „wohlbekannt“ auch immer diese Physik ist. Also muss man abwarten und sehen, ob ein Modell, das adjustiert und verbessert worden ist und das auf die Vergangenheit bis zur Gegenwart besser passt, tatsächlich einen Vorhersage-Wert hat.

Am schlimmsten ist, dass man nicht einfach mit Statistik entscheiden kann, wann und warum Vorhersagen scheitern, weil das verdammte Klima nicht-linear ist, nicht-Markovianisch, stattdessen chaotisch und offensichtlich auf nichttriviale Weise beeinflusst ist von einem globalen Wettbewerb von gegensätzlichen und manchmal sich aufhebenden, kaum verstandenen Faktoren: Ruß, Aerosole, Treibhausgase, Wolken, Eis. Dekadische Oszillationen, Störungen, entstanden aus dem chaotischen Prozess, die globale, anhaltende Änderungen der atmosphärischen Zirkulation auf lokaler Basis verursachen (z. B. blockierende Hochdruckgebiete über dem Atlantik, die dort ein halbes Jahr lang liegen bleiben). Diese Änderungen haben gewaltige Auswirkungen auf jährliche oder monatliche Temperaturen, Regenmengen und so weiter. Dazu orbitale Faktoren, solare Faktoren. Änderungen der Zusammensetzung der Troposphäre, der Stratosphäre, der Thermosphäre. Vulkane. Änderungen bei der Landnutzung. Algenblüten.

Und dann dieser verdammte Schmetterling. Jemand muss dieses blöde Ding zerquetschen, weil der Versuch, ein Ensemble aus einer kleine Stichprobe aus einem chaotischen System zu mitteln, so dumm ist, dass ich mich gar nicht damit befassen kann. Alles ist gut, solange man über ein Intervall mittelt, das kurz genug ist, um an einen bestimmten Attraktor gebunden zu sein, der schwingt und alles vorhersagbar macht – und dann mit einem Male ändern sich die Attraktoren und alles mit ihnen! All die kostbaren Parameter, empirisch fein eingestellt auf den alten Attraktor müssen nun durch neue Werte ersetzt werden.

Das ist der Grund, warum es tatsächlich unsinnig ist, der Vorstellung zuzustimmen, dass irgendeine Art p-Werte oder R², der aus irgendeinem Mittel im AR 5 abgeleitet ist, irgendeine Bedeutung hätte. Diese Vorstellung verliert ihren hohen Stellenwert (sogar dann noch, wenn man in guter Absicht zu argumentieren versucht, dass dieses „Ensemble“ elementare statistische Tests nicht bestünde). Statistisches Testen ist eine wahrhaft wackelige Theorie, offen für Datenmanipulation und horrende Fehler, vor allem, wenn sie von zugrunde liegenden IID-Prozessen [Independent and identically distributed processes] gesteuert wird („grüne Bohnen verursachen Akne“). Man kann nicht naiv ein Kriterium anwenden, wie z. B. „falsch, wenn P < 0,05“, und all das bedeutet im günstigsten Fall, dass die gegenwärtigen Beobachtungen unwahrscheinlich sind bei einer gegebenen Null-Hypothese von 19 zu 1. Auf solchem Niveau verlieren und gewinnen Spieler immer wieder ihrer Wetten.

Also möchte ich empfehlen – in aller Bescheidenheit – , dass die Skeptiker weiter hart bleiben, sich nicht auf dieses Feld locken lassen und durch Diskussionen über Fragen ablenken lassen, wie z. B. warum die Modelle in so erschreckender Weise untereinander abweichen, selbst wenn man sie auf identische Spiel-Probleme anwendet, die viel einfacher sind als die wirkliche Erde. Und ich möchte empfehlen, dass wir empirische Beweise nutzen (es werden immer mehr), um gescheiterte Modelle zurückzuweisen, und dass wir uns auf diejenigen konzentrieren, die der Realität am nächsten kommen. Dabei darf man keine Modelle benutzen, die offensichtlich überhaupt nicht funktionieren, und vor allem keine mit irgendwelchen Arten von Vorhersagen „durchschnittlicher“ zukünftiger Erwärmung …

Bei meiner verhältnismäßigen Ignoranz würde es mich fünf Minuten kosten, alle GCMs außer den besten 10 Prozent auszusortieren (auch diese divergieren noch hinsichtlich der empirischen Daten, liegen jedoch noch innerhalb der erwarteten Fluktuation des Datensatzes). Dann würde ich den Rest aufteilen in eine obere Hälfte mit den Modellen, die man eventuell behalten und möglicherweise verbessern könnte, und in eine zweite Hälfte, deren weitere Verwendung ich für Zeitverschwendung halte. Das würde sie natürlich nicht zum Verschwinden bringen, aber in die Mottenkiste. Falls sich das zukünftige Klima jemals magischerweise dazu aufraffen sollte, zu den Modellen zu passen, wäre es nur eine Frage weniger Sekunden, sie wieder hervorzuholen und zu benutzen.

Natürlich, wenn man das tut, fällt die von den GCMs vorhergesagte Klimasensitivität von den statistisch betrügerischen 2,5°C pro Jahrhundert auf einen wesentlich plausibleren und möglicherweise immer noch falschen Wert von etwa 1°C pro Jahrhundert. Dieser Wert – Überraschung! – stellt mehr oder weniger eine Fortsetzung des Erwärmungstrends nach der Kleinen Eiszeit dar mit einem möglicherweise kleinen anthropogenen Beitrag. Diese große Änderung würde zu einem großen Aufruhr führen, weil die Leute merken würden, wie sehr sie von einer kleinen Gruppe von Wissenschaftlern und Politikern ausgenutzt worden sind, wie stark sie Opfer von unhaltbarem statistischen Missbrauch geworden sind, indem man ihnen suggeriert hat, dass sie alle stimmen mit gewissen Unterschieden an den Rändern.

Link: http://wattsupwiththat.com/2013/06/18/the-ensemble-of-models-is-completely-meaningless-statistically/

Übersetzt von Chris Frey EIKE unter Mithilfe von Helmut Jäger




Vestas plant Medien – Kampagne für Windkraftanlagen!

Die "Danish Financial Daily Børsen" meldete vor einigen Tagen, dass Vestas Wind Systems Plc den Gegnern der Windkraft "den Krieg erklären" wolle.
Die dänische Windkraft-Firma startet derzeit eine Publikationsoffensive und einen Lobby-Feldzug mit dem Ziel, die "schweigende Mehrheit" für die Windkraft zu aktivieren, damit es Unterstützung für den weiteren Ausbau der Windenergie gibt.
Die Kampagne "Mit Faktenwissen agieren" wird in Australien gestartet, dort befindet sich laut Vestas ein Brutnest für die Anti-Winkraft-Bewegung. Vestas kooperiert mit der Windkraft-Entwicklungsfirma Infigen Energy, mit Australischen Universitäten und Grünen Pressure Gruppen.
"Die Anti-Winkraft-Bewegung stellt eine kleine, aber gut organisierte Minderheit dar, der es gelungen ist, einige ungeheuerliche Fakten über die Windkraft zu verbreiten", schrieb der Vestas Kommunikations- und Marketingchef Morten Albaeck in einer Presseverlautbarung.
Wenn die Kampagne im Pilotland Australien Erfolg hat, wird sie in anderen Ländern fortgesetzt.

Übersetzung und Einleitung: Helmut Jäger, EIKE




Interview mit Benny Peiser, Gründer der GWPF

Benny Peiser, Direktor der Global Warming Policy Foundation

Das scheiternde Modell grüner Energie in Europa hat eine grüne Elite immer reicher gemacht, während Millionen in die Energiearmut gefallen sind.

Frontier Centre (FC): Warum haben Sie eine Global Warming Policy Fondation ins Leben gerufen?

Benny Peiser (BP): Nun, das war wichtig, weil es einfach keinerlei Debatte irgendeiner Art in UK gab. Zur Zeit der Gründung im Jahr 2009 stimmten alle Parteien vollständig überein. Fast alle Bereiche der Medien stimmten vollständig überein. Wir hielten das für ungesund. Wir waren davon überzeugt, dass wir einer lebhaften Debatte bedürfen, und das ist das Hauptziel unserer Organisation.

FC: Warum aber haben Europa und UK den Gedanken einer vom Menschen verursachten Klimaänderung so umfassend begrüßt?

BP: Es ist nicht nur UK. Es ist ganz Europa. Die Angst vor der Klimaänderung ist aus einer ganzen Reihe von Gründen zu einer kollektiven Besessenheit geworden. Die Medien machten aus offensichtlichen Gründen einen Hype daraus, die Wissenschaftler auch. Dann nahm diese Angst die Vorstellung weiter Teile der Gesellschaft gefangen, aber niemand wollte sich die Mühe machen, die ureigene Grundlage dieser Angst genau zu untersuchen. Wir glaubten, dass wir beides machen müssen: a) Sehr sorgfältig auf die Behauptungen und die Vorhersagen schauen; nicht so sehr auf die Wissenschaft, sondern mehr auf die Art von Behauptungen, in denen es darum geht, was in der Zukunft passiert und b) im Besonderen, welche ökonomischen Kosten die politischen Maßnahmen nach sich ziehen, die eingeführt und gefördert worden sind.

FC: Sie haben in ihren Ausführungen erwähnt, dass die Politik die größte Umverteilung von Wohlstand von unten nach oben, von den Armen zu den Reichen involviert. Können Sie das näher ausführen?

BP: Wir sprechen über einen Wohlstands-Transfer in einer Größenordnung von etwa 600 Milliarden Euro während der letzten acht Jahre. An grüne Investoren, hauptsächlich Landbesitzer und sehr wohlhabende Familien, die große Solarpaneele auf ihre Dächer montiert haben, wurden umfangreiche Subventionen gezahlt. Diese 600 Milliarden Euro mussten von normalen Familien und kleinen bis mittleren Unternehmen aufgebracht und an die privilegiertesten Mitglieder der europäischen Gesellschaft gezahlt werden. Das ist der größte Wohlstands-Transfer im modernen Europa seit sehr, sehr langer Zeit, wenn nicht jemals.

FC: Sie beleuchteten die Ironie in den USA, in denen es keine Politik zur Klimaänderung gibt und der Ausstoß von Treibhausgasen trotzdem abnimmt, während in Europa die Emissionen steigen trotz der eigenen interventionistischen Politik.

BP: Nun, es ist sozusagen geologisches Glück für Amerika, dass all diese riesigen Reserven von Schiefergas entdeckt worden sind, und zwar nicht als Ergebnis der Politik der Regierung. Tatsächlich wäre die Regierung vielleicht sogar zögerlicher gewesen als der private Sektor bei der Ausbeutung der Schieferreserven, aber als eine direkte Folge der Funde dieser überaus ergiebigen Form von Erdgas wurde Gas so billig, dass sie im Wettbewerb mit Kohle bestehen konnte. Es gibt in den USA eine starke Bewegung von Kohle- zu Gaskraftwerken. Dies ist aus sich selbst heraus verantwortlich für den signifikanten CO2-Rückgang in den USA. In Europa war man dagegen bislang sehr gegen die Extraktion von Schiefergas und setzt auf Kohle. Daher das entgegen gesetzte Ergebnis.

FC: Es wurde gesagt, dass ‚grün das neue rot ist’. Tatsächlich hat ein Landsmann von Ihnen ein Buch über die Wassermelonen geschrieben. Es scheint auch eine Verbindung zu geben zwischen dieser Art der Bewegung und der Besessenheit von Planung. War dies Teil Ihrer Observierung als ein sozialer Wissenschaftler?

BP: Nun, es wäre für uns alle viel einfacher, wenn es lediglich um einen Fall für die Linken geht, die sich dieses Themas annehmen. Unglücklicherweise befürwortet in Europa aber leider jede Partei egal welcher politischen Überzeugungen die Planwirtschaft und ist grün geworden. Es ist überhaupt keine Angelegenheit der Linken in Europa. Es ist vollständig und total von allen Parteien begrüßt worden, und die rechten brennen genauso auf die Planwirtschaft wie die Linken. [Hervorhebung vom Übersetzer!]

FC: Bleiben wir noch einen Moment bei diesem Aspekt. Eine der vielen Dinge, die Sie in ihrem Vortrag angesprochen haben und die die Leute beeindruckt haben, war diese Analogie zur Religion. Sie sprachen über Kruzifixe und Schiefergas. Es weckt Assoziationen zu „The Pursuit of the Millennium” von Norman Cohn. Können Sie dazu noch etwas sagen?

BP: Offensichtlich gibt es viele Ähnlichkeiten zwischen der Hysterie um die globale Erwärmung einschließlich des salvationistischen Armes der Angst. Einerseits gibt es die Befürchtung, dass wir vor dem Untergang stehen. Andererseits lautet die salvationistische Lösung, Windparks zu errichten. Also gibt es sehr viele Ähnlichkeiten zwischen einer Bewegung über die Jahrtausende, die während ihrer gesamten Historie säkulare Bewegungen wie den Kommunismus einschließt, in dem ein Hype um die Angst erzeugt wird und eine salvationistische und utopische Lösung angeboten wird. In fast allen diesen Fällen ist es die Elite, die die Angst befeuert und die Lösung vorschlägt, und es ist die Elite, die von diesen Lösungen profitiert. Die einzigen Menschen in Europa, die wirklich riesige Profite daraus schlagen, sind grüne Investoren. Das sind weniger als 1%. Drückt man das in der Sprache der Wall Street aus, würde man sagen, dass es weniger als 1% der Bevölkerung ist, der riesige Summen Geldes auf dem Rücken dieser Angst verdient.

FC: Die Klimamodelle funktionieren nicht, und da gibt es diese schlimme Stille da draußen darüber. Sie sagen 2 Grad Erwärmung voraus, die nicht eintreten. CO2 steigt, aber wir haben sehr kaltes Wetter. Glauben Sie, dass die Medien eventuell einräumen werden, dass die Fakten einfach nicht zur Theorie passen?

BP: Die Medien in UK sind geteilt. Ich glaube nicht, dass irgendein anderes Land als UK eine so lebhafte Medienszene aufweist. Die Medien sind extrem geteilt. Es gibt die Mitte-Rechts-Medien, einige der nationalen Zeitungen, die Murdoch-Veröffentlichungen, die viel skeptischer sind und genau darüber schreiben, was Sie fragen zu den Diskrepanzen zwischen den Modellen und den Vorhersagen und der Realität. Dann gibt es da die Mitte-Links-Medien einschließlich der BBC, die immer sehr zögerlich waren, über irgendetwas zu berichten, was dem grünen Narrativ widersprach. Das meine ich mit geteilt, aber die Tatsache, dass man sehr signifikante Sektionen der Medien hat, die sehr kritisch sind, macht den ganzen Unterschied aus. Das hat die Parlamentsabgeordneten beeinflusst, sehr viele von ihnen, und diese sagen jetzt, dass man etwas hinsichtlich der Kosten unternehmen müsse.

FC: Wir haben in Kanada Politiker, die immer noch Kohlenstoffsteuern erheben und sogar einen Zertifikatehandel einführen wollen. Aber Ihrer Geschichte von Europa zufolge sind die dortigen Folgen nicht ermutigend. Was geschah mit dem Zertifikatehandel und Kohlenstoffsteuern in Europa?

BP: Nun, der ist im Wesentlichen zusammen gebrochen. Das ganze System des Emissionshandels ist vollständig zusammen gebrochen, und zwar inzwischen bis zu einem Ausmaß, dass das Europaparlament nicht länger gewillt ist, dieses System noch zu retten. Ein wichtiges Ereignis fand erst vor etwa vier Wochen statt – das war wie ein Alarmruf, dass Europa nicht länger gewillt ist, egal was es kostet, das sinkende Flaggschiff der europäischen Klimapolitik, nämlich den Emissionshandel zu unterstützen. Dieser ist vollständig und total gescheitert. Also lautet die Botschaft an das kanadische Publikum, wer immer dort es hören will, dass man sich anschauen muss, was in Europa passiert und nicht die gleichen Fehler wie dort zu wiederholen. Man sei vorsichtiger und stürze sich nicht in Risiken. Man warte ab und lerne seine Lektion aus dem Scheitern in Europa, das vollständige Scheitern der europäischen Klimapolitik.

FC: Wir haben einige Provinzen, besonders British Columbia, die eine Kohlenstoffsteuer eingeführt haben. Das ist politisch korrekt, und viele Politiker scheinen das zu begrüßen. Sind Sie skeptisch hinsichtlich der Idee einer Kohlenstoffsteuer?

BP: Nein, jedenfalls nicht aus Prinzip. Tatsächlich werden wir demnächst einen Bericht zu einer Kohlenstoffsteuer von Ross McKitrick veröffentlichen. Wenn man wirklich ernsthaft das Problem der globalen Erwärmung angehen will, würde man eigentlich die Steuer an die Temperatur koppeln und sagen: Wenn es wirklich ein reales Problem mit der globalen Erwärmung gibt, steigt die Steuer, und wenn das nicht der Fall ist, gibt es keine Steuer. Also können beide Seiten im Prinzip mit diesem Gedanken zufrieden sein. Offensichtlich würde keine Regierung jemals eine Steuer einführen, bei der die Temperatur anstatt des Finanzministers den Finger am Griff dieser Steuer hat. Aber eine solche Politik würde mit Sicherheit die grüne Lobby herausfordern und zeigen, dass deren politische Maßnahmen wenig sinnvoll sind und dass man tatsächlich eine kosteneffektive Lösung finden muss, um das Problem der globalen Erwärmung anzugehen. Kurz gesagt, ich bin nicht aus Prinzip gegen eine Kohlenstoffsteuer, aber sie muss auf eine Art und Weise eingeführt werden, die ökonomisch Sinn macht und es dabei tatsächlich um diese Angelegenheit geht. Man will etwas gegen die globale Erwärmung tun? Dann muss die Steuer a) mit dem Problem verknüpft werden und b), wenn es kein Problem gibt, soll es auch keine Steuer geben, und c) sie muss ggf. international kommen. Es ist nicht gut, das als Einzelner einzuführen. Was in Europa und speziell in UK im Wesentlichen passiert ist, dass wir unsere Emissionen via Industrieproduktion dort nach China exportiert haben. Von dort kommen jetzt alle CO2-Emissionen. Wir importieren dann die fertig hergestellten Produkte, haben aber die Emissionen exportiert. Wir haben die Emissionen ausgesondert, indem wir den Herstellungsprozess ausgesondert haben. Es gibt keine Auswirkungen auf die CO2-Emissionen, wenn man diese einfach woanders hin auslagert.

FC: Sie haben heute erwähnt, dass heute wegen dieser politischen Maßnahmen in England 30000 Menschen zusätzlich sterben.

BP: Nicht wegen dieser Maßnahmen. Sie sterben, weil ihre Wohnungen in England nicht mehr ordentlich beheizt sind. Das war zwar schon vor Einführung dieser Maßnahmen der Fall, aber nach der Einführung ist dieses Problem erheblich schlimmer geworden. Immer mehr Familien kämpfen mit enormen Anstiegen der Energiepreise, was es für diese Menschen immer schwieriger macht, ihre Wohnungen während kalter Winter ausreichend zu heizen. Dann gibt es Wintertote.

FC: Die kanadische Regierung arbeitet weiterhin mit dem Narrativ der Warmisten, nämlich dass CO2 ein Problem ist und dass wir unsere Emissionen reduzieren müssen. Wir nennen es eine Kopf-in-den-Sand-Strategie, denn man kann das nicht tun, wenn das Narrativ falsch ist. Haben Sie irgendwelche anderen Vorschläge an die Regierung?

BP: Der Schlüsselgrundsatz, dem die GWPF in UK folgt, lautet: Seht, es geht nicht um die Wissenschaft. Die Wissenschaft ist zweitrangig. Es geht hauptsächlich um Klimapolitik und die Kosten dieser Politik und deren Maßnahmen, die man einführt. Kurz gesagt, die Maßnahmen müssen sinnvoll sein. Wenn man also der globalen Erwärmung entgegen treten will, muss man zuallererst ein internationales Abkommen haben. Ist dieses nicht vorhanden, werden einseitige Maßnahmen keine Auswirkungen irgendwelcher Art auf CO2 oder Emissionen oder das Wetter haben. Folgen Sie also nicht einseitigen Zielen, die Sie einseitig schädigen. Wenn man umweltfreundliche Maßnahmen ergreifen will, mache man das so, dass die Menschen davon profitieren. Und nicht so, dass die Menschen geschädigt werden. Das ist eine ganz andere Vorgehensweise. Wir sagen nicht: lassen Sie das, weil die Wissenschaft zweifelhaft ist, weil kein politischer Entscheidungsträger das heute so sagen würde – mit nur sehr, sehr wenigen Ausnahmen. Es bedarf eines sehr, sehr exzentrischen Politikers, wenn dieser sagt: Sehen Sie, ich höre dem Wissenschafts-Berater und der wissenschaftlichen Gemeinschaft nicht zu, weil ich es besser weiß. Ich weiß, dass die Wissenschaft zweifelhaft ist, darum werde ich die Politik ändern. Das ist keine ausreichende Basis für einen rationalen Politiker. Man muss sehr logisch und ökonomisch einwandfrei klingende Argumente haben, warum man bestimmte Maßnahmen übernimmt und warum man andere Maßnahmen ablehnt – unabhängig vom Stand der Wissenschaft. Schließlich könnte es weitere zehn oder zwanzig Jahre dauern, bevor wir besser wissen, wie gut die Wissenschaft ist. Soweit ich weiß, kann es in beide Richtungen gehen. Ich sage nicht, dass die Skeptiker recht haben und das konventionelle Wissen falsch ist. Wer bin ich, dass ich eine solche Entscheidung treffen kann? Es kann sein, dass beide Seiten falsch liegen, aber wir sind noch nicht an einem Punkt, wo die Richtung eindeutig feststeht.

FC: Sie haben heute über Glaubenssysteme gesprochen und den Terminus ‚religiöser Kult’ benutzt sowie Parallelen zum Sozialismus gezogen. Können Sie das näher ausführen?

BP: Nun, die Parallele zum Sozialismus ist ziemlich geradlinig. Es ist, als ob es die Regierung am besten weiß, die Regierung wird dies oder das verwerfen, die Regierung wird im Voraus planen und sie wird Gewinner aussuchen. Es ist der Gedanke der Regierungs-Planung, und Regierungspläne und –ziele sind Lösungen eines komplexen Systems, und diese Planwirtschaft haben eine armselige Geschichte hinter sich, und ich sehe keinerlei Gründe, warum es diesmal besser laufen soll als die vielen Fiaskos, zu denen es dabei in der Vergangenheit gekommen war. Hier also kommt die Gleichartigkeit zur alten, sozialistischen Planwirtschaft ins Spiel. Ausgedrückt mit Termini eines religiösen Glaubenssystems ist es der Unwille zu Diskussionen; es ist wie ein Dogma, das man nicht in Frage stellen kann. In einer offenen Gesellschaft sollte es keine Dogmen geben, schon gar nicht in der Wissenschaft, der Wirtschaft oder bei politischen Entscheidungen. Die Tatsache, dass sie nicht willens sind, in eine offene Debatte einzutreten, ist ein Hinweis darauf, dass sie die ganze Sache von einer genauen Prüfung ausschließen wollen, und das ist ein typisches Anzeichen von Engstirnigkeit und ein religiöses Zeichen von Glaube oder einem Glaubenssystem.

Sie haben kurz den Schaden für den wissenschaftlichen Prozess gestreift. Können Sie dazu noch ein paar Worte sagen?

BP: Nun, meiner Ansicht nach hat die wissenschaftliche Gemeinschaft einen schlimmen Fehler gemacht, als sie eine starke und einseitige Sicht von einer hoch komplexen und umstrittenen Angelegenheit übernommen hat, die alles andere als settled ist. Ich sage nicht, dass ich die richtige Antwort kenne, aber ich bin ziemlich sicher, dass diese Debatte alles andere als abgeschlossen ist. Es gibt noch viel zu viele offene Fragen. Einige Fragen können gelöst sein, aber die sind irrelevant im Vergleich zu der über allem stehenden Frage hinsichtlich der nächsten 100 Jahre. Vor allem hinsichtlich der Frage, ob die Klimaänderung zu irgendwelchen signifikanten Katastrophen führt oder nicht. Nach allem, was ich weiß, wäre ein wenig Erwärmung sehr vorteilhaft und könnte viel Gutes bewirken. Ein wenig Erwärmung war während ihrer gesamten Geschichte für die Gesellschaft vorteilhaft. Es ist das Niveau und die Breite der künftigen Erwärmung – ich denke, dass es hier keinerlei Übereinstimmung irgendeiner Art gibt. Selbst wenn man die grundlegendsten physikalischen Phänomene akzeptiert, ist es alles andere als klar, was das langfristig bedeutet.

FC: Können Sie abschätzen, ob sich Europa jemals aus diesem selbst geschaffenen Loch herausziehen kann?

BP: Man scheint in Europa hinsichtlich einiger einseitiger politischer Maßnahmen zurückzurudern. Politische Entscheidungsträger überlegen sich jetzt, die grüne Dekarbonisierungs-Agenda zu verlangsamen. Aber wenn Europa auf diesem einseitigen Weg weiter vorangeht, dann, so glaube ich, haben sie dort kaum eine Chance im internationalen Wettbewerb des 21. Jahrhunderts.

FC: Vielen Dank!

View as PDF (3 pages)

Link: http://www.fcpp.org/publication.php/4586

Übersetzt von Chris Frey EIKE




Der Kollaps des Schwindels um die globale Erwärmung geht weiter

Dirigiert innerhalb der Kammern der korruptesten internationalen Organisation auf dem Planeten Erde, also den Vereinten Nationen, hat dieser Schwindel zum Kyoto-Protokoll im Dezember 1997 geführt, in dem Grenzen der Kohlendioxid-Emissionen festgeschrieben worden waren. Die Klima-Scharlatane der UN behaupteten, dass das CO2 zu einer dramatischen Erwärmung der Erde führen würde. Es war eine Lüge. Der US-Senat hat es einstimmig abgelehnt, das zu ratifizieren, und Kanada hat sich im Jahr 2011 daraus zurückgezogen.

Wie der geschäftsführende Direktor von CFACT Craig Rucker von den kürzlichen Klimaberatungen der UN in Bonn berichtet, hat Russland zusammen mit der Ukraine und Weißrussland die Übernahme der Agenda der „Tochtergesellschaft der Implementation“, Teil des Weges zu einem Klima-Abkommen im Jahr 2015 in Paris, blockiert. Teil dieses Abkommens ist ein System, um den Wohlstand der entwickelten Nationen zu den weniger entwickelten Nationen umzuverteilen.

Die Russen hatten von diesen normalerweise hinter verschlossenen Türen  stattfindenden Prozessen, die solche Verträge hervorbringen, die Nase voll, aber zweifellos waren sie sich bewusst, dass ein solches Abkommen den UN so viel Macht zukommen lassen würde, dass sie einen großen Teil der ökonomischen Aktivitäten auf der ganzen Welt kontrollieren könnten. Alle UN-Verträge verpflichten die Nationen, einen Teil ihrer nationalen Souveränität aufzugeben.

Es gibt ganz klar einen Rückschlag für den Schwindel der globalen Erwärmung, vor allem von Nationen, denen plötzlich die Kosten für ihre Ökonomien klar geworden sind, die die idiotischen Schemata „erneuerbarer“ Energie und der Reduzierung von Emissionen verursachen. In der realen Welt machen sie die Erfahrung längerer und strengerer Winter als Folge des Abkühlungszyklus’, in der sich die Erde seit etwa siebzehn Jahren befindet.

Trotz der unablässigen Behauptungen von Präsident Obama, dass sich die Erde erwärmt, haben Wissenschaftler sowohl in Russland als auch in China Daten von wissenschaftlichen Studien veröffentlicht, die die Große Lüge der globalen Erwärmung/Klimaänderung bloßstellen.

Die chinesische Academy of Sciences – 50000 Mitglieder stark – veröffentlichte vor Kurzem zwei Ausgaben mit den Titeln „Climate Change Reconsidered und Climate Change Reconsidered: 2011 Interim Report”. Sie enthalten über 1200 Seiten begutachteter Daten zur Klimaänderung, die vom Heartland Institute in den Jahren 2009 und 2011 veröffentlicht worden waren.

Im Mai hat Marc Morano, Herausgeber von ClimateDepot.com und ein ehemaliges Mitglied im Environmental & Public Works Committee des US-Senats dem Komitee eine schriftliche Aussage zukommen lassen [auf Deutsch bei EIKE hier].

Morano schrieb an den US-Kongress: „Die wissenschaftliche Realität lautet, dass sich hinsichtlich fast jeder Behauptung – von A bis Z – der Befürworter der vom Menschen verursachten Klimaängste diese als falsch herausstellen, und in vielen Beispielen bewegen sich die Behauptungen in die entgegen gesetzte Richtung. Die Bewegung der globalen Erwärmung erleidet den wissenschaftlichen Tod durch Tausend Schnitte!“

Und weiter: „Es gibt keine Beweise. Wir haben gegenwärtig kein ungewöhnliches Wetter“. Wetterereignisse wie der Tornado von Moore in Oklahoma oder der subtropische Sturm Sandy im Nordosten der USA sind normale Ereignisse, trotz der von ihnen verursachten Schäden.

Im Mai hat der Physiker und Geologe Dr. William Happer von der Princeton University, der auch im Rahmen einer NASA-Mission den Mond betreten hatte, im Wall Street Journal geschrieben: „Dank der einseitigen Dämonisierung dieses natürlichen und unabdingbar notwendigen atmosphärischen Spurengases seitens der Befürworter einer regierungsamtlichen Kontrolle der Energieerzeugung ist das konventionelle Wissen über Kohlendioxid das eines gefährlichen Verschmutzers. Und das stimmt einfach nicht!“

Buchstäblich tausende Wissenschaftler auf der ganzen Welt haben die „Wissenschaft“ des IPCC zurückgewiesen, und viele ehemalige „Warmisten“ haben ihre frühere Denkweise umgekehrt. Dr. Lennart Bengtsson, ein schwedischer Spitzen-Klimawissenschaftler, der früher auch mit dem IPCC verbunden war, sagte im Februar: „Wir erzeugen große Angst, ohne dass dies gerechtfertigt ist … es gibt keinerlei Hinweise, dass die Erwärmung so stark ausfällt, dass wir in Panik geraten müssen…

„Die Erwärmung, die wir während der letzten 100 Jahre erlebt haben ist so gering, dass wir sie ohne Meteorologen und Klimatologen, die sie gemessen haben, überhaupt nicht bemerkt hätten“.

Die Bedrohung, der die Amerikaner gegenüber stehen, stammt von der EPA, die fest an die Große Lüge über das CO2 glaubt und diese als Basis nutzt, um eine Flut von Regulationen zu erlassen, die unsere wirtschaftliche Erholung und Entwicklung schwer schädigen.

Das Gleiche gilt für das Energie- und das Innenministerium, die den Zugang zu den heimischen riesigen Reserven von Energieressourcen verwehrt und im Falle der Kohle alles tun, um den Bergbau und die Kraftwerke zu zerschlagen, die die Kohle zur Stromerzeugung brauchen.

Der Schwindel der globalen Erwärmung/Klimaänderung wird weiterhin weit verbreitet in den Schulen gelehrt, und das muss aufhören. Jetzt!

Er wird weiterhin als eine Wahrheit verkauft von den Mainstream-Medien und als Futter für Hollywood-Filme, ebenso wie für Fernsehprogramme wie den National Geographic-Kanal.

Trotz der Lügen um die globale Erwärmung/Klimaänderung liegt der Schwindel in seinen letzten Zügen, und das schon seit vielen Jahren. Das ist die gute Nachricht.

© Alan Caruba, 2013

Link: http://factsnotfantasy.blogspot.de/2013/06/the-continuing-collapse-of-global.html

Übersetzt von Chris Frey EIKE




Die Gefahren der Energie-Technokratie

Die Bewegung der Technokraten, die sich Anfang des 20. Jahrhunderts bildete, befürwortete den Übergang der Entscheidungsgewalt der Regierung auf Wissenschaftler, Ingenieure und andere „Technokraten“. Begründet wurde dies mit dem Expertenwissen der Technokraten, das zu besseren Entscheidungen führen würde als von privaten Unternehmen.

Der Gedanke der Technokratie war enthalten in dem Konzept der Planwirtschaft und war von Thorstein Veblen verkündet und von der Sowjetunion übernommen worden. In den frühen Jahren der Großen Depression erfreute sich die Bewegung erneuerter Popularität. Der Glaube, dass technische, rationale und unpolitische Erfahrung die Wirtschaft wiederbeleben kann, war groß.

Wie es der Zufall so wollte, war einer der Befürworter der Technokratie M. King Hubbert, der später seine Theorie von Peak Oil entwickelte. Hubbert schlug auch vor, Energiezertifikate auszugeben, die konventionelles Geld ersetzen sollen. Diese Zertifikate könnten allen Mitgliedern eines kontinentalen nordamerikanischen „Technikums“ [„technate“] in gleicher Zahl zuerkannt werden. Später wurde Hubbert Geowissenschaftler bei Shell Oil.

Ein Energie-Comeback

Das Interesse an der Technokratie-Bewegung schwächte sich Ende der dreißiger Jahre ab, feierte aber überraschenderweise im Bereich Energie ein Comeback. Der Glaube der Obama-Administration, dass sich die Regierung Spitzen-Energie-Technologien aussuchen kann, ist etwas, das sich in gerader Linie bis zur Technokratie-Bewegung zurück verfolgen lässt.

Trotz der Erklärung von F. A. Hayek, wie Märkte Informationen verarbeiten und Entscheidungen durch Individuen im privaten Bereich koordinieren, glauben viele in der gegenwärtigen Administration, zusammen mit seinen Unterstützern, dass Wissenschaftler, die den Nobelpreis gewonnen hatten wie z. B. Energieminister Steven Chu besser positioniert sind, um die Wirtschaft auf den „korrekten“ Weg in die Zukunft zu führen und dies schneller zu tun als der Markt.

Das Problem mit der Technokratie, dem sich die Planwirtschaftler gegenüber sehen, geht über das Hayek’sche Informationsproblem hinaus. Die Entscheidungsträger hinsichtlich regierungsamtlicher Investitionen haben „kein dickes Fell in diesem Spiel“. Sie riskieren nicht ihr Geld oder das Geld von Investoren, die freiwillig ein Risiko eingehen.

Vielmehr riskieren sie das Geld der Steuerzahler, weil diese unwissentlich gezwungen werden, Investoren bei Regierungsprojekten zu werden. Die Struktur der Anreize für die Entscheidungsträger der Regierung ist folglich eine andere als die, der private Unternehmen gegenüber stehen.

Die Investoren privater Unternehmen können das Risiko, dem sie gegenüber stehen abschätzen. Sie haben Zugang zu Investment-Analysen und Einschätzungen durch Rating-Agenturen wie Moody’s oder Standard & Poor. Wenn ein Unternehmen in öffentlicher Hand ist, können Investoren Maßzahlen des Risikos finden wie Betas [?] Was aber hat der Steuerzahler in der Hand? Er hat die Beteuerung, dass Steven Chu und andere Wissenschaftler besser in der Lage sind als private Unternehmen auszusuchen, welche Technologien man übernehmen kann.

Die Vergangenheit als Prolog

Die Regierung hat auch früher schon in den Energiemärkten interveniert. Neben Preis- und Zuteilungs-Kontrollen von Öl sowie Preiskontrollen bei Erdgas hat uns die Regierung das Power Plant and Industrial Fuel Use Act of 1978 [ etwa: Gesetz für Kraftwerke und den industriellen Treibstoffverbrauch 1978] gegeben, das auf der Meinung von Experten beruhte, wonach uns das Erdgas ausgehen würde und folglich dessen Verbrauch limitiert werden musste. Folglich hat das Fuel Use Act den Verbrauch von Erdgas in der Industrie und durch neue Kraftwerke zur Stromerzeugung begrenzt [Original: Thus, the Fuel Use Act restricted the use of natural gas for industrial uses and by new power plants for electricity generation]. Glücklicherweise wurde dieses Gesetz administrativ und legislativ abgeschwächt und schließlich im Jahre 1987 aufgehoben. Die Erdgasproduktion in den USA brach in der Folge im Jahr 2011 den bisherigen Rekordwert des Jahres 1973. Im Jahr 2012 wurde auch dieser Rekord gebrochen.

Die Regierung wählte eine andere „Gewinner”-Strategie, als sie die Synthetic Fuels Corporation im Jahr 1980 ins Leben rief, deren Ziel es war, innerhalb von fünf Jahren zwei Millionen Barrel flüssigen Treibstoff pro Tag zu erzeugen. Aber leider wurde diese Gewinner-Strategie durch den zwei Jahre später folgenden Rückgang der Ölpreise beeinträchtigt sowie durch eine Administration, die eine düsterere Sicht auf die von der Regierung ausgewählten Gewinner hatte. Die Corporation wurde 1985 abgeschafft.

Zurück zum (vorhersehbaren!) Scheitern

Ohne Rücksicht auf frühere Erfahrungen stieg die Regierung 2009 erneut in das Energie-Investment ein, und Einiges war regelrecht albern. Susan Kraemer schwärmte, dass Steven Chu schließlich „den Nagel in den Sarg derjenigen einschlug, die sagen, dass die Regierung Gewinner und Verlierer nicht aussuchen kann”:

Das Aussuchen von Gewinnern, um darin im Namen der Öffentlichkeit zu investieren, macht Sinn. Jetzt sieht es so aus, als ob unsere eigene Regierung genauso smart wird wie die japanische Regierung in den neunziger Jahren. Trommeln für unser neues DOE [Energieministerium]. Heute bin ich stolz, ein Amerikaner zu sein.

Diese Überschwänglichkeit kam, bevor Solyndra (Empfänger einer Zuwendung in Höhe von 535 Millionen Dollar) bankrott ging. Fisker Automotive (Zuwendung 529 Millionen Dollar) hat kürzlich 75 Prozent seiner Mitarbeiter entlassen und steht dem Vernehmen nach ebenfalls vor dem Bankrott. Tesla, ein anderer Hersteller von Elektroautos und Empfänger von 465 Millionen Dollar behauptet, einen Profit zu erzielen, wenn es Autos zu Preisen zwischen 49900 Dollar und 180000 Dollar verkauft. Während Tesla-Kunden wie Leonardo DiCaprio von der Regierungsunterstützung für Tesla profitieren, kann man sich fragen, ob diese Zuwendungen im öffentlichen Interesse sind.

(Übrigens kann man stattdessen ein Tesla auch für 500 Dollar pro Monat leasen. Unglücklicherweise für Tesla stellen Analysten die Realität dieser Leasing-Raten in Frage und sagen, dass die wirklichen Kosten viel höher sind. Auf der Haben-Seite von Tesla steht dem Unternehmen zufolge die „volle Profitabilität“ im letzten Quartal, allerdings wurde in diesem Statement nicht spezifiziert, was „voll profitabel“ heißt. Es scheint, dass Tesla die Grenze nach Gutdünken festlegte und den Sieg beanspruchte).

Marktdisziplin … eine politische Laune

Ein Privatunternehmen wählt seine Investment-Projekte so aus, dass ein Verdienst genauso groß oder größer ausfällt als die Hindernisgröße, die es als Filter festlegt. Hindernisgrößen werden typischerweise mit den gewichteten mittleren Kosten der Kapitalerhebung verbunden und schließen die Kosten des Aktienkapitals und der Schulden ein. Ein Risikofaktor kann den mittleren Kosten des Kapitals hinzugefügt werden, das das spezifische Risiko eines Projektes in Betracht zieht.

Unternehmen werden durch die Disziplin der Marktkräfte gezwungen, Investitionen, die sich nicht so rentieren wie gedacht, zurückzufahren oder den Stecker ganz zu ziehen. Wie Armen Alchian in seinem klassischen Artikel mit dem Titel „Uncertainty, Evolution and Economic Theory“ beschrieb, können Unternehmen, die nicht sofort reagieren, die Profite nicht maximieren und werden in der Folge eventuell sogar im Zuge des Wettbewerbs aus dem Markt gedrängt.

Der Ersatz für eine Subvention oder einen Niedrigzins-Kredit der Regierung ist keine Option für Unternehmen, die sich auf private Finanzierung verlassen. Außerdem haben diese Unternehmen keinen Schutz durch Wettbewerber, die in den Markt drängen und neue Produkte oder Technologien anbieten (Beispiele: Betamax vs. VCR; VCR vs. DVD; DVD vs. streaming, Apple iPhones vs. Samsung Galaxy or Nokia Lumia, etc., etc.).

Dies gilt nicht für Regierungs-Beteiligungen. Die Regierung ist in der Lage, in die Taschen der Steuerzahler zu langen, um ein Projekt am Laufen zu halten. Kraemer weist darauf hin, dass die Unterstützung der Regierung gebraucht werden könnte, „zumindest zu Anfang“, aber die Länge dieser Anfangsperiode wird jedermann’s Einschätzung überlassen. Wie Regierungsagenturen, die selten Gegen­stand des Scheiterns sind, kann ein regierungsamtlich gefördertes Projekt einfach dadurch am Leben gehalten werden, weil es im Interesse von Politikern ist, Projekte laufen zu haben, die Arbeitsplätze in ihre Amtsbereiche bringt.

Und schließlich gibt es keinen Beweis, dass Regierungs-Wissenschaftler und Ingenieure die Zukunft besser vorhersagen können oder besser wissen, was die Zukunft bereit hält, als die Wissenschaftler und Ingenieure in Privatunternehmen. Technokraten ignorieren die Tatsache, dass private Unternehmen ebenfalls Wissenschaftler und Ingenieure beschäftigen (nicht zu erwähnen die MBAs und Wirtschaftler) und Investitionen aufgrund ihrer Erwartungen an die Zukunft vornehmen.

Die Essenz an diesem Punkt lautet, dass Entscheidungen privater Investitionen von dem Profit-Motiv gelenkt werden. Aber was lenkt die von der Regierung angestellten Wissenschaftler und Ingenieure, die für Firmen arbeiten, die in Regierungshand sind? Ist es einfach das Vertrauen in ihre Visionen? Und gibt es irgendwelche Beweise, dass ihre Visionen von der Zukunft besser sind als die aus dem privaten Bereich Kommenden?

Link: http://www.masterresource.org/2013/05/the-perils-of-energy-technocracy/

Übersetzt von Chris Frey EIKE