Earth Day – ein Betrug der Ölindustrie?

Gestern habe ich die Sprache kommentiert, mit der ein im Jahr 1970 veröffentlichtes Buch vermarktet wurde, genau einen Tag vor dem ersten Earth Day am 22. April jenes Jahres. Das Buch mit dem Titel Eco-Catastrophe ist eine Sammlung von Artikeln und Essays, die von den Herausgebern des Magazins Ramparts ausgewählt worden waren – das Magazin wurde zwischen 1962 und 1975 von den Radikalen der sechziger Jahre produziert.

Eine seiner faszinierenden Enthüllungen ist, dass jene Leute gedacht haben, die Erde sei ein altes Wrack – und ihnen war die Tatsache höchst verdächtig, dass die etablierten Mainstream-Medien danach trachteten, dies zu fördern.

Ein Editorial ist es wert, in ganzer Länge zitiert zu werden:

Die Umwelt könnte sehr gut zu einem stark emotionalen Thema werden, das eine polarisierte Nation einigen könnte, schreibt Time Magazine in den siebziger Jahren. Die Hearst-Presse sieht das Thema als eine Bewegung, „die Generationen einen könnte“. Und die New York Times sagt feierlich voraus, dass die Ökologie „Vietnam als das herausragende Thema unter Studenten ersetzen würde“.

…die Organisatoren der offiziell sanktionierten 22. April (Earth Day)teach-in-Bewegung tun ihr Bestes, den Tagträumen der Medien Leben einzuhauchen…

Wir glauben, dass jede Analogie zwischen dem, was um den 22. April an Ereignissen vorgeschlagen wird und der Organisation des Vietnam-Teach-Ins obszön ist. Wir glauben, dass der Umwelt-Teach-In-Apparat der erste Schritt in einer Betrügerei ist, der wenig mehr tun wird als die Umwelt noch ein wenig mehr zu missbrauchen.

…Die Organisatoren des Vietnam-Teach-Ins arbeiteten gegen große Widerstände und gegen die Lügen und der Gegnerschaft der Regierung, von Universitäts-Administrationen und den Medien. Sie lebten nur von ihrem eigenen Geld und führten Büros in Studenten-Appartements oder kleinen Ladengeschäften. „Earth Day wurde in den Büros von Senator Gaylord Nelson ins Leben gerufen, und zwar mit dem Segen von Präsident Richard Nixons Department of Health, Education and Welfare, wurde von Stiftungen gegründet und von Einrichtungen der Urban Coalition [?] ausgearbeitet.

Die Vietnam-Protestler mussten ihre eigenen Textreihen erzeugen … Das Umwelt-teach-In kommt fix und fertig aufbereitet; ein gut bezahltes und hinsichtlich von Mitarbeitern gut ausgestattetes nationales Büro sendet lokalen Organisatoren eine offizielle Broschüre … Friends of the Earth (FOE) stellt via Ballantine Books ein halb offizielles „Umwelthandbuch“ zur Verfügung… (Hervorhebungen hinzugefügt).

43 Jahre, nachdem der erste Earth Day gefeiert worden war, vermuten junge Leute, dass die Geschichte der Umweltbewegung ähnlich der Geschichte anderer Protestbewegungen war. Sie versuchen, ihre Sache zu adeln, indem sie Parallelen ziehen zu Menschenrechten, und sie bilden sich ein, dass sie die Wahrheit vertreten.

Aber zumindest einigen amerikanischen Aktivisten der sechziger Jahre war klar, dass die grünen Kreuzzügler ein ganz anderes Spiel spielten. Die Umwelt hatte immer Freunde an höchsten Stellen – Politiker, Journalisten und Wohlfahrts-Stiftungen, die Zuwendungen wie Süßigkeiten verteilt haben.

In einem Artikel mit dem Titel The Eco-Establishment, der auf den Seiten 15 bis 24 in Eco-Catastrophe erschienen war, heißt es: „Mitläufer der Umweltbewegung sind nicht ein so neues Phänomen wie es scheint“. Man erinnere sich, das war 1970 veröffentlicht worden.

Der Artikel unterstellt, dass grüne Mitspieler wie Nature Conservancy und der Environmental Defense Fund finanziell von der Ford Foundation während der sechziger Jahre „ernährt“ worden sind (deren Exekutiv-Komitee unterstellungsgemäß auch „Verschmutzer wie Esso“ enthielt).

Er unterstellt weiter, dass die Rockefeller Foundation (gefördert vom Reichtum von Standard Oil) ebenfalls „Gelder geleitet hat“ an die „Conversation elite“ vor mehr als vier Jahrzehnten.

Heute erzeugen diese Eliten Forschungsberichte, die dann durch einflussreiche Medienportale publiziert worden sind. Was bedeutet, dass die Besonderheiten der grünen Agenda von wohlgenährten, gut bezahlten Menschen bestimmt worden sind, die schätzungsweise ein halbes Jahrhundert lang hinter ihren Schreibtischen gesessen haben.

Die grüne Bewegung war lange ein Phänomen der Oberen – viel mehr als eine Graswurzel-Bewegung. Oder, wie die Autoren des Artikels es ausdrücken,

die Umweltschützer und ihre Profis haben sich nicht bei der Umweltbewegung freigekauft; sie haben sie gebildet. (Hervorhebung hinzugefügt).

Heute, im Jahr 2013, benutzen Klimaaktivisten, die nichts über die Historie wissen, routinemäßig das Argument „ihr seid Teil einer von der fossilen Treibstoff-Industrie finanzierten Falschinformations-Maschine, und daher verdient ihr es nicht, dass man euch zuhört“.

Aber den Radikalen der sechziger Jahre zufolge, deren Analyse innerhalb der Buchseiten von Eco-Catastrophe konserviert worden ist, ist die Umweltbewegung in Wirklichkeit ein Betrug der Unternehmen – geleitet neben Anderen von Ölinteressen.

Link: http://nofrakkingconsensus.com/2013/04/23/earth-day-an-oil-industry-scam/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: von diesem „Earth Day“ habe ich nichts, aber auch gar nichts mitbekommen. Liegt das an mir, oder war es bei uns wirklich offiziell kein Thema?

C. F.




IPCC-Berichts-Chef Thomas Stocker zeigt im Weltwoche-Interview unerklärliche Gedächtnislücken: Die Gesprächsanalyse von Vahrenholt und Lüning

Die Wochenzeitung Weltwoche brachte in ihrer am 11. April 2013 erschienenen Ausgabe ein äußerst lesenswertes Interview mit Thomas Stocker, dem Vorsitzenden des wissenschaftlichen Grundlagenkapitels im kommenden IPCC-Bericht. Dabei sprach der Weltwoche-Gesprächsleiter Markus Schär eine Reihe von unbequemen Themen an, wie etwa den seit 17 Jahren anhaltenden Erwärmungsstopp, fehlgeschlagene IPCC-Prognosen oder natürliche klimatische Zyklen. Schär scheute sich nicht, beim Berner Professor konsequent nachzuhaken, wenn die eigentliche Frage unbeantwortet blieb oder wichtige Aspekte unerwähnt blieben. Im Folgenden wollen wir – mit freundlicher Genehmigung der Weltwoche – längere Auszüge aus dem Interview wiedergeben, einige Details ergänzen und Zusammenhänge diskutieren, die der Berner Professor im Eifer des Gefechts vergaß zu erwähnen. Im eingerückten Interviewtext sind die Fragen der Weltwoche in Fettschrift und die Antworten von Stocker in Normalschrift gehalten.

WELTWOCHE: Wie erklären Sie den Leuten die kälteren Winter der letzten Jahre?

STOCKER: Es gibt in der Schweiz keine lange Serie von kalten Wintern, jeder war anders. Grundsätzlich sage ich den Leuten: «Sie dürfen nicht auf die Temperaturen in einem Winter und von einer Station schauen, sondern müssen die vielen Jahre von sehr präzisen Beobachtungen betrachten, wenn Sie den langfristigen Trend erkennen wollen.» Und spezifisch zu diesem Winter gibt es ja Erklärungsansätze in der Wissenschaft. 

Jeder Winter war anders? Schauen wir eben mal nach Deutschland hinüber. Irgendwie haben die letzten 5 Winter hier doch etwas gemeinsam. Diplom-Meteorologe Dominik Jung von wetter.net berichtete im Februar 2013: „Mit dem aktuellen Winter sind nun fünf Winter in Folge kälter als das langjährige Mittel ausgefallen!“ (siehe unseren Blogartikel „Diplom-Meteorologe Dominik Jung: Der fünfte zu kalte Winter in Deutschland in Folge – Rekord!“). Stocker ist dies sichtlich unangenehm, daher lässt er diesen Umstand einfach aus und hofft, dass es keiner merkt.

Einige Kollegen führen die hartnäckigen Bisenlagen [in der Schweiz kalte winterliche Winde aus Nordosteuropa] gerade auf das Abschmelzen des Eises in der Arktis zurück. 

Ja, es gibt Hinweise aus einzelnen Studien – ich würde noch nicht von robustem Wissen sprechen –, dass die geringere Eisbedeckung der Arktis die Statistik beeinflusst, wie häufig dort Hochdruckgebiete auftreten. Diese wirken sich ja stark auf das Witterungsgeschehen in unseren Breitengraden aus, wie wir täglich erleben.

Die deutschen Kollegen, die diese Hypothese entwickelt haben, verkünden sie in den Medien als Wahrheit.

Ich verfolge nicht, was diese Kollegen sagen, und es ist nicht an mir, das zu kommentieren. Klar ist einfach: Wir müssen das Kommunizieren des grossen Problems der Klimaerwärmung rational angehen, also faktenorientiert informieren – dies gilt für alle Beteiligten. Das ist heute eine grosse Herausforderung, da alles in die 140 Zeichen eines Tweets passen soll. Bei einem so komplexen Thema geht das nicht: Wir müssen einerseits die Fakten kommunizieren, anderseits aber gerade auch die Unsicherheiten.

Die Erkenntnis der Kollegen liess sich locker vertwittern: «Die kalten Winter kommen von der Klimaerwärmung.»

Das ist die Aussage von ein, zwei Publikationen, aber noch kein wissenschaftlicher Konsens; einen Konsens zu bilden, ist ein harter Job. Wir können beim IPCC nicht jede einzelne Studie von allen Instituten weltweit aufnehmen. Es ist möglich, dass es im kommenden Bericht eine Aussage dazu gibt, wie die Eisbedeckung der Arktis die Statistik von Hochdruckgebieten beeinflusst. Aber vorläufig sind wir da noch am Arbeiten.

Ein herber Schlag für die Kollegen vom Potsdam-Institut für Klimafolgenforschung (PIK), die sich die Arktiseis-Theorie schnell ausgedacht hatten, nachdem die ersten Winter kälter als erlaubt ausfielen. Im Brustton der Überzeugung wurde der fragwürdige Repair-Patch dann in den Medien als Lösung des Winter-Paradoxons präsentiert. Nun ist es also amtlich: der IPCC Berichts-Chef sieht in der Potsdamer Idee kein robustes Wissen und keinen wissenschaftlichen Konsens.

Schön wäre an dieser Stelle gewesen, wenn Stocker auf eine andere Studie hingewiesen hätte, nämlich die von Mike Lockwood und Kollegen aus dem Jahre 2010. Diese hatten nämlich einen recht überzeugenden Mechanismus gefunden, bei dem kalte europäische Winter während solarer Schwächephasen entstehen können. Und was für ein Zufall, der aktuelle Sonnenzyklus ist der schwächste seit einhundert Jahren (siehe unseren Blogbeitrag „Wer ist Schuld am Kältewinter? MPI-Studie weist eher auf die schwache Sonne anstatt des arktischen Meereises hin. Die Sonne im März 2013“). Alles nur Theorie? Aus Stockers eigenem Institut, dem Oeschger-Zentrum für Klimaforschung in Bern kam im Januar 2013 eine Studie unter Leitung von Ulf Büntgen, die bestätigte, dass sich osteuropäische Kältephasen während der letzten 1000 Jahre in der Regel während solar inaktiver Zeiten ereigneten (siehe unseren Blogbeitrag „Osteuropäische Kälteperioden während solarer Schwächephasen“). Es ist schwer vorstellbar, dass sich Stocker plötzlich nicht einmal an die neuesten Forschungsergebnisse aus dem eigenen Hause erinnern kann, vermutlich eher nicht erinnern will. Passt halt nicht in Stockers Erzählstrang.

Wir Laien hätten einfach lieber Experten, die voraussagen, was kommt, als Experten, die hinterher erklären, warum es nicht so gekommen ist.

Das ist richtig. Deshalb schauen wir beim IPCC auch regelmässig zurück: Was haben wir im ersten Bericht von 1990 gesagt, was im zweiten von 1995, im dritten von 2001 und im vierten von 2007? Wir können nachvollziehbar zeigen, dass die Projektionen der mittleren globalen Temperatur bereits 1990 extrem gut lagen. Wir hatten also schon damals die wichtigen Blöcke des Wissens beisammen, um – selbstverständlich innerhalb der Unsicherheiten – die Temperaturentwicklung zuverlässig abzuschätzen. Aber wir behaupteten früher nie und behaupten jetzt nicht, wir könnten die Temperatur in zehn Jahren prophezeien. Eine solche kurzfristige Voraussage ist nicht möglich und wird nie möglich sein. Es gibt den Trend, aber er wird überlagert von kurzfristigen Schwankungen. Das haben wir immer so kommuniziert.

An dieser Stelle wird es für Stocker dann richtig brenzlig. Stocker behauptet forsch, die IPCC-Projektionen würden samt und sonders „extrem gut liegen“. Dies ist offensichtlich unwahr – und Stocker weiß es. Der real gemessene Temperaturverlauf ist gerade dabei, vollständig aus dem vom IPCC übersteigert vorhergesagten Temperaturband herauszulaufen, und Stocker ignoriert diesen Fakt stillschweigend und findet die fehlgegangenen Projektionen trotzdem „extrem gut“. Es ist gar nicht anders möglich, als diese Einlassung als bewusste Irreführung der fachfremden Leserschaft zu deuten. Die Weltwoche hat jedoch ihre Hausaufgaben gemacht und fällt zum Glück nicht darauf hinein. Einige Momente später wird die Zeitung Stocker darauf ansprechen. Zunächst jedoch muss der Redakteur einer anderen Pflicht nachkommen, nämlich die eigentliche Frage wiederholen, welcher Stocker versuchte plump auszuweichen.

Wir würden die Theorie der kalten Winter eher glauben, wenn sie nicht von denselben Leuten käme, die noch vor zehn Jahren sagten, unsere Kinder würden keinen Schnee mehr erleben.

Genau darum halten wir uns beim IPCC mit solchen Aussagen zurück.

Stocker opfert an dieser Stelle seinen klimaalarmistischen Mitstreiter Mojib Latif und distanziert sich vorsichtshalber von dessen Fehlprognose und medialer Panne, um selbst nicht in den Strudel mit hineingezogen zu werden. Ein weiser Schachzug. Nachdem dies geklärt ist, wird Stocker auf seine Flunkerei hinsichtlich der IPCC-Projektionen angesprochen.

Sie betonen, Sie hätten die Temperaturentwicklung richtig voraussagt. Aber genau das ist doch umstritten. Im Entwurf Ihres Berichtes, der im Herbst 2012 in die Begutachtung ging, zeigten Sie selber in einer Grafik, dass die Temperaturen der letzten Jahre tiefer liegen als alle Projektionen des IPCC. 

Wir sind gegenwärtig am unteren Rand, wenn Sie die letzten zehn Jahre anschauen, aber innerhalb der kommunizierten Unsicherheiten.

Zähneknirschend muss Stocker einräumen, dass die Projektionen doch nicht so „extrem gut“ liegen, wie er es zuvor behauptet hatte. Aber einen Versuch war es wert. Den meisten anderen Zeitungen wäre der Fehler gar nicht aufgefallen und Stocker wäre mit seiner Version durchgekommen. Jetzt will es die Weltwoche wissen und bohrt weiter nach:

Der allerunsichersten Unsicherheiten.  

Genau deswegen geben wir Unsicherheiten an. Aber wir müssen auch schauen: Gab es früher schon Perioden, in denen die globale Temperatur zehn oder fünfzehn Jahre stagnierte? Tatsächlich finden Sie mehrere solche Fenster in den letzten hundert Jahren. Das ist also nichts Aussergewöhnliches. 

Natürlich gab es bereits Kältephasen in der Vergangenheit. Und es fällt auf, dass die Kälte stets mit den kalten Phasen pazifischer und atlantischer Ozeanzyklen zusammenfiel, die im 60-Jahresrhythmus operieren. Den Zusammenhang will der IPCC jedoch nicht wahrhaben und behauptet munter, die Kälte würde keinem System folgend auftauchen und dann wieder verschwinden. Nur so konnte der IPCC so grandios an der Temperaturentwicklung der letzten anderthalb Jahrzehnte scheitern. Der Ozeanzyklus der sogenannten Pazifischen Dekadischen Oszillation (PDO) begann um 2000 von ihrem Scheitelpunkt abzusacken. Da war bereits klar, dass von der PDO in den kommenden Jahrzehnten nur noch Abkühlung zu erwarten war. Hätte der IPCC dieses empirische Vorhersagewerkzeug akzeptiert, würde er jetzt ein Problem weniger haben. Es gibt jedoch einen guten Grund, warum der IPCC den offensichtlichen PDO-Einfluss auf die globalen Temperaturen nicht zulassen wollte: Während der Haupterwärmungsphase 1977-2000 kletterte die PDO stetig nach oben und verharrte dann auf einem wärmenden Plateau. Offensichtlich drückte dies die Temperaturen einige Zehntelgrade nach oben, eine Erwärmung die der IPCC jedoch bereits dem CO2 zugemessen hatte. Und da man das CO2 in seiner Wirkung nicht reduzieren wollte, musste die PDO kurzerhand dran glauben, was sich in der Folge böse rächte.

Die Weltwoche spricht Stocker dann auf einen Umstand an, der manchem IPCCler wohl bereits schlaflose Nächte bereitet hat:

Der IPCC-Vorsitzende Rajendra Pachauri räumte kürzlich ein, bei der Klimaerwärmung gebe es inzwischen siebzehn Jahre Stillstand. 

Ich kann nicht vorschreiben, was irgendwelche Kollegen sagen.

Wie bitte? Kennt Stocker die real gemessenen Temperaturkurven nicht? Der Erwärmungsstillstand ist Fakt. Nach längerem Herumgeeiere musste schließlich sogar Pachauri die Pause einräumen. Ist Stocker ernsthaft der Meinung, Pachauri hat hier einen Fehler gemacht? Die Weltwoche gibt zu bedenken:

Er ist immerhin Ihr Chef. 

Meine Funktion ist es, mit dem internationalen Autorenteam den Stand des Wissens zusammenzufassen; daran arbeiten wir im Moment. Aus den Studien zu genau dieser Frage geht hervor: a) ist eine solche Stagnation nicht ungewöhnlich, b) werden wir solche Phasen auch in Zukunft sehen, und c) das ist wohl der wichtigste Punkt, gibt es Inzwischen über hundert Simulationen der Klimaentwicklung mit den neusten Modellen. Die Frage stellt sich also: Sehen wir Simulationen, die im Zeitraum zwischen 1998 und 2012 keine starke Erwärmung zeigen? Und solche Simulationen werden wir finden, nicht viele, aber eine oder zwei. Wir leben einfach in einer Realisierung des Klimasystems mit seinem Chaos der natürlichen Variabilität – in der einzigen beobachteten von vielen physikalisch möglichen.

Hier breitet Stocker die ganze IPCC-Herrlichkeit aus. Wortreich versucht er Gründe für den Erwärmungsstop zu finden und kann trauriger Weise kein einziges überzeugendes Argument nennen. Wie nicht anders zu erwarten, zaubert Stocker das mittlerweile deutlich überalterte Chaos-Modell aus dem Hut. Er hofft, dass einige wenige von den hunderten von Simulationen einen Erwärmungsstop in den letzten anderthalb Jahrzehnten zeigen könnten. Dies wäre dann der Beweis, dass die Modelle „extrem gut liegen“. Ist Stocker wirklich so naiv zu glauben, dass ihm irgendwer noch diese Art der Beweisführung abnimmt? Das ist so, als wenn man alle 49 Lottozahlen tippt und sich dann freut, dass bei der Ziehung dann alle stimmen. Fragwürdige Taschenspielertricks im Zeitalter der vermeintlich allwissenden Supercomputer.

Sie würden also nie sagen, dass wir siebzehn Jahre Stillstand der Klimaerwärmung beobachten? 

Nein, schon die Assoziation von «siebzehn Jahre» und «Klimaerwärmung» ist falsch. Wenn wir von der Klimaerwärmung reden, meinen wir den langfristigen Trend, den wir in der zweiten Hälfte des 20. Jahrhunderts sehen.

Das ist schon ein wenig mysteriös. In einer 2011 erschienenen Arbeit hatte nämlich Stockers ehemaliger IPCC-Kollege Ben Santer zusammen mit 16 Co-Autoren festgestellt, dass 17 Jahre durchaus ausreichen, um Klimatrends zu erkennen. Nun sind 17 Jahre seit Beginn des Erwärmungsstopps rum und plötzlich müssen es noch ganz viel mehr Jahre sein, bevor es zählen kann. Was nicht passt, wird passend gemacht. Nachhaltige Wissenschaft sieht anders aus.

Bei den Temperaturen sehen wir ihn gerade nicht.

Doch, wir erkennen die Signale in allen Komponenten des Klimasystems: an den Eisschilden, die an Masse verlieren; in den Ozeanen, die sich bis in 4000 Meter Tiefe messbar erwärmen; in der Atmosphäre, die sich in den tieferen Schichten erwärmt und oberhalb von 15 Kilometern abkühlt, also den Fingerabdruck des CO2 zeigt. Die Last der Evidenz von 130 Jahren Beobachtungen und Prozessverständnis wiegt so schwer, dass es mehr braucht als ein paar Jahre Stagnation, um ein solches in sich schlüssiges Gebäude zu zerstören. 

Erneut verstrickt sich Stocker in wissenschaftlich fragwürdige Argumentationen. Ist ihm wirklich nicht bekannt, dass die Antarktis insgesamt an Eismasse dank der Ostantarktis in den letzten Jahren zugenommen hat? (siehe unseren Blogbeitrag „Neue ICEsat-Satellitendaten sind da: Antarktischer Eisschild hat an Masse zugelegt“)? Auch wenn der grönländische Eispanzer derzeit abschmilzt (was er übrigens auch während der Mittelalterlichen Wärmeperiode vor 1000 Jahren getan hat), darf Stocker als IPCC-Führungskraft hier nicht einfach pauschalisieren und Rosinenpickerei betreiben, nur um seine persönliche Klimaalarm-Überzeugung zu stärken. Noch schlimmer ist der Hinweis auf den CO2-Fingerabdruck in der Stratosphäre. Neue Arbeiten haben dieses Konzept mittlerweile vollständig diskreditiert (siehe unsere Blogbeiträge „Keine guten Nachrichten für Mojib Latif: Neue Studie im Journal of Geophysical Research hinterfragt den stratosphärischen CO2-Fingeradruck“ und „CO2-Fingerabdruck löst sich in Luft auf: Neue Studie belegt Ozonwirkung auf Temperatur in der mittleren Atmosphäre“). Es ist ein Armutszeugnis, dass Stocker noch immer diesen „Beweis“ anführt der gar keiner ist. Erneut scheint er auf die Fachfremdheit der Leserschaft zu hoffen. Das angeblich so „schlüssige Gedankengebäude“ ist bei Tageslicht nichts weiter als eine wackelige Ruine, die jeden Moment einstürzen könnte.

Was würde es denn brauchen, dass Sie einen Stillstand der Klimaerwärmung einräumen? 

Sie wollen einfach eine Jahreszahl.

Nein, nur eine Grössenordnung: Reden wir von zehn oder von fünfzig Jahren?

Galileo sagte einst: «Und sie [die Erde] dreht sich doch.» Wir können sagen: «Und sie erwärmt sich doch.» Alle Indikatoren, die ich Ihnen genannt habe, deuten zusammen auf eine schlüssige Erklärung: Das CO2 ist verantwortlich für die Erwärmung. Ein Thema, das wir im neuen Bericht auch ansprechen, ist aber die Klimasensitivität. 

Also die Frage, wie stark die Temperatur steigt, wenn sich der CO2-Anteil in der Atmosphäre (vorindustriell rund 280, heute gegen 400 Teilchen pro Million) verdoppelt.

Im letzten Bericht von 2007 kamen wir auf einen Wert von 2 bis 4,5 Grad. Die Frage stellt sich jetzt: Geben die letzten fünfzehn Jahre einen Hinweis darauf, dass die Klimasensitivität eher im unteren Bereich liegt? Diese Diskussion läuft in der Wissenschaft, auch mit skeptischen Kollegen – da kann ich Sie beruhigen.

In der Tat gibt es hier eine Diskussion, in der sich die Anzeichen mehren, dass die sogenannte Klimasensitivität signifikant überschätzt wurde. Dazu muss man allerdings wissen, dass die Klimamodelle für den gerade entstehenden Bericht alle bereits gerechnet sind und hier keine Möglichkeit zur Änderung mehr besteht, ohne wieder ganz von vorne anzufangen und dabei das Gesicht zu verlieren. Der IPCC wird daher von seinem Mittelwert von 3 Grad pro CO2-Verdopplung kaum abrücken können. Dadurch wird Stockers Weltklimarat immer mehr manövrierunfähig und realitätsferner.

Die Weltwoche spricht dann eine Vermutung aus, die wohl die meisten schon einmal zumindest insgeheim gedacht hatten.

Schieben Sie Ihre Voraussagen nicht einfach so weit hinaus, damit wir alle nicht mehr erleben, ob sie tatsächlich eintreffen?

Wenn man es näher überlegt, ist dies in der Tat eine totsichere Strategie, um auch in mittlerer Zukunft keine positiven Simulationsresultate vorweisen zu müssen. Jeder Politiker, der einmal in Bedrängnis geriet und dessen Volk Resultate einforderte, kennt den Trick aus dem ‚Handbuch für wendige Machthaber‘. Stocker gibt vor, er würde sich über die Frage freuen und erzählt dann von Zukunftsprojekten, deren Qualität ebenfalls noch nicht bewertbar ist – und auch noch lange unbewertbar bleiben wird.

Merci für diese Frage, das ist eine super Steilvorlage. Ich kann Sie auf das Inhaltsverzeichnis unseres Berichts verweisen. Wir sagten 2009, wir hätten gerne ein Kapitel, das in die nähere Zukunft schaut, also Wettervorhersage und Klimaprojektionen zusammenbringt. Es heisst: Near-term climate change and predictability. «Voraussagbarkeit» ist das entscheidende Wort. Dieser Zweig der Klimaforschung ist noch relativ jung. Wir können nicht sagen, wie warm oder wie nass zum Beispiel das Jahr 2025 sein wird. Im Zeithorizont bis zirka 2035 müssen wir die verschiedensten Faktoren abschätzen: Was beeinflusst die Unsicherheiten, und wie gross sind sie? 

Dann müssen wir bis 2035 warten, um zu überprüfen, ob Sie recht bekommen?

Nein. Wie gesagt, beurteilen wir beim IPCC seit 1990 Klimaprojektionen, und diese sind bis heute messbar eingetreten. Wenn Sie mich fragen: Falls es mir vergönnt ist, das Jahr 2035 geistig fit zu erleben, werde ich zurückblicken auf eine kurze Phase der Temperaturstagnation, zu der eine Kombination von verschiedenen Effekten führte – falls nicht bis dann ein grosser Vulkan ausbricht.

Aber Herr Professor Stocker, das hatten wir doch alles schon. Die IPCC Temperaturprognosen seit 1990 sind „nicht messbar eingetreten“ sondern eher dürftig bis untauglich. Braucht der IPCC wirklich diesen dünnen Strohhalm, um nicht unterzugehen? Ein leichter Windstoß, und der IPCC-Kahn würde in den Tiefen des Ozeans versinken. Sieht so moderne Wissenschaft aus? Um etwas konkreter zu werden: Der Ozeanzyklen-Spezialist Mojib Latif warnte uns kürzlich aufgrund der kühlenden Phase der atlantischen und pazifischen Zyklen, dass auch im kommenden Jahrzehnt nicht unbedingt mit einer Erwärmung zu rechnen sei. Dies ist durchaus plausibel und entspricht dem empirischen Befund der letzten Jahrhunderte. Es ist daher vermutlich nur noch eine Frage von wenigen Jahren, dass die realen Temperaturen endgültig aus dem „unteren Rand“ des simulierten Temperaturbandes in vom IPCC für bislang unmöglich gehaltene Bereiche abdriftet. Dann bricht auch dieser letzte Strohhalm weg. Unangenehmerweise wird der heute 54-jährige Stocker dieses Ereignis wohl noch deutlich vor seiner Pensionierung erleben müssen. Ob er dann vielleicht irgendwann die Courage haben wird, über Fehler in den IPCC-Simulationen offen zu diskutieren? Aber warum bis dahin überhaupt warten? Bereits heute wäre es höchste Zeit, der Realität ins Auge zu schauen und die Abneigung gegenüber den natürlichen Klimafaktoren allmählich abzulegen.

Der Konsens des IPCC beruht darauf, dass das menschgemachte CO2 als Treibhausgas zur Klimaerwärmung führt. Aber dieser Zusammenhang lässt sich nur für die letzten 150 Jahre beobachten.

Schauen Sie das Plakat zu unseren Messungen am Eis aus der Antarktis über die letzten 800 000 Jahre an: Wenn das keine Korrelation zwischen Temperatur und CO2 ist! Der CO2-Gehalt, den wir im Eis messen können, war in Warmzeiten hoch und in Eiszeiten niedrig.

Bereits Al Gore tappte mit seinem Film in diese Falle. Hier werden offensichtlich Ursache und Wirkung vertauscht. Wird es wärmer, weil der CO2-Gehalt anstieg? Oder war es vielmehr andersherum und aus dem erwärmten Meerwasser sprudelte verstärkt CO2, da kaltes Wasser mehr Gase aufnehmen können als warmes? Die Weltwoche hat aufgepasst:

Doch die CO2-Werte stiegen nach den Temperaturen an, das CO2 kann also nicht die Erwärmung verursacht haben.

Über das Nachhinken der CO2-Werte haben wir mehrmals berichtet. Allerdings muss ich aufgrund neuerer Studien wohl langsam umdenken – doch nicht in die Richtung, die Sie gerne hätten: Die Studien zeigen, dass CO2-Werte und Temperaturen gleichzeitig stiegen. Getrieben wird die Abfolge von Warm- und Eiszeiten über 100 000 Jahre aber von den Zyklen, die der Geophysiker Milankovic 1920 beschrieb: Es kommt auf die Stellung und Schiefe der Erdachse und auf die Umlaufbahn um die Sonne an.

Das Nachhinken des CO2 gegenüber der Temperatur war dem IPCC lange ein Dorn im Auge. Deshalb machten sich IPCC-nahe Forscher daran, neue Studien zu produzieren, die diese zeitliche Abfolge mit fragwürdigen Methoden versuchten aufzuweichen (siehe unseren Blogbeitrag „Statistik-Trick befördert CO2 vom Beifahrer zum Chauffeur: Fragwürdiger neuer Shakun-Artikel in Nature“). Unter Zuhilfenahme dieser Maßanfertigungen kann Stocker nun den alten Al Gore Trick der ahnungslosen Leserschaft wieder als angeblichen Beweis präsentieren. Eine traurige Geschichte.

Viel wichtiger als die langperiodischen Milankovic-Erdbahn-Zyklen sind jedoch für unser heutiges Klimageschehen die Aktivitätsschwankungen des Sonnenkraftwerks. Die Weltwoche spricht Stocker darauf an:

Eben. Können wir mit dem Einfluss der Sonne die Klimazyklen nicht viel besser erklären?

Das gilt für die vorindustrielle Zeit, als der CO2-Anteil mehr als 30 Prozent geringer war als heute: Wir brauchen die Sonne immer als Teil der Erklärung – da haben wir keine Differenz. Aber die letzten fünfzig bis siebzig Jahre, vor allem auch die räumliche Ausprägung der Erwärmung, können wir ohne menschgemachte Faktoren nicht mehr schlüssig erklären. Warum stieg die Temperatur im 20. Jahrhundert um 0,8 Grad? Das ist ohne CO2 nicht zu begründen.

Genau, warum stieg eigentlich die Temperatur im 20. Jahrhundert um 0,8 Grad an? Brauchen wir wirklich das CO2 dazu? Und wenn ja, wie viel? Hat es in der Vergangenheit noch niemals derartige Erwärmungsschübe gegeben? Stocker schweigt hierzu eisern. Denn die wissenschaftlichen Fakten sind an dieser Stelle für ihn unangenehm und eindeutig. In den letzten 10.000 Jahren hat es derartige Erwärmungsphasen mehrfach in ähnlicher Höhe im Millenniumstakt gegeben. Und noch eine Überraschung: Der Hauptantrieb hierfür waren Sonnenaktivitätsschwankungen, wie zahlreiche Studien eindrucksvoll belegen konnten. Als hätte es bereits jemand geahnt, kommt hier bereits das nächste Puzzleteil: Laut einer Reihe von neueren Untersuchungen, die in namhaften Fachzeitschriften erschienen, zählte die zweite Hälfte des 20. Jahrhunderts zu den solar aktivsten der gesamten letzten 10.000 Jahre. Was für ein überaus großer Zufall. Leider entschied sich der IPCC, diesem Umstand keine gesteigerte Bedeutung zuzumessen. Neben dem PDO-Lapsus ein weiterer schwerer Defekt im IPCC-Gebäude.

Die Weltwoche weist Stocker auf die natürliche Zyklik hin, in deren Grundmuster sich die Erwärmung des 20. Jahrhunderts gut einpasst. Die Kleine Eiszeit war durch eine ausgeprägte Sonnenflaute geprägt.

Es gibt eine banale Erklärung: Bis ins 19. Jahrhundert herrschte eine kleine Eiszeit, um 1860 erreichten die Gletscher einen Höchststand. Da ist es doch ganz normal, dass es wieder etwas wärmer wurde.

Das gilt tatsächlich für die Gletscher ein Stück weit. Aber es erklärt nicht, wie schnell sie in den letzten dreissig, vierzig Jahren abschmolzen und wie stark die Erwärmung seit Beginn des 20. Jahrhunderts war. 

Die Sonne war in den letzten 50 Jahren so stark wie kaum zuvor und dies soll so rein gar nichts mehr mit der Temperatur- und Gletscherentwicklung zu tun haben? Und früher soll die Sonne und natürliche Zyklik dann doch eine Rolle gespielt haben, wobei unser Mutterstern dann ganz plötzlich in den letzten Jahrzehnten seine gesamte Klimakraft eingebüßt haben soll? Mit Verlaub, Herr Stocker, das macht nun wirklich keinen Sinn.

In der Römerzeit, als Hannibal mit Elefanten über die Alpen zog, gab es noch weniger Gletscher.

Ja, aber wir müssen uns fragen: Was war denn anders vor 2200 Jahren? Da kommt schon die Sonne ins Spiel: Aufgrund der Neigung der Erdachse gab es damals im Sommer mehr Sonneneinstrahlung, etwa 10 Watt pro Quadratmeter. Es ist offensichtlich, dass es da wärmer war.

Vor 2200 Jahren herrschte die Römische Wärmeperiode, eine der wiederholt aufgetretenen Wärmephasen im Millenniumstakt, die sich zu sonnenaktiven Zeiten ereigneten. Anstatt hierauf einzugehen, driftet Stocker lieber wieder zu seinen langperiodischen Milankovic-Zyklen ab, die im heutigen Klimageschehen keine Rolle spielen, und deren Wirkung er daher gerne zugeben kann. Ein durchsichtiges Ablenkungsmanöver. Wenn Stocker hier schon wieder Milankovic zitiert, hätte er doch gerne über das mittelholozäne Klimaoptimum 7000-5000 Jahre vor heute sprechen können, als es bereits 1 Grad wärmer als heute war. Ursache war damals in der Tat eine spezielle Milankovic-Erdbahngeometrie. Aber da diese lange, warme Phase der Vergangenheit nicht in das klimaalarmistische Konzept passt, geht Stocker nicht darauf ein.

Wird es Ihnen nicht mulmig, wenn die Astrophysiker sagen, dass die Sonne derzeit so schwächelt wie in der Kleinen Eiszeit des 17. Jahrhunderts?

Nein, denn die Voraussage der Sonnenaktivität ist heute noch nicht möglich, da fehlen leider genaue Daten und Modelle. Aber wir können auch nicht ausschliessen, dass eine solche Phase bereits begonnen hat. Sie wird jedoch wieder einmal enden – in der Zwischenzeit steigt der CO2-Gehalt aber weiter, das würde nachher zu einer umso stärkeren Erwärmung führen.

Oh lala. Nicht gut, Professor Stocker. Mittlerweile kann man schon fast von einem Konsens unter den Astrophysikern sprechen, dass die Sonne in den kommenden Jahrzehnten ihre Aktivität auf kleiner Flamme köcheln lassen wird. Zuletzt erschien hierzu sogar ein schweizerisches Paper von Steinhilber und Beer (siehe letzter Absatz in unserem Blogartikel „Wer ist Schuld am Kältewinter? MPI-Studie weist eher auf die schwache Sonne anstatt des arktischen Meereises hin. Die Sonne im März 2013“). Es gibt mittlerweile kaum noch eine Arbeit, die diesem Konzept widerspricht. Es nutzt daher nichts, sich an dieser Stelle dumm zu stellen und wie bei den Erwärmungspausen zu sagen, man wisse gar nichts und alles wäre nur Chaos. Dafür sind die Rekonstruktionen der Sonnenaktivität der vergangenen Jahrtausende dann doch zu regelmäßig, als dass man das Muster komplett ignorieren könnte. Noch schlimmer dann jedoch Stockers Verwechslung mit der Milankovic-Zyklik. Es geht hier um PRIMÄRE Sonnenaktivitätsschankungen mit Zyklen-Perioden von 11 bis 2000 Jahre, also Veränderungen in der Intensität des Wasserstoffreaktors auf der Sonne. Stockers Hinweis auf CO2-Veränderungen im Takte der Milankovic-Zyklik, also mit Perioden von 20.000 Jahren aufwärts geht vollständig am Thema vorbei. Kennt sich Stocker mit dem Thema wirklich nicht aus und kann die beiden Mechanismen nicht auseinanderhalten? Oder ist dies ein weiterer Versuch, die Diskussion ins Leere laufen zu lassen?

Der Schlussteil des Interviews spricht für sich und bedarf kaum eines Kommentars.

Kommen wir zum Grundsätzlichen. Der Soziologe Gerhard Schulze sagt: «Wissenschaft ist eine Veranstaltung der organisierten Skepsis.»

Das habe ich so noch nie gehört. 

In der Klimaforschung ist «Skepsis» ein Schimpfwort.

Der Begriff «Klimaskeptiker» wird oft verwendet, das ist so. Aber die Skepsis ist die treibende Kraft der Wissenschaft. Auch wir fragen: Ist das wirklich so? Haben wir das tatsächlich verstanden? Da unterscheidet sich die Klimaforschung überhaupt nicht von den anderen Wissenschaften.

Ihr Kollege Hans von Storch sagt aber in seinem aktuellen Buch «Die Klimafalle», die Klimaforscher hätten nicht genug über die Falsifikation nachgedacht, also das Widerlegen von Hypothesen, das allein eine Wissenschaft weiterbringt.

Das ist seine Sichtweise. Als wir damit begannen, die Klimaentwicklung der letzten fünfzig Jahre zu erforschen, arbeiteten wir doch gerade falsifizierend, indem wir alle möglichen Erklärungen testeten. Wir hätten auch zum Ergebnis kommen können: Die Erwärmung kommt zu 90 Prozent von der Sonne und zu 10 Prozent vom CO2. Aber alle Berechnungen zeigten das Gegenteil. 

War Ihr Ergebnis nicht schon in den Auftrag eingebaut, den das IPCC 1989 bekam?

Nein, der Auftrag lautete, offen und umfassend über den Stand des Wissens zur anthropogenen Klimaveränderung zu berichten. 

Eben: Dass die Klimaveränderung menschgemacht ist, stand von Anfang an fest. 

Überhaupt nicht. Millionen von Messdaten und das physikalische Verständnis bilden das Fundament dieser Aussage. 

Hans von Storch sagt auch: «Die Debatte darüber, dass wir uns irren könnten, ist tabuisiert. » Fragen Sie sich das nie?

Die Debatte über die Periode der geringen Erwärmung kam ja vor etwa drei Jahren auf. Im IPCC wird sie nicht tabuisiert, sondern eine Gruppe sichtet und beurteilt die publizierten wissenschaftlichen Studien – also nicht irgendwelche Blogposts oder Traktate – zu dieser Frage: Wie oft gab es in der Vergangenheit ähnliche Phasen der Stagnation? Wie wahrscheinlich sind sie in der Zukunft? Und welche Erklärungen gibt es dafür? Daraus machen wir im Bericht eine Box von drei, vier Seiten, also eine Gesamtschau zu diesem wichtigen Thema.

Was sind die Hauptaussagen Ihres Berichts?

Das kann ich heute der Weltwoche ebenso wenig sagen wie der New York Times.

Anders gefragt: Welche Reaktionen erwarten Sie in der Politik?

Das ist schwierig vorauszusagen. Die Klimaproblematik, das ist meine persönliche Einschätzung, steht derzeit sicher nicht zuoberst auf der Agenda, aber sie ist eng verknüpft mit der Energie und der Ressourcenpolitik. Wir können nur hoffen, dass die Klimapolitik wieder explizit zurück auf die Agenda kommt: Viele Entscheide, die wir jetzt fällen, etwa über die Energiesysteme, wirken auf Jahrzehnte hinaus – der Bericht soll deshalb einen Beitrag leisten, damit wir sie in Kenntnis aller Tatsachen treffen. 

Schon unzählige Male in den letzten Jahrzehnten sagten Klimaforscher, wenn bis zu einem bestimmten Datum nichts geschehe, sei es zu spät. Diese Daten sind alle verfallen, ohne dass etwas geschah.

Mit solchen Aussagen muss man extrem vorsichtig sein. Aber es gibt beim Klimawandel in der Tat Entwicklungen, die ab einem bestimmten Zeitpunkt nicht mehr umkehrbar sind. Ich schrieb deshalb letztes Jahr einen Artikel über «The Closing Door of Climate Targets»: Es fehlt die Erkenntnis, dass gewisse Klimaziele, zum Beispiel die Erwärmung unter 2 Grad zu halten, bald nicht mehr zu erreichen sind. Wir rasen in einem Auto auf die Wand zu und geben noch Gas, obwohl wir wissen, dass der Bremsweg kaum mehr reicht.

Das heisst: Die Menschheit begeht kollektiven Suizid.

Nein, aber die Anpassung an den Klimawandel und seine Auswirkungen wird sehr viel Geld kosten, also Ressourcen fordern, die wir sinnvoller hätten einsetzen können. Und sie wird zu Konflikten um diese Ressourcen führen.

Sie machen trotzdem keinen depressiven Eindruck.

Nein, wenn ich depressiv wäre, würde das meine Fähigkeit beeinträchtigen, die Erkenntnisse der Wissenschaft zu verbreiten. Sollte ich in die innere Emigration gehen und nicht mehr über das Problem reden? Das mache ich nicht: Das Problem ist da, es ist eines der grössten der Menschheit, und wir haben die Wahl, wie gross es sein wird. Darüber will ich informieren. 

Es dauerte ganz bis zum Schluss, bis sich Stocker als Aktivist outet: „Das Problem ist da, es ist eines der grössten der Menschheit“, sagt er. Es sollte bedenklich stimmen, wenn sich ein IPCC-Oberschiedsrichter, der eigentlich unvoreingenommen die Fachliteratur sichten und zusammenfassen sollte, persönlich eindeutig für die klimaalarmistische Seite entschieden hat. Wie stehen in solch einem Fall die Chancen, dass der IPCC angesichts der starken Hinweise auf die maßgebliche Beteiligung von natürlichen Klimafaktoren an der Klimaerwärmung seine überzogenen Temperaturprojektionen revidiert und seine Modelle modifiziert? Wie würde Stocker plötzlich dastehen, wenn es zwar einen gemäßigten anthropogenen Klimawandel gibt, dieser aber weit weniger dramatisch ausfällt als von ihm in der Vergangenheit und auch heute noch so vehement verkündet? Eine der wichtigsten Aufgaben für den IPCC in den kommenden Jahren wird es sein, persönliche Interessenskonflikte wie diesen zu verhindern und für einen ausgewogeneren, skeptischeren Umgang mit Forschungsresultaten zu sorgen. Bis dahin werden die IPCC-Berichte leider auch weiterhin keinen vernünftigen Beitrag zu einem besseren Verständnis der komplexen klimatischen Zusammenhänge liefern können.

Ein abschließender EIKE-Kommentar

Die Antworten von Stocker und die zugehörigen Kommentare von Vahrenholt/Lüning sprechen für sich. Wir gratulieren dem Redakteur der Weltwoche, Markus Schär, für seine geschickte Interviewführung und seine – gemessen an den üblichen Kenntnissen von Fachredakteuren – gute Expertise zur komplexen Klima-Materie.

Unsere Meinung zu Stocker deckt sich mit der von Vahrenholt/Lüning. Stocker ist ein AGW-Aktivist, der Objektivität in seinen wissenschaftlichen Verlautbarungen leider vermissen lässt. Stellvertretend hierzu seine Aussage

"Es fehlt die Erkenntnis, dass gewisse Klimaziele, zum Beispiel die Erwärmung unter 2 Grad zu halten, bald nicht mehr zu erreichen sind. Wir rasen in einem Auto auf die Wand zu und geben noch Gas, obwohl wir wissen, dass der Bremsweg kaum mehr reicht".

Diese Aussage muss angesichts des aktuellen Stands der Fachliteratur als absurd bezeichnet werden. Bis heute gibt es nämlich keine einzige begutachtete Veröffentlichung, die einen anthropogenen Einfluss auf die mittlere Globaltemperatur belegen kann. Von einem 2 °C Ziel ist in der Fachliteratur nichts aufzufinden. Die Klimasensitivität des CO2, gewonnen aus Labormessungen, liegt zwischen 0,4 und 1,1 °C (Harde und IPCC). Diese Werte sind völlig unbedeutend. Verdoppelung der CO2 Konzentration (darauf bezieht sich die Definition der Klimasensitivität des CO2) ist ohnehin nur mit dem Verfeuern aller fossiler Brennstoffressourcen erreichbar.

Stocker und dem IPCC ist es selbstverständlich "unbekannt", dass Ballon- und Satellitenmessungen Gegenkoppelungen an Stelle der fiktiven Klimamodellrückkopelungen auffinden (s. die zahlreichen References hier). Erst Klimamodell-Phantasieprodukte lassen politische Aussagen wie von einem 2 °C Ziel überhaupt zu. Man kann das fachlich unbelegbare 2 °C Ziel oder gar das Stocker’sche "gegen die Wand fahren" getrost dem Papierkorb überantworten. Die Interviewaussagen von Stocker sind erhellend, denn sie lassen desaströse Zustände und eine einzigartige politisch-ideologische Korrumpierung in großen Teilen der heutigen Klimaforschung zu Tage treten.

Der nachfolgende Leserbrief ist von Prof. Friedrich-Karl Ewert an die Weltwoche geschickt worden, ob er veröffentlicht wurde, ist uns nicht bekannt:

Leserbrief zum Interview mit Prof. Stocker, „Und die Erde erwärmt sich doch“:

 „Und die Erde erwärmt sich doch“ meint Thomas Stocker und scheint das eher zu fürchten, obwohl das Leben auf der Erde in Warmzeiten immer besser gediehen ist als in kühlen. Diese haben vor mindestens 15 Jahren wieder mal begonnen, und keiner weiß, ob und wie lange sie dauern. Denn die offiziellen Klimaprognosen beginnen ja immer erst nach dem eigenen Pensionsalter.

Wer zum Wettergeschehen sagt “Seine natürlichen Variationen konnten wir in den letzten 130 Jahren mit einem globalen Messnetz beobachten; wir können also die normalen Schwankungen abschätzen“ mag seine Schulphysik kennen, von der Erde hat er nicht nur keine Ahnung, sondern er weiß auch nicht, dass er das nicht weiß. Universalgelehrte gibt es schon lange nicht mehr, Teilwissen ist also die Regel. So weit, so gut, weil nicht mehr zu ändern. Aber was soll man von Klimaforschern halten, die nicht wissen, dass unsere Klimageschichte schon 4,5 Mrd Jahre dauert, und dass die Erde in 130 Jahren noch nicht mal einen Bruchteil jener Möglichkeiten erfahren hat, mit denen das Wetter die jeweils Lebenden verwöhnt oder malträtiert hat – und die auch immer wieder eintreten können? Dass es schon lange vor unserer Zeit Erwärmungen von bis zu 5° in 10 Jahren gab?  Dass der Globus trotz vielfach größerer atmosphärischer CO2-Gehalte bis zum 35sten Breitengrad vergletschert war? Dass das Mittelalter warm und die Barockzeit kalt waren? Weitere Beispiele wären jetzt peinlich, denn ein paar Buchstaben des Kleinen Alphabets wird ja wohl auch der klimaforschende Physiker kennen, dem das Fach Geschichte unsympathisch war – was immerhin den Vorteil hat, auf dem Weg zum prominenten Klimaforscher keine Skrupel überwinden zu müssen. Wie auch immer: 130 Jahre sind für die Erdgeschichte weniger als ein Wimpernschlag – es sind der 34 Millionen, 615 Tausend und 284ste Teil der Erdgeschichte.

Globales Messnetz? Aus zwei Gründen falsch! 1) Um Entwicklungen zu beurteilen, braucht man Vergleiche. Die sind bestenfalls in 30 Jahren möglich, denn ungefähr solange funktioniert die Sattelitenbeobachtung schon, und die nächsten 30 Jahre brauchen wir noch, wollen wir der Klimadefinition der WMO gerecht werden. 2) Und vorher? Ozeane, Seen, Gebirge, Wüsten, Sümpfe, Urwälder und die Polargebiete blieben unbeobachtet, so dass die dortigen Entwicklungen nicht bekannt sein können. Wenn es viel ist, kennen wir die Entwicklung vielleicht von 15% der Erdoberfläche

Und nun die Eisbohrkerne. Ihre Lufteinschlüsse sollen die Luftzusammensetzung der Atmosphäre anzeigen. Was wäre vor ihrer ja nicht billigen Entnahme zu klären? Wenn der Schnee frisch gefallen ist, hat er ein sehr großes luftgefülltes Porenvolumen. Die Luft wurde bei der Zusammenpressung des Schnees über Firn zum Eis größtenteils ausgepresst. Alle seine Komponenten im gleichen Maße?  Außerdem: Die beim Schneefall eingeschlossene Luft repräsentierte ein nivales Klima. Darf man annehmen, ihre Zusammensetzung über den warmen oder kalten Ozeanen, den warmen oder kalten Trockengebieten und den feuchtwarmen Tropen war die gleiche wie über den Kaltgebieten?

In seinem Vortrag beim Treffen der Nobelpreisträger 2012 in Lindau hat Ivar Giaever die Klimaforschung als Pseudowissenschaft charakterisiert – und den Klimawandel als Pseudoreligion. Thomas Stocker beweist mit seinem Interview, dass es nun auch den Gläubigen Thomas gibt.

Friedrich-Karl Ewert, Michael Limburg, Horst-Joachim Lüdecke, Klaus-Eckart Puls, Carl Otto Weiss




In den Nachrichten: Japan killt Klima-Agenda – Welches Kyoto?

Japan kehrt zur Kohle zurück und kippt Emissionsziele

Die japanische Regierung unternimmt derzeit alles, um den Prozess zum Bau neuer Kohlekraftwerke zu beschleunigen. Japanischen Medienberichten zufolge beabsichtigt die Regierung, diesen Prozess auf höchstens 12 Monate zu begrenzen, um mit dem Neubau derartiger Kraftwerke die in die Höhe schießenden Energiepreise anzugehen. Mit Überlegungen der Regierung, einen großen Teil der installierten Kernkraft-Energie mittelfristig zu schließen, gelangt die Kohle wieder in den Blickpunkt als die billigste Energiequelle, trotz der Pläne zur Reduktion von Kohlenstoff-Emissionen. Die Vorgabe, die Kohlenstoff-Emissionen bis zum Jahr 2020 um 25 Prozent verglichen mit dem Stand von 1990 zu reduzieren, wird im Oktober überarbeitet, heißt es in japanischen Zeitungsberichten. – Brian Robins, The Sydney Morning Herald, 26 April 2013

Dem Regierungssprecher der japanischen Regierung zufolge wird Japan wahrscheinlich ein ambitioniertes Versprechen, die Treibhausgas-Emissionen um ein Viertel zu kappen, rückgängig machen. Auf die Nachfrage, ob er bestätigen könne, dass die neue Regierung das Versprechen Tokios aus dem Jahr 2009 erneuern würde, sagte Kabinetts-Generalsekretär Yoshihide Suga, dass die Regierung „im Prinzip in diese Richtung geht“. „Ich habe schon eine ganze Zeitlang gesagt, dass dies ein gewaltiges Ziel ist und wahrscheinlich unerreichbar ist“. Dies sagte er in einer Routine-Pressekonferenz. Die industriefreundliche Liberale Demokratische Partei von Premierminister Shinzo Abe hat bei den Wahlen im Dezember die Demokratische Partei überflügelt. Diese hatte versprochen, die Ziele hinsichtlich Reduktion von Treibhausgasen angesichts des Wechsels zu fossilen Treibstoffen nach Fukushima zu erneuern. – AFP, 24 January 2013

Neue Technologien und eine wenig bekannte Energiequelle zeigen, dass fossile Treibstoffe unendlich sein könnten. Schätzungen des globalen Vorkommens von Methanhydrat reichen vom Äquivalent des Hundertfachen des gegenwärtigen jährlichen Energieverbrauchs in Amerika bis hin zu dem 3-Millionen-fachen. – Charles C Mann, The Atlantic, May 2013

In ganz Europa haben sowohl die politischen Entscheidungsträger als auch die Öffentlichkeit weiterhin Vorbehalte über die potentiellen Auswirkungen von Technologien wie Fracking auf die Umwelt. Eine Verlangsamung der Bemühungen Europas, seine Gasreserven auszubeuten, die etwa 10% der Weltvorräte ausmachen, könnte zu keiner schlechteren Zeit für die europäischen Unternehmen kommen, die ohnehin schon unter einer kontinentalen Schuldenkrise sowie kraftlosem Wachstum und zunehmenden Wettbewerbsnachteilen im Vergleich zu Rivalen in den USA leiden. – Mark Scott, The New York Times, 25 April 2013

Parlamentsmitglieder haben die Regierung kürzlich dafür kritisiert, dass sie ohne Not die Entwicklung von Schiefergas verzögert hätte, und wiesen darauf hin, dass sie vielmehr die Unternehmen jetzt ermutigen sollte, mit genaueren Schätzungen der förderbaren Vorräte herauszurücken. Das Fehlen von Fortschritten während der letzten zwei Jahre in UK ist enttäuschend und muss beschleunigt werden. Dies sagten Mitglieder des einflussreichen überparteilichen Energy and Climate Committee dem Parlament in einem Bericht. – Reuters, 26 April 2013

Das 18 Monate lange Moratorium der Bohrung nach Schiefergas war ein „Skandal“, sagte Peter Lilley, Mitglied des vom Unterhaus in UK eingesetzten Komitees zur Klimaänderung. Lilley sagte weiter, dass eine zweiwöchige Reise in die USA – dem Geburtsort der Schiefergas-Revolution – ausgereicht hätte, um alle Fragen hinsichtlich der Risiken des hydraulischen Brechens zu beantworten. Dann hätte die Schiefergas-Förderung schon längst begonnen haben können. „Die meisten Sorgen bestehen entweder aus Übertreibungen oder aus Lügen“, sagte er. – Platts, 24 April 2013

Die Europäer haben Hunderte Milliarden Euro für erneuerbare Energien ausgegeben – ultimativ getragen von den Steuerzahlern, den Verbrauchern und der europäischen Wettbewerbsfähigkeit – für nichts und wieder nichts. Angesichts der sich weiter ausbreitenden Schiefergas-Revolution versprechen die Erneuerbaren, die Wirtschaft mit grüner Energie zu ertränken und sie in Abhängigkeit von unbezahlbaren Subventionen zu belassen. – Rupert Darwall, City A.M. 25 April 2013

Link: http://wattsupwiththat.com/2013/04/26/newsbytes-japan-kills-climate-agenda/

Übersetzt und mit einer Einführung versehen von Chris Frey




Hockeystickerfinder Michael Mann – wieder einmal rat- und ahnungslos

Von the Hockey Schtick: Eine neue Studie von Schurer et al. (mit Mann als Mitautor) zeigt, dass „Klimamodelle die warmen Bedingungen vor rund 1000 Jahren (vor heute, während der Mittelalterlichen Warmphase) nicht erklären können, die man in einigen (Temperatur-)Rekonstruktionen erkennt“.

Schurer et al.: „Es zeigte sich, dass Variationen des solaren Outputs und explosiver Vulkanismus von 1400 bis 1900 die Hauptklimatreiber waren“. Sie behaupten auch: „aber zum ersten Mal sind wir auch in der Lage, einen signifikanten Beitrag aus Variationen von Treibhausgasen abzuleiten bis zu den kalten Bedingungen der Jahre von 1600 bis 1800“. Diese Behauptung ist höchst unwahrscheinlich, zeigen doch die Eisbohrkerne lediglich Änderungen des CO2-Gehaltes zwischen 1600 und 1800 von weniger als 10 ppm, und die Auswirkungen einer Änderung des CO2-Gehaltes um 10 ppm sind nicht bestimmbar, selbst mit moderner Instrumentierung.

Separating forced from chaotic climate variability over the past millennium*

auf deutsch etwa: Unterscheidung zwischen verursachter und zufälliger klimavariabilität während des letzten Jahrtausends
Andrew Schurer,1 Gabriele Hegerl,1 Michael E. Mann,2 Simon F. B. Tett,1 and Steven J. Phipps3

Journal of Climate 2013 doi: http://dx.doi.org/10.1175/JCLI-D-12-00826.1

[*Mit Dank an Leser D. Rohrlack.]

Abstract
Rekonstruktionen des vergangenen Klimas zeigen eine bemerkenswerte Temperatur-Variabilität während des vergangenen Jahrtausends, mit relativ warmen Bedingungen während der ‚Mittelelterlichen Klima-Anomalie MCA’ und der relativ kalten ‚Kleinen Eiszeit LIA’. Wir haben Multimodell-Simulationen des letzten Milleniums verwendet, zusammen mit einer Vielzahl von Rekonstruktionen der mittleren Temperatur auf der Nordhemisphäre, um die Klimavariabilität von 850 bis 1950 in Komponenten zu zerlegen, die man entweder externen Treibern oder interner Klimavariabilität zuordnen kann. Es zeigte sich, dass externe Treiber signifikant zu langzeitlichen Temperaturänderungen beigetragen haben, unabhängig von der Rekonstruktion aus Proxies, besonders ab dem Jahr 1400. Während der MCA allein jedoch ist der Effekt des Antriebs nur etwa in der Hälfte der betrachteten Rekonstruktionen auffindbar, und die Folgen des Antriebs in den Modellen können die warmen Bedingungen um das Jahr 1000 nicht erklären, die in einigen Rekonstruktionen zum Ausdruck kommen. Wir haben die Restmenge aus der Ermittlungs-Analyse verwendet, um die interne Variabilität unabhängig von der Klimamodellierung abzuschätzen, und fanden, dass die gegenwärtig beobachteten 50-jährigen und 100-jährigen hemisphärischen Temperaturtrends substantiell größer sind als irgendeiner der intern erzeugten Trends, selbst wenn man die große Restmenge während der MCA verwendet. Es zeigte sich, dass Variationen des solaren Outputs und explosiver Vulkanismus von 1400 bis 1900 die Hauptklimatreiber waren, aber zum ersten Mal sind wir auch in der Lage, einen signifikanten Beitrag aus Variationen von Treibhausgasen abzuleiten bis zu den kalten Bedingungen der Jahre von 1600 bis 1800. Die Proxy-Rekonstruktionen tendieren dazu, eine kleinere Reaktion auf Antriebe zu zeigen als von den Modellen simuliert. Wir zeigen, dass diese Diskrepanz zumindest teilweise zusammenhängt mit dem Unterschied der Reaktion auf große Vulkanausbrüche zwischen Rekonstruktionen und Modellsimulationen.

================================================================

Was soll das; die Klimamodelle können ja nicht einmal die Gegenwart erklären, geschweige denn die Vergangenheit. Also ist das wirklich keine Überraschung:

Anthony Watts

Link: http://wattsupwiththat.com/2013/04/11/michael-mann-says-climate-models-cannot-explain-the-medieval-warming-period-i-say-they-cant-even-explain-the-present/

Übersetzt von Chris Frey EIKE




Schiefergas: Europa immer mehr im Hintertreffen

Torbjorn Tornqvist, Direktor des Handelshauses Gunvor, sagte, dass eine Schieferproduktion in ähnlicher Größenordnung wie in den USA in vielen der größten Energieerzeuger-Länder und deren Verbraucher möglich ist – aber dass es unwahrscheinlich ist, dass Europa davon verändert wird.

Die Flut der Produktion von Öl und Gas aus unkonventionellen Quellen hat die Vorhersagen, dass die USA zu einer der energiesichersten Regionen der Welt werden, noch übertroffen.

„Ist es möglich, das anderswo zu übernehmen? Die Antwort lautet ja, aber nicht überall!“ sagte Mr. Tornqvist. „Ich glaube, dass man in Russland die erste wesentliche Veränderung sehen wird. Dort gibt es das politische Klima, große Operationen bzgl. Schiefergas und –öl durchzuführen“. Er sagte auch, dass China, Australien und Südamerika viel versprechende, Schiefer ausbeutende Länder seien.

Mr. Tornqvist ließ eine deutlich weniger positive Einschätzung in Bezug auf Europa verlauten. Dort ist man bisher geteilter Meinung hinsichtlich der relativ neuen Technologie des hydraulischen Brechens oder Fracking. In Frankreich ist man strikt gegen diesen Gedanken, während die Regierung von UK darauf besteht, dass die Schiefergas-Erzeugung „geschehen wird“.

Mr. Tornqvist sagte: „Europa? Sie kennen alle die Probleme dort: niemand möchte wirklich Bohranlagen in der Landschaft sehen – und Probleme und Befürchtungen hinsichtlich des Grundwassers und so weiter werden Europa daran hindern, seine Ressourcen auszubeuten, die ohnehin nicht so gewaltig sind“.

Der Gunvor-Direktor sagte all dies auf dem Weltwirtschaftsgipfel der Financial Times in Lausanne, Schweiz.

Bob H. Takai, leitender Manager der Abteilung Energie bei der Sumimoto Corp., sprach auf einer Podiumsdiskussion im Anschluss an die Rede von Tornqvist. Er sagte, dass China der größte Rivale Russlands bzgl. Schiefer sei.

„Soweit es die Vorräte betrifft, glaube ich, dass China das größte Potential an Reserven von Schiefergas und –öl besitzt, größer noch als das der USA“; sagte Mr. Takai. Er fügte hinzu: „bevor diese Reserven zugänglich sind, würde China mit Problemen kämpfen, die von der Infrastruktur bis zur Wasserversorgung reichen“.

Die Diskussion brachte Tornqvist dazu, noch einmal zu betonen: „Es wird lange dauern. Und wenn ich raten müsste, welches Land zuerst in großem Umfang aktiv wird, würde ich auf Russland tippen. Weil man dort infolge des politischen Systems beschlossen hat, es zu tun. Sie haben die Infrastruktur, sie haben eine lange Tradition beim Bohren nach Gas, es ist nicht so dicht bevölkert, sie haben Wasser, sie haben alle Zutaten.

Und sie tun es! Das weiß ich von meinen Gesprächen mit Gazprom… sie haben fortgeschrittene Pläne hinsichtlich Schiefergas und –öl!“

Link: http://www.thegwpf.org/shale-boom-happen-russia-china-south-america-green-europe/

Übersetzt von Chris Frey EIKE




Die wirklichen Leugner der Klimaänderung

Kaltwetterextreme sind eine natürliche Klimavariation, und genau das ist der Punkt. Falls die Welt wirklich einer Klimakrise bzgl. der globalen Erwärmung entgegen geht, sollte es nirgendwo in der Welt auch nur noch einen einzigen Kälterekord geben. Associated Press hat uns jedoch versichert, dass diese Kältewelle nicht nur in Übereinstimmung mit einem sich erwärmenden Globus steht, sondern dass sie sogar von der globalen Erwärmung verursacht wird. Die angebotene Erklärung lautet, dass das kalte Wetter in Europa die Folge von schmelzendem Meereis in der Arktis ist. Wenn Ihnen diese spezielle Aussage als ungewöhnlich tendenziös vorkommt, steht das in bester Tradition, jedes Wetterereignis, dass scheinbar mit dem herrschenden Paradigma kollidiert, ex post facto hinweg zu erklären.

Im Jahr 2000 hat der britische Klimaforscher und Mitarbeiter des IPCC David Viner dem Independent gesagt, dass „winterlicher Schneefall innerhalb weniger Jahre ein sehr seltenes und aufregendes Ereignis sein wird“. Und weiter: „Traurigerweise werden Kinder bald nicht mehr wissen, was Schnee ist“. Im Jahr 2008 hat der Umweltaktivist Robert F. Kennedy Jr. in der Los Angeles Times geschrieben, dass „Schnee heutzutage so selten ist, dass die meisten Kinder in Virginia möglicherweise nicht mal einen Schlitten besitzen“.

Am 6. Februar 2010 wurde der Osten der USA von einem Blizzard betroffen („Snowmageddon“), der 20 bis 35 Inches Schnee gebracht hat [ca. 50 bis 90 cm]. Drei Tage später brachte ein weiterer Blizzard erneut Schneezuwachs um 10 bis 20 Inches [ca. 25 bis 50 cm]. In Washington D.C. war es der stärkste saisonale Schneefall seit Beginn von Aufzeichnungen im Jahr 1888. Dem National Climatic Data Center NCDC zufolge gab es im Winter 2009/2010 in den USA „hunderte Fälle mit rekordhohen Schneemengen“. Innerhalb weniger Tage wurden diese Blizzards im Osten der USA als eine natürliche Konsequenz der globalen Erwärmung hingestellt. Am 12. Februar informierte uns National Geographic News, dass „die globale Erwärmung der Hauptschuldige hinter den Schneestürmen dieses Jahres im Osten der USA ist“.

Vom 8. bis 10. Februar in diesem Jahr wurde der Osten der USA erneut von einem Blizzard mit Rekord-Schneemengen und begleitet von Orkanböen betroffen. 700000 Menschen hatten danach keinen Strom mehr. Am 18. Februar kam von Associated Press die widersprüchliche Entschuldigung, dass die globale Erwärmung zu „weniger Schnee und mehr Blizzards“ führt. Das aufzuschlüsseln bleibt jetzt Ihnen überlassen.

Das kalte Wetter der globalen Erwärmung in die Schuhe zu schieben ist nur ein Aspekt dieses Zirkus’. Weitere Fundstücke darin schließen Behauptungen ein, wonach Erdbeben, Tsunamis und Vulkanausbrüche von der globalen Erwärmung verursacht bzw. verschlimmert werden. Im vorigen Jahr hat man uns erzählt, dass „die globale Erwärmung uns alle in Hobbits verwandeln könne“, jene mythischen Kreaturen aus den Romanen von J. R. R. Tolkien.

Konfrontiert mit einer endlosen Lawine solchen Gefasels scheint es fast tollkühn zu sein, mit Fakten zu kommen. Seit 15 Jahren hat die globale Temperatur nicht mehr zugenommen. Dürren nehmen nicht zu, auch Buschbrände nicht. Tornados zeigen keine Zunahme hinsichtlich Häufigkeit und Stärke. Normale Hurrikane wie Sandy und Katrina wurden als Beweis für die Klimaänderung angeführt, aber die weltweite Hurrikan-Aktivität befindet sich auf dem Tiefststand der letzten 40 Jahre. Während der letzten 20 Jahre ist der Meeresspiegel um 5 cm gestiegen, ein ominöser Trend, bis man sich vor Augen führt, dass der Meeresspiegel seit dem Ende der letzten Eiszeit um 120 Meter gestiegen ist.

Ende März lag die räumliche Ausdehnung von Meereis in der Arktis um 3% unter dem 30-jährigen Mittelwert. Das Meereis um die Antarktis bedecke jedoch eine um 24% größere Fläche. Die global von Meereis überdeckte Fläche lag über dem 30-jährigen Mittel und höher als im März 1980. Nur Naive können so logisch sein und herleiten, dass die „globale“ Erwärmung, oder das Fehlen derselben, eher im „globalen“ als im lokalen Rahmen gesehen werden muss. Eine am 31. März in Nature Geoscience veröffentlichte Studie kam zu der Folgerung, dass die Zunahme des antarktischen Meereises verursacht wird durch – richtig, die globale Erwärmung.

Mit jedem weiteren verstreichenden Jahr wird immer klarer, dass es sich bei der globalen Erwärmung nicht um eine wissenschaftliche Theorie handelt, die Gegen­stand empirischer Falsifizierung ist, sondern um eine politische Ideologie, die mit Gewalt gegen jedwede Herausforderung verteidigt werden muss. Es ist Ironie, wenn man die Skeptiker „Leugner“ nennt, wenn jedes Faktum, das die globale Erwärmung falsifiziert, sofort durch eine Industrie der Leugnung hinweg erklärt wird.

David Deming

David Deming, a geophysicist, is a professor at the University of Oklahoma and author of “Black & White: Politically Incorrect Essays on Politics, Culture, Science, Religion, Energy and Environment” (CreateSpace, 2011).

Read more: http://www.washingtontimes.com/news/2013/apr/23/the-real-deniers-of-climate-change/#ixzz2RNgn5shg
Link: http://www.washingtontimes.com/news/2013/apr/23/the-real-deniers-of-climate-change/

Übersetzt von Chris Frey EIKE




Windenergieeinspeisung im April: Ein teures Trauerspiel.

Insgesamt sind bis heute  Windkraftanlagen mit einer Gesamtnennleistung von 32 GW oder 32.000 MW installiert. Diese Windleistung würde der Leistung von ca. 30 „Atomkraftwerken“ entsprechen, wie es uns die Grünen aller Parteien immer wieder einreden wollen. Dass das nicht stimmt, wissen immer noch die wenigsten, die PISA Studien kommen wohl um Jahrzehnte zu spät. Denn nach dieser Betrachtungsweise könnte ein einzelner, stinknormaler Blitz, wenn man ihn den nutzen wollte und so wie er täglich vorkommt, sämtliche deutsche Kraftwerke ersetzen. Die Leistung dazu hätte er, die Energiemenge zum Glück nicht. Und um die geht es. Und sie muss auch noch auch noch zur richtigen Zeit abgerufen werden können.. Deswegen erlauben wir uns eine kurze Darstellung der Realität der Windenergie in Deutschland.

Denn die raue Wirklichkeit sieht anders aus. Die nebenstehende Abbildung 1 [3] zeigt die Einspeisung sämtlicher deutsche Windkraftanlagen aus ihren „Windparks“ für den April (die noch fehlenden 5 Tage verändern das Bild nicht). In der Spitze, am 18.4.13, wurden kurzzeitig 17 GW erzeugt.

Der gesamte Netto-Elektro-Energieverbrauch in Deutschland betrug in den 25 Apriltagen ca. 33 TWh. Das heißt, pro Tag musste im Mittel und Stunde für Stunde Kraftwerksleistung  von 55 GW abgerufen werden können. Mit Spitzen um 60 GW. Damit hätten die installierten WKA´s also allein 60 % des Bedarfes decken können. Konnten sie aber nicht. Denn das ist eine schönfärberische Milchmädchenrechnung. Weil, wie allseits bekannt, wackelt die eingespeiste Energie mit dem Wind und deshalb betrug die Spitzenleistung am 18.4.13 nur 17 GW, aber auch nur für ca. 2 h und fiel dann schnell wieder auf 8 GW gegen 24:00 Uhr ab. Damit lieferten an diesem Tag alle WKA´s zusammen, gerade mal  28.8 % der notwendigen Leistung und auch nur 53 % ihrer Nennleistung. Und das war noch der beste Tag.  An allen anderen Tagen war es noch deutlich schlechter.  Und an 5 oder 20 % der Tage, kam die Leistung nicht über 4 GW hinaus, mit Minima knapp über Null. An diesen windschwachen Tagen betrug die  Spitzenleistung also nur knapp 12 % der installierten Leistung und auch nur 7,3 % der erforderlichen Leistung.

Abbildung 2: Gesamt-Windeinspeisung für den 25.4.13

Abb. 2 zeigt die ganze Misere noch einmal überdeutlich. Um die Mittagszeit, wenn der Stromverbauch ein Maximum erreicht, fiel die Einspeisung durch Wind auf läppische 184 MW ab. Das sind gerade mal 0,3 % der dann benötigten Leistung. Und mitten in der Nacht, des Morgens und Abends, erreichte sie ihr niedriges Maximum von nur 4,8 GW. Strom, den keiner gebrauchen kann, und der vielleicht mit Aufgeld ans Ausland "verkauft" werden musste.

Ausgleichen müssen diese teure Wackelei konventionelle Kohle- Kern- und zunehmend wichtiger – Gaskraftwerke. Das modernste, vor gut einem Jahr erst in Betrieb genommen, ist das GUD Kraftwerk in Irrsching. Es hat einen Wirkungsgrad von knapp 60 % und liefert volle Leistung, wenn es denn soll, so gut wie jede Stunde im Jahr. Bei jährlich 4000 Betriebsstunden wäre es profitabel gewesen. Es durfte aber -wg. der Vorrangeinspeisung der NIE (Neue Instabile Energien)- nur 1600 Stunden im Jahr liefern. Dadurch wurde es unrentabel. Und müsste stillgelegt werden. Doch die Politk hat auch dafür eine Lösung. Ausgerechnet der FDP Minister Zeil weiß wie. In der Augsburger Allgemeinen lesen wir:

Die Betreiber haben angekündigt, das Kraftwerk mindestens zwei Jahre stillzulegen. Rund 100 Millionen Euro seien nötig, um das Kraftwerk am Laufen zu halten, sagte Teyssen...

…Bayerns Wirtschaftsminister Martin Zeil hat vor wenigen Tagen erklärt, dass Irsching V am Netz bleiben müsse. Ansonsten wäre die Systemstabilität und damit die Versorgungssicherheit entscheidend gefährdet. Der Netzbetreiber könne aus diesen Gründen auch den Erhalt der Betriebsbereitschaft eines Kraftwerkes anordnen, erinnerte der Minister. Weiter sagte Zeil, die Staatsregierung plane eigentlich den Bau von vier neuen Gaskraftwerken, finde aber keinen Investor. Irsching V kann beinahe so viel Strom produzieren wie ein kleines Kernkraftwerk….
Bayerns Vorzeigekraftwerk droht Aus

weiter lesen auf Augsburger-Allgemeine:

So also sieht die schöne neue Energiewende-Welt aus.  Aldous Huxley hätte seine helle Freude daran, wegen des schnellen Eintreffens seiner Prophezeiungen, wenn auch auf anderem Gebiet.

Michael Limburg EIKE, mit Dank an Rolf Schuster für die Erstellung der Grafiken

[1] http://www.eike-klima-energie.eu/climategate-anzeige/ein-weihnachtsmaerchen-minister-altmaier-die-energiewende-und-die-geisterfahrer/

[2] Länder lehnen Altmaiers Strompreisbremse ab http://www.zeit.de/wirtschaft/2013-03/energiegipfel-strompreisbremse-dissens

[3] Quelle EEX Leipzig, zusammengestellt von EIKE Leser Ralf Schuster 




Die Geschichte triumphiert über „Klimawissenschaftler“

Bild rechts: Die umfangreichen historischen Beweise aus der Arktis sind nichts im Vergleich zu jenen aus den dicht bevölkerten Kontinenten Europa und Asien, wo geschriebene Auflistungen beschreiben, wie Änderungen der Temperatur welche Ernteerträge beeinflusst haben und wo die Menschen leben konnten.

Die viel bessere Erklärung der öffentlichen Konfusion liegt in der weit verbreiteten Ignoranz der Geschichte, nicht zuletzt durch die Wissenschaftler. Jedes Kind versteht, dass die Römer die Welt erobert hatten, als die Temperaturen höher lagen als heute; dass die Holländer die Schlittschuhe während der Kleinen Eiszeit vor fünfhundert Jahren erfunden haben, und das schmelzende Gletscher vor Neufundland vor einem Jahrhundert den Eisberg hervorgebracht haben, der die Titanic zum Sinken gebracht hat. Jede dieser gut dokumentierten Perioden schreddert die Spekulationen der Klima-Alarmisten, wie z. B. ihre Behauptung, dass die Arktis sich nur jetzt erwärmt, oder dass die Temperaturen während der letzten ein- oder zweitausend Jahre stabil geblieben und erst im vorigen Jahrhundert dramatisch gestiegen waren.

Die Angst erzeugende Klimanachricht dieser Woche manifestierte sich in einem Artikel in Nature Geoscience mit der Behauptung, dass die Temperaturen auf der Antarktischen Halbinsel die wärmsten jemals der letzten 1000 Jahre waren. Diese Behauptung folgt einer „Rekonstruktion“ des Klimas unter Verwendung einer Bootsladung Hypothesen.

Ein anderer Artikel über die Antarktis in der gleichen Ausgabe von Nature Geoscience ist weniger Angst machend, teilweise weil hier die Geschichte bemüht wird, um wissenschaftliche Schlussfolgerungen zu stützen. „Wenn wir auf diese Region in den vierziger Jahren des 20. und den dreißiger Jahren des 19. Jahrhunderts zurückblicken könnten, würden wir erkennen, dass das damalige Klima sehr ähnlich unserem heutigen war, und ich glaube, wir würden auch sehen, dass sich die Gletscher in ähnlicher Weise zurückziehen wie heute“, sagte Leitautor Eric Steig von der University of Washington. Steigs Studie verwendete tatsächliche Temperaturaufzeichnungen von Seefahrern, Entdeckern und Wissenschaftlern während der letzten beiden Jahrhunderte in den Tropen und darüber hinaus.

Die riesige Antarktis war natürlich meist nicht zugänglich, aber zahlreiche Expeditionen in der Region, angefangen bei der Reise von James Cook in den siebziger Jahren des 18. Jahrhunderts stellen tatsächliche und nicht wissenschaftlich ermittelte oder rekonstruierte Daten zur Verfügung. Die Entdecker aus Australien, UK, Belgien, Frankreich, Deutschland, Japan Neuseeland, Norwegen, Schweden und der Schweiz sagen uns zum Beispiel, dass sich die Umrisse des Kontinents kontinuierlich verändert haben. Die Walfischbucht in der Antarktis, Ausgangspunkt des norwegischen Entdeckers Roald Amundsen 1911 und der Expeditionen von Richard Byrd in den zwanziger, dreißiger und vierziger Jahren haben sich so oft verändert und sind so instabil geworden, dass sie in den fünfziger Jahren als Hafen aufgegeben worden ist; und in den achtziger Jahren ist sie nach dem Abbruch eines 99 Meilen langen Eisbergs [ca. 160 km] vollständig verschwunden.

Jene, denen diese Geschichte nicht bekannt ist, können leicht den dramatischen Medienberichten der letzten Dekade von Eisbergen verfallen, die von den antarktischen Gletschern abbrechen, begleitet von der atemberaubend eintönigen Warnung, dass die globale Erwärmung beispiellose Änderungen ausgelöst hat. Jene, denen die jüngere Geschichte unbekannt ist, würden nicht wissen, dass die USA seit Mitte der fünfziger Jahre eine ständig besetzte Basis am Südpol haben. Die dort aufgezeichneten Temperaturen – wirklich gemessen und nicht rekonstruiert – zeigen, dass der Südpol heute kälter ist als zu der Zeit vor 50 Jahren, zu der die Station errichtet worden ist.

Die Historie kennt viele ähnliche Geschichten vom Nordpol und dessen Umgebung. „Es wird Ihrer Lordschaft zweifellos zu Ohren gekommen sein, dass eine deutliche Klimaänderung, gegenwärtig für uns unerklärlich, in den den Nordpol umgebenden Gebieten stattgefunden haben muss. Die Strenge der Kälte, die Jahrhunderte lang die Meeresgebiete in hohen nördlichen Breiten hinter einer undurchdringlichen Mauer aus Eis verschlossen hat, hat sich während der letzten beiden Jahre erheblich abgeschwächt“, schrieb der Präsident der Royal Society in London an die britische Admiralität im Jahr 1817. Unter starker Befürwortung einer Expedition stellte er fest: „Neue Wärmequellen haben sich geöffnet und uns Anlass zu der Hoffnung gegeben, dass die Arktische See derzeit zugänglicher als jemals zuvor während der letzten Jahrhunderte ist, und dass man dort jetzt Entdeckungen machen könne, die nicht nur für den Fortschritt der Wissenschaft, sondern auch die zukünftige Menschheit und das Wohlergehen weiter entfernt liegender Länder von Interesse sein könne“.

Tatsächlich wurden von den Engländern und vielen Anderen viele Expeditionen durchgeführt, und die Nordwestpassage wurde viele Male durchfahren, zuerst durch den gleichen Amundsen, der zuvor die Antarktis erkundet hatte. Die Geschichte zeigt uns, dass sich die Arktis schon oft erwärmt hat, was Behauptungen ad absurdum führt, dass die gemäßigte jüngste Erwärmung in irgendeiner Hinsicht außerordentlich ist.

Einem aktuellen Zeitungsbericht aus Alaska zufolge war die höchste jemals in Alaska gemessene Temperatur – 100 Grad Fahrenheit [ca. 38°C] – im Jahre 1915 aufgetreten. In einer Zeitungsschlagzeile in Australien während des Zweiten Weltkriegs wurde die Frage gestellt: „Der Nordpol – wird es wärmer?“ Die Antwort: „Aus Messungen und meteorologischen Untersuchungen russischer Entdecker, die diese Woche nach Murmansk, dem einzigen dauerhaft eisfreien Hafen in Russland zurückgekehrt sind, geht hervor, dass die polnahen Temperaturen im Mittel etwa sechs Grad höher liegen als jene, die von Nansen (einem norwegischen Entdecker) vor 40 Jahren gemessen worden waren“.

Die umfangreichen historischen Beweise aus der Arktis sind nichts im Vergleich zu jenen aus den dicht bevölkerten Kontinenten Europa und Asien, wo geschriebene Auflistungen beschreiben, wie Änderungen der Temperatur welche Ernteerträge beeinflusst haben und wo die Menschen leben konnten. Wir erfahren, dass in der Periode vor 1000 Jahren, als es wärmer war als heute – nämlich der Mittelalterlichen Warmzeit – in UK Weintrauben wuchsen und Skandinavier in Grönland Ackerbau betrieben haben. Wir erfahren, dass in der noch wärmeren Periode vor zweitausend Jahren – dem Römischen Klimaoptimum – in Deutschland Oliven wuchsen und Südfrüchte in UK.

Wir erfahren, dass die Geschichte über die Wissenschaft, wenn diese spekulativ und politisiert ist sowie der Realität widerspricht.

Lawrence Solomon is executive director of Energy Probe and author of The Deniers. Follow Lawrence Solomon on Twitter or contact him at LawrenceSolomon@nextcity.com.

Link: http://opinion.financialpost.com/2013/04/18/lawrence-solomon/

Übersetzt von Chris Frey EIKE




Versenkt und vergessen? Wie gefährlich ist der Atommüll vor Europas Küsten!

Es wurde behauptet, daß die radioaktiven Abfälle der Grund für das Auftreten verschiedener Krankheiten seien, so war die Rede von Gehirntumoren, Leukämie, Krebs allgemein, Erbschäden…

Zahlen zu der Menge der versenkten Radioaktivität oder auch Zahlen zu gemessenen Dosiswerten oder der Dosisleistung wurden nicht mitgeteilt.

Was ist zu diesem Bericht zu sagen?

Nehmen wir dazu eine Zahl, die in der Presse erschien: Es sollen sich in 28 000 Fässern 6 * 1013 Becquerel befinden, schwachaktiv. Diese Zahlen passen zusammen, mittel- oder hochaktiver Abfall hätte eine höhere Aktivität. Es steht zu vermuten, daß der Abfall im wesentlichen Uran ist, so wie es in der ASSE der Fall ist. Uran ist schwachaktiv, es wird im Kernreaktor als Oxid UO2 eingesetzt.

Natürlich werden die Fässer irgendwann vom Wasser angegriffen, es können Nuklide in Lösung gehen. Die- se werden im Wasser verdünnt und weiträumig verteilt. Dazu sind Vergleiche mit der normalen Radioaktivität im Meerwasser nützlich:

  1. Meerwasser enthält Radioaktivität, es sind in einem Liter Meerwasser enthalten: 12 Becquerel Kalium-40

    0,075 Becquerel Uran Hochgerechnet auf die Weltmeere sind das:

    1,5 * 1022 Becquerel Kalium-40

    1* 1020 Becquerel Uran
    Wenn die Fässer mit dem Abfall vom Meerwasser zerfressen werden und sich der gesamte Inhalt im

    Laufe der Jahrtausende löst und mit der Strömung weltweit verteilt, wird sich die Radioaktivität im Meer um ca.

    ein Millionstel Prozent

    erhöhen. Natürlich ist dieses weder meßbar noch hat das irgendwelche Folgen. Es spielt auch keine Rolle, ob die Menge der versenkten Radioaktivität vielleicht zu klein angegeben wurde. Es zeigt sich:

    „The solution of pollution ist dilution“.

  2. Aber es gibt noch weiteren Eintrag von Radioaktivität ins Meer, das soll auch gesagt werden. Nicht nur die Natur, auch der Mensch ist radioaktiv. Der Mensch ist auch eine Strahlenquelle. Und der Mensch braucht Nahrung zum Leben, und die ist ebenfalls radioaktiv. Betrachten wir Kalium und Uran. Kalium ist als physiologisches Element zum Leben erforderlich, und Uran ist als Spurenelement überall vorhanden (1). Die Menschen in Deutschland verspeisen im Jahr ca.

    2 * 1012 Becquerel Kalium-40

    1 * 109 Becquerel Uran
    Die gesamte Menschheit verspeist im Jahr rund das Hundertfache an Radioaktivität, das sind

    2 * 1014 Becquerel Kalium-40

    1 * 1011 Becquerel Uran Diese Radioaktivität wird natürlich auch wieder ausgeschieden.

    Alle Kaliumsalze sind löslich, daher wird Kalium in den Kläranlagen nicht zurück gehalten. Aus den ent- wickelten Industrieländern landet Kalium unweigerlich letztendlich im Meer. Man kann mit Recht sagen, daß die Menschheit durch ihre Existenz dem Weltmeer viel mehr Radioaktivität durch Kalium-40 zufügt, als es jemals aus den versenkten Fässern freigesetzt werden könnte.

Der Mensch verändert durch seine Existenz seine Umwelt. In unseren Breiten könnte der Mensch gar nicht in der Natur leben, er braucht die Wärme im Winter, und zur Gewinnung der Nahrung erleichtern ihm heute die Maschinen die Plackerei vom Mittelalter. Energie ist dazu unverzichtbar.

Zuerst brachten die fossilen Energien dem Menschen Erleichterung, allerdings wurden die Abfälle – CO2, CO, SO2, Stickoxyde, Staub – nach dem Prinzip „The solution of pollution ist dilution“ in die Atmosphäre verklappt, es gab keine andere Möglichkeit. Inzwischen werden Abgase in den Industrieländern gut gereinigt, es bleibt im wesentlichen CO2, und das ist weder ein Gift noch ein Klimagift. Nur noch in großen Metropolen gibt es Smog mit Folgen für die Gesundheit der Menschen (z.B. Peking, Teheran…).

Neue Chancen bot die Entdeckung der Kernspaltungsenergien, weil die Abfälle erstens von selber wegen ihrer Halbwertszeiten verschwinden, und weil zweitens diese durch geschicktes verpacken in Glas und Lagerung in großer Tiefe von der Biosphäre fern gehalten werden können. Die Menge an Radioaktivität, die ein Kernkraftwerk westlicher Bauart über den Kamin und Abwasserkanal pro Jahr in die Umwelt frei setzt, ergibt in konzentrierter Form gerade einmal 4 mal eine letale Dosis. Wegen der Verdünnung sind die abgegebenen Aktivitäten unschädlich, es gilt der Satz des Paracelsus. Auch für die Abgase eines Autos gilt der Satz des Paracelsus, obwohl in Realität alle viertel Stunde eine letale Dosis in die unsere Atemluft entlassen wird: „The solution of pollution ist dilution“.

Radioaktivität hält seit über einem halben Jahrhundert die  Pool-position inne unter allen tatsächlichen und scheinbaren Gefährdungen von Mensch und Umwelt. Das wurde den Menschen eingetrichtert, alle glauben es ohne den geringsten Zweifel zu hegen. In Deutschland ist die Kerntechnik nach Meinung von Herrn Kardinal Reinhard Marx (Mitglied der Ethikkommission) ein „Teufelszeug“. Man sollte sehr vorsichtig sein, den Teufel als seinen Zeugen zu nennen. Gerade wegen des Teufels wurden viele Jahrhunderte lang Hexen und Hexenmeister auf dem Scheiterhaufen verbrannt, wodurch auch die christlichen Kirchen Schuld auf sich geladen haben. Im Jahre 1286 war das der fromme Rompilger Nantwein in Wolfratshausen – heute hat sich die Meinung dazu geändert – heute trägt ein Ortsteil von Wolfratshausen den Namen Nantwein.

In Deutschland wird zur Zeit die Kerntechnik auf dem Scheiterhaufen der Geschichte vernichtet, allerdings nur in Deutschland. Die Deutschen wollen den „Übergang vom atomaren und fossilen Zeitalter ins Solarzeit- alter….“ (Grundsatzprogramm BÜNDNIS 90 / DIE GRÜNEN 2002), „… ein solares Energiezeitalter“ mit „Ausstieg aus der Atomkraft“ und „weg vom Öl“ (Hamburger Programm der SPD 2007), und die Kernenergie nur noch als „Brückentechnologie“ zum Zeitalter der Erneuerbaren (CDU).

Natürlich geht das alles nicht, denn die Sonne geht abends unter, der Wind hat Flaute, und Strom kann man nicht in großer Menge speichern. Es ist wohl so wie zu allen Zeiten das Geld; es erfüllt seine Rolle im Stillen. Schon 1286 war das ein verschwiegener Grund für die Verbrennung von Nantwein, er trug als vermögender Mensch sein Geld bei sich. Das Geld lockt auch heute die Einspeiser der Erneuerbaren, sie werden durch hohe Vergütung belohnt und bedanken sich bei den Initiatoren für ihre Geldschwemme bei der nächsten Gelegenheit durch ein Kreuzchen an richtiger Stelle.

Die Tricks der Menschenverführung spielen eine entscheidende Rolle bei Deutschlands Ausstieg aus der Kernkraft. Das sind:

  • Unkenntnisse im Bereich Strahlen und Gesundheit
  • Unkenntnisse im Bereich komplizierter Technik
  • Ersetzen der Realitäten von 1 und 2 durch vereinfachende, aber falsche Modellvorstellungen
  • Die Verlockungen von Geld und Macht
  • Die Machtausübung der Medien durch Wiederholung und Bilder
  • Benutzen allgemeiner menschlicher Verhaltensweisen nach den Versuchen von Solomon Asch und Stanley Milgram

Es ist unsinnig, die Abfallfässer aus den Meeren bergen zu wollen, denn sie stellen keine Gefahr dar, weder für die Umwelt, noch für Tiere oder für Menschen. Man kann sich Geld und Mühe sparen und sollte das Geld besser für sinnvollere Maßnahmen im Gesundheitswesen ausgeben. Dort gibt es keinen Mangel an Mög- lichkeiten, Gutes zu tun.

Dem interessierten Bürger sei anstelle der Horrorgeschichten im Fernsehen empfohlen, die Fachberichte zu lesen (2).

Dr. Lutz Niemann, EIKE

Literaturhinweise:
Deutscher Bundestag, Drucksache 17/10548 vom 27.8.2012
(1) P. Roth, E. Werner, H.G. Paretzke, „Untersuchungen zur Uranausscheidung im Urin“, GSF- Forschungszentrum Januar 2001, GSF-Bericht 3 / 01
(2) www.buerger-fuer-technik.de unter dem Thema „Radioaktivität und Strahlung“ Berichte von Prof. K. Be- cker zu Radiophobie 




Earth Day: Die große Lüge

Das Kohlendioxid in der Erdatmosphäre hat zugenommen, aber infolge der verringerten Solarstrahlung hat sich die Erde abgekühlt. CO2 steht praktisch in keiner Beziehung zum Klima, außer dass es sich verändert, nachdem es zu einer signifikanten Temperaturänderung gekommen war.

Am 18. April berichtete das Wall Street Journal, dass die International Energy Agency IEA verkündet hat, dass … „die Welt während der letzten 20 Jahre fast keinerlei Fortschritte dabei gemacht hat, den Kohlenstoffausstoß durch den Energieverbrauch zu reduzieren, obwohl man mehr als 2 Billionen [trillion] Dollar in Projekte erneuerbarer Energie investiert hat“. Es hat einer Reduktion niemals bedurft. Wie viele Krankenhäuser, Schulen, Brücken und andere nützliche Dinge hätte man stattdessen mit diesem Geld errichten können?

Wikipedia: „Kohlenstoff ist an 15. Stelle das am meisten vorhandene Element in der Erdkruste und steht an 4.Stelle der am meisten vorhandenen Elemente im Universum, nach Masse hinter Wasserstoff, Helium und Sauerstoff. Es ist in allen bekannten Lebensformen gegenwärtig, und im menschlichen Körper liegt Kohlenstoff der Masse nach (etwa 18,5%) hinter Sauerstoff. Dieses üppige Vorkommen, zusammen mit der einmaligen Vielfalt organischer Formen und der ungewöhnlichen Fähigkeit der Bildung von Polymeren unter den allgemeinen Temperaturbedingungen der Erde, machen dieses Element zur chemischen Basis allen bekannten Lebens“ (Hervorhebung hinzugefügt).

Nicht eine einzige Pflanze kann ohne CO2 existieren. Ohne Vegetation würden alle Tiere und alle Menschen sterben. Die Erde sähe aus wie der Mars. Eine der Säulen der Umweltschutzbewegung ist, dass die Menschen die größte Bedrohung für die Existenz der 4,5 Milliarden Jahre alten Erde sind. Die Quintessenz von Earth Day lautet, dass Sie der Feind sind, hauptsächlich wegen Ihres Energieverbrauchs (Kohle, Öl und Erdgas).

Eine globale Propaganda-Kampagne wird den Earth Day glorifizieren, und die Botschaft lautet, dass Sie Ihr Leben ändern müssen, um den Lügen der Umweltbewegung zu folgen und es Regierungsagenturen wie der EPA zu erlauben, das wirtschaftliche Leben der Nation abzuwürgen. *

[*Caruba hat diesen Artikel vor dem 22. April geschrieben {am 18.} und daher seine Erwartungen im Futur formuliert. Diese Übersetzung folgte aber erst am 25.4., also danach. Ich habe trotzdem bei der Übersetzung die Futur-Form beibehalten, weil ich sonst nicht sicher bin, die Grenze zwischen Futur und Präsens richtig zu ziehen. A. d. Übers.]

Am Earth Day wird es tausende Veranstaltungen geben, um die Anti-Energie-, Anti-Technologie- und Anti-humanitäre Botschaft unter das Volk zu streuen.

Es gibt tausende Umweltorganisationen. Hier folgen als Beispiel einige Forderungen im Zusammenhang mit Earth Day vom Natural Resources Defense Council NRDC:

# Waschen Sie Ihre Wäsche in kaltem Wasser! Dem NRDC zufolge „spart dies eine Menge Geld, weil der allergrößte Teil im Zusammenhang mit Wäsche waschen für die Erwärmung des Wassers verbraucht wird“.

# Reduzieren Sie die Wäschetrockner-Energie um 20 bis 40%! „Es ist effizienter, die Wäsche auszuwringen als sie im Trockner zu backen“.

# Wählen Sie die Position ‚normal’ oder ‚standard’ an Ihrem TV-Apparat!

Eine Umweltgruppe mit der Bezeichnung Food Tank fordert Folgendes:

# Erleben Sie die landwirtschaftliche Kultur! „Um diese Jahreszeit planen viele Familien ihre Urlaube“. Vergessen Sie Disney Land, suchen Sie stattdessen nach „Ferien auf dem Bauernhof“ in einer Gastfamilie, bei dem die Teilnehmer einige Tage oder Wochen damit zubringen, als Gegenleistung für kostenlose Unterkunft und Nahrung auf dem Bauernhof zu helfen.

# „Kaufen Sie Lebensmittel mit weniger Verpackung!“ Dies ignoriert die Tatsache, dass moderne Verpackungen die Sicherheit der Nahrungsmittel sicherstellen, die Sie verzehren. Selbst antike Zivilisationen haben Abfälle entweder verbrannt oder Deponien eingerichtet.

# Engagieren Sie sich in Do-it-yourself-Projekten wie z. B. „die Umwandlung alter T-Shirts in Einkaufstaschen, um Plastiktüten zu vermeiden; oder beginnen Sie Aussaaten in Eierschalen…“

Hinter den zahlreichen Vorschlägen bzgl. Earth Day steckt das Bestehen der Umweltbewegung auf einer generellen Rückkehr zu einer Lebensweise mit Haushaltsarbeiten ohne Strom verbrauchende Maschinen und ohne die universellen Vorteile von Plastik und mit viel weniger Autos auf den Straßen. In den vierziger Jahren musste meine Mutter die Wäsche von Hand waschen. Nahrungsmittel wurden vor Erfindung des Kühlschranks in mit Eis gefüllten Kisten kühl gehalten. Das ist der von Earth Day verfolgte Weg, die Erde zu retten.

Jeder wünscht sich saubere Luft und sauberes Wasser. Wir haben es. Die Gesetze zu sauberer Luft und sauberem Wasser aus den Siebziger Jahren haben ihr Ziel erreicht. Der Einsatz von „sauberer Energie“ wie Wind und Sonne als Substitut haben sich als teuer und unpraktisch herausgestellt, da keine dieser Energiequellen ausreichend Energie erzeugt, um Amerika damit zu versorgen (gegenwärtig etwa 3%). Steuerzahler haben Milliarden durch die Subventionen der Regierung für Sonnen- und Windkraftunternehmen verloren, während traditionelle Energiequellen Milliarden für die Wirtschaft erbringen.

Die Erde ist nicht in Gefahr, und sie sollte auch nicht wie das Symbol einer heidnischen Religion angebetet werden!

Hinter der Umweltbewegung steckt eine ganze Palette von Aktivitäten, um jene zu bereichern, die die „globale Erwärmung“ und/oder die „Klimaänderung“ befürworten. Regierungen auf der ganzen Welt geben Programme für „saubere Energie“ auf und kehren zurück zu traditionellen und ergiebigen Energiequellen.

Die „Wissenschaft” hinter der Klimaänderung und die Behauptung eines „Konsens’“ unter den Wissenschaftlern der Welt ist eine Lüge. Computermodelle wurden frisiert, um „Erwärmung“ herauszubekommen, während sich der Planet seit siebzehn Jahren in einem natürlichen Abkühlungszyklus befindet!

Earth Day wird von diesen und zahllosen anderen Behauptungen begleitet werden, aber Sie tun sich selbst und der Erde einen großen Gefallen, wenn Sie das alles ignorieren!

Link: http://www.nationalanxietycenter.blogspot.de/2013/04/earth-days-big-lie.html

Übersetzt von Chris Frey EIKE




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #25 bis #27

..Kernkraftwerke müssen 200 mal so stark wie Krankenhäuser gegen Erdbeben abgesichert sein, aber nur bei Kernkraftwerken gibt es in der Sladek-Welt Verletzte (#25). Außerdem sind Kernkraftwerke wahre Flugzeug-Magneten (#26). Der doppelt gepanzerte und von Betriebsgebäuden eingerahmte Europäische Druckwasserreaktor EPR wird von Flugzeugen natürlich locker durchschlagen (#27), und alles, was möglich ist, tritt in der Katastrophenwelt der Sladeks auch prompt ein. Dabei wird permanent der Reaktorkern mit der Außenhülle, und der Schadensfall mit einer internationalen Katastrophe verwechselt. Nur der kleinste Riss in der Außenhülle, und die Welt ist verloren. Wir trauern schon jetzt um die Sladeks.

Hundert gute Antworten #25 – #27, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013. 

#25: Erdbebengefahr

Behauptung: Atomkraftwerke sind nicht ausreichend gegen Erdbeben geschützt.

Die EWS behaupten

Fessenheim bei Freiburg, Philippsburg bei Karlsruhe und Biblis bei Darmstadt – alle drei Atomkraftwerke stehen im Oberrheingraben, der seismisch aktivsten Zone Deutschlands. Trotzdem sind sie wie alle Reaktoren in Deutschland;nur leicht gegen Erdbeben gesichert.

Das Atomkraftwerk Fessenheim etwa würde ein Beben, wie es 1356 die Stadt Basel zerstörte, nur überstehen, wenn das Epizentrum mindestens 30 Kilometer entfernt wäre. Ob sich die Kräfte im Untergrund daran wohl halten?

Das Atomkraftwerk Biblis ist nur gegen Erdbeschleunigungen von 1,5 m/s2 ausgelegt. Seismologen erwarten zwischen Mannheim und Darmstadt allerdings deutlich stärkere Stöße. Und im kalkigen Untergrund des AKW Neckarwestheim wäscht das Grundwasser Jahr für Jahr bis zu 1.000 Kubikmeter neue Hohlräume aus.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Auch ein Vielfaches der 1,5 m/s2 ist technisch kein Problem, wie japanische Reaktoren zeigen. Da derartige seismische Beschleunigungen an einem in Deutschland stehenden Kernkraftwerk statistisch aber nur alle 100.000 Jahre zu erwarten sind, ist eine höhere Auslegung nicht sinnvoll. Diesbezüglich hat sich sogar die EU-Kommission in ihrem letzten Stresstest geirrt, die offenkundig sämtliche Berichte deutscher Behörden und Betreiber zur Erdbebensicherheit nicht richtig gelesen hatte. Die seismischen Messinstrumente und Standsicherheiten gegen das oben genannte Bemessungserdbeben sind natürlich vorhanden sowie vorgeschrieben. Zum Vergleich, Notfalleinrichtungen wie Krankenhäuser sind auf seismische Aktivitäten ausgelegt, wie sie alle 500 Jahre auftreten. In diesen Einrichtungen sind dann Opfer garantiert, nicht aber bei Kernkraftwerken.

Außerdem gibt es eine große Sicherheitsmarge, so dass deutsche KKWs vermutlich auch die doppelte Erschütterung schadlos überstehen. Und auch hier gilt natürlich: Ein Schadensfall bedeutet noch lange keine Kernschmelze, und eine Kernschmelze noch lange keine nennenswerten Kontaminationen bei der Bevölkerung.

Quellen von KRITIKALITÄT


#26: Flugzeugabsturz

Behauptung: Atomkraftwerke sind nicht gegen Flugzeugabstürze geschützt.

Die EWS behaupten

Kein Atomkraftwerk in Deutschland würde den Absturz eines vollgetankten Passagierflugzeuges überstehen. Das hat die Gesellschaft für Reaktorsicherheit in einem – ursprünglich geheimen – Gutachten für das Bundesumweltministerium erläutert.

Sieben Reaktoren haben sogar nur so dünne Betonwände, dass bereits der Absturz eines Militärjets oder ein Angriff mit panzerbrechenden Waffen eine Katastrophe auslösen kann.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Statistisch gesehen muss ein deutsches Kernkraftwerk alle 1,6 Millionen Jahre mit einem Treffer durch ein Verkehsflugzeug rechnen. Selbst für die sieben älteren Reaktortypen, die nicht explizit gegen Flugzeugabstürze gesichert sind, führt dies nur mit einer Wahrscheinlichkeit von 15% zum Durchschlagen der äußeren Hüllen. Die neueren Reaktoren haben deutlich dickere Außenwände, der EPR, den Deutschland maßgeblich mitentwickelt hat, aber nun nicht mehr haben will, sogar eine Doppelwand.

Und selbst wenn das Flugzeug ein Loch reisst und es innen zu Bränden und Kühlmittelverlust käme – eine Kernschmelze zu bewerkstelligen ist extrem schwierig, da die Sicherheitsvorrichtungen überall verteilt sind. Die mehrere Meter dicke innere Barriere (biologischer Schild und Reaktordruckbehälter) schirmt den schmelzenden Kern ab, über einen separaten Kamin kann gefiltert entlastet werden – die Folgen für die Bevölkerung wären dieselben wie 1979 in Harrisburg, nämlich außer einer kurzen (unnötigen) Evakuierung, keine. Panzerbrechende Geschosse scheitern zwangsläufig an den viel zu dicken inneren Barrieren.

Flugzeuganschläge auf Kernkraftwerke haben nicht mal versuchsweise stattgefunden. So makaber es klingt – Terroristen können offensichtlich rechnen.

Quellen von KRITIKALITÄT


#27: Einstürzende Neubauten

Behauptung: Selbst neue Reaktortypen sind nicht sicher.

Die EWS behaupten

Auch bei dem angeblich so hochmodernen Europäischen Druckwasserreaktor (EPR), an dem der französische Atomkonzern AREVA derzeit in Finnland und Frankreich baut, sind schwere Unfälle bis hin zur Kernschmelze möglich. Große Mengen radioaktiver Stoffe könnten in die Umgebung gelangen. Die Leittechnik, die den Reaktor steuern und im Notfall sicher herunter fahren soll, halten die finnische, die britische und die französische Atomaufsicht gar für so riskant, dass sie dagegen mit einer gemeinsamen Erklärung protestierten.

Noch nicht einmal gegen einen simplen Flugzeugabsturz ist der angeblich supersichere neue Reaktor geschützt. Anstatt dessen Bau zu stoppen, stempelte die französische Regierung die brisante Expertise lieber zur militärischen Verschlusssache.

„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Es handelt sich mitnichten um eine Protestnote. Die drei Aufsichtsbehörden haben lediglich ihren Job getan und Verbesserungen vorgeschlagen, die von AREVA sofort umgesetzt wurden. In der gleichen Note werden die gute Zusammenarbeit und die hohen Sicherheitsstandards gelobt.

Allgemeinplätze wie „schwere Unfälle sind möglich” sind bedeutungslos, wenn keine Wahrscheinlichkeiten dafür angegeben werden. Die sind nämlich extrem gering, wie umfangreiche Studien zeigen. Die Wahrscheinlichkeit eines Schadensfalls, der noch lange nicht zu einer Kernschmelze führt, ist beim EPR 1:1.000.000 pro Jahr. Sogar ein komplett geschmolzener Reaktorkern, wie es ihn in der ganzen Geschichte noch nie gegeben hat, kann hier noch kontrolliert gespeichert und gekühlt werden.

Gerade gegen Attacken von außen wie Flugzeugabstürze ist der EPR durch die gesamte Bauweise (meterdicke doppelwandige Stahlbetonsicherung) und die kompakte Anordnung der umliegenden Gebäude extrem gut gesichert, das kann sogar ein Laie erkennen. Nur noch die allergrößten Jumbojets könnten bei einem gezielten Anflug mit hoher Geschwindigkeit rein hypothetisch die Kuppel beschädigen, kaum aber das Innenleben, und schon gar nicht den Reaktorkern. Dass der EPR „nicht einmal gegen einen simplen Flugzeugabsturz” geschützt sei, ist eine freie Erfindung. Oder eine freche Lüge.

Quellen von KRITIKALITÄT





Rajendra Pachauris Verschwörungstheorie

Bild rechts: Wikipedia

Aber Pachauri geht mit einer eigenen Verschwörungstheorie hausieren. Ihm zufolge hat der Grund, warum die Welt seine Ratschläge bzgl. des Klimas nicht übernimmt, nichts mit den ausgeprägten Glaubwürdigkeits-Problemen des IPCC zu tun. Und auch nichts damit, dass er sich selbst eher wie ein Aktivist als wie ein leidenschaftsloser Wissenschaftler verhält.

Nein, Pachauri hat dafür eine viel erstaunlichere Erklärung: Involviert ist eine Verschwörung von „mächtigen persönlichen Interessen“. Wenn die bösen Ölgesellschaften im Hintergrund nicht ihren Einfluss geltend machen würden, wäre alles in der Welt in bester Ordnung.

In einem Artikel, den er 2010 für die Zeitung Guardian geschrieben hatte, hat Pachauri dick aufgetragen, indem er bei vier unabhängigen Gelegenheiten „persönliche Interessen“ ansprach (ohne den Untertitel oben):

Es ist wohlbekannt, dass mächtige persönliche Interessen sowie diejenigen, die gegen Aktionen gegen den Klimawandel opponieren, Überstunden machen, weil sie danach trachten, diese Aktionen so lange wie möglich zu verzögern.

mächtige persönliche Interessen werden vielleicht während der nächsten Monate überaktiv werden und werden vielleicht alles in ihrer Macht stehende tun, den Fortschritt hin zu einem bindenden Abkommen zu behindern, das man Ende 2010 zu schließen hofft…

…angesichts des geringen Fortschritts und der Macht, die persönliche Interessen über die Legislative und politische Initiativen ausüben werden…

… die Bemühungen der Skeptiker und persönlicher Interessen zu durchkreuzen, die alles in ihrer Macht stehende tun werden, um den Status quo zu erhalten. (Fettdruck hinzugefügt; backed up hier)

Es gibt viele persönliche Interessen. Einige davon richten sich gegen die Ansichten von Pachauri. Viele jedoch gehen mit ihnen konform.

Es ist intellektuell unehrlich, sich über die ihre Interessen schützenden Ölgesellschaften zu beklagen und dabei die Tatsache zu ignorieren, dass Unternehmen involviert in Wind- und Sonnenkraft, Kohlenstoff-Offsets oder grüne Investmentfonds genau das Gleiche tun.

Die massiven persönlichen Interessen von Greenpeace, dem World Wildlife Fund, dem Sierra Club, Friends of the Earth, dem Environmental Defense Fund und hunderte anderer Organisationen zu übersehen, die diese jetzt durch den Verkauf alarmierender Geschichten an die Öffentlichkeit haben, ist naiv.

Und doch macht Pachauri genau das. Er beleuchtet einen kleinen Splitter auf dem Schlachtfeld und brüllt, was dort nicht alles passiert, ignoriert aber geflissentlich alles andere, was darum herum vor sich geht.

Tatsächlich sind die Menschen auf allen Seiten der Klimadebatte – und auch alle Menschen im gesamten politischen Spektrum – anfällig für Verschwörungstheorien.

Zum Beispiel glauben viele, dass Elektroautos inzwischen allgemein verbreitet wären, wenn es da nicht eine Verschwörung der Ölgesellschaften geben würde, die bis Anfang des vorigen Jahrhunderts zurück reicht. (Siehe den Dokumentarfilm Who Killed the Electric Car?)

Aber das wirkliche Leben ist komplizierter als das. Während der letzten Jahre hat [die Firma] Fisker Automotive großzügige Unterstützung von der US-Regierung erhalten (259 Millionen Dollar an niedrig verzinsten Darlehen). Das gilt auch für den Hersteller der Steckdosen-Hybridautos (eine Zuwendung in Höhe von 250 Millionen Dollar). Trotz all dem hat Fisker inzwischen 75 Prozent seiner Mitarbeiter gefeuert und auf Bankrotte spezialisierte Rechtsanwälte angeheuert.

Im vorigen Monat veröffentlichte Reuters einen Artikel mit der Schlagzeile Electric cars headed toward another dead end [etwa: Elektroautos fahren in eine weitere Sackgasse]. Darin wird berichtet, dass jüngste Entwicklungen zeigen, dass Elektroautos immer noch nicht „zur hauptsächlichen Nutzung“ ausgereift genug sind – und es wohl auch niemals werden“. Weiter heißt es in dem Artikel:

Trotz Milliarden Dollar Investitionen … werden Elektroautos immer noch von vielen der Problemen geplagt, die letztendlich die Entwicklung der Elektrizität zu Beginn des vorigen Jahrhunderts und vor kürzerer Zeit in den neunziger Jahren behindert haben. Diese Probleme schließen hohe Kosten, kurze Fahrstrecken und das Fehlen von Ladestationen ein (Fettdruck hinzugefügt; backed up hier)

Wenn man einer Verschwörungstheorie anhängt, übernimmt man eine überaus vereinfachte Sichtweise einer komplexen Situation. Noch verstörender, wir degradieren andere Menschen zu Charakteren aus Comic-Heften – gute Menschen mit reinen Herzen und ruchlosen Bösewichten.

Bei Gelegenheit sind wir alle dieser Art zu denken schuldig. Wenn Rajendra Pachauri die Menschen anklagt, Verschwörungstheoretiker zu sein, sagt er eigentlich nur, dass sie menschlich sind. Ho-Hum.

Kann sich also ein Erwachsener darüber unterhalten, warum so viele Menschen seiner Organisation misstrauen?

Donna Laframboise

Link: http://nofrakkingconsensus.com/2013/04/06/rajendra-pachauris-conspiracy-theory/

Übersetzt von Chris Frey EIKE




Wenn Blinde nicht sehen wollen… Ausgereifte Nuklear-Endlagerung – direkt beim Nachbarn

Während im deutschen Sprachraum Vertreter der Öko-Milliardäre und ihre Lobbyisten mit erstaunlicher Unverfrorenheit behaupten, es gebe nirgendwo auf der Welt ausgereifte Endlagerkonzepte, ist man nur einige Kilometer weiter nördlich bereits tatkräftig dabei, die letzten Schritte für die Realisierung eines seit Jahrzehnten sorgfältig ausgetesteten und wissenschaftlich abgesicherten Endlagerkonzepts für hoch radioaktive Abfälle zu gehen. In enger Kooperation haben Schwedens Svensk Kärnbränslehantering AB (SKB) und Finnlands Posiva Oy inzwischen ihr Konzept soweit ausentwickelt, dass bereits konkrete Zeitvorstellungen für die Realisierung ins Auge gefasst werden. In Finnland könnte man bereits in neun Jahren erste Abfälle einlagern, und in Schweden ist das Projekt inzwischen in der Genehmigungsphase.

 

Bild 2. Der 4 Meter lange Brennstab für einen Kernreaktor besteht aus einem Bündel dünner Rohre, in denen sich tausende kleiner Urantabletten befinden

Konsens statt Konfrontation

Weder den Schweden noch den Finnen kann man vorwerfen, ihre Regierungen würden ihre Verantwortung gegenüber Bevölkerung und Umwelt auf die leichte Schulter nehmen. Der hoch entwickelte Industriestaat Schweden mit seinen rund 9 Millionen Einwohnern betreibt zehn Kernreaktoren, deren Anteil an der Stromerzeugung bei 35-40 % liegt. Von diesem Nuklearpotenzial profitiert auch der Nachbarstaat Norwegen, der gerne auf diese sicheren Reserven zurückgreift, wenn den dortigen Wasserkraftwerken im Winter die Zuflüsse einfrieren. In Schweden haben Staat, Industrie und Parteien im Konsens ein umfangreiches, langfristig angelegtes Forschungsprogramm für die Entwicklung eines verantwortbaren Endlagerkonzepts für die ausgebrannten Kernbrennelemente aufgelegt. Die Verantwortung hierfür obliegt der Firma SKB, einer gemeinsamen Tochtergesellschaft der schwedischen Erzeuger von Kernenergie. Finanziert werden die Aktivitäten durch eine Abgabe in Höhe von 0,01 SEK (=1 Öre) auf jede nuklear erzeugte Kilowattstunde. Bemerkenswert ist die große Offenheit der Schweden und Finnen, die sehr darauf achten, dass die Bevölkerung zu allen mit der Lagerung von radioaktivem Material verknüpften Informationen Zugang hat und Bedenken bezüglich möglicher Probleme sehr sorgfältig nachgegangen wird. „Lohn“ dieser Mühe ist der bereits erwähnte außergewöhnlich hohe Grad an gesellschaftlichem Konsens.

 

Bild 3. Blick in einen der Tunnel, die viele hundert Meter tief in den harten Granit getrieben wurden

 
Eine Aufgabe…

Ausgelegt ist das Endlager primär für ausgebrannte Kernbrennstäbe. Dies sind schlanke, rechteckige Rohrbündel von ca. 4 Metern Länge, die viele Tausend einzelne Urantabletten enthalten. Nach Ende des aktiven Einsatzes sind diese Elemente „heiβ“, weil in ihnen zahlreiche Zerfallsreaktionen der im Kernkraftwerk gebildeten Spaltprodukte ablaufen. Sie wandern daher zunächst für mehrere Jahrzehnte in Abklingbecken, bis die kurzlebigeren Isotope zerfallen sind und Radioaktivität sowie Temperatur auf ein vertretbares Maβ gesunken sind. Erst dann ist ein Verkapseln und Endlagern möglich. In Schweden erfolgt die Aufbewahrung in zwei riesigen Kavernen, die rund 40 Meter tief ins Grundgestein getrieben wurden. In tiefen Wasserbecken lagern hier mehr als 10.000 ausgebrannte Brennelemente.

 

Bild 4. Eines der beiden riesigen Abklingbecken, in denen abgebrannte Brennelemente gelagert werden

für die „Ewigkeit“

Während in Deutschland und der Schweiz Berufs-Panikmacher dem Volk einreden, bei der Endlagerung gehe es um Jahrmillionen, hat man in Skandinavien lieber Wissenschaftler gefragt und rechnet daher mit 100.000 Jahren. Auch das ist noch eine ungeheure Zeitspanne, denn der sichere Einschluss soll selbst dann gewährleistet sein, wenn eine neue Eiszeit die Lagerstätte unter einem Eispanzer von 3 km Dicke begraben würde.

Um die tatsächliche Größenordnung der Aufgabe zu verstehen, muss man sich vergegenwärtigen, dass es bisher keine vom Menschen errichteten Bauwerke oder Technologien gibt, die mehr als ein paar tausend Jahre überdauert haben. Zudem zeigt die Erfahrung, dass moderne Konstruktionen in aller Regel sogar noch viel kurzlebiger ausgelegt sind als antike Bauwerke wie z.B. die Pyramiden.

 

Bild 5. Das in Schweden entwickelte Endlagerkonzept für nukleare Abfälle (Grafik: SKB)

Kupfer, Granit und Bentonit

Deshalb dachte man gar nicht erst über Bauwerke nach, sondern konzentrierte sich vor allem darauf, natürliche Materialien und Strukturen zu finden, die ihre Fähigkeit zum sicheren langzeitigen Einschluss von Substanzen auch unter rauesten Umgebungsbedingungen schon unter Beweis gestellt hatten. Die letztlich gewählte Lösung beruht auf der Kombination von drei Materialien, von denen jedes für sich schon für die Erfüllung der Aufgabenstellung geeignet wäre. Entworfen wurde ein dreifacher Einschluss: Tief in massives Granitgestein getriebene Bohrungen umschließen und schützen dicht verschweißte Kupferzylinder, die ihrerseits von einer dicken Packung wasserdichten Bentonits – einem speziellen Lehm – umgeben sind. Das für die Anlage des Endlagers ins Auge gefasste Grundgestein, eine Granitformation mit der Bezeichnung „Äspödiorit”, liegt seit 1,8 Mrd. Jahren unverändert an Ort und Stelle und gehört damit zu den ältesten geologischen Formationen auf unserem Kontinent. Solches Grundgestein hat, wie Wissenschaftler aus Funden in Afrika ermittelten, die Überreste „natürlicher“ Kernreaktoren, die dort vor rund 2 Mrd. Jahren existierten, mit großer Effizienz eingeschlossen. Selbst Plutonium wurde ausgefiltert und an Mineralkörner in Gesteinsritzen gebunden. Der Bentonitlehm, der die Kupferbehälter in ihren Gesteinsnischen umhüllen und u.a. vor Beschädigung durch Gesteinstrümmer schützen soll, ist wasserdicht und hat darüber hinaus hervorragende Absorptionseigenschaften. Im Äspö-Hartgesteinslabor in Oskarshamn wird ein Stück Holz ausgestellt, das nach zwei Millionen Jahre Einschluss in Bentonit noch perfekt erhalten ist. Was das Kupfer angeht, so handelt es sich um ein sogenanntes halbedles Metall. Die Korrosionsbeständigkeit der metallischen Hülle der Behälter ist unter den vorgesehenen Umgebungsbedingungen so gut, dass die Dichtheit der Behälter für weit mehr als die vorgesehene Zeitdauer gewährleistet sein dürfte.

 

Bild 6. Die abgebrannten Elemente werden in dickwandigen Kupferzylindern versiegelt und in einer isolierenden Bentonitpackung in groβer Tiefe in Granitkavernen eingelagert (Grafik: SKB)

Behälter: Aufbau und Verschluss

Der Kupferbehälter dient im Prinzip als gasdichte, korrosionsbeständige Kapsel, die das Entweichen von Inhaltsstoffen in die umliegenden Schichten verhindert. Die Wanddicke liegt bei 50 mm. Den Innenraum füllt ein massiver Kern aus duktilem Gusseisen mit einer Anzahl wabenartiger Aussparungen für die Aufnahme der einzelnen Brennstäbe. Dieser Kern soll zum einen die einzelnen Brennstäbe sicher in ihren Positionen fixieren. Darüber hinaus verhindert seine hohe Festigkeit ein Zerdrücken des Behälters selbst bei extremem Gesteinsdruck. Vor dem Einsatz wird jeder einzelne Behälter einer gründlichen Qualitätskontrolle unterzogen. Beladen werden sie in einer speziell hierfür vorgesehenen Anlage direkt am Zwischenlager. Nach der Beladung wird ein 50 mm dicker Deckel aufgesetzt und dicht verschweißt. Diese Arbeiten werden – unter Beachtung aller für den Umgang mit radioaktivem Material geltenden Vorschriften – mannlos von hoch automatisierten, ferngesteuerten Anlagen durchgeführt. Anschließend werden die fertigen Behälter zum Endlager in 500-700 Metern Tiefe verbracht und in vorbereitete Aussparungen eingesetzt. Der Zwischenraum zwischen Behälter und Wand wird mit Bentonit aufgefüllt. Wenn alle Nischen eines Tunnels belegt sind, wird er mit einer Mischung aus Gesteinstrümmern und Bentonit verfüllt und durch einen massiven Betonpfropfen versiegelt.

Bild 7. Im Inneren des Kupferzylinders befindet sich ein stabiler Gusskörper, in dessen Aussparungen dann die Brennelemente geschoben werden

Fred F. Mueller

zuerst erschienen bei Science Sceptical hier

Anmerkung der Redaktion:

Wie vorsätzlich dumm diese neue "ergebnisoffene" Suche nach einem weiteren Endlager ist hat Ulli Kulke in "Die Welt" in diesem Leit-Artikel aufgezeigt.

Nach uns die Dummheit?

Die Suche nach dem Endlager für den Atommüll geht von absurden Vorstellungen über die Dauer der Strahlung aus. In einigen Jahrzehnten könnte der Abfall in harmlose Materie umgewandelt werden. Die Methode ist erforscht. (Der ganze Artikel hier) Von Ulli Kulke




Australische Meldungen über Meeresspiegelanstieg nicht gerechtfertigt

Der international renommierte schwedische Meeresspiegelexperte Prof. Nils-Axel Mörner hat deshalb zusammen mit Albert Parker untersucht, ob die Befürchtungen einen substantiellen Hintergrund haben.

Das Ergebnis: Es gibt nichts zu befürchten, Vorbereitungen gegen gefährlich ansteigende Meereshöhen sind unnötig.

Nach Mörners und Parkers Meinung sind die normalerweise von den Klimatologen untersuchten Trendlinien ungeeignet, die Dynamik der Veränderungen des Meeresspiegels wiederzugeben.

Daraus schlussfolgern die Wissenschaftler:

(1) Die regierungsamtlichen Behauptungen Australiens von einem gegenwärtigen Anstieg des Meeresspiegels in der Größenordnung von 5,4 mm/Jahr sind deutlich übertrieben.

(2) Die durchschnittlichen Veränderungen im Meeresspiegel, wie sie australische Pegel und das globale Netz der Pegel zeigen, bewegen sich zwischen 0,1 bis 1,5 mm/Jahr.

(3) Die Behauptungen einer aktuellen Beschleunigung der Anstiegsrate wird nicht gestützt von den Aufzeichnungen der Gezeitenpegel – nicht in Australien und nirgendwo sonst auf der Welt, ganz im Gegenteil.

Abstract der Studie
Mörner, N.-A.; A. Parker: "Present-to-future sea level changes: The Australian case"

Wir untersuchen verfügbare Gezeitenpegel-Daten von der australischen Küste und wir zeigen, dass die Änderungsrate zwischen 0,1/ und 1,5 mm/Jahr schwanken kann, und dass es in den vergangenen Jahrzehnten keine Beschleunigung gegeben hat. Das National Tidal Center (Nationales Gezeitenzentrum) behauptet auf der Basis von Daten von 16 Stationen über einen Zeitraum von 17 Jahren, dass der Meeresspiegel mit einer Rate von 5,4 mm/Jahr ansteigen würde. Wir haben teilweise zeitlich längere Aufzeichnungen analysiert von den gleichen 16 Stationen, wie sie im Australian Baseline Sea Level Monitoring Project (ABSLMP) benutzt wurden, dazu 70 weitere Stationen; d. h., unsere Datenbasis umfaßt 86 Stationen über einen viel längeren Zeitraum. Diese Datenbasis ergibt einen mittleren Anstiegstrend in der Größenordnung von 1,5 mm/Jahr. Daher halten wir für falsch, was das National Tidal Center in Australien als Anstiegsrate des Meeresspiegels vorgelegt hat, wie auch dessen allgemeinere Behauptung von einer Anstiegs-Beschleunigung während der jüngsten Jahrzehnte. 

Einleitung und Übersetzung: Helmut Jäger, EIKE

undefinedOriginal der Studie hier




Warum Europa Schiefergas braucht

Bild rechts: Schiefergas in Deutschland. Quelle: http://tinyurl.com/c44c6x9 (www.science-skeptical.de)

Europas Bemühungen, aus der Rezension herauszukommen, werden durch die relative hohe Kostenbasis in Europa behindert, vor allem hinsichtlich der Kosten für Arbeit und Energie. Lohnkosten, die mehr als doppelt so hoch sind wie in der Region Asien – und etwa 5 bis 8 mal so hoch sind wie in China.

Abbildung 1: Unterschied der Lohnkosten in der Welt, Stand: 2010

Es kann sein, dass die europäischen Regierungen nicht viel gegen den Nachteil der strukturellen Lohnkosten tun können, obwohl Länder wie Deutschland einige Fortschritte gemacht haben. Lohnkosten werden sehr stark durch historische Umstände sowie Regulierungen der sozialen Sicherheit beeinflusst. Die Lohnkosten in Europa sind hoch und werden mittel- bis langfristig auch hoch bleiben.

Allerdings können die europäischen Regierungen etwas gegen die Differenz der Energiekosten tun. Und die Erschließung der Schiefergas-Reserven ist die offensichtlichste Option.

Während der vergangenen zehn Jahre war Erdgas aus der Golf-Region 8 bis 10 mal billiger als in den USA, Europa und Asien. [i] Die Schiefergas-Entwicklung in den USA war 2008 bereits in vollem Gange und führte zu einer nationalen Gas-Goldgrube mit Gaspreisen, die grob geschätzt etwa ein Drittel der Preise in Europa ausmachen. Und obwohl China weder einen Erdgas- noch einen Öl-Kostenvorteil hat, setzt das Land seinen Vorteil hinsichtlich der Lohnkosten voll ein, was zu einer drastischen Steigerung der Produktivität und von Innovationen führt. In Europa bleiben die Kosten dagegen weiterhin genauso hoch wie zuvor.  [ii]

Bereiche wie die petrochemische Industrie, die in hohem Maße von den Kosten für Öl und Erdgas (Naphta [?] oder Äthan) abhängig sind, stehen an einem kritischen Punkt. Im Jahr 2012 waren in diesem Bereich etwa 1,2 Millionen Menschen beschäftigt, das ist ein Verlust von 200000 Arbeitsplätzen. [iii] Von 2006 bis 2011 wies sie lediglich ein Zehntel der Wachstumsrate im asiatisch-pazifischen Raum auf (0,9% gegen 9,7%) und hat weniger als ein Drittel investiert im Vergleich in jener Region (600 gegen 200 Milliarden Dollar). Inzwischen sind die Verkaufsanteile von Chemikalien in Europa von 2001 bis 2011 von 30% auf 20% gefallen, während sie sich im asiatisch-pazifischen Raum verdoppelt haben, von 23% auf 45%. Gleichzeitig werden die Kapazitäten in der Golf-Region massiv ausgeweitet und machen mehr als 50% der globalen petrochemischen Kapazität aus, wobei man danach trachtet, den Zugang zu billigen Lagerstätten zu sichern. [iv]

Abbildung 2: Internationale Joint-Venture-Investitionen in Schiefergas USA von 2008 bis 2012 [v]

Andere Länder investieren stark

In den Jahren von 2008 bis 2012 beliefen sich die Investitionen in Schiefergas in den USA auf 133,7 Milliarden Dollar, wovon Joint Ventures mit Nicht-US-amerikanischen Firmen etwa 20% ausmachten. Es gab auch ausgeprägte Zukäufe: Aber trotz des Zukaufs von Petrohawk Energy Corp. [vi] durch BHP Billiton gab es in Europa bislang nur eine geringe Zahl von Erschließungen, vor allem in Polen, obwohl die Schiefergasreserven des Kontinents sehr groß sind.

Abbildung 3: Wichtige Schiefer-Lagerstätten der Welt [vii]

In den USA gehört den Landbesitzern nicht nur das Land, sondern auch alle Ressourcen darunter. Das ist hinsichtlich der Entwicklung der Schiefergas-Industrie ein großer Vorteil. In Europa gehören die Ressourcen unter der Oberfläche den Regierungen, und der heutige aktuelle Streit darum behindert die Entwicklung der Schiefergas-Erzeugung. Das ist ein schwaches Argument und eine ärmliche Entschuldigung für Nichtstun.

Regierungen müssen handeln

Regierungen können tatsächlich Bewegung in die Entwicklung von Schiefergas bringen, so wie sie es in der Vergangenheit in anderen öffentlichen Bereichen getan haben: Die Entwicklung eines umfangreichen Eisenbahnsystems, die beeindruckende Nuklearindustrie in Ländern wie Frankreich. Mit den notwendigen Visionen und dem Willen können die Regierungen die Schiefergas-Entwicklung voranbringen und ökonomisches Wachstum beschleunigen, aber sie werden ihre legalen Rechte brauchen, um Land zu enteignen – und die Landbesitzer entsprechend zu entschädigen. Sie können mit vereinten Kräften auch Lösungen finden für die Herausforderungen bzgl. der Umwelt durch die Ausbeutung von Schiefergas.

Ohne derartige Aktivitäten werden sich Bereiche wie die chemische Industrie in Europa auf dem gleichen langfristigen Weg befinden wie andere Bereiche, die unter hohen Kosten und Überkapazitäten leiden wie z. B. die Auto- und die Stahlindustrie, mit Konsequenzen, die nur allzu bekannt sind.

Karel Cool und Quentin Philippe, Forbes

Link: http://www.thegwpf.org/europe-shale-gas/

Bemerkung: Im Original steht unten dieser Link: Full story. Darin findet sich auch eine Liste mit Referenzen, auf die sich die Markierungen in diesem Artikel beziehen.

Übersetzt von Chris Frey EIKE