Eine Weihnachtswettergeschichte über das Winterwetter in der Geschichte

„Zunächst einmal, warum soll Weihnachten eigentlich immer weiß sein? Sieh mal, als unser Herr Jesus geboren wurde, war es sicher nicht kalt. Wie sonst hätten die Hirten ihre Herden auf den Feldern hüten können?“

„- – -“

„In diesem Jahr hat es zum ersten Mal seit sehr langer Zeit wieder geschneit – und zwar dort, wo Jesus geboren wurde. Es kommt halt immer wieder mal vor“.

„Schön, aber in der Schule sagen sie, dass es bei uns immer wärmer wird und irgendwann gar kein Schnee mehr kommt. Nie mehr Weiße Weihnacht?“

„Du solltest so einen Unsinn nicht glauben! Weiße Weihnacht kommt nur alle paar Jahre vor bei uns, das war schon immer so. Außerdem war es früher; viel, viel früher schon mal ganz erheblich wärmer als heute“.

„So richtig wie im Sommer?“ Das klang jetzt fast begeistert. Ich wusste, wie gerne mein kleiner Schatz draußen spielte.

„Na, wie im Sommer wohl nicht. Aber früher, als es noch keine Radios und Tonbänder und Videos und alles gab, haben einige Leute aufgeschrieben, wenn etwas Ungewöhnliches vorgefallen war“.

„Wie warm war es denn da?“

„Pass auf, ich lese einfach mal vor, was ich gefunden habe:

Im Januar 1807 wurden frische Erdbeeren geerntet

„Der warme Winter von dem Jahr 1806 auf das Jahr 1807 hat viel Verwunderung erregt und den armen Leuten wohlgetan; und der und jener, der jetzt noch fröhlich in den Knabenschuhen herumspringt, wird in sechzig Jahren einmal als alter Mann auf der Ofenbank sitzen und seinen Enkeln erzählen, dass er auch einmal gewesen sei wie sie und dass man Anno 6 [=1806], als der Franzos´ in Polen war, zwischen Weihnacht und Neujahr Erdbeeren gegessen und Veigelein (Veilchen) gebrochen habe. Solche Zeiten sind selten, aber nicht unerhört, und man zählt in den alten Chroniken seit 700 Jahren 28 dergleichen Jahrgänge“.

„Erdbeeren zu Weihnachten – die gibt es doch heute auch!“

„Aber nur im Supermarkt von weiß ich woher. Glaubst du wirklich, dass man vor 200 Jahren auch schon Supermärkte hatte?“

„Nein, Opa“, kicherte sie. „Aber Frühling zu Weihnachten – das wär doch was!“

„Na, ich weiß nicht. Aber sieh mal, innerhalb von 700 Jahren 28 mal Frühling zu Weihnachten. Du siehst, wenn einer sagt, dass es früher viel kälter war, ist das Quatsch!“

„Lies mal weiter, Opa! Steht da noch mehr?“

„Aber sicher doch! Hör zu:

Zu Weihnachten 1289 pflückten sie Kornblumen und Veilchen

Im Jahr 1289, wo man von uns noch nichts wusste, war es so warm, dass die Jungfrauen um Weihnachten und am Dreikönigstag Kränze von Veilchen, Kornblumen und andern trugen. Im Jahr 1420 war der Winter und das Frühjahr so gelind, dass im März die Bäume schon verblüheten. Im April hatte man schon zeitige Kirschen, und der Weinstock blühte. Im Mai gab es schon ziemliche Traubenbeerlein. Davon konnten wir im Frühjahr 1807 nichts rühmen.

Im Winter 1538 konnten sich auch die Mädchen und Knaben im Grünen küssen, wenn’s nur mit Ehren geschehen ist; denn die Wärme war so außerordentlich, dass um Weihnacht alle Bäume blühten.

1572 brüteten die Vögel schon im Februar

Im ersten Monat des Jahres 1572 schlugen die Bäume aus, und im Februar brüteten die Vögel. Im Jahr 1585 stand am Ostertag das Korn in den Ähren. Im Jahr 1617 und 1659 waren schon im Jänner (Januar) die Lerchen und die Drosseln lustig.

Im Jahr 1722 hörte man im Jänner schon wieder auf, die Stuben zu einzuheizen. Der letzte ungewöhnlich warme Winter war im Jahr 1748. Summa ist es besser, wenn am St. Stephanstag (26. Dezember) die Bäume treiben, als wenn am St. Johannistag (24. Juni) Eiszapfen daran hängen.“

Jetzt war meine Kleine nachdenklich geworden. „Aber das heißt doch, wenn es mal so warm war… später war es doch dann auch wieder kalt, oder?“

„Oh ja, und das ist gar nicht so lange her! Im Jahr 1962 war es Weihnachten so kalt, wie seit hundert Jahren nicht mehr! Immer zwischen -15 und -20 Grad – aber ich weiß noch, wie ich damals als kleiner Junge viel Spaß mit der Kälte hatte! Alle anderen haben geschimpft!“

„Gibt es das bei uns auch wieder?“

„Ganz sicher, mein Kind! Vielleicht schon im nächsten Jahr?“

© Chris Frey. Der Autor bedankt sich bei Herrn Joachim Barkow für die Zusammenstellung der historischen Fakten.

Nachtrag von Dipl.-Met. Hans-Dieter Schmidt:

Nicht der Mensch macht das Klima, sondern die Sonne. Und das war natürlich schon immer so. Seriöse Klima-Wissenschaftler sprechen von „Scharlatanen, Geldmachern und sogar von Voll-Idioten“, wenn die politische Forderung erhoben wird, dass die Temperatur auf der Erde von den Menschen allein um 2 Grad gesenkt werden kann. Politiker, die Gott spielen möchten. Das ist das eine. Das andere: Es gab in der Geschichte der Menschheit immer wechselnde Kälte- und Wärmeperioden. Die Kälteperioden bedeuteten Tod, keine Ernten, Völkerwanderung, Verhungern. Die Wärmeperioden brachten immer Hochkulturen und ein besseres Leben mit sich. Erderwärmung? Die haben wir den ganzen März 2013 über „genossen“.

Leider ist die Geschichte meines Freundes Chris Frey nur fiktiv. Aber es wäre wirklich zu wünschen, dass es auch in Wirklichkeit viel mehr Menschen gibt, die den Kindern auf so anrührende Art nahe bringen, was wirklich ist und was die Daten sagen.




Die Energiezukunft liegt unter Meereis

Man nennt sie Methanhydrate, manchmal auch „brennbares Eis“. Wenn der Abbau der Methanhydrate erst einmal möglich ist, würde sich die geopolitische Weltkarte erneut drastisch verändern. Nationen wie Indien und Japan, die kaum über eigene Öl- und Gasvorräte verfügen, könnten plötzlich zu mächtigen Energieriesen werden.

Im US-Department of Energy heißt es: „Methanhydrate könnten den Energiegehalt aller anderen fossilen Treibstoffe zusammen in den Schatten stellen” und „sie könnten Jahrzehnte lang die Versorgung mit billigem Erdgas sicherstellen und Amerikas Abhängigkeit vom Öl beseitigen“.

Aber die Möglichkeit, dass fossile Treibstoffe unbegrenzt die Weltwirtschaft mit Energie versorgen kann – selbst die konservativsten Vorhersagen beschreiben Methanhydrate als eine Größenordnung höher als alle anderen Erdgasquellen zusammen – missfällt vielen, die seit Jahrzehnten gehofft haben, dass die Verknappung den Globus von seiner Abhängigkeit von Treibhausgase erzeugenden Technologien befreien könnte.

„Da erhebt sich die Frage: werden wir an fossilen Treibstoffen kleben, bis wir die Atmosphäre vollständig gebraten haben?” sagt Richard Carter, leitendes Mitglied der Umweltgruppe The Ocean Foundation und auch Mitglied des Beratungskomitees bzgl. Methanhydrate im Energieministerium.

Die International Energy Agency EIA schrieb in einem Bericht im November, dass die Wirtschaftlichkeit von Methanhydraten als Treibstoffquelle von technologischen Fortschritten ebenso wie von politischen Maßnahmen zur Klimaänderung abhängt. Um die Ziele der Reduktion von Kohlenstoff-Emissionen zu erreichen, ist die Beschneidung des Verbrauchs aller fossilen Treibstoffe erforderlich, selbst derjenigen aus dem Eis. Außerdem ist Methan ein potentes Treibhausgas, wenn es in die Atmosphäre freigesetzt wird, und man muss bei der Ausbeutung sehr vorsichtig sein.

Das sind gewaltige Herausforderungen bei der Gewinnung von Erdgas aus Methanhydraten. Aber Japan hofft, Wege zu finden, an die unberührte Ressource während der nächsten 5 bis 10 Jahre heranzukommen. Auch andere Nationen treiben entsprechende Forschungen voran, einschließlich der USA, die über große Vorräte dieses Zeugs unter dem Permafrost in Alaska und in den Tiefen des Golfes von Mexiko verfügt.

Methanhydrate bilden sich unter extrem hohem Druck bei niedrigen Temperaturen, also Bedingungen, wie sie am Grund des ansonsten warmen Golfes von Mexiko zu finden sind. Die Eiskristalle führten zu Problemen, als BP im Jahre 2010 versucht hat, die Ölpest der Plattform Deepwater Horizon einzudämmen. Ölgesellschaften ist ihr Potential als Energiequelle sehr wohl bewusst, doch haben sie es bislang vermieden, sich bei Bohrungen mit diesem Stoff zu befassen.

Der Direktor des National Technology Laboratory Anthony Cugini sagte auf der diesjährigen Energiekonferenz in Deloitte: „Wer auch immer es während der kommenden Jahrzehnte schafft, wirtschaftliche Wege der Ausbeutung zu finden, könnte danach von einer Hydrat-Energie-Revolution sprechen. Diese Methanhydrate bieten wirklich eine Gelegenheit, die Schiefergas auf die untersten Plätze verweisen könnte. Die Ressource ist so gewaltig“.

Amerika verfügt bereits über eine Menge Schiefergas und sieht daher keine sofortige Notwendigkeit, sich mit Methanhydraten zu befassen. Andere Nationen jedoch haben einen ganz anderen Energiebedarf und treiben die Entwicklung der Ausbeutung von Methanhydraten immer stärker voran.

„Die Japaner bezahlen so viel für importiertes Erdgas, dass die Kosten für Methanhydrate für sie eine echte Alternative sein könnten“, sagte Tim Collette vom Team Energieressourcen des Geological Survey. Einige Kostenschätzungen für Methanhydrate sind zehnmal so hoch oder noch höher als die Kosten konventionellen Schiefergases. Die Japaner hoffen, diese Produktionskosten zu verringern und größere Wettbewerbsfähigkeit mit anderen Energiequellen zu erreichen.

Japan sucht auch dringend nach neuen Energiequellen, solange es sich von Kernkraft nach dem Fukushima-Desaster entfernt.

Der Energieberatungsfirma HIS Cera zufolge kann man erwarten, dass Japan Methanhydrate innerhalb der nächsten 15 Jahre wirtschaftlich nutzt.

Südkorea könnte als Nächstes folgen. Wie Japan ist das eine entwickelte und wohlhabende Nation ohne eigenes Öl und Gas.

Asien könnte die Wiege der Methanhydrate sein, da „Notwendigkeit oftmals die Mutter der Invention ist“, heißt es in einem jüngst erschienenen Bericht von IHS-Analysten.

Im vorigen Jahr kam es zu einigen Durchbrüchen bzgl. Methanhydrate. Forscher an der Nordküste Alaskas gewannen Erdgas aus Eiskristallen im Permafrost, indem sie sie mit Stickstoff und Kohlendioxid injiziert hatten. Die Hydrate nahmen das Kohlendioxid auf und setzten das Methan frei, wobei im Wesentlichen die Moleküle ausgetauscht wurden, während das Forscherteam den Druck erniedrigte, um das Gas zum Austreten zu bringen.

Dann hat Japan einen Ausfluss aus Tiefwasser-Ablagerungen vor seinen Küsten erzeugt, und zwar durch eine Druckverminderungs-Technik. Dazu gehört das Bohren eines Loches in die Formation und das Abpumpen des Wassers. Das setzt das Gas frei, und zwar als Folge des Druckunterschieds zwischen der Hydrat-Ablagerung im Untergrund und dem Bohrloch.

Charter von der Ocean Foundation sprach die Risiken der Entwicklung von Methanhydraten an. Dazu gehören unkontrollierte Gasaustritte und die Auslösung untermeerischer Erdrutsche, die den Planeten erwärmendes Methan in die Atmosphäre freisetzen.

„Ich würde sagen, dass wir derzeit in einer ähnlichen Phase sind wie in der Frühphase der Edison’schen Glühbirnen, bei denen die Hälfte in die Luft flog“, sagte er.

Link: http://www.santafenewmexican.com/news/energy-s-future-lies-waiting-in-sea-ice/article_855487f4-d414-5f17-8480-65ab0e696945.html

Übersetzt von Chris Frey EIKE




Licht wärmt, im Schatten wird es kühl, doch was ist „Temperatur“?

Das Temperament führte die Ärzte zur Temperatur

Auch die Ärzte des Altertums wussten dies nicht, aber sie waren wohl die ersten, die bemerkten, dass die Gesundheit des Menschen irgendwie mit der Körperwärme zusammenhing. Den Arzneien wurde je nach Befund eine kühlende oder wärmende Wirkung zugeschrieben. Die Stärke dieser Wirkung wurde mit Graden bestimmt. Grad leitet sich vom lateinischen Wort ‚gradus‘ gleich Stufe ab. Ein großer Arzt des Altertums, Galenos von Pergamon (121-199), er war auch Sportarzt bei den Olympischen Spielen, teilte die Wirkung der Arzneien mit einer Achtgradskala ein, je vier Grade für Wärme und für Kälte. Das Menschentemperament käme durch eine Vermischung von vier Flüssigkeiten zustande. Deren Vermischung in einem ganz bestimmten Verhältnis wird im Lateinischen „Temperatur“ genannt. Erst im 17. Jahrhundert begann man, das Wort Temperatur auf die uns heute geläufige Weise zu benutzen, nachdem man gelernt hatte, die Erwärmung eines Körpers ihrer Stärke nach zu messen.

Doch selbst noch Galileo Galilei (1564-1641), der 1597 das erste Thermometer konstruierte, wusste nicht, was er eigentlich maß. Immer, wenn er die Kugel mit der Hand berührte, stieg das Wasserniveau in der Glasröhre. Es hob und senkte sich aber auch ohne Berührung. Erst seinem Schüler Evangelista Torricelli (1608-1647) gelang es, den Zusammenhang zwischen der Höhe der Quecksilbersäule und dem Luftdruck zu erkennen. Zur Zeit Galileis schien selbst die Idee, dass die Luft auf die Erde drücken konnte, unannehmbar. Sein Instrument bestätigte, dass sich Körper bei Erwärmung ausdehnen und bei Abkühlung zusammenziehen. Es bestätigte auch, dass Wärme immer von einem heißen Körper zu einem kalten übergeht. Ein heißer Teekessel kühlt sich im Zimmer von selbst ab, aber er kann sich nicht von selbst erwärmen. Es ist möglich, ein Zimmer mit einem Ofen zu heizen, aber es ist absolut unmöglich, nur auf Kosten einer Zimmerkühlung einen Ofen zu erwärmen.

Galileo Galilei war der „Vater der Experimentalphysik“. Von ihm stammt der weise Spruch: „Die Natur ist unerbittlich und unveränderlich, und es ist ihr gleichgültig, ob die verborgenen Gründe und Arten ihres Handelns dem Menschen verständlich sind oder nicht.“ Wer weiß das besser als ein in der Wetteranalyse und Wettervorhersage tätiger Meteorologe?

Die Vertreibung aus dem Paradies – ein doppelter Verlust an „Wärme“!

Im Paradies hatten Adam und Eva offensichtlich keine Probleme mit dem Wetter, auch keinen Mangel an Wärme, obgleich sie nackt waren. Das lässt den Schluss zu, dass der „Garten Eden“ sich in den feuchtwarmen Tropen mit Temperaturen kaum unter 28 °C befand. Selbst nach dem Sündenfall störte sie die Nacktheit nicht. Aber als Gott sie aus dem Paradies vertrieb, wäre die Nacktheit ein ernstes Überlebensproblem geworden. Gott wusste dies und daher heißt es in der Schöpfungsgeschichte (Gen 3,21), dass Gott Adam und Eva beim Rausschmiss aus dem Paradies „Röcke aus Fellen“ machte und sie damit bekleidete. Er garantierte damit ihr Überleben, denn ohne Kleidung hätten sie nackt kaum die starken Temperaturschwankungen mit glühender Hitze am Tage und empfindlicher Abkühlung in der Nacht, besonders bei klarem Himmel, überleben können.

Adam und Eva hatten zwar verbotenerweise vom „Baum der Erkenntnis“ gegessen, aber ihnen fehlte mangels Erfahrung jegliches Gefühl dafür, welche physiologischen Wirkungen Nacktheit auf sie haben könnte. Sie kannten zwar die Felle der Tiere und das Federkleid der Vögel, aber es war ihnen nicht bewusst, welche lebensnotwendige Funktion diese natürliche „Bekleidung“ hat. Das Geheimnis besteht darin, dass unter dem Federkleid und im Fell Luft ruhig gestellt wird. Trockene Luft hat in der Natur die geringste Wärmeleitfähigkeit. Sie beträgt 0,0262 W/m• K. Luft hat von allen Stoffen die höchste Isolierfähigkeit, doch nur unter der Bedingung, dass sie absolut ruhig gestellt und jedwede Konvektion unterbunden wird. Zudem dürfen die Daunen unter dem Federkleid nicht nass werden. Wasser hat mit 0,56 W/m• K eine 21 Mal höhere Wärmeleitfähigkeit als Luft. Daher sind Enten ständig beschäftigt, ihr Federkleid einzufetten, damit kein Wasser durch das Gefieder dringt und die Daunen durchnässt.

Da ein Stillstellen von Luft unter freiem Himmel völlig unmöglich ist, nutzen Tiere ihr Feder- oder Fellkleid, um sich vor lebensgefährlicher Ab- und Unterkühlung zu schützen. Dasselbe macht der Mensch mit seiner Kleidung, die er stets den Außentemperaturen anpasst. Je größer die Differenz von Körper- und Umgebungstemperatur ist, desto dichter muss die Kleidung sein. Sie schützt uns vor Hitze und Kälte, vor Regen, Sonne und Wind. Die Herstellung von Kleidung war der erste eigenständige Kulturakt des Menschen. Die Natur war dabei Lehrmeisterin. Man muss sie nur genauestens beobachten. Eine Beobachtung war, dass beim Rupfen der Gänse unter dem Gefieder flauschige Daunen zum Vorschein kamen. Enten- und Gänsedaunen nutzt der Mensch zur Herstellung von Kopfkissen und Bettdecken. Zwischen den winzigen Daunen ist Luft eingeschlossen und kann sich nicht bewegen. Begibt sich der Mensch zur Nachtruhe ins kalte Bett, dann wärmt er mit seiner Körperwärme die Bettdecke auf und erzeugt ein dem Schlaf bekömmliches Bettklima. Die Bettdecke wärmt nicht, ebenso wenig wie ein Mantel.

Das Bekleiden von Adam und Eva mit „Fellen“ war ein lebensnotwendiger Gnadenakt, der es dem Menschen ermöglichte, die ganze Welt zu besiedeln und sich dem jeweiligen Temperatur-Milieu anzupassen. Besonders in den polaren Klimazonen waren „Felle“ unverzichtbar. Pelze, vor allem die aus Winterfellen, sind wegen des hohen Wärmeschutzes beliebt. Die Inuit aus Grönland nutzen Robben- und Seehundfelle, in Lappland sind es Rentierfelle, in Sibirien Felle von Polarfuchs, Schneehase. Sibirische Tiger sind vor Kälte bis -45 °C geschützt. Eisiger Kälte angepasst haben sich auch die Hanuman-Languren, eine in Nepal lebende Affenspezies.

Der Mensch ist ein Kraftwerk, eine Verbrennungsmaschine

Der Mensch ist wie alle Säugetiere vergleichbar mit einem „Ofen“, der allerdings immer beheizt werden muss, allein um die Betriebstemperatur zu wahren und den ständigen Wärmeverlust durch Strahlung, Leitung wie Konvektion auszugleichen. Hört mit dem Tode die Verbrennung auf, dann kühlt der Körper ab, bis auf die jeweilige Umgebungstemperatur. Wird in einem Raum ein toter gefunden, dann berechnet man den Todeszeitpunkt mit Hilfe des Newton’schen Abkühlungsgesetzes.  

Beheizt wird der „Ofen“ mit Sonnenenergie, die über die grünen Pflanzen bei der Fotosynthese in die Nahrungskette eingespeist wird. Die Pflanzen liefern auch gleichzeitig den Sauerstoff, ohne den wir die Nahrung nicht im Körper verbrennen könnten. Eine Energieeinsparung ist unmöglich, weil jeder Körper in Abhängigkeit von seiner Temperatur Wärme abstrahlt. Dies betrifft ausnahmslos alle festen und flüssigen Körper auf der Erde. Jeder Stein, jede Pflanze, alles sendet Wärmestrahlung aus und kühlt sich ab. Die Körper werden nicht abgekühlt durch das Weltall, nein sie selbst sind die Objekte, welche in die Umgebung Wärme ausstrahlen. Die Erde dreht sich vor der Sonne, damit „Licht“ immer wieder die Abkühlung unterbrechen, der Erde frische Energie zuführen und sie dadurch erwärmen kann. Ein davon unabhängiger Vorgang ist die Abkühlung oder Erwärmung über den Wind, durch die Advektion kalter oder warmer Luftmassen. Insbesondere die Schwankungen der Tagestemperaturen gehen auf Änderungen der Windrichtung zurück, wobei heute Tropikluft und morgen Polarluft herantransportiert werden kann.

Die von den Körpern je nach deren Temperatur ausgehende Wärmestrahlung ist in der Regel unsichtbar. Sichtbar werden Wärmestrahlen erst, wenn die Herdplatte beginnt rot zu glühen. Strahlen größerer Wellenlänge sind für das menschliche Auge unsichtbar; sie liegen jenseits des roten Lichts. Deswegen spricht man auch von infraroter Strahlung. Hat man entsprechende Infrarot-Kameras, so kann man diese unsichtbare Wärmestrahlung erfassen und somit selbst bei tiefster Finsternis jeden Körper fotografieren und sichtbar machen. Dies kann ein Mensch, ein Wild, ein Baum, ein Haus oder ein getarnter Panzer sein. Die Wärmestrahlung verrät alles! Die Wärmestrahlung erniedrigt die Temperatur des strahlenden Objektes und erhöht die Temperatur des empfangenden Objektes, wenn dieses mehr Wärme empfängt als es selbst ausstrahlt.

Die Erdoberfläche empfängt extrem unterschiedliche Wärmemengen von der Sonne, weil sie eine rotierende „Kugel“ ist und keine senkrecht zur Sonne stehende „Scheibe“. Da die Erdachse nicht senkrecht auf der Sonnenumlaufbahn steht, sondern um 23,5 Grad geneigt ist, haben wie die vier Jahreszeiten Frühling, Sommer, Herbst und Winter. Hat die Sonne bei 23,5 °S den südlichen Wendekreis am 21. Dezember erreicht, dann beginnt der Winter. Dann haben wir in 50 °N die längste Nacht (16 h) und den kürzesten Tag (8 h), bei einer Sonnenhöhe von 16,5 Grad über dem Horizont. Wir sehen es an der Länge unserer Schatten. Die Beleuchtungsstärke der Sonnenstrahlen und ihre Wärmewirkung auf der Haut sind spürbar geringer als am 21. Juni zur Sommersonnenwende am 21. Juni. An diesem Tag steht die Sonne 63,5 Grad über dem Horizont, sind die Tage 16 Stunden lang und die Nächte 8 Stunden kurz. Die höheren Temperaturen im Sommer sind einzig Folge der höheren Beleuchtungsstärke und der längeren Beleuchtungszeiten, der Sonnenscheindauer.

Seit Nikolaus Kopernikus (1473-1543) das heliozentrische Weltbild schuf und Johannes Keppler (1571-1630) die Planetengesetze formuliert hatte, gibt es eine völlig natürliche Begründung sowohl für den Tagesgang der Temperaturen wie deren Jahresgang. Dieser natürlichen Rhythmik hat sich alles Leben auf der Erde angepasst. Es ist einzig und allein die Kraft der Sonne, die das Leben in seiner Vielfalt bestimmt. Die Sonne versorgt im Frühjahr die Natur mit der notwendigen Lebensenergie und entzieht ihr diese Energie im Herbst wieder. Dies zeigt sich an der Vegetationsperiode, vom zarten Grün der Bäume im Frühling bis zum Laubabwurf im Herbst. Bei aller wetterbedingten Veränderlichkeit der täglichen Temperaturen, die jährliche Temperaturkurve folgt eindeutig dem Stand der Sonne wie der Länge von Tag und Nacht. Das Spurengas CO2 mit einem Luftanteil von 0,04 Prozent hat keinen messbaren Einfluss auf die Körpertemperaturen wie die Lufttemperaturen. CO2 dient den Pflanzen als Nahrung zum Aufbau von Nahrung für Mensch und Tier.

Was nun ist Temperatur?

Wärme ist immer an stoffliche Masse gebunden. Je mehr Masse man hat, desto mehr Wärme kann man speichern. Mit 5000 Litern heißem Wasser kann man mehr heizen als mit fünf Litern gleicher Temperatur. Es war ein sehr langwieriger Prozess, die Begriffe „Temperatur“ und „Wärme“, zumal man Wärme und Kälte für verschiedene Substanzen und die Luft für eine unsichtbare Flüssigkeit hielt. Der Begriff Kalorie weist noch auf die Vorstellung von  Wärme als „Kalorikum“ hin. Bei der Wettervorhersage werden immer die Luftströmungen mit Hilfe von hydrodynamischen Bewegungsgleichungen berechnet. 

Im 17. Jahrhundert begannen Naturforscher wie Robert Boyle (1627-1691), Robert Hooke (1635-1703) und Isaac Newton (1642-1726) die Meinung zu vertreten, dass Wärme mit mechanischen Bewegungen zusammenhänge. Vor ihnen hatten schon Philosophen wie Francis Bacon (1561-1626), Thomas Hobbes (1588-1679) und John Locke (1623-1704) diese Ansicht vertreten. Erste quantitative Formulierungen gehen auf Leonhard Euler (1707-1783) und Daniel Bernoulli (1700-1782) zurück. Euler schätzte die Geschwindigkeit der Gasteilchen auf 477 m/s. Bei O °C liegt die mittlere Geschwindigkeit der Luftmoleküle bei 400 m/s (1440 km/h), bei 20 °C sind es 500 m/s (1800 km/h). Die Schallgeschwindigkeit bei 15 °C beträgt nur 340 m/s (1224 km/h).  Also lange vor James Maxwell (1831-1879) wurde der Grundstein für die kinetische Gastheorie gelegt. Als Geburtsjahr für die Theorie der „Bewegung durch Wärme“ gilt 1824, in dem Sadi Carnot (1796-1832) seine „Gedanken über die bewegende Kraft des Feuers und über Maschinen, die diese Kraft ausnutzen können“ vorlegte. Er begründete damit zwar einen neuen Zweig der Physik, die Thermodynamik, fand aber Zeit Lebens keinen Widerhall. 1834 arbeitete Benoit Clapeyron (1799-1864) die Arbeit von Carnot um und verschaffte der Thermodynamik zum Durchbruch. Robert Julius Mayer (1814-1878) bestimmte den Wert des mechanischen Wärmeäquivalents. Er wies auch nach, dass sich Bewegungsenergie vollständig in Wärme umwandeln lässt und verkündete 1845 den Energieerhaltungssatz. Aber Mayer wurde die Anerkennung verweigert, er sah sich gehässigen Angriffen ausgesetzt und verbrachte zehn Jahre im Irrenhaus. Er wurde auch verlacht ob der Erklärung seiner Beobachtung, dass sich bei einem Sturm das Wasser erwärmt.

Es war damals schwierig zu verstehen, dass Energie nicht verschwinden kann. Das Paradoxon wurde erst aufgelöst, als man verstand, dass Wärme mit der ungeordneten Bewegung von Molekülen verbunden ist und dass sich die „verschwundene Energie“ in der Energie dieser Molekülbewegungen wiederfindet. Es war auch sehr schwierig zu verstehen, dass man aus dem Endzustand eines Systems auf keine Weise schließen kann, woher das System seine Energie bekam: auf Kosten von Wärme oder von Arbeit. Arbeit und Wärme sind Prozessgrößen, keine Zustandsgrößen wie Druck, Temperatur, Volumen, innere Energie. Es wuchs auch die Erkenntnis, dass, wenn zwei Körper die gleiche Temperatur hatten, nicht daraus folgte, dass sie dieselbe Energie besaßen. Wärme ist nicht gleich Temperatur, auch wenn gesagt wird, dass es 20 Grad warm ist!

Es war dann William Thomson (1824-1907) oder „Lord Kelvin“, der die thermodynamische Temperaturskala entdeckte. Wurden früher zwei Punkte – der Schmelzpunkt des Eises und der Siedepunkt des Wassers –  gewählt, und deren Abstand wie bei der Celsius-Skala in 100 Teile geteilt, so geht man heute vom Tripelpunkt des Wassers aus, wo die drei Phasen Dampf, Wasser und Eis miteinander koexistieren. Seine Temperatur in Kelvin beträgt exakt 273,16 K oder exakt 0,01 °C. Der Übergang zur neuen Skala mit dem Tripelpunkt des Wassers als einzigem Fixpunkt geschah fast unbemerkt. Diese Übereinkunft wurde im Jahre 1954 getroffen. Dass beide Temperaturskalen, ob in Celsius-Grad oder Kelvin, exakt übereinstimmen wurde 1990 international festgelegt.

Über die Beantwortung der Frage, wie die Molekülgeschwindigkeiten den Gasdruck und wie die Molekülenergien die Temperatur bestimmen und die Gleichung m/2 v2 = 3/2 kT ergibt sich, dass die Temperatur ein Maß für die kinetische Energie der Moleküle ist. Falls man irgendein Molekül lange genug verfolgen könnte, würde man sehen, dass es mal schneller, mal langsamer fliegt, wobei aber das Quadrat der Geschwindigkeit im Mittel gleichbleibt. Wenn sich ein Teekessel in einem Zimmer abkühlt und die Luft erwärmt, kann man später nicht feststellen, warum sich die Luft erwärmt hat. In Gasen herrscht hat „Chaos“. Anders ist es mit elektromagnetischen Feldern. Licht transportiert Informationen von der Fläche! Einen Teekessel oder ein Haus kann man als Foto mit Hilfe einer Infrarotkamera „sehen“. Die Infrarotstrahlung besteht aus gerichteten elektromagnetischen Wellen, die sich nicht im „thermischen Gleichgewicht mit der Luft“ befinden. Sie werden von den Atomen nicht gestreut, „behalten“ darum die Gestalt des Teekessels und können sie übertragen. Die chaotische Molekularbewegung kann keine „Bilder“ übertragen und abbilden!

Der Prozess des Temperaturausgleichs ist irreversibel, unumkehrbar. Er ist immer mit einer Zunahme von Entropie verbunden. Die Entropie wurde von Rudolf Clausius (1822-1888) theoretisch entdeckt. Sie ist eine zur Temperatur zusammenhängende Größe, deren Zunahme, multipliziert mit der Temperatur, die von einem Körper reversibel aufgenommene Wärme-energie bestimmt. Die Gasentropie lässt sich in Tabellen finden, aber es gibt kein Gerät, ähnlich einem Barometer oder Thermometer, das den Entropiewert anzeigt. Konsequenz ist: Es gibt keinen Prozess, dessen einziges Ergebnis die Kühlung eines Körpers und das Verrichten von mechanischer Arbeit wäre. Diffusion, Reibung, Wärmeleitung, Zähigkeit, joulsche Wärme, das sind einige der Hauptmechanismen, die die Entropie erhöhen. Das Prinzip des Entropiezuwachses ist eine Eigenschaft unserer Welt, in der alle makroskopischen Systeme aus unvorstellbar vielen Teilchen (1023 = 100 Trilliarden) bestehen. Die Entropiezunahme definiert die Zeitrichtung, bestimmt den „Zeitpfeil“.

Die Temperatur ist noch viel, sehr viel komplizierter!

Die Wärmelehre entwickelte sich zu einem Teilgebiet der Physik, als klar war, dass die Wärme eine Form von Energie und die Temperatur ein Maß für die Energie der Wärmebewegung ist. Es ist die von Ludwig Boltzmann (1844-1906) entwickelte Boltzmann-Konstante k, die den tiefen Zusammenhang zwischen Mechanik und Wärmelehre als „Energie-Temperatur-Äquivalent“ widerspiegelt. Hat ein Körper die Temperatur T, dann ist kT ein Maß für die mittlere Energie jedes seiner mikroskopischen Freiheitsgrade.

Der ungefähre Wert des Energie-Temperatur-Umrechnungsfaktors ist k ≈ 1,4 • 10-23 J/K. Damit ist bei 1 J ≈ 6,2 • 10^18 eV äquivalent k ≈ 8,5 • 10^-5 eV/K. 1 J entspricht also etwa 0,72 • 10^23 K und 1 eV entspricht etwa 1,2 • 10^4 K. Kurz als Merkregel: 1 eV entspricht etwa 10.000 K! Das bedeutet, dass man die Angabe der Temperatur eines gesunden Menschen als 36,6 °C auch ausdrücken kann mit 309,8 K oder 4,28 • 10^-21 J oder 27 meV. Diese Angaben sind zwar äquivalent und korrekt, aber unüblich und zu abstrakt. Ich denke, wir werden noch lange an den Celsius-Graden festhalten oder in den USA den Fahrenheit-Graden. 36,6 °C entsprechen 97,9 °F!

Eine Temperatur ist ein Maß für die mittlere kinetische Energie der Luftmoleküle, aber was ist eine Mitteltemperatur? Die Temperatur ist eine Qualitätsgröße wohingegen die Wärme eine Quantitätsgröße ist. Je mehr Masse vorhanden ist, desto mehr Wärme kann man speichern. Flüssige Massen kann man vermischen und aus heißem und kaltem Wasser wohl temperiertes Badewasser herstellen. Dies geht auch mit kalter und warmer Luft. Dabei entstehen Tiefdruck-gebiete, in denen dann durch Vermischung ein Temperaturausgleich erzeugt wird.

Aber was passiert, wenn man Temperaturen mittelt? Nichts! Dies ist ein ganz einfacher Rechenvorgang, der nichts bewirkt. Wenn man Temperaturen von London, Berlin, Madrid und Athen mittelt, dann erhält man eine „Mitteltemperatur“, die ein „Spielwert“ darstellt und im Grunde nichts aussagt. Noch viel schlimmer verhält es sich mit der „Weltmitteltemperatur“, gerne „Globaltemperatur“ genannt. Das ist eine fiktive Temperatur ebenso wie das davon abgeleitete „Globalklima“! Mit Mitteltemperaturen kann man nichts anfangen. Dies beginnt bereits bei der Berechnung der Tagesmitteltemperatur, die nicht einmal einheitlich nach den „Mannheimer Stunden“ erfolgt. Die Tagesmitteltemperatur ist eine einfache Rechengröße, kein physikalischer Wert. Wir spüren und fühlen keine Mitteltemperatur, sondern nur den Gang der realen Temperatur.

Deswegen werden in allen Wetterberichten und bei allen Wettervorhersagen immer zwei Temperaturen angegeben, das morgendliche Minimum wie das mittägliche Maximum. Beide Angaben geben ein Gefühl für den Verlauf des Tagesganges der Temperatur. Die „Natur“ richtet sich, wie auch der Mensch bei der Wahl der Bekleidung, immer nach den wirklichen Temperaturen! 

Wenn Sie sich und ihren Freunden etwas Gutes tun wollen, dann gehört auf den Gabentisch das Buch „Propheten im Kampf um den Klimathron – Wie mit Ängsten um Geld und Macht gekämpft wird“. In diesem Sinne Ihnen allen ein fröhliches und gesegnetes Weihnachtsfest und alles Gute im kommenden Jahr!

 Dipl.-Met. Dr. phil. Wolfgang Thüne




Antwort auf Fragen zum 5. Zustandsbericht AR 5

Die Erhebung des Energy and Climate Change Committee bzgl. AR 5

Schriftliche Eingabe von Marcel Crok

Laufbahn und Begründung meines Interesses

Ich bin ein niederländischer, in Amsterdam ansässiger selbständiger Wissenschaftsautor. Seit 2005 habe ich mich auf die Debatte um die globale Erwärmung konzentriert. Als Herausgeber der niederländischen Monatszeitschrift Natuurwetenschap & Techniek (jüngst wurde daraus die holländische Ausgabe des New Scientist) habe ich im Jahr 2005 einen langen und kritischen Artikel über den infamen Hockeyschläger geschrieben, wobei ich mich maßgeblich auf die Kritik von Stephen McIntyre und Ross McKitrick bezogen habe. Vieles in diesem Artikel Beschriebene tauchte in den Klimagate-E-Mails wieder auf.

Im Jahre 2010 habe ich ein kritisches Buch veröffentlicht, das sich mit dem dritten und vierten Zustandsbericht des IPCC (TAR und AR 4) befasste. Das holländische Ministerium für Infrastruktur und Umwelt hat mir dann Mittel zukommen lassen für eine kritische Begutachtung des AR 5 als Experten-Begutachter.

Seit Klimagate bin ich sehr für eine konstruktivere Wechselwirkung zwischen Klimawissenschaftlern mit entgegen gesetzten Ansichten. Ende 2012 hat dieses holländische Ministerium eine internationale Diskussions-Plattform finanziert, nämlich www.ClimateDialog.org, die konstruktive Dialoge zwischen Klimawissenschaftlern mit anderen Standpunkten organisiert. Dies wurde von den führenden holländischen Klimainstituten KNMI und PBL sowie von mir selbst mit Leben erfüllt [1]. Wir decken kontroverse Themen ab und laden Wissenschaftler ein, die eine ganze Bandbreite von Ansichten repräsentieren.

Im Jahre 2013 war ich Ko-Autor meiner ersten wissenschaftlich begutachteten Studie, in der eine europäische Temperaturverschiebung im Jahre 1988 beschrieben wird.

Wie belastbar sind die Ergebnisse im AR 5-Bericht hinsichtlich der physikalischen wissenschaftlichen Grundlagen?

Die Antwort auf diese Frage ist m. E. nicht Gegenstand dieser Erhebung. Allerdings bietet Ihre eigene Introduction eine gute Gelegenheit, sich damit zu befassen. Sie schrieben: „Laut Bericht ist es ‚extrem wahrscheinlich, dass der menschliche Einfluss der dominante Grund für die seit Mitte des 20. Jahrhunderts beobachtete Erwärmung ist‘. Aber die untere Grenze der wahrscheinlichen Klimasensitivität wurde reduziert, und zum ersten Mal wurde auch keine beste Schätzung davon veröffentlicht, weil es dazu keine Übereinstimmung gab“.

Es ist gut, dass Sie auf dieses offensichtliche Paradoxon hingewiesen haben. Der AR 5 selbst konzentrierte sich auf die 95%-Sicherheit, dass die Menschen den Hauptteil (>50%) an der Erwärmung seit 1950 haben. Die meisten Medien machten dies zu einer wichtigen Nachricht über den AR 5 und schrieben ‚wie viel zusätzliche Sicherheit braucht man denn noch, bevor Maßnahmen ergriffen werden?‘.

Allerdings ist diese Interpretation der 95%-Behauptung irreführend. In gewisser Hinsicht ist die 95%-Behauptung des AR 5 (der selbst auch das Ergebnis einer Experten-Beurteilung ist und keine Art mathematischer Berechnung enthält) ein Kinderkram.

Um dies zu verstehen, konzentrieren wir uns auf diesen anderen wichtigen Parameter, die Klimasensitivität. Vor kurzem wurden viele Studien veröffentlicht, in denen die Klimasensitivität aus gemessenen Daten seit 1850 abgeleitet worden ist. Diese Studien legen nahe, dass nahezu die gesamte Erwärmung seit 1850 aufgrund von Treibhausgasen erfolgt ist. Danach kommen diese Studien zu einer besten Schätzung der Klimasensitivität von 1,5 bis 2,0°C, was deutlich unter dem Wert von 3,0°C des IPCC in allen seinen bisherigen Zustandsberichten liegt.

Daher ist die Behauptung, dass mindestens 50% der Erwärmung seit 1950 auf den Menschen zurückzuführen ist, bedeutungslos. Die viel wichtigere Frage lautet, ob der Beitrag der Treibhausgase zur Erwärmung groß oder klein ist. AR 5 hat alle Zutaten für die Einschätzung, dass der Beitrag viel geringer ist, als wir während der letzten drei Jahrzehnte gedacht haben. Indem jedoch kein Wert der besten Schätzung der Klimasensitivität genannt worden ist, fehlt jeder Hintergrund für diese wichtige Nachricht. Also hat das IPCC dabei versagt, den Politikern die wichtigste Schlussfolgerung zu vermitteln. Und das IPCC selbst behandelte diesen wichtigen Vorgang nur in einer Fußnote in der Summary for Policymakers SPM.

Die 95%-Behauptung sagt auch nichts darüber aus, wie ernst die Klimaproblematik ist. Diese 95% können vollständig auch dazu passen, dass es überhaupt kein Klimaproblem gibt. Das IPCC hat dies nicht eindeutig erklärt, und die Journalisten haben nicht nachgefragt.

Fazit: Die 95%-Behauptung des IPCC ist von den meisten Menschen als letzter Beweis dafür, dass wir ein gewaltiges anthropogenes Klimaproblem haben, fehlinterpretiert worden, einschließlich Politiker und Medien. Die Behauptung selbst beweist nichts dergleichen und ist in Wirklichkeit ziemlich bedeutungslos.

Obwohl es widersprüchlich klingt, gibt es aus sich heraus keinen Konflikt zwischen der zunehmenden Gewissheit (die 95%-Behauptung) und keiner Angabe einer besten Schätzung der Klimasensitivität (weniger Sicherheit). Die 95%-Behauptung ist nur sehr konservativ und sagt wenig über den Ernst des Klimathemas.

Hat das IPCC in  geeigneter Weise auf Kritik an den früheren Berichten reagiert?

In dieser Hinsicht gibt es einige ermutigende Fortschritte. Zum Beispiel hat das IPCC im AR 4 noch behauptet, dass Treibhausgase schon jetzt Hurrikane beeinflussen. Dies basierte auf einer sehr verzerrten Auswahl der Literatur. Sowohl im IPCC SREX-Bericht 2011 als auch im AR 5 ist das besser, wurde doch in beiden eingeräumt, dass es (noch) keine Verbindung zwischen allen Arten von Extremwetter (Hurrikane, Überschwemmungen, Dürren) und der zunehmenden Konzentration von Treibhausgasen gibt. [2]

Allerdings gibt es viele andere Bereiche, bei denen das IPCC vollkommen unwillig scheint, auf Kritik einzugehen. Ein notorisches Beispiel hierfür ist der Fall langzeitlicher Persistenz (LTP). Die meisten Menschen werden zustimmen, dass das Wetter in dieser Stunde mit dem Wetter der nächsten Stunde in Beziehung steht. Das Gleiche kann man auch über das Klima sagen. Wenn wir in diesem Jahr in einer Eiszeit stecken, werden wir logischerweise auch das nächste Jahr in einer Eiszeit stecken. Das nennt man Persistenz. LTP wird relevant, wenn man behaupten will, dass der jüngste Anstieg der globalen Temperatur um 0,8°C statistisch signifikant ist. Das ist wichtig für das, was das IPCC ‚Erkenntnis‘ [detection] nennt. Als Erstes muss man eine ‚signifikante‘ Zunahme der globalen Temperatur erkennen, bevor man diesen irgendeinem Grund ‚zuordnen‘ kann.

Um diese Berechnung durchzuführen, muss man überlegen, welches statistische Modell am besten zu den Daten passt. Das IPCC und die gesamte Klimabranche hat aus irgendwelchen Gründen die Ansicht übernommen, dass man Klima-Zeitreihen am besten mit dem sog. AR 1-Modell beschreiben kann. Dieses Modell nimmt an, dass das Klima dieses Jahres das Klima des nächsten, nicht aber des übernächsten Jahres beeinflusst. Dieses AR 1-Modell nennt man auch Kurzfrist-Persistenz. Allerdings gibt es viele Studien, in denen kritisiert wird, dass diese Angelegenheit weder im AR 4 noch jetzt im AR 5 auf befriedigende Weise angesprochen wird.

In meiner Begutachtung des AR 5 schrieb ich:

Es ist lobenswert, dass die Autoren Cohn und Lins 2005 erwähnen [3]. Unglücklicherweise ist dies die einzige Stelle in dem gesamten Bericht, an der diese wichtige Studie erwähnt wird. Hinsichtlich ihrer Ergebnisse schreiben Cohn und Lins: „Hinsichtlich der Temperaturdaten gibt es überwältigende Beweise, dass sich der Planet während des vorigen Jahrhunderts erwärmt hat. Aber könnte diese Erwärmung nicht auch auf eine natürliche Dynamik zurückgehen? Angesichts dessen, was wir über Komplexität, langzeitliche Persistenz und Nichtlinearität des Klimasystems wissen, scheint es so, al sei die Antwort ja … natürliche Klimaveränderungen könnten viel größer sein als wir uns vorstellen“. AR 4 hat dieses Thema nur sehr unzurecihend aufgegriffen, wie McKitrick in seinem Beitrag an das IAC erklärt:

 http://www.rossmckitrick.com/uploads/4/8/0/8/4808045/iac.ross_mckitrick.pdf (Seite 7-9)

Er erwähnt eine (Klimagate-)E-Mail von David Parker an Phil Jones, die für die Behandlung der Studie von Cohn und Lins verantwortlich waren. Parker schrieb: „das vielleicht größte Problem sind die Bemerkungen von Ross McKitrick und David Stephenson zu Trends; wir haben dafür lediglich das AR 1-Modell verwendet, und sie könnten recht haben, wenn sie sagen, dass man ein komplexeres Modell entwickeln sollte. Unsere Software für eine begrenzte Maximum-Wahrscheinlichkeit passt nicht zu ARMA (1,1) [?], und es könnte erforderlich sein, John Kennedy hinzuzuziehen bei der Untersuchung neuer Software. Das könnte sehr viel Arbeit sein, könnte aber erledigt werden nach dem LA3-Treffen, wenn wir dort beschließen, was zu tun ist. Alternativ könnten wir nichtlineare Trends in Betracht ziehen, was wir auch schon getan haben, lediglich Gesamtänderungen des Niveaus aus den geglätteten Kurven. Das würde Platz sparen“. Am Ende haben Parker und Jones wirklich lineare Trends in Kapitel 3 zitiert und behauptet, die Erwärmung sei hoch signifikant. In der zweiten Version des AR 4 schrieb das IPCC: „Die Berechnung der statistischen Signifikanz einer Trendlinie aus geophysikalischen Daten ist schwierig, und viele zu stark vereinfachende Methoden tendieren dazu, die Signifikanz zu hoch anzusetzen. Zheng und Basher (1999), Cohn und Lins (2005) und Andere haben Zeitreihen-Methoden benutzt, um zu zeigen, dass die unzureichende Behandlung der allgegenwärtigen Formen langzeitlicher Persistenz und Autokorrelationen in Trend-Residuen zu irrigen Trends als ein typisches Ergebnis bei der Analyse klimatischer Daten führt“.

Dies ist ein fairer Kommentar zu Cohn und Lins. Allerdings wurde in der zweiten Version dieser Text entfernt und stattdessen in Anhang 3.a.a ein viel strittigerer Text eingeführt: „Nichtsdestotrotz hängen die Ergebnisse vom verwendeten statistischen Modell ab, und komplexere Modelle sind nicht so transparent, und ihnen fehlt oft physikalischer Realismus. Tatsächlich konnten Cohn und Lins nicht zeigen, dass komplexere Modelle besser zu den Daten passen als einfachere Modelle. „Das war komplett eine Ad-Hoc-Bemerkung ohne jeden Bezug zur Literatur. Eine angemessene Behandlung dieses Themas im AR 5 wird dringend gebraucht. Ich denke, dass es in dieser Diskussion auch um die Kapitel 2 und 10 gehen sollte“.

Ross McKitrick sprach auch noch einmal das Thema LTP in seiner AR 5-Begutachtung an. Hat sich der AR 5 mit diesem Thema befasst? Nein. Doug Keenan, ein britischer Mathematiker, der an diesem Thema Interesse bekundet hat, erklärte detailliert, dass LTP im AR 5 nicht angemessen behandelt worden ist [4]. Keenans Forschung hat kürzlich zu zahlreichen parlamentarischen Anfragen von Lord Donoughue geführt [5].

Viele Leute haben also diesen wichtigen Aspekt im Begutachtungsprozess sowohl zum AR 4 als auch zum AR 5 angesprochen. Privat haben Parker und Jones eingeräumt, dass die Kommentare von McKitrick richtig waren. Allerdings hat das IPCC im Endeffekt dieses Thema sowohl im AR 4 als auch im AR 5 mehr oder weniger ignoriert. Es hat noch nicht einmal angefangen, dieses Thema ernst zu nehmen.

Im Mai diesen Jahres 2013 haben wir einen Klimadialog über LTP organisiert und als Teilnehmer Armin Bunde, Demetris Koutsoyiannis and Rasmus Benestad eingeladen [6]. Sowohl Bunde als auch Koutsoyiannis haben viele Studien zu LTP veröffentlicht, und beide sind überzeugt, dass man bei Verwendung eines AR 1-Modells die statistische Signifikanz der 0,8°C viel zu hoch geschätzt ist. Aber genau das macht das IPCC.

Wieviel Spielraum gibt es, die Ergebnisse des Berichtes in Frage zu stellen?

Nicht genug. Im Allgemeinen sind Kritiker des IPCC-Standpunktes (Skeptiker, wenn man so will) am Schreiben der Berichte nicht als kordinierende Leitautoren, Leitautoren oder selbst beitragende Autoren beteiligt worden. Also können sie nur als Experten-Begutachter tätig werden. In der Praxis hat ein Experten-Begutachter nur sehr wenig Einfluss. Man betrachte dazu einfach noch einmal das Beispiel LTP oben. Viele Begutachter haben sowohl zum AR 4 als auch zum AR 5 dieses wichtige Thema angesprochen. Am Ende jedoch wurde dies ignoriert. Das gleiche kann man sagen von dem wichtigen begutachtenden Kommentar von Nic Lewis, der zwei Bandbreiten der Klimasensitivität präsentiert hatte, eine basierend auf den Klimamodellen und die andere basierend auf Messungen.

Kann man irgendeinen Bereich der Wissenschaft nach dem AR 5 als settled betrachten, und wenn ja, welcher?

Unglücklicherweise sind nur sehr wenige Dinge in der Klimadebatte settled. Es gibt nur eine solide Tatsache: Die Treibhausgas-Konzentrationen steigen, und die Menschen sind für diese Zunahme verantwortlich [So? A. d. Übers.]. Eine zweite Tatsache ist, dass das Klima derzeit wärmer ist als vor einem Jahrhundert. Wie viel wärmer ist immer noch Gegenstand von Diskussionen. Und wie viel dieser Erwärmung den Menschen geschuldet ist, ist alles andere als settled.

Spricht der AR 5 die Zuverlässigkeit der Klimamodelle an?

Viele Kapitel behandeln die Zuverlässigkeit der Modelle, und ein Kapitel (9) ganz besonders. Klimamodelle spielen eine erhebliche Rolle in dem Bericht. Alle Zukunfts-Projektionen des Klimas bis zum Jahr 2100 basieren auf diesen Modellen. Deren Zuverlässigkeit ist daher ein Schlüsselaspekt.

Unglücklicherweise lautet die einzige implizite Schlussfolgerung im AR 5, dass die Klimamodelle alles in allem nur in der Hinsicht zuverlässig sind, dass die von ihnen projizierte globale Erwärmung nicht durch Beweise gestützt wird.

Es wird immer klarer, dass die Modelle immer schlechter zu den Messungen passen, selbst wenn man auf die globale Mitteltemperatur schaut. Stephen McIntyre hat in einem Blogbeitrag [7] gezeigt, dass die Modelle im Mittel während der letzten 35 Jahre 50% mehr Erwärmung zeigen als das wirkliche Klima:

Vergleich des modellierten und des gemessenen dekadischen Trends der globalen Temperatur von 1979 bis 2013

Instead of showing this insightful graph IPCC presented this (Figure 1 from Box 9.2):

Die Temperaturtrends sind dargestellt in Grad Celsius pro Dekade. Nahezu alle Modellklimata erwärmten sich viel schneller als das wirkliche Klima während der letzten 35 Jahre. Quelle: http://climateaudit.org/2013/09/24/two-minutes-to-midnight/. Modelle mit multiplen Läufen haben separate Plotkästen; Modelle mit nur einem einzigen Lauf sind zusammen gruppiert im Plotkasten mit der Bezeichnung ‚singleton‘. Der orangene Plotkasten rechts kombiniert alle Modellläufe zusammen. Die rot gepunktete Linie zeigt die tatsächliche Zunahme der globalen Temperatur während des gleichen Zeitraumes wie der HadCRUT4-Datensatz.

Anstatt dieser aufschlussreichen Graphik zeigte das IPCC dies (Abbildung 1 aus Kasten 9.2):

Häufigkeitsverteilung der Trends der globalen Mitteltemperatur aus 114 CMIP5-Modellläufen.

Modellläufe sind graue Balken für die Perioden (a) 1998 bis 2012, (b) 1984 bis 1998, (c) 1951 bis 2012. Der Vergleich zeigt die Unsicherheits-Bandbreite für den gemessenen Trend pro HadCRUT4-Datensatz (rot, schraffiert) während der gleichen Zeiträume. Aus dem AR 5 des IPCC, Box 9.2, Abbildung 1.

Mit dieser Abbildung versucht das IPCC zu zeigen, dass der gegenwärtige Stillstand mehr damit zu tun hat, dass man das warme El Niño-Jahr 1998 als Startzeitpunkt gewählt hat. Paneel (a) zeigt, dass die CMIP5-Modelle den globalen Temperaturtrend nach HadCRUT4 seit 1998 überschätzen. Allerdings kann man in Paneel (b) erkennen, dass die Modelle dazu tendieren, die Beobachtungen im Zeitraum 1984 bis 1998 zu unterschätzen. Daher lautet das Fazit: Falls man auf die kurzen Perioden von 15 Jahren schaut, sind die Modelle manchmal zu warm und manchmal zu kalt. Paneel (c) zeigt dann, dass die Modelle über längere Zeiträume ganz gut liegen, in diesem Falle 60 Jahre. Das ist nicht überraschend, da die Modelle wahrscheinlich getrimmt worden sind, so dass sie zum Anstieg der globalen Temperatur während der historischen Simulations-Periode passen, der sich am stärksten nach 1950 zeigt. Die Diskrepanz zwischen Modellen und Beobachtungen während der letzten 35 Jahr wird bequemerweise nicht gezeigt. Dieser Zeitraum ist lang genug, um für Klima relevant zu sein.

Eine andere bedeutende Diskrepanz zwischen Modellen und Beobachtungen wurde von Nic Lewis in einem anderen Beitrag auf Climate Audit beschrieben [8]. Hier zeigt Lewis, dass die so genannte Transient Climate Response (TCR), ein mehr politisch relevanter Parameter der Klimasensitivität, in den Modellen deutlich höher ist als die auf den gemessenen Beweisen basierende TCR:

Verteilung der Transient Climate Response in CMIP5-Modellen im AR 5, Tabelle 9.5

Die Höhe der Balken zeigt, wie viele Modelle in Tabelle 9.5 jedes TCR-Niveau darstellen.

Und wieder findet sich im AR 5 keine entsprechende Graphik, sondern nur dieses Statement (Kasten 12.2):

Die Bandbreite der TCR, die aus der beobachteten Erwärmung geschätzt wurde, und die TCR-Bandbreite aus den Modellen passen gut zusammen. Das lässt unsere Sicherheit bei der Abschätzung der Unsicherheiten bei den Projektionen für das 21. Jahrhundert zunehmen“.

Wie kann das stimmen, wenn die mittlere Modell-TCR 40% höher ist als eine auf Messungen basierende beste Schätzung von 1,3°C, und wenn die Hälfte aller Modelle TCR-Werte zeigt, die 50% oder mehr zu hoch liegen? Das IPCC hat diese große Diskrepanz hiermit verschleiert ebenso wie mit einem irreführenden Statement im Langbericht.

Die Modelle überschätzen also die Erwärmung des wirklichen Klimas während der letzten 35 Jahre um 50%. Und die gleichen Modelle weisen ECS- und TCR-Werte auf, die deutlich höher liegen als Schätzungen, die auf Messungen basieren. Diese beiden wichtigen Beobachtungen wurden im AR 5 verschwiegen.

Hat der AR 5 ausreichend die Gründe für den weithin bekannten Stillstand der globalen Temperatur erklärt?

Stephen McIntyre hat detailliert in [9] erklärt, dass das IPCC den Stillstand nicht ernst genug genommen hat, bis es für den AR 5-Prozess zu spät war. Im ersten Entwurf haben sie das Thema ignoriert. In der zweiten Version haben sie ganz gut den Stillstand zur Sprache gebracht und gezeigt, dass die Modelle diesen nicht simulieren. In der Endfassung des AR 5 erschien dann eine ganz neue Graphik, die die Unstimmigkeiten zwischen Modellen und Beobachtungen verschleiert. Diese Graphik enthält fast mit Sicherheit einen Fehler [10]. Man beachte, dass diese Graphik in der Endfassnung niemals irgendwelchen Begutachtern vorgelegt worden ist. Wird das IPCC diesen Fehler einräumen und beseitigen?

Stärken oder schwächen die Schlussfolgerungen des Basisberichtes der physikalischen Wissenschaft, ökonomische Auswirkungen eventueller Maßnahmen zur Verhinderung einer gefährlichen Klimaänderung in Kauf zu nehmen?

Der Anlass, Maßnahmen zu ergreifen, wird definitiv geschwächt, obwohl das IPCC dies nirgendwo zugibt. Es gibt jetzt starke Beweise durch Messungen für eine substantiell geringere Klimasensitivität. Dies bedeutet, dass man in Zukunft deutlich weniger Erwärmung haben wird. Inzwischen hat sich auch herausgestellt, dass Extremwetterereignisse (Hurrikane, Überschwemmungen, Dürren) nicht schlimmer geworden sind. Dies wiederum bedeutet, dass man Geld am besten für Anpassungen an Wetterereignisse ausgibt, d. h. man hilft den Regionen, die anfällig für Extremwetter sind, damit sie in Zukunft besser auf das nächste Ereignis vorbereitet sind, dass früher oder später in jedem Falle auftreten wird.

Den Klimawandel abzuschwächen ist weniger dringend, und das bedeutet, dass wir uns als Gesellschaft darauf konzentrieren sollten, neue Technologien zu entwickeln, die die Dekarbonisierung mit niedrigeren Kosten ermöglicht, als sie die derzeit verfügbaren Optionen wie Wind und Solar bieten.

[1] http://www.pbl.nl/en/news/newsitems/2012/pbl-knmi-and-crok-launch-climate-discussion-platform-climatedialogueorg

[2] http://rogerpielkejr.blogspot.nl/2013/10/coverage-of-extreme-events-in-ipcc-ar5.html

[3] Cohn T.A., Lins H.F. (2005), “Nature’s style: naturally trendy”, Geophysical Research Letters, 32, L23402; doi:10.1029/2005GL024476

[4] http://www.informath.org/AR5stat.pdf

[5] http://www.publications.parliament.uk/pa/ld201314/ldhansrd/text/131203w0001.htm#13120366000164

[6] http://www.climatedialogue.org/long-term-persistence-and-trend-significance/

[7] http://climateaudit.org/2013/09/24/two-minutes-to-midnight/

[8] http://climateaudit.org/2013/12/09/does-the-observational-evidence-in-ar5-support-itsthe-cmip5-models-tcr-ranges/

[9] http://climateaudit.org/2013/09/24/two-minutes-to-midnight/ and

http://climateaudit.org/2013/09/30/ipcc-disappears-the-discrepancy/

[10] http://climateaudit.org/2013/09/30/ipcc-disappears-the-discrepancy/

Link: http://www.staatvanhetklimaat.nl/2013/12/13/submission-to-ar5-inquiry/

Übersetzt von Chris Frey EIKE




Der große Biotreibstoff-Skandal

Bild rechts: Eine Palmölplantage in Indonesien: Man schätzt, dass etwa 30 Millionen Menschen hungern als direkte Folge von Biotreibstoffen. Photo: EPA.

Das Thema Biotreibstoffe ist ein perfektes Beispiel für gute Absichten, die zu furchtbaren Ergebnisse führen. Mehr noch, es ist eine Lektion, wie mächtige pseudo-grüne Interessen eine schlechte Politik nachhaltig beeinflussen. Hoffentlich wird es jetzt auch zu einem Beispiel dafür, wie wieder Vernunft in die spaltende Klimadebatte einzieht.

Die Grünen haben Biotreibstoffe anfangs bevorzugt als Waffe gegen die globale Erwärmung, und zwar mit der Behauptung, dass sie viel weniger CO2 emittieren würden als fossile Alternativen. Während die Pflanzen bei ihrem Wachstum CO2 aufnehmen, entweicht bei der Verbrennung genauso viel CO2 wieder in die Luft, was zu Null Gesamtemissionen führt.

Aber der Traum wurde zum Alptraum, als Umweltaktivisten sich dagegen gewandt haben. Selbst Al Gore hat behauptet, dass die Biotreibstoffe ein „Fehler“ seien.

Studien zeigen, dass Land, das zum Anbau von Energiepflanzen genutzt wird, dazu führt, dass Land für Ackerbau anderswo erschlossen wird – oftmals in Wäldern – was zu substantiellen CO2-Emissionen führt. Und die Verarbeitung emittiert ebenfalls CO2, was die Vorteile drastisch reduziert.

In der EU haben auf Ernten basierende Biotreibstoffe etwa 5 Prozent des Treibstoffs im Transportwesen ersetzt. Falls die Biotreibstoffe wirklich emissionsfrei wären, würde das die Emissionen um 5% reduzieren – eine Gesamtmenge von etwa 59 Millionen Tonnen CO2 in jedem Jahr bis 2020.

Aber eine Studie des International Institute for Sustainable Development aus diesem Jahr 2013 zeigt, dass Entwaldung, Düngemittel und fossile Treibstoffe, die bei der Erzeugung von Biotreibstoffen gebraucht werden, etwa 54 Millionen Tonnen CO2 emittieren würden. Volle 92 Prozent des „eingesparten“ CO2 werden einfach anderswo emittiert. Für Biotreibstoffe alleine bedeutet dies im Endeffekt eine Zunahme der Emissionen.

Folglich würden sich die Einsparungen in der EU minimale 5 Millionen Tonnen sein oder etwa ein Zehntel von einem Prozent der europäischen Emissionen insgesamt. Selbst über ein Jahrhundert wären die Auswirkungen dieser Einsparung trivial. Lässt man das in ein Standard-Klimamodell eingehen, wird dieses den globalen Temperaturanstieg bis zum Jahr 2100 um gerade mal 58 Stunden verzögern.

Und die Kosten für die Steuerzahler belaufen sich auf etwa 6 Milliarden Pfund pro Jahr; jede Tonne eingesparten CO2 kostet etwa 1200 Pfund. Das Zertifikate-Handelssystem der EU ergibt geschätzt Kosten von weniger als 4 Pfund für jede vermiedene Tonne. Das heißt, wir zahlen 300 mal zu viel.

Mehr noch, die besten wirtschaftlichen Schätzungen zeigen, dass die Vermeidung von einer Tonne CO2 der Welt Einsparungen hinsichtlich von Umweltschäden von etwa 4 Pfund bringen würde. Für jedes für Biotreibstoffe ausgegebenes Pfund vermeiden wir für einen Viertelpenny Klimaschäden – ein extrem ineffizienter Weg, der Welt zu helfen.

Traurigerweise wird es noch schlimmer werden. Ursprünglich wollte die EU dass volle Zehn-Prozent-Ziel erneuerbarer Energie für das Transportwesen bis zum Jahr 2020 erreichen, eine Verdoppelung der heutigen Zahl. Wenn jetzt jedermann erneut darüber nachdenkt, lautet der Vorschlag, dies auf 7 Prozent zu reduzieren.

Aber das Scheitern des Ministerrates, selbst diese moderate Reduktion einzuführen, hinterlässt uns weiterhin die 10 Prozent, was die Kosten für den Steuerzahler in der EU verdoppeln  könnte auf etwa 13,8 Milliarden Euro pro Jahr. Verwendet man zehn Prozent des Treibstoffes für Transporte, würde dies die EU-Emissionen um winzige 9 Millionen Tonnen reduzieren und zu einer Kostensteigerung pro eingesparter Tonne von 1260 Pfund führen. Die Gesamtauswirkung auf die Temperatur bis zum Jahr 2100 würde lediglich 0,00025°C ausmachen.

Schlimmerweise sind die gewaltigen Kosten und winzigen Vorteile nur ein kleiner Teil dessen, was bei den Biotreibstoffen nicht stimmt. In fast jeder Hinsicht sind sie eine Katastrophe. Die gegenwärtigen EU-Anbauflächen für Biotreibstoff sind größer als Belgien, und eine ähnlich große Fläche wird für die Importe in die EU international benötigt. Der Biotreibstoff-Ackerbau verbraucht so viel Wasser wie die Flüsse Seine und Elbe zusammen mit sich führen.

Außerdem lassen die Landwirte schnell wachsende Bäume wie Pappeln, Weiden und Eukalyptusbäume wachsen. Unglücklicherweise emittieren diese drei eine Chemikalie namens Isopren, ein Luftverschmutzer, der die menschliche Gesundheit beeinträchtigen kann. Einer Studie der Lancaster University zufolge wird bei zunehmendem Ackerbau, um das EU-Ziel der 10 Prozent zu erreichen, die Luftverschmutzung zunehmen, was zu zusätzlich 1400 Todesopfern und Kosten in Höhe von 5,2 Milliarden jährlich führt.

Aber am wichtigsten ist der moralische Aspekt. Die Tatsache, dass man Land verbraucht, um Treibstoff anstatt Nahrungsmittel zu erzeugen, ist eine Scheußlichkeit in einer Welt, in der immer noch fast eine Milliarde Menschen hungern. Man schätzt, dass europäische Biotreibstoffe inzwischen ausreichend Landfläche verbrauchen, um 100 Millionen Menschen zu ernähren, und das Programm der USA verbraucht sogar noch mehr Land.

Obwohl Biotreibstoffe nicht der einzige Grund für steigende Nahrungsmittelpreise während der vergangenen Jahre waren, waren sie es zumindest zum größten Teil. Es ist für arme Leute schwierig, Nahrungsmittel zu kaufen, wenn westliche Gutmenschen die Preise mit stark subventionierten Biotreibstoffen in die Höhe treiben. Und wenn wir den Zug der Biotreibstoffe nicht anhalten, werden Modellrechnungen zufolge bis zum Jahr 2020 weitere 40 bis 135 Millionen Menschen hungern.

Warum gibt es immer noch Biotreibstoffe? Die einfache Antwort lautet: Big Green. Zehnermilliarden Pfund an Subventionen und Steuervorteilen kaufen eine furchtbare Menge begehrlicher Interessen. Al Gore sagte: „Es ist sehr schwierig, wenn ein solches Programm erst einmal eingeführt worden ist, mit den Lobbygruppen umzugehen, die dieses Programm am laufen halten“. Er räumt ein, dass sein Antreiben für zunehmenden Gebrauch von Biotreibstoffen hauptsächlich den Farmern in seinem Heimatstaat geschuldet war, denen dies sehr geholfen hat. Für einen Präsidentschaftsbewerber ist das unabdingbar.

Die Kosten der globalen Klimapolitik belaufen sich auf etwa 1 Milliarde Dollar jeden Tag. Windturbinen kosten zehnmal soviel wie die geschätzten Vorteile hinsichtlich Emissions-Reduktionen einbringen, und Solarpaneele kosten fast 100 mal so viel. Und doch gibt es mit den Ausgaben für diese Technologien in Höhe von 136 Milliarden Pfund pro Jahr viele Interessengruppen, die die Quelle weiter sprudeln lassen.

Aber Opposition gegen das zügellose Ausufern der Biotreibstoffe zeigt auch den Weg zu einer rationaleren Klimapolitik. Falls wir die weitere Ausbreitung von Biotreibstoffen verhindern können, können wir Menschenleben retten, Geld sparen und damit anfangen, bessere Wege der Abhilfe zu finden. Dieser könnte darin bestehen, die Landwirtschaft produktiver zu machen, so dass mehr Menschen preiswert ernährt werden können, während der Raum für wild lebende Spezies wieder wächst.

Für jetzt bleibt nur, nach einem Stopp der unmoralischen Biotreibstoff-Verrücktheit zu rufen. Nicht nur durch das zahme Reduzieren von Zielen, sondern durch das komplette Einstellen der Produktion dieser Treibstoffe.

Bjørn Lomborg ist Direktor des Copenhagen Consensus Centre. Sein neues Buch trägt den Titel ‚How Much Have Global Problems Cost the World? A Scorecard from 1900 to 2050’

Link: http://www.telegraph.co.uk/earth/energy/biofuels/10520736/The-great-biofuels-scandal.html

Übersetzt von Chris Frey EIKE




Ein Netzwerk ,grüner’ Politiker, Industriemagnaten und führender Broker, die…

Die Mail on Sunday enthüllt heute das außerordentliche Netzwerk politischer und finanzieller Interessen, das durch grüne Abgaben mittels der Stromrechnungen für alle Haushalte Dutzende Öko-Millionäre erzeugt. Eine dreimonatige Untersuchung zeigt, dass einige sehr laute Campaigner, die verlangen, dass die Verbraucher den kolossalen Preis des Übergangs zu erneuerbarer Energie zahlen sollen, ebenfalls durch ihre Bemühungen unermesslich reich werden.

Bild rechts: Lord Deben (John Selwyn Gummer) ist Vorsitzender des Committee on Climate Change.

Untersuchungen dieser Zeitung haben enthüllt:

● Vier der neun Mitglieder im Climate Change Committee, dem offiziellen Wachhund, der die Politik grüner Energie diktiert, werden – oder wurden bis vor kurzem – von Firmen bezahlt, die von den Entscheidungen des Committee profitieren.

● Eine neue Palette lukrativer grüner Investmentfonds, geschaffen, um die Windkraft voranzubringen, ist in Wirklichkeit ein Mittel zur Erhebung grüner Abgaben, die von ohnehin schon arg gebeutelten Verbrauchern gezahlt und an Investoren und Finanziers weiter geleitet werden sollen.

● 3,8 Milliarden Pfund aus Geldern der Steuerzahler finanzieren die neue Green Investment Bank, ins Leben gerufen vom Department of Business and Skills. In eine der größten Transaktionen ist der Energieriese SSE involviert, der Windparks an einen der neuen grünen Fonds verkauft, Greencoat Wind. Der Vorsitzende der Green Investment Bank Lord Smith of Kelvin ist gleichzeitig Vorsitzender bei SSE. Die Bank sagt, dass dies ‚Erfahrung zur Verfügung stellt‘, um es dem BIS [=Business Information System] zu ermöglichen, einen Anteil von 50 Millionen Pfund bei Greencoat zu erwerben, was wiederum SSE beim Verkauf hilft.

● Der geschäftsführende Direktor der gleichen Bank, Shaun Kingsbury, ist einer der höchst bezahlten Mitarbeiter im Sektor Öffentlichkeit. Sein Gehalt in Höhe von 25.000 Pfund ist mehr als doppelt so hoch wie das des Premierministers.

● Firmen, die Lobbyarbeit für Erneuerbare betreiben, können den Zugang zu Politikern an wichtigen Schaltstallen fast garantieren, weil deren Mitarbeiterstab durch einige ehemalige sehr hohe Funktionäre verstärkt worden ist – ein schlagendes Beispiel der ‚Drehtür‘ von Whitehall.

Unter den erstaunlichsten Vorgängen, die durch unsere Recherchen ans Licht kamen, ist die Art und Weise, mit der eifrigste Befürworter radikaler politischer Maßnahmen zur Abschwächung der globalen Erwärmung gewaltige Summen Geldes durch ihre Arbeit ergattern. Hier folgen einige der Schlüsselmethoden, mit denen die neue Bande von Fat-Cat-Ökokraten vorgeht:

Ian Marchant ist Chef von Infinis – inzwischen der drittgrößte Erzeuger erneuerbarer Energie in unserem Land, mit einem Marktanteil von 7,3 Prozent. Er erhielt ein ‚Begrüßungsgeld‘ in Form von Anteilen im Wert von 322.000 Pfund.

Die Geißel der ‚Leugner’ … zahlte im vorigen Jahr 2,6 Millionen Pfund durch seine Firma für erneuerbare Energie. Im Jahre 2009 gründete Marchant die Scotland 2020 Climate Group, in der schottische Politiker, grüne Aktivisten und Geschäftsleute zusammen sitzen, um das neue Ziel Schottlands hinsichtlich seiner CO2-Emissionen zu unterstützen.

Auf dem jährlichen prestigeträchtigen öffentlichen Vortrag im September haben die Redner wissenschaftliche Skeptiker als ‚Leugner‘ verunglimpft.

Marchant, der Vorsitzende der Gruppe, sagte, dass sofort Maßnahmen ergriffen werden müssen, um Extremwetter zu stoppen, und brachte ein ungewöhnliches Argument hervor: „Die zunehmende Schicht von Treibhausgasen bedeutet, dass wir mehr Energie in der Atmosphäre zurückhalten. Und wenn man wissen will, was passiert, wenn man mehr Energie in ein volatiles System steckt, dann versuche man, einem Kleinkind etwas Irn-Bru‘* zu geben“.

[*Irn-Bru, eine Art Softdrink einer Firma namens A. G. Barr {Quelle: hier}. Ich habe diese Anspielung nicht verstanden. A. d. Übers.]

Bis Juni war er leitender Direktor von SSE, dem größten Betreiber von Erneuerbaren in UK. Dafür hatte man ihm in seinem vorigen Finanzjahr 2,6 Millionen Pfund gezahlt; im Finanzjahr zuvor 2011-12 waren es 1,4 Millionen Pfund. Er hat seinen Posten gewechselt und ist inzwischen Vorsitzender von Infinis – inzwischen der drittgrößte Erzeuger erneuerbarer Energie des Landes mit 7,3 Prozent Marktanteil.

Er erhielt ein ‚Begrüßungsgeld’ in Höhe von 322.000 Pfund in Form von Anteilen. Im vorigen Monat wurden Infinis-Anteile in Umlauf gebracht, was Einnahmen in Höhe von 780 Millionen Pfund erbrachte. In der Angebotsbroschüre wurde behauptet, dass es eine ungewöhnlich sichere Investition sei – einfach weil die von den Verbrauchern gezahlten Abgaben auf Erneuerbare durch die Regierung erzwungen worden sind.

In der Broschüre hieß es weiter, dass über die Hälfte des Umsatzes von Infinis direkt aus den Subventionen für Erneuerbare stammt. Die grünen Abgaben in Form von Aufschlägen auf die Stromrechnungen der Verbraucher werden als ‚stabile, inflationsunabhängige Umsatzströme, gestützt durch die Gesetzgebung zur Förderung erneuerbarer Energie‘ beschrieben. Auf dieser Basis wird eine Anfangsdividende in Höhe von 55 Millionen Pfund versprochen, eine Summe, die jedes Jahr steigen würde.

Eine Sprecherin von Infinis lehnte es ab, Marchants Doppelrolle zu kommentieren. Sie bestätigte lediglich sein Verdienst in Höhe von 250.000 Pfund pro Jahr als Vorsitzender in Teilzeitarbeit (zwei Tage pro Woche).

Der Architekt grüner Abgaben, der ein Solar-Anlageprojekt im Wert von 1,2 Milliarden Pfund empfohlen hat.

Lord Stern ist der Professor an der London School of Economics, der von Tony Blair beauftragt wurde, seinen Halbjahresbericht 2006 zum Thema Klimaänderung und Ökonomie zu erstellen. Dieser war das Fundament vieler politischer Maßnahmen, die heute gültig sind. Er ist Mitglied des Beraterstabes von Abengoa, einem riesigen spanischen Unternehmen bzgl. Erneuerbarer. Sein größtes Projekt, ein Solarprojekt in Arizona, kostet 1,2 Milliarden Pfund.

Weder der Sprecher von Stern noch Abengoa wollten sagen, wie viel er verdient.

Lord Stern, Architekt grüner Abgaben

Sein Unternehmen NS Economics ist ein Zugpferd für sein Einkommen, und im vorigen Jahr hat er einen Umsatz von 189.000 Pfund angegeben nach nur einem Jahr des Handels.

Sterns Agent bei Celebrity Speakers sagte, dass er für Vorträge über 1 Stunde ein Basishonorar von 50.000 Pfund einstreicht – mit Flügen erster Klasse zu einer Konferenz in den USA plus aller Extraausgaben. Sterns Sprecher bei LSE sagte, dass er all seine Interessen öffentlich mache und dass ‚sein Ruf auf seinen hoch qualifizierten unabhängigen Forschungen und Analysen basiert‘.

Der Boss des grünen Trusts, dessen Unternehmen immer reicher wird – jedes Mal, wenn die Energiepreise steigen

Eine der größten Neuschöpfungen eines speziellen Investmenttrusts im Bereich Erneuerbare ist die Guernsey eingetragene Firma TRIG (The Renewables Infrastructure Group).

Die Vorsitzende ist Helen Mahy, einst Unternehmens-Sekretärin und General-Beraterin des National Grid. TRIG kauft zeitnah neue Erneuerbaren-Kraftwerke von ihren Betreibern zu Preisen, die den Betreibern einen ordentlichen Profit garantiert – typischerweise etwa eineinhalb mal so viel wie die Kosten für Entwicklung und Errichtung. Aber weil die Subventionen so hoch sind, streicht jeder Gewinne ein.

TRIG ging im August an die Börse und nahm dadurch 300 Millionen Pfund ein. Sein Werbeprospekt versprach Investoren eine Sofort-Dividende von 5,5 Prozent, die mit der Inflation steigen würde.

Wie Infinis sagte auch TRIG, dass sein Einkommen infolge der Politik der Regierung ‚stabil‘ sei: Tarife und Abgaben würden erstaunliche 63 Prozent seines Umsatzes ausmachen.

Längerfristig, hieß es in dem Prospekt weiter, würden Investoren auch von den stark steigenden Strompreisen profitieren. Angenommen wird ein Anstieg um 60 Prozent während der nächsten 20 Jahre.

Der TRIG-Prospekt wurde für die Mail on Sunday von dem Finanz- und Energieexperten Rupert Darwall analysiert. „TRIG wurde gegründet, damit Investoren Zugang zu den Subventionen für Erneuerbare haben“, sagte er. „Sie bezahlen ihre Investoren auf der Grundlage, dass die Regierung die Strompreise weiterhin in die Höhe treibt. Während es diesen Leuten immer besser geht, geht es den Verbrauchern immer schlechter“.

Eine Sprecherin von TRIG lehnte es ab, sich dazu zu äußern.

Grüne Unternehmen melken Subventionen für Windparks in Höhe von 260 Millionen Pfund… und Sie zahlen dafür

Darwall untersuchte auch Greencoat Wind, das im Februar an die Börse gegangen war mit einem Wert von 260 Millionen Pfund. Das Unternehmen kauft Windparks zum Vorzugspreis und melkt die Subventionen, um seinen Profit zu steigern und Dividenden auszuschütten – in diesem Falle sechs Prozent.

Einem vertraulichen Bericht für Barclays Bank zufolge profitierte Greencoat durch die Investitionen in Windenergie von den ‚attraktivsten Marktbedingungen in Westeuropa‘ – das heißt, wie es in dem Dokument weiter steht: ‚Wir erwarten, dass die Energiepreise in UK immer rascher steigen’.

Barclays zufolge können Investoren eine extrem attraktive Rendite von 9,1 Prozent jährlich erwarten, selbst nach Zahlung aller Gebühren. Grund hierfür: ‚die Hälfte der Einnahmen stammt von weitgehend festgesetzten Anreizen der Regierung‘ – mit anderen Worten, durch Abgaben, die den Stromrechnungen hinzugefügt werden.

Der Bericht zeigte auch, dass mit der erzwungenen Schließung von Kohlekraftwerken ‚die Versorgung rapide sinken wird, die Nachfrage aber nicht … wir betrachten große Energiepreissteigerungen als unvermeidlich‘.

Der Bericht sagt eine Zunahme um etwa 40 Prozent bis zum Jahr 2017 voraus: schlecht für Verbraucher, aber großartig für die Greencoat-Investoren.

…und wie die grünen Interessengruppen zusammen arbeiten – um ihre eigenen Taschen zu füllen

Greencoat hat nicht nur Windparks im Wert von 140 Millionen Pfund von SSE gekauft, sondern SSE hält auch einen Anteil von 43% bei Greencoat.

Die Green Investment Bank half dabei, Greencoats Börsengang zu arrangieren, und sein Vorsitzender, Lord Smith, sitzt ebenfalls im Direktorium von SSE. Unter den Direktoren sind auch David Nish von Standard Life, der ebenfalls substantielle Anteile erneuerbarer Energie hält, und Dame Julia King, Mitglied des Climate Change Committee der Regierung und dort verantwortlich für das Erreichen von Emissionszielen.

Ein Sprecher der Bank teilte mit, man habe strikte Regeln und Verfahren, um jede Art von Interessenkonflikt auszuschließen.

Was Greencoat betrifft, unter dessen Direktoren findet sich auch William Rickett, einst Generaldirektor am Department of Energy and Climate Change.

Abbildung: Dame Julia King, 59.

Wie die Hälfte des Climate Change Committee auf der Gehaltsliste der grünen Industrie steht

Keine Institution spielt eine größere Rolle bei Diktatur grüner Energiepolitik als das Committee on Climate Change (CCC) – eine von Ed Milliband mit seinem Gesetz zur Klimaänderung [Climate Change Act] aus dem Jahr 2008 ins Leben gerufene Körperschaft, als er Energieminister von Labour war.

Die Mail on Sunday hat bei ihren Recherchen festgestellt, dass vier der neun Mitglieder bis vor Kurzem oder auch jetzt noch finanzielle Interessen bei Unternehmen haben, die von deren Vorschriften profitieren.

Vorige Woche hat das CCC die Regierung gedrängt, nicht deren ‚viertes Kohlenstoff-Budget‘ zu verwässern. Dieses schreibt UK verbindlich vor, die Kohlendioxid-Emissionen des Niveaus von 1990 bis zum Jahr 2025 zu halbieren. Das Budget schreibt auch vor, dass bis zum Jahr 2030 das pro Einheit Strom emittierte CO2 weniger als zehn Prozent des gegenwärtigen Niveaus ausmachen darf – ein Schnitt um über 90 Prozent.

Der Energie-Analyst Peter Atherton von Liberum Capital sagt, dass dies Investitionen zwischen 361 und 393 Milliarden Pfund erfordern würde. Eine solche Politik würde auch Emissionen der Stromindustrie um zwei Drittel kürzen.

Erstaunlicherweise ist fast die Hälfte aller CCC-Mitglieder, deren Entscheidungen jeden UK-Bürger und die gesamte Wirtschaft betreffen, von Firmen mit grünen Interessen bezahlt worden. Sie alle erhalten 800 Pfund pro Tag für ihre Teilzeitarbeit beim CCC, außer Lord Deben, der 1000 Pfund erhält.

Dame Julia King, 59, erhält als eine Direktorin der Green Investment Bank 30.000 Pfund pro Jahr, zusätzlich zu ihrem Gehalt in Höhe von 272.000 Pfund als Vizekanzler der Aston University. Die Bank, von den Steuerzahlern mit 3,8 Milliarden Pfund gefördert, hat Investitionen in Offshore-Windparks als ‚oberste Priorität‘ bezeichnet. Je mehr die Vorschriften des CCC erneuerbare Subventionen begünstigen, desto besser wird es der Bank wirtschaftlich gehen. Sie lebt in einem Haus in Cambridge, das sie im Jahre 2002 für 740.000 Pfund gekauft hat.

Lord May of Oxford, ein ehemaliger wissenschaftlicher Chefberater der Regierung, erhält eine nicht genannte Summe als Mitglied des ‚Sustainability Board‘ [etwa: Nachhaltigkeits-Gremium] von dem globalen Bankriesen HSBC. [HSBC = Hong Kong Shanghai Banking Corporation]. In dem Bereich der Website dieser Bank, der sich mit ‚Nachhaltigkeit‘ befasst, listet die Bank ihre vier größten Gelegenheiten in der grünen Industrie.

An oberster Stelle dieser Liste steht ‚Energieerzeugung mit geringem Kohlenstoffausstoß, also durch Biomasse, Kernkraft, Solar und Wind – alle direkt betroffen von den Erlassen des CCC.

Lord May, 71, parteiloser Adliger, ist ein  Atheist, aber sein fester Glaube, dass die Klimaänderung gefährlicher ist als ein Atomkrieg, hat ihn zu dem Vorschlag getrieben, dass religiöse Führer die Menschen dazu überreden sollten, die grüne Sache zu unterstützen. ‚Vielleicht braucht man Religion‘, sagte er 2009, ‚ein übernatürlicher Strafrichter könnte Teil der Lösung sein‘.

Abbildung: Früherer Berater: Lord May wird jetzt als ein Mitglied des Sustainability Board der HSBC bezahlt.

Wie diese Zeitung im Januar enthüllt hatte, war Lord Deben, 74, bis vor Kurzem Vorsitzender von Veolia Water UK PLC, der Windparks an das nationale Netz anschließt.

Dem Energieexperten Prof. Gordon Hughes von der Edinburgh University zufolge bedeutet der Schub in Richtung Erneuerbare, dass bis zum Jahr 2020 weitere Investitionen in das Netz in Höhe von 25 Milliarden Pfund erforderlich sind. Deben hat es abgelehnt zu sagen, wie viel Veolia ihm gezahlt hat. Dem Unternehmen zufolge ist er am 12. November zurückgetreten.

Seine Sprecherin sagte, dass der Grund hierfür der Zusammenschluss der Firma mit einer Schwesterfirma war.

Er bleibt Vorsitzender seiner Familien-Beratungsfirma Sancroft, die Unternehmen hinsichtlich ‚globaler Umweltpolitik‘ berät. Als er seinen Posten beim CCC angenommen hatte, trat er als Vorsitzender des Offshore-Windparks Forewinds zurück.

Sam Fankhauser, 49, Professor am Grantham Institute der London School of Economics, wird von dem radikalen grünen Milliardär Jeremy Grantham bezahlt – der generöseste Geldgeber für Gruppen grüner Aktivisten.

Prof. Fankhauser räumt ein, dass er eine nicht genannte Summe als Direktor von Vivid Economics erhält. Diese Firma bieten Geschäftskunden Beratung an, wie man auf grüne politische Maßnahmen reagieren soll – Maßnahmen wie die, die vom CCC beschlossen werden.

Prof Sam Fankhauser.

Die Firma beschreibt sich selbst als ein ‚Gedanken-Führer‘ der ‚Ökonomie der Klimaänderung‘. Sie fügt hinzu, dass sie ‚Einsichten anbietet, die anderswo nicht zu haben sind. Das erlaubt es uns, die Auswirkungen der Politik auf Preise (und) Profite zu modellieren‘.

Andere CCC-Mitglieder haben ihre Laufbahn als Akademiker in Bereichen zugebracht, die helfen, grüne Kampagnen mit Treibstoff zu versorgen.

Sir Brian Hoskins, ein scharfer Kritiker der Klimaskeptiker, ist Klimatologe am Imperial College, London, wo er Direktor eines anderen, von Grantham finanzierten Institutes ist.

Jim Skea arbeitet auch bei Imperial und ist dort Professor für nachhaltige Energie. Er war Gründungsdirektor des Low Carbon Vehicle Project.

Eine CCC-Sprecherin sagte, dass es ‚rigorose Untersuchungen und Tests gegeben habe um sicherzustellen, dass die Mitglieder des Komitees nicht in Interessenkonflikte geraten‘.

Link: http://www.dailymail.co.uk/news/article-2523726/Web-green-politicians-tycoons-power-brokers-help-benefit-billions-raised-bills.html

Übersetzt von Chris Frey EIKE




Die geheime Gesellschaft der Warmisten

Bild rechts: Lord Lawson, Gegenstand einer bizarren, persönlichen Attacke als „Klimaleugner“ durch Sir Paul Nurse, dem Präsidenten der Royal Society. Foto: Andrew Crowley, The Telegraph

In der „Stunde der Wahrheit” [Spectator Diary] dieser Woche hat Lord Nigel Lawson, Leiter der Global Warming Policy Foundation GWPF, teilweise den Schleier von einem seltsamen „geheimen Treffen“ gezogen, das im House of Lords stattgefunden hat. Getroffen hatten sich ein Team von der GWPF und sechs Wissenschaftler von der Royal Society. Dies war Folge einer bizarren persönlichen Attacke auf Lord Lawson als „Klimaleugner“ durch den Präsidenten der Royal Society Sir Paul Nurse an einer australischen Universität – ein Genetiker, der öffentlich kundgetan hat, dass er von Klimawissenschaft fast nichts versteht, der aber glaubt, dass ein steigender CO2-Gehalt die Atmosphäre in eine katastrophale Erwärmung führt. Nachdem Lawson Nurse darauf hingewiesen hatte, dass sein Angriff schlicht und ergreifend falsch war, hatte dieser, Nurse, angeboten, einige seiner „Experten“ zu entsenden, um die GWPF direkt auf die Linie der Wissenschaft zu bringen.

Die Gesellschaft bestand darauf, dieses Treffen im Geheimen abzuhalten; nicht einmal die Namen der Teilnehmer sollten bekannt werden. Etwas überraschend war vielleicht das Kaliber des wissenschaftlichen Teams, das die GWPF zusammenstellen konnte, darunter drei Mitglieder der Royal Society selbst sowie Dr. Richard Lindzen, der berühmteste Atmosphären-Wissenschaftler der Welt. Obwohl die GWPF im Allgemeinen sorgfältig darauf geachtet hatte, der „Chatham House Vorschrift“ zu folgen, die die Gesellschaft vorgegeben hatte, können wir uns ein wenig zusammen reimen, wie es gelaufen ist.

Nurses Team wurde von Sir Brian Hoskins vom Grantham Institute geleitet. Er sitzt auch im Komitee zur Klimaänderung, das die Regierung politisch berät. Er proklamierte all die bekannten Argumente der Orthodoxie einschließlich zahlreicher „Hockeyschläger“ um zu belegen, wie die Temperatur inzwischen auf ein seit tausenden von Jahren nicht gesehenes Niveau gestiegen ist. Sie warfen einige der Angst erzeugenden Geschichten der Warmisten ein, um den Beweisen zu begegnen, dass sich die Temperaturen seit 15 Jahren geweigert haben, entsprechend den Vorhersagen ihrer Modelle zu steigen. Darunter waren „die Versauerung der Ozeane“ und eine dramatische Zunahme von „Extremwetterereignissen“. (Keine dieser Behauptungen ist zutreffend).

Ein Teilnehmer hat es so ausgedrückt: „Es war, als ob man die Mitglieder eines Kultes angesprochen hat“. Was das GWPF-Team im Besonderen getroffen hat, war die Ablehnung ihrer Gegner, über die politischen Implikationen ihres Glaubens zu diskutieren, obwohl Hoskins ein führendes Mitglied des „unabhängigen“ Komitees ist, das die Regierung hinsichtlich ihrer zunehmend katastrophalen und nutzlosen „Low Carbon“-Energiepolitik berät. Kurz gesagt, das Treffen schien ein perfektes Beispiel zu sein für den Schlamassel, in dem wir stecken, wo die offiziell anerkannten Wissenschaftler, die unsere Politiker beraten, sich ihrer Sache so sicher sind, dass es unmöglich ist, irgendeinen ernsthaften Dialog mit ihnen zu führen.

Im Original folgen jetzt noch übergangslos drei Absätze, in denen es um die Iran-Problematik geht, die aber mit Klima oder Energie absolut nichts zu tun haben. Auf deren Übersetzung wird daher hier verzichtet. A. d. Übers.

Link: http://www.telegraph.co.uk/comment/columnists/christopherbooker/10485309/The-secret-society-of-warmists.html

Übersetzt von Chris Frey EIKE




Neue Kern-Reaktorkonzepte in Entwicklung – Small Modular Reactor (SMR) aus energiewirtschaftlicher Sicht. Teil 2 Leichtwasserreaktoren

0 0 1 2969 17791 Management Consult 269 54 20706 14.0 Print 0 2 false false false DE JA X-NONE

http://www.nukeklaus.de/home/smr-teil-2-leichtwasserreaktoren/

SMR Teil 2 — Leichtwasserreaktoren

Veröffentlicht am 17.12.2013

Leichtwasserreaktoren haben in den letzten zwanzig Jahren täglich mehr Energie produziert, als Saudi Arabien Öl fördert. Sie sind die Arbeitspferde der Energieversorger. Kein anders Reaktorkonzept konnte bisher dagegen antreten.

Sieger der ersten Runde des Förderungsprogramm des Department of Energy (DoE) war Babcock & Wilcox (B&W) mit seinem mPower Konzept, zusammen mit Bechtel und Tennessee Valley Authority. Sicherlich kein Zufall, sind doch (fast) alle kommerziellen Reaktoren Leichtwasserreaktoren und B&W ist der Hoflieferant der US-Navy — hat also jahrzehntelange Erfahrung im Bau kleiner Druckwasserreaktoren.

Die Gruppe der kleinen Druckwasserreaktoren

Bei konventionellen Druckwasserreaktoren sind um das "nukleare Herz", dem Reaktordruckgefäß, die Dampferzeuger (2 bis 4 Stück), der Druckhalter und die Hauptkühlmittelpumpen in einer Ebene gruppiert. Diese Baugruppen sind alle mit dem eigentlichen Reaktor durch dicke und kompliziert geformte Rohrleitungen verbunden. Eine solche Konstruktion erfordert langwierige und kostspielige Montagearbeiten unter den erschwerten Bedingungen einer Baustelle. Die vielen Rohrleitungen bleiben für die gesamte Lebensdauer des Kraftwerks "Schwachstellen", die regelmäßig gewartet und geprüft werden müssen. Der gesamte Raum muß in einem Containment (Stahlbehälter aus zentimeterdicken Platten) und einer Stahlbetonhülle (meterdick, z. B. gegen Flugzeugabstürze) eingeschlossen werden.

Bei einem Small Modular Reaktor (SMR) stapelt man alle erforderlichen Komponenten vertikal übereinander und packt sie alle zusammen in einen Druckbehälter. Dadurch entfallen die vielen Rohrleitungen und Ventile zu ihrer Verbindung. Was es gar nicht gibt, kann auch nicht kaputt gehen. Der "größte — im Sinne eines Auslegungskriteriums — anzunehmende Unfall" (GAU, oft zitiert und kaum verstanden), der Verlust des Kühlmittels, wird weniger wahrscheinlich und läßt sich einfacher bekämpfen. Allerdings sind bei dieser "integrierten Bauweise" die Größen der einzelnen Komponenten begrenzt, will man noch eine transportierbare Gesamteinheit haben. Will man ein Kraftwerk mit heute üblicher Leistung bauen, muß man daher mehrere solcher Einheiten "modular" an einem Standort errichten.

Geht man von diesem Konstruktionsprinzip aus, erhält man ein röhrenförmiges (kleiner Durchmesser, große Länge) Gebilde. Die Länge — als Bauhöhe umgesetzt — läßt sich hervorragend für passive Sicherheitskonzepte nutzen. Die schlanke Bauweise erlaubt es, den kompletten Reaktor in eine Grube zu versenken: Durch die unterirdische Bauweise hat man einen hervorragenden Schutz gegen alle Einwirkungen von außen (EVA) gewonnen.

Das Grundprinzip, der Anordnung übereinander, eint diese Gruppe. Gleichwohl, sind im Detail eine Menge Variationen möglich und vielleicht sogar nötig. So meldete allein nuSkale diesen Monat voller Stolz, daß sie über 100 verschiedene Patente in 17 Ländern für ihren Reaktor angemeldet haben. Inzwischen dürften die SMR-Patente in die Tausende gehen. Nach einer sterbenden Industrie, sieht das jedenfalls nicht aus.

Das mPower Konzept

Das "Nuclear Steam Supply System" (NSSS) von Babcock & Wilcox (B&W) ist besonders schlank geraten: Es hat eine Höhe von über 25 m bei einem Durchmesser von 4 m und wiegt 570 (ohne Brennstoff) bzw. 650 to (mit Brennstoff). Damit soll es in den USA noch auf dem Schienenweg transportierbar sein. Seine Wärmeleistung beträgt 530 MW und seine elektrische Leistung 155 MWe (mit Luftkondensator) oder 180 MWe bei Wasserkühlung. Ein komplettes Kraftwerk mit zwei Blöcken und allen erforderlichen Hilfs- und Nebenanlagen (300 – 360 MWe), soll einen Flächenbedarf von etwa 16 ha haben. Damit ist die Hauptstoßrichtung klar: Der Ersatz bestehender, alter Kohlekraftwerke.

Das Core besteht aus 69 Brennelementen mit 2413 mm aktiver Länge in klassischer 17 x 17 Anordnung bei einer Anreicherung von weniger als 5 % U^235. Hierbei zielt man auf die kostengünstige Weiterverwendung handelsüblicher Brennelemente für Druckwasserreaktoren ab. Bei diesem kleinen Reaktor kann man damit Laufzeiten von rund 4 Jahren zwischen den Nachladungen erreichen. Durch die Doppelblockbauweise ergibt sich somit eine extrem hohe Arbeitsausnutzung von (erwartet) über 95%. Das integrierte Brennelementelagerbecken kann Brennelemente aus 20 Betriebsjahren aufnehmen.

Die Turmbauweise erlaubt vollständig passive Sicherheitseinrichtungen, wodurch ein Unglück wie in Fukushima (völliger Stromausfall) von vornherein ausgeschlossen ist. Die Brennelemente sitzen ganz unten im Druckbehälter. Darüber kommt die gesamte Steuereinheit (Regelstäbe und ihre Antriebe) und darüber die Dampferzeuger. Ganz oben sitzen die acht Umwälzpumpen und der Druckhalter. Bei einem Stromausfall würden die Regelstäbe sofort und vollautomatisch durch die Schwerkraft in den Reaktorkern fallen und diesen abschalten. Die — im ersten Moment noch sehr hohe — Nachzerfallswärme erwärmt das Kühlwasser weiter und treibt durch den entstehenden Dichteunterschied das Kühlwasser durch den inneren Kamin nach oben. In den höher gelegenen Dampferzeugern kühlt es sich ab und sinkt im Außenraum des Reaktorbehälters wieder nach unten: Ein Naturumlauf entsteht, der für die sichere und automatische Abfuhr der Restwärme sorgt.

Als "Notstrom" werden nur entsprechende Batterien für die Instrumentierung und Beleuchtung etc. vorgehalten. Große Notstromaggregate mit Schalt- und Hilfsanlagen werden nicht benötigt. Auch hier gilt wieder: Was es gar nicht gibt, kann im Ernstfall auch nicht versagen!

Westinghouse SMR (NextStart Alliance)

Westinghouse hat den ersten Druckwasserreaktor überhaupt entwickelt (Nautilus Atom-U-Boot 1954), das erste kommerzielle Kernkraftwerk (Shippingport 1957) gebaut und ist  bei fast allen (westlichen) Druckwasserreaktoren Lizenzgeber. Es ist also nicht überraschend, wenn der Marktführer auch in diesem Segment dabei ist. Die NextStart SMR Alliance ist ein Zusammenschluss mehrerer Energieversorger und Gemeinden, die bis zu fünf Reaktoren im Ameren Missouri’s Callaway Energy Center errichten will.

Der Westinghouse SMR soll eine Leistung von 800 MWth und mindestens 225 MWe haben. Er unterscheidet sich von seinem Konstruktionsprinzip nicht wesentlich vom vorher beschriebenen B&W "Kleinreaktor". Seine Zykluszeit soll 24 Monate betragen (bei Verwendung der Brennelemente des AP1000). Seine Lastfolgegeschwindigkeit im Bereich von 20 bis 100% Auslegungsleistung beträgt 5% pro Minute. Der Reaktor kann selbstregelnd Lastsprünge von +- 10 % mit einer Rate von 2% pro Minute dauerhaft ausregeln. Das alte Propagandamärchen der "Atomkraftgegner" von den "unflexiblen AKW’s" trifft auch bei diesen Reaktortypen nicht zu. Im Gegenteil, dreht Westinghouse den Spieß werbewirksam um und offeriert diesen Reaktor als (immer notwendiges) Backup für Windkraft- und Solaranlagen zur CO2-freien Stromversorgung.

Westinghouse integriert in das Containment noch einen zusätzlichen Wasservorrat und bekämpft auch noch passiv einen völligen Verlust des Kühlwasserkreislaufes. Damit dieser Störfall eintreten kann, müßte das Druckgefäß des SMR zerstört worden sein.  In diesem Fall könnte das Wasser auslaufen und würde sich im Sumpf des Containment sammeln. Damit jeder Zeit der Kern des Reaktors mit Wasser bedeckt bleibt (und nicht wie in Fukushima und Harrisburg teilweise und zeitweise trocken fallen kann), wird automatisch Wasser aus den Speichern im Containment zusätzlich hinzugefügt. Alle Systeme sind so bemessen, daß sich der Reaktor auch nach einem schweren Unglück selbst in einen sicheren Zustand versetzt und mindestens für die folgenden 7 Tage keines menschlichen Eingriffs bedarf.

Wenn nur der Strom total ausfällt, aber das Reaktordruckgefäß nicht geplatzt ist, funktioniert die passive Notkühlung in drei gestaffelten Ebenen. Solange der normale Kühlkreislauf (Kühlturm oder Kühlwasser) noch Wasser enthält, wird über diesen durch Verdunstung die Nachzerfallswärme abgeführt. Versagt dieser sekundäre Kreislauf des Kraftwerks, tritt die innere Notkühlung in Kraft. Das kalte und borierte Wasser in den Nottanks strömt in den Reaktor. Gleichzeitig kann das heiße Wasser den Reaktor verlassen und in die Notkühlbehälter zurückströmen — es entsteht ein Naturumlauf. Damit das Wasser in den Notkühlbehältern auch weiterhin "kalt" bleibt, besitzt jeder dieser Behälter im oberen Teil einen Wärmeübertrager. Diese Wärmeübertrager sind außerhalb des Containment mit "offenen Schwimmbecken" verbunden, die durch Verdunstung die Energie an die Umwelt abgeben können. Bricht auch dieser Kühlkreislauf in sich zusammen. Kann die Wärme immer noch durch Verdampfung des Wassers im Sumpf des Containment und durch anschließende Kondensation an der Oberfläche des Containment abgeführt werden.

Ausdrücklich wird der Markt für diesen Reaktortyp auch in der Fernwärmeversorgung und zur Meerwasserentsalzung gesehen. Peking hat z. B. viele Kohleheizwerke, die stark zur unerträglichen Luftverschmutzung beitragen. Es ist also kein Zufall, daß bereits Kooperationsverhandlungen laufen.

NuScale

Diese Variante ist aus einem durch das U.S. Department of Energy (USDOE) geförderten Forschungsprojekt am Idaho National Environment & Engineering Laboratory (INEEL) und der Oregon State University (OSU) hervorgegangen. Im Jahre 2008 hat dieses "Startup" einen Genehmigungsantrag bei der US Nuclear Regulatory Commission (USNRC) für einen 45 MWe Reaktor gestellt. Im Jahr 2011 ist das Unternehmen praktisch vollständig von FLUOR übernommen worden. Es besteht zudem eine sehr enge Verbindung mit Rolls-Royce.

Das NuScale Modul hat nur eine thermische Leistung von 160 MWth und eine elektrische Leistung von mindestens 45 MWe. Bei einem Durchmesser von 4,5 m, einer Höhe von 24 m und einem Gewicht von 650 to ist es aber fast genau so groß, wie die beiden schon vorgestellten SMR. Die geringe Energiedichte führt zu einer starken Vereinfachung. Das Unternehmen gibt die spezifischen Investitionskosten mit weniger als 5.000 $/kW an.

Bei dem Konzept handelt es sich um einen Zwitter aus Siedewasser- und Druckwasserreaktor. So etwas ähnliches gab es auch schon in Deutschland, unter der Bezeichnung FDR, als Antrieb der Otto Hahn. Dieses Konzept hat sich schon damals als sehr robust und gutmütig erwiesen. Der NuSkale SMR kommt völlig ohne Umwälzpumpen aus. Man nimmt im Reaktorkern einen etwas höheren (als bei einem reinen Druckwasserreaktor üblichen) Dampfanteil in Kauf, bekommt dafür aber einen großen Dichteunterschied (bezogen auf das "kalte" Eintrittswasser), der hervorragend einen Naturumlauf anregt. Allerdings erzeugt man keinen Dampf, den man direkt auf die Turbine gibt (wie bei einem Siedewasserreaktor), sondern "beheizt" damit nur die zwei in dem Reaktordruckgefäß integrierten Dampferzeuger. Man hat also wie bei einem konventionellen Druckwasserreaktor einen physikalisch voneinander getrennten Primär- (durch den Reaktorkern) und Sekundärkreislauf (über die Turbine).

Das NuScale-Konzept bricht radikal mit einigen Gewohnheiten:

·       Man geht von bis zu zwölf Reaktoren aus, die zu einem Kraftwerk mit dann mindestens 540 MWe zusammengefaßt werden. Sie sollen in zwei Reihen zu sechs Reaktoren in einem "unterirdischen Schwimmbecken" angeordnet werden. Bei einem Ladezyklus von 24 Monaten, könnte somit alle zwei Monate ein Brennelementewechsel erfolgen. Bei einem zusätzlichen "Reservemodul" könnte das Kraftwerk nahezu mit 100 % Arbeitsausnutzung durchlaufen. Die "Auszeit" eines konventionellen Kernkraftwerk entfällt. Ebenso wird die Personalspitze (üblicherweise mehr als 1000 Leute beim Brennelementewechsel) vermieden. Der Brennelementewechsel mit seinen Wiederholungsprüfungen wird zu einem stetigen "Wartungsprozess" umgestaltet. Dies kann zu beträchtlichen Kosteneinsparungen führen.

·       Durch den Verzicht von Umwälzpumpen wird die Konstruktion noch einmal stark vereinfacht.

·       Durch die Aufstellung in einem "großen Schwimmbecken" sind die Reaktoren vor Erdbeben und Druckwellen praktisch vollkommen geschützt. Überflutungen (Fukushima) sind kein Sicherheitsrisiko mehr, da ja die Reaktoren ohnehin ständig im Wasser stehen.

·       Die Reaktoren verzichten vollständig auf Wechselstrom (Fukushima) und benutzen lediglich passive Sicherheits- und Kühlsysteme. Elektrische Energie ist nur für die Instrumentierung und Beleuchtung notwendig. Relativ kleine Batterien sind hierfür ausreichend. Der Batterie- und Kontrollraum befindet sich im unterirdischen Teil des Kraftwerks.

·       Selbst wenn es zu einer Beschädigung des Reaktorkerns kommen würde (Fukushima), würden radioaktive Stoffe im Schwimmbecken und Reaktorgebäude zurückgehalten werden. Außerdem beträgt das radioaktive Inventar in jedem Modul weniger als 5% eines konventionellen Reaktors. Somit ist auch die bei einem Unfall abzuführende Restwärme entsprechend klein.

·       Im Containment herrscht Vakuum. Eine Bildung explosiver Gase (Fukushima) ist somit ausgeschlossen. Es wirkt wie eine Thermosflasche, zusätzliche Isolierungen sind nicht erforderlich. Andererseits würde es bei einer Zerstörung des eigentlichen Druckbehälters, den entweichenden Dampf aufnehmen und eine "Wärmebrücke" zum umgebenden Wasser herstellen.

Die überragende sicherheitstechnische Philosophie dieses Konzeptes ist, daß sich auch nach schwersten Zerstörungen (z. B. Tsunami in Fukushima) der Reaktor ohne menschliche Eingriffe selbsttätig in einen sicheren Zustand überführt und dort ohne jeden (nötigen) Eingriff ewig verbleibt! Dies mag noch einmal an der "Notkühlung" verdeutlicht werden: Wenn die äußere Wärmesenke entfällt (Ausfall der Kühlwasserpumpen in Fukushima durch den Tsunami), alle Stromquellen ausfallen (Zerstörung der Schaltanlagen und Notstromaggregate durch die Flutwelle in Fukushima), dient das "Schwimmbecken" zur Aufnahme der Nachzerfallswärme. Es ist so bemessen, daß sein Wasserinhalt durch Erwärmung und Verdunstung den Reaktorkern sicher kühlt. Selbst, wenn man kein Wasser nachfüllen würde, wäre es erst nach etwa einem Monat leer. Dann aber, ist die Nachzerfallswärme bereits so stark abgeklungen (< 400 kW pro Modul), daß die "Luftkühlung" in dem nun leeren Wasserbecken, sicher ausreichen würde.

Das Brennelementelagerbecken ist zur Aufnahme von 15 Betriebsjahren ausgelegt. Es befindet sich ebenfalls im unterirdischen Teil und kann für mindestens 30 Tage ohne zusätzliches Wasser auskommen (Fukushima). Es besteht aus einem Edelstahlbecken in einer Stahlbetonwanne. Stahlbecken und Betonwanne sind seismisch von einander isoliert, sodaß auch schwerste Erdbeben praktisch wirkungslos für die gelagerten Brennelemente sind.

Die NuScale Konstruktion ist ein schönes Beispiel, wie man Jahrzehnte alte Entwürfe der Leichtwasserreaktoren noch einmal ganz neu durchdenken kann. Es ist der radikalste Ansatz unter den zur Genehmigung eingereichten Konzepten. Die Wahrscheinlichkeit für eine schwere Beschädigung des Reaktorkerns mit teilweiser Kernschmelze — wie in Harrisburg und Fukushima geschehen — verringert sich auf unter ein Ereignis in zehn Millionen Betriebsjahren. Selbst wenn es eintreten würde, wären die Auswirkungen auf die Umwelt noch geringer. Es wird bereits diskutiert, ob bei diesem Reaktortyp überhaupt noch eine "Sicherheitszone", mit potentieller Evakuierung der Anwohner, erforderlich ist. Jedenfalls gibt es in USA bereits ein reges Interesse zahlreicher Gemeinden und Städte zur dezentralen, kostengünstigen, umweltschonenden und krisensicheren (Wirbelstürme, Tornados, etc.) Versorgung mit Strom und Fernwärme.

Holtec international

Einem klassischen Reaktor noch am ähnlichsten, ist das von Holtec im Jahre 2012 eingereichte Konzept des "Holtec Inherently-Safe Modular Reactor" (HI-SMUR) mit einer geplanten Leistung von 145 MWe. Er besteht aus den klassischen drei Baugruppen: Reaktor, Dampferzeuger und Druckhalter. Der Druckbehälter ist ein fast 32 m langes Gebilde, welches in einer brunnenförmigen Grube versenkt ist. Es ist mit den Dampferzeugern entweder durch ein "Rohrstück" (senkrechte Variante) verbunden oder die waagerechten Dampferzeuger sind direkt angeschweißt. Liegende Dampferzeuger sind nur bei russischen Konstruktionen gebräuchlich. Werden stehende Dampferzeuger verwendet, baut dieser Typ oberirdisch noch einmal 28 m hoch.

Der Entwurf ist sehr eigenwillig. Man hat ursprünglich waagerechte Dampferzeuger mit separater Überhitzung vorgesehen. Angeblich kann man durch eine angestrebte Überhitzung auf handelsübliche Industrieturbinen zurückgreifen. Man verzichtet auf Umwälzpumpen, bei gleichzeitig großem Abstand vom Siedezustand. Man ist deshalb auf eine sehr große Temperaturspreizung (T_E = 177 °C und T_A =302 °C bei p = 155 bar) angewiesen. Eine regenerative  Speisewasservorwärmung ist praktisch ausgeschlossen. Das ganze ähnelt eher einer Dampflokomotive, als einem modernen Kraftwerk.

Das Brennstoffkonzept ist auch etwas ungewöhnlich. Es ist keine Borierung zur Kompensation der Überschußreaktivität vorgesehen. Das heißt, es muß alles über abbrennbare Gifte (Gd und Er) geschehen. Der gesamte Brennstoff soll sich in einer Kartusche aus nur 32 Brennelementen befinden. Bei einem so kleinen Core dürfte der Neutronenfluß nur sehr schwer in den Griff zu bekommen sein bzw. jeder Brennstab müßte eine individuelle Anreicherung erhalten. Man will die Kassette nach 100 h (Nachzerfallswärme) in einem Stück auswechseln. Ein Brennelementewechsel soll so weniger als eine Woche dauern. Gleichwohl, soll die Zykluszeit 42 Monate betragen. Wenn sich nicht einige revolutionäre Erfindungen dahinter verbergen, die bisher noch nicht öffentlich zugänglich sind, dürfte eher der Wunsch der Vater sein.

Bisher kooperiert Holtec mit Shaw und Areva. Ein Prototyp wäre auf der Savannah River Site des DoE’s geplant. Die Bauzeit wird mit nur 2 Jahren, bei Kosten von nur 675 Millionen US-Dollar angegeben. Man wird sehen.

Carem

Anfang Dezember 2013 wurde der Auftrag für das Reaktordruckgefäß des "Central Argentina de Elementos Modulares" CAREM-Reaktor erteilt. Es handelt sich dabei um ein 200 to schweres, 11 m hohes Gefäß mit einem Durchmesser von 3,5 m. Es ist für den Prototyp eines argentinischen SMR mit einer Leistung von 25 MWe gedacht. Später soll dieser Reaktor eine Leistung von 100 bis 200 MWe erreichen. Es handelt sich ebenfalls um eine voll integrierte Bauweise, mit ausschließlich passiven Sicherheitseinrichtungen.

Schwimmender SMR aus Russland

Der staatliche russische Hersteller Rosenergoatom baut in Petersburg eine Barge mit zwei Reaktoren, die nach Chukotka in Sibirien geschleppt werden soll, um dort Bergwerke mit Energie zu versorgen. Die Reaktoren sind eine zivile Abwandlung der KLT-40S Baureihe für Eisbrecher, mit einer Leistung von 35 MWe. Vorteil dieses "Kraftwerks" ist, daß es auf einer seit Jahren erprobten Technik basiert. Die russische Eisbrecherflotte versieht zuverlässig ihren Dienst im nördlichen Eismeer. Ein nicht zu unterschätzender Vorteil bei der Versorgung entlegener Gegenden.

Sehr Interessant ist das Geschäftsmodell. Eine solche Barge wird fix und fertig zum Einsatzort geschleppt. Der Kunde braucht nur für den Stromanschluss an Land zu sorgen. Weitere Investitionen oder Unterhaltskosten fallen für ihn nicht an. Nach drei Jahren wird die Barge für einen Brennelementewechsel und notwendige Wiederholungsprüfungen abgeschleppt und durch eine andere Barge ersetzt. Da bei einem Kernkraftwerk die Brennstoffkosten ohnehin eine untergeordnete Rolle spielen, kann der Kunde das Kraftwerk für eine pauschale Jahresgebühr mieten. Ob und wieviel Strom er verbraucht, braucht ihn nicht mehr zu kümmern. Eine feste Kalkulationsgrundlage, die für Öl- und Minengesellschaften höchst verlockend ist. Als einzige Hürde in westlichen Regionen, erscheint lediglich (noch) das "Made in Russia". Jedenfalls hat er keine Vorauszahlungen zu leisten, hat keinerlei Reparaturkosten und braucht sich nicht um die Entsorgung des "Atommülls" zu kümmern. Russland kann seinen "Heimvorteil" des geschlossenen Brennstoffkreislaufs voll ausspielen.

Parallel hat Russland noch ein größeres Modell mit 300 MWe  auf der Basis des VBER-300 PWR Druckwasserreaktors in der Entwicklung.

Abschließender Hinweis

Dieser Artikel kann und soll nur einen Überblick über den Stand der internationalen Entwicklung geben. Wer bis hierhin nicht durch so viel Technik abgeschreckt worden ist, dem empfehle ich, einfach mal die Typen und Hersteller zu googeln. Besonders die Seiten der Hersteller verfügen über zahlreiche Zeichnungen und Animationen. Zwar ausnahmslos in Englisch, aber mit der Grundlage dieses Artikels, lassen sie sich hoffentlich auch für nicht Techniker verstehen

Dr. Ing. Klaus-Dieter Humpich

Dieser Beitrag erschien zuerst bei Nukeklaus 




Regiert bei der Klimawissenschaft die Mehrheit?

Je mehr dieser File wuchs, umso schriller intolerant wurden die Alarmisten.

Wieder und immer wieder bestehen die Wahren Gläubigen darauf, dass ihre Ansichten nicht nur weit verbreitet in der wissenschaftlichen Gemeinschaft akzeptiert werden, sondern nahezu einhellig mit Ausnahme einiger weniger Spinner. Rajendra Pachauri, Vorsitzender des IPCC, hat es gefallen, Zweifler zu Mitgliedern einer Gesellschaft der flachen Erde zu machen [Flat Earth Society]. Der CBS-Reporter Scott Pelley wurde gefragt, warum in seiner Sendung „60 Minutes“ zum Thema globale Erwärmung die Ansichten von Skeptikern keinen Raum bekamen. Er griff zu einem sogar noch schlimmeren Vergleich: „Falls ich ein Interview mit Elie Wiesel mache, bin ich dann verpflichtet, auf die Suche nach einem Holocaust-Leugner zu gehen?“

Es scheint keinen Unterschied zu machen, dass zu jenen, die das Untergangs-Narrativ in Frage stellen, auch einige der berühmtesten Wissenschaftler der Welt gehören, oder dass zahlreiche Experten der Klimatologie und verwandter Geowissenschaften mit ihrer Kritik wiederholt an die Öffentlichkeit gegangen sind. Für Klimaideologen waren sie unsichtbar. „97% der Wissenschaftler stimmen darin überein: Klimaänderung ist real, vom Menschen verursacht und gefährlich“, hieß es in einem Tweet von Präsident Obama im Mai.

Wirklich? Das ist nicht das, was eine Umfrage der Royal Meteorological Society unter ihren Mitgliedern ergeben hat. Nur eine dünne Mehrheit von 52% war der Ansicht, dass die Ursache der Klimaänderung hauptsächlich menschliche Aktivitäten sind. Den Autoren der Umfrage zufolge tendierten Wissenschaftler mit einer „liberalen politischen Orientierung“ viel stärker dazu, die globale Erwärmung als vom Menschen verursacht und schädlich anzusehen – tatsächlich stand bei diesen Antwortenden die Ideologie höher als die größere Erfahrung. „Das wären starke Beweise gegen den Gedanken, dass die Ansichten von Experten-Wissenschaftlern zu politisch kontroversen Themen vollständig objektiv sein können“, haben die Autoren beobachtet.

In diesem Licht betrachte man die Ergebnisse einer neuen Studie, die im Journal Nature Climate Change veröffentlicht worden ist. Von 117 Vorhersagen zur globalen Erwärmung, erzeugt durch Klimamodell-Simulationen, haben alle außer drei die tatsächliche Erwärmung während der letzten 20 Jahre „signifikant“ überschätzt. Typischerweise haben die Modelle vorhergesagt, dass die globale Temperatur doppelt so stark steigen werde wie es in Wirklichkeit der Fall war.

Warum sollten sich so viele Wissenschaftler auf Modelle verlassen, die sich als derartig falsch herausgestellt haben? Die Autoren bieten viele verschiedene plausible Erklärungen an – Vulkanausbrüche? Solarstrahlung? – aber unter dem Strich sagen sie, dass die Klimawissenschaft noch einen langen Weg vor sich hat: „Die Gründe für diese Inkonsistenz wird man ultimativ wohl erst verstehen, wenn man gesehen hat, wie sich die globale Temperatur während der nächsten Jahrzehnte entwickelt“.

Dieses Verständnis dürfte von den Ideologen nicht um einen Millimeter vorangebracht werden, die brüllen, dass „die Wissenschaft settled“ ist und dass jeder, der diesen Konsens in Frage stellt, nicht besser ist als ein Flach-Erdler oder ein Holocaust-Leugner. Vielleicht wären all jene Klimamodelle nicht so programmiert worden, die globale Erwärmung überzubetonen, wenn der Druck, mit den Ansichten der Alarmisten konform zu gehen, nicht so allgegenwärtig und durchdringend wäre.

In einem klassischen Vortrag im Jahre 1955 über „den Wert der Wissenschaft“ hat der gefeierte Physiker (und spätere Nobelpreisträger) Richard Feynman davor gewarnt, dass die Wissenschaft gefesselt werden würde, wenn sie versuchen würde, Zweifler und Skeptiker zu unterdrücken. „Wenn wir ein Problem lösen wollen, das wir zuvor noch nie gelöst haben, müssen wir die Tür zum Unbekannten offen lassen … Zweifel muss man nicht fürchten, sondern willkommen heißen und darüber diskutieren“.

Die Wissenschaft wird nicht settled durch das Abstimmungsverhalten einer Mehrheit; und die Propagierung eines „Konsens“, um die Debatte abzuwürgen, ist autoritär und anti-wissenschaftlich. Es gibt immer  unbequeme  Wahrheiten, die das in Frage stellen, was die Mehrheit zu wissen glaubt. 97% der Experten mögen von des Kaisers neuen Kleidern beeindruckt sein. Das ist aber kein Grund, jene ruhig zu stellen, die darauf bestehen, dass der Kaiser nackt ist.

[Dieser letzte Vergleich ist vielleicht noch treffender als der Autor dachte. Jene, die „darauf bestanden, dass der Kaiser nackt ist“ – das waren bekanntlich Kinder! A. d. Übers.]

Link: http://townhall.com/columnists/jeffjacoby/2013/12/05/majority-rules-on-climate-science-n1757579

Übersetzt von Chris Frey EIKE




Energiewende und GROKO für Dummies

Wie viel Kluges, Richtiges aber noch viel mehr unsäglich Bescheuertes wurde schon über „Segen“ und Schaden der Energiewende geschrieben. Dabei ist es doch so einfach, dass es selbst Dummies begreifen. Die Leistungsdichten von Wind und Sonne sind nun einmal um Größenordnungen kleiner als die von Kohle- und Uranverbrennung. Auch Dummies kennen unterschiedliche Leistungsdichten. Sie liegen nämlich gerne faul in der Sonne, sind aber noch nie mit glühender Kohle in den bloßen Händen gesehen worden. Beispielsweise ist die Leistungsdichte D bei Windrädern die Windleistung L geteilt durch die vom Propeller überstrichene Fläche A, also D = L/A. Ist die Leistungsdichte D extrem klein, muss zur Erzielung einer ausreichenden Leistung L = D*A notwendigerweise die Propellerfläche A extrem groß gemacht werden (wir bitten vielmals um Entschuldigung, die Bruchrechnung bemüht zu haben). Das macht diese unmöglichen Wind-Dinger so teuer, verursacht Schäden an der Vogel- und Fledermauswelt, zerstört Landschaften und verbraucht Unmengen seltener Erden (Neodym) für die Permanentmagnete der Windradgeneratoren. Auch Politiker können dies nicht ändern, selbst wenn es bei manchen sogar zu einem Tsunami reichen mag (zur Erläuterung: wir sorgen uns um die Tsunami-Gefahr, falls Altmeier oder Gabriel in einem extrem heißen Sommer infolge ungebremster globaler Erwärmung zur Abkühlung in die Spree springen).

Mit der Unstetigkeit der Stromlieferung steht es freilich noch viel schlimmer als mit der unzureichenden Leistungsdichte der "Erneuerbaren". Niemand kann mit Zappelstrom etwas anfangen, die Verbraucher nicht und die Leute, die für die Stabilität der  elektrischen Netzsysteme sorgen, schon gar nicht. Zappelstrom ist unbrauchbar. Daher muss Stromersatz beschafft werden, wenn Wind oder Sonne ausfallen. Und das überflüssige Stromzeugs ist zu entsorgen, wenn Herbststürme über die Nordsee und durch den Bayerischen Wald brausen und riesige, aber unnötige Strommengen per EEG-Oktroi von den Erzeugern abgenommen werden müssen – "pacta sunt servanda" sagte schon unser Franz-Josef Strauß, Gott habe ihn selig. Die Ersatz-Systeme für Strommangel, Gas- und Kohlekraftwerke (Schattenkraftwerke), laufen bei ausreichendem oder gar zu viel Wind- und Sonnenstrom im unwirtschaftlichen Stand-By. Unwirtschaftliches wollen diese Gauner von Energieunternehmen aber nicht bauen. Die wollen frecherweise auch noch Geld verdienen um ihre Angestellten nicht zu entlassen und ihre Aktionäre zufrieden zu stellen. Sind absolut unmoralisch, diese Energieversorger, pfui sagen wir voller Verachtung.

Kernkraftwerke kommen schon mal gar nicht in Frage. Sie sind, ebenso wie alle Energieversorger, auch unmoralisch. Das haben uns Theologen, Soziologen und  Energie-Experten gleichen intellektuellen Niveaus wie diese geisteskranken Vögel in einer bekannten Kommission gelehrt. An solchen Experten darf man nicht vorbeigehen. Der vermehrten Kohleverbrennung wegen steigt nun aber dummerweise der CO2-Ausstoß Deutschlands an. Daher kommen wir unseren Weltrettungsplänen nicht mehr nach, das geht nun gar nicht. Und dabei wollten wir doch allen lieben Völkern dieser Erde ein Vorbild des Genesens vom bösen CO2 sein. Nun fangen auch schon Dummies an zu begreifen, dass menschgemachtes CO2 nichts mit Klimaänderungen zu tun hat. Rahmstorf, Schellnhuber, Latif, Stocker und weitere Alarm-Jünger schreien aus diesem Grunde ihre Angst, nicht mehr ernst genommen zu werden, immer lauter heraus. Nützt ihnen nichts, es hören immer weniger hin. Man hat einfach die Schnauze voll von den Alarmisten. Sogar Dummies schauen jetzt lieber zu, dass sie irgendwo im Süden den immer kälteren deutschen Wintern entkommen können. Diesen Eskapismus können wir natürlich überhaupt nicht billigen.

Verzapft hat den ganzen Kladderadatsch der deutschen Energiewende und des noch bekloppteren Klimaschutzes eine Kanzlerin, die von Spöttern liebevoll „Mutti“ genannt wird. Aber aufgepasst liebe Spötter und Dummies! Mutti wird zwar nach Einschätzung der EIKE-Redaktion als Kanzlerin in die Geschichte eingehen, die den größten politischen und volkswirtschaftlichen Schaden in einem freien Deutschland nach Kriegsende angerichtet hat; auf ihr Konto geht schließlich die Einführung der Planwirtschaft im Energiebereich, der Anschluss der CDU an die SPD, die Schuldenhaftung Deutschlands für Südeuropa, die Energiewende-Katastrophe und der teure Unfug von Klimaschutz. Aber dumm ist „Mutti“ nicht. Sie hat es fertiggebracht, alle ernsthaften Konkurrenten geräuschlos platt zu machen. Friedrich Merz, Roland Koch und Peter Müller (den Christian Wulff lassen wir mal besser weg) waren ihre prominentesten Opfer. Aber auch in der aktuellen GROKO hat sie unbemerkt jetzt schon Großes vollbracht. Ihre aktuellen Konkurrenten machte sie – weitgehend unbemerkt – mausetot, ehe diese überhaupt in ihre neuen Ministerien einziehen konnten. Allenfalls mag es unserer Übermutter Ursula von der Leyen gelingen, der von „Mutti“ gestellten Falle des Kriegsministeriums (Pardon Verteidigungsministerium) zu entkommen. Wir sind freilich skeptisch.

Sigmar Gabriel freilich schafft es mit Sicherheit nicht. Mit Sigi ist Mutti ihr größter Coup gelungen. Und dabei hat sich der Sigi das Ministerium für Wirtschaft und Energie gewünscht wie ein kleiner Junge die neue Spielzeug-Eisenbahn. Lieber Sigi, merkst Du denn gar nicht, in was für eine Falle Du reingeraten bist? Machst Du nämlich mit der Energiewende so weiter wie bisher, und dafür ist die grüne Bazille Deines Staatsekretärs eine felsenfeste Nummer, werden Dich die EU, die deutschen Verbraucher und die Gewerkschaften in der Luft zerreißen – die haben nämlich inzwischen von den wegfallenden Arbeitsplätzen ihrer Mitglieder Wind bekommen  (EIKE gratuliert an dieser Stelle den Gewerkschaften als tollen Schnellmerkern). Tust Du, lieber Sigi, dagegen das einzig Richtige und machst dem EEG den kompletten Garaus, hast Du alle SPD-Gutmenschen und die Grünen ohnehin am Hals. Deinen Lebenstraum, eine rot-grüne Koalition in 4 Jahren, kannst Du Dir dann abschminken. Von der liebevollen Behandlung, die Dir die unzähligen Profiteure der Energiewende nach einem Einstampfen des EEG angedeihen lassen, wollen wir erst gar nicht reden. Kurz, gegen das Dilemma-Ministerium von Wirtschaft/Energie in der GROKO ist der elektrische Stuhl ein gemütlicher Kachelofen. 

Und Mutti? Potz Blitz und Donner, die hat schließlich alles verbockt! Sie müsste endlich dafür zur Rechenschaft gezogen werden! Aber nichts da, absolute Spitzenrankings bei jeder Beliebtheitsumfrage sind der Lohn für den von ihr angerichteten Schaden. Ob das deutsche Volk auch nur das Geringste dazugelernt hat ….? Wir wollen diese Frage politischer Korrektheit wegen übergehen. Nun aber, lieber Sigi, ist Mutti Dich mit unnachahmlicher Eleganz losgeworden und wird sich am hilflosen Zappeln bei Deiner vergeblichen Reparatur der Energiewende weiden. Die Energiewende ist nämlich nicht zu reparieren, nur abzuschaffen. Aber so ist nun einmal Mutti. Sie beherrscht solche Beseitigungsaktionen perfekt, hat vermutlich einschlägige Schulung im Reich des Bösen durchlaufen. Und besser geht es auch gar nicht mehr. Man bringt sein Opfer dazu, den eigenen Untergang zu seiner liebsten Aufgabe zu machen und wird dabei auch noch die Verantwortung für das von einem selber angerichtete Schlamassel los. Wir gratulieren und ziehen respektvoll den Hut.




Die Geschichte falsifiziert die Behauptungen der Alarmisten zum Anstieg des Meeresspiegels

Die Alarmisten scheint es dabei nicht zu stören, dass Stärke und Häufigkeit tropischer Stürme während der letzten Jahre abgenommen haben, während der Anstieg des Meeresspiegels auf etwa 7 Inches pro Jahrhundert gefallen ist [ca. 18 cm]. Auch scheint es sie nicht zu stören, dass die Verluste von Menschen und Eigentum wenig mit der reinen Kraft der Stürme zu tun haben. Die zerstörerischen Auswirkungen traten ein, weil sie dicht besiedelte Gebiete getroffen haben, wo die Regierungen die Anwohner nicht genügend über die Größe und die Heftigkeit von Sturmfluten aufgeklärt haben und zu wenige Menschen evakuiert worden waren. Außerdem waren die Menschen, ihre Häuser und die Ausrüstung für Notfälle unzureichend gerüstet, um den heftigen Stürmen Widerstand zu leisten.

Der Aufschrei der Alarmisten ist nicht ehrlich oder sachlich gemeint. Er soll vielmehr hysterische Schlagzeilen erzeugen, öffentliche Ängste über Klimaänderungen schüren und nach Änderungen der Energiepolitik und des –verbrauchs verlangen.

China wird immer mehr zu einem der reichsten Länder der Erde. Es ist bei Weitem der größte Einzel-Emittent von Kohlendioxid, was den Behauptungen der Alarmisten zufolge zu „beispiellosen“ Stürmen und Meeresspiegel-Anstiegen führen soll. Und trotzdem hat China auf der jüngsten Klimakonferenz in Warschau den Auszug von 132 Ländern der Dritten Welt angeführt mit der Behauptung, dass die Länder der Ersten Welt ihnen hunderte Milliarden Dollar schulden in Gestalt von „Reparationen“ für „Verluste und Schäden“ infolge der CO2-Emissionen.

Die Obama-Administration brachte (oder vielleicht ist „kaufte“ der treffendere Ausdruck) sie zurück an den Verhandlungstisch, und zwar mit dem Versprechen, ihnen bis jetzt nicht spezifizierte Gelder der US-Steuerzahler zukommen zu lassen. Details dieses beispiellosen Ausverkaufs werden auf den von den UN gesponserten Klimagesprächen in Paris im Jahre 2015 hinausposaunt werden – in sicherem zeitlichen Abstand zu den Kongresswahlen in den USA 2014. Inzwischen dürfte eine kleine Historie instruktiv sein.

Im Jahre 2008 hat der Präsidentschafts-Kandidat Barack Obama proklamiert: „Dies war der Moment, zu dem der Anstieg des Meeresspiegels angefangen hat, sich zu verlangsamen“. Tatsächlich hatte er recht. Der Anstieg hat sich in der Tat verlangsamt, aber nicht wegen der CO2-Emissionen, die immer noch zunehmen. Man kann Mutter Natur nicht kaufen.

Änderungen des Meeresspiegels während der relativ jüngsten geologischen und menschlichen Geschichte zeigen, dass die Behauptungen der Alarmisten einer sorgfältigen Überprüfung nicht standhalten. Der Meeresspiegel ist nach der letzten Eiszeit signifikant gestiegen, während der Kleinen Eiszeit gefallen und seit deren Ende um das Jahr 1850 wieder gestiegen. Tatsächlich liegen Hafenstädte des römischen Weltreiches und des Mittelalters inzwischen kilometerweit vom Mittelmeer entfernt, weil der Meeresspiegel während der Kleinen Eiszeit gefallen ist.

Während der kältesten Phase der letzten Eiszeit, bekannt unter der Bezeichnung Wisconsin, lag der Meeresspiegel um etwa 400 Fuß [ca. 122 m] niedriger als heute. Als die Erde aus dem Wisconsin vor etwa 18000 Jahren herauskam und die massiven Eisschilde abzuschmelzen begannen, begann der Meeresspiegel zu steigen. Der rapide Anstieg während der „meltwater pulse phase” vor etwa 15000 Jahren hatte in etwa fünf Meter pro Jahrhundert betragen – sich dann aber signifikant verlangsamt seit dem Klimaoptimum des Holozän vor etwa 8000 Jahren.

Diese steigenden Meere erzeugten neue Häfen für die griechischen und römischen Handelsschiffe. Aber heute liegen viele dieser Strukturen und Ruinen weit von der Küste entfernt, sind frei zugänglich und ein Touristenmagnet. Wie kam das? Die Kleine Eiszeit hat substantielle Mengen Ozeanwasser erneut in Eis verwandelt, was zum Sinken des Meeresspiegels führte und frühere Häfen verlanden ließ. Bislang ist nicht genug Eis geschmolzen, um diese Liegenschaften erneut zu Häfen zu machen.

Die antike Stadt Ephesus war eine wichtige Hafenstadt und kommerzieller Umschlagplatz von der Bronzezeit bis zur Minoischen Warmperiode und auch noch während des römischen Weltreiches. Eine historische Landkarte zeigt deren Lage direkt am Meer. Aber heute, in der modernen Türkei, liegt Ephesus 5 km vom Meer entfernt. Einige Historiker machen dafür fälschlich Ablagerungen durch Flüsse verantwortlich, aber der wirkliche „Schuldige“ war die Änderung des Meeresspiegels.

Die Ruinen des antiken römischen Hafens Ostia Antica sind extrem gut erhalten – mit intakten Fresken, Karten und Stadtplänen. Die Karten jener Zeit zeigen die Stadt an der Mündung des Tiber in das Tyrrhenische Meer gelegen. Die Schlacht um Ostia im Jahre 849, festgehalten in einem Raphael zugeordneten Gemälde, zeigt, dass der Meeresspiegel hoch genug war für Kriegsschiffe, um in die Mündung des Tiber einfahren zu können. Heute jedoch liegt diese Touristenattraktion zwei Meilen [ca. 3 km] flussaufwärts von der Mündung des Tiber. Während der Römischen Warmperiode lag der Meeresspiegel signifikant höher als heute.

Zu einem wichtigen Wendepunkt der britischen Geschichte kam es im Jahre 1066, als Wilhelm der Eroberer König Harold II in der Schlacht von Hastings besiegte. Weniger bekannt ist, dass er ein altes römisches Fort namens Pevensey Castle bei seiner Landung okkupierte, welches zu jener Zeit auf einer kleinen Insel in einem Hafen an Englands Südküste gelegen war. Eine Zugbrücke war die Verbindung zum Festland. Pevensey ist verrufen, weil unglückliche Gefangene in dieses „Sea Gate“ geworfen worden waren, so dass ihre Körper von den Gezeiten weggeschwemmt worden sind. Pevensey Castle liegt heute 1 Meile [ca. 1,5 km] von der Küste entfernt – ein weiterer Beweis eines viel höheren Meeresspiegels vor weniger als 1000 Jahren.

Vor dem modernen Italien wurde das Gebiet von den berühmten Stadtstaaten des Mittelmeeres beherrscht, darunter Pisa mit seinem pittoresken Domplatz und dem berühmten Schiefen Turm. An der Mündung des Arno gelegen, war Pisa eine mächtige Stadt, weil der Seehandel durch Handelsschiffe direkt in den Hafen hinein vonstatten ging. Seine Herrschaft endete nach dem Jahr 1300 zum Beginn der Kleinen Eiszeit, als der Meeresspiegel sank und die Schiffe den Hafen nicht mehr erreichen konnten. Wieder haben einige von Sedimentablagerungen gesprochen.

Allerdings liegt Pisa heute sieben Meilen [ca. 11 km] vom Tyrrhenischen Meer entfernt, mit großen Mäandern des Arno flussaufwärts und kaum mäandrierend flussabwärts. Wenn ein Fluss „ebenerdig“ verläuft, ist das Gefälle flussabwärts so niedrig wie möglich. Genauso ist es auch mit dem mäandrierenden Mississippi und dessen Delta im US-Bundesstaat Louisiana. Flüsse mit starkem Gefälle fließen direkt ins Meer ohne große Mäander, so wie der Rio Grande im US-Bundesstaat New Mexico.

Die geschichtlichen Fakten sind eindeutig. Der Meeresspiegel lag am Ende der Wisconsin-Eiszeit vor 18000 Jahren um 400 Fuß niedriger als heute. Bis vor etwa 8000 Jahren war der Meeresspiegel rapide gestiegen. Noch 1066, als die Normannen England eroberten, lag der Meeresspiegel noch etwas höher als heute.

Während der Kleinen Eiszeit von 1300 bis 1850 – als die kältesten Temperaturen der letzten 10000 Jahre aufgetreten waren – akkumulierten sich Schnee und Eis in Grönland, der Antarktis, Europa und weltweit auf Gletschern. Als Folge sank der Meeresspiegel so stark, dass wichtige Hafenstädte der Römerzeit und des Mittelalters wie Ephesus, Ostia Antica and Pisa viele Kilometer landeinwärts lagen.

Seit dem Ende der Kleinen Eiszeit vor etwa 160 Jahren zeigen die Tidenmessungen, dass der Meeresspiegel mit einer gleichbleibenden Rate gestiegen ist – ohne jede Korrelation mit dem Anstieg des CO2-Niveaus in der Atmosphäre.

Der Meeresspiegel ist ein dynamischer Mitspieler bei den Klimazyklen der Erde. Sein Stand ist eng verknüpft mit Änderungen der Solarstrahlung und anderen natürlichen Quellen. Es ist unwahrscheinlich, dass sich das ändert als Folge einer Steuerpolitik, die Energie teurer und Ökonomien anfälliger macht – egal was die Politiker in Washington, Brüssel oder bei den UN sagen.

Zu ihrem großen Verdruss hört Mutter Natur nicht auf sie. Sie folgt ihrem eigenen Willen.

Robert W. Endlich diente 21 Jahre lang als Wetteroffizier in der US-Luftwaffe und 17 Jahre lang bei der Armee als Meteorologe. Er wurde in die nationale Meteorologie-Ehrengesellschaft Chi Epsilon Pi gewählt, und zwar noch während seiner Zeit als Student der Meteorologie an der Texas A & M-University. Er promovierte in Geologie und Meteorologie an der Rutgers University bzw. der Penn State University und hat die antiken Stätten in Rom, Ostia Antica und Pisa besucht.

Link: http://wattsupwiththat.com/2013/12/02/history-falsifies-climate-alarmist-sea-level-claims/

Übersetzt von Chris Frey EIKE




Wissenschaftsblog des Jahres gesucht: EIKE wieder nicht in der Auswahlliste

Auf Nachfrage, warum EIKE trotz Meldung dieses Jahr wieder nicht dabei sei, schrieb uns Herr Korbmann, dass nur Blogs ausgewählt würden, die in der Ranking Liste der Marketing Agentur Ebuzzing geführt würden. Merkwürdigerweise muss man sich dort selber anmelden, es wird also kein automatisches Scannen der einschlägigen URLs vorgenommen, um dadurch eine neutrale Auswahl vorzunehmen.

Wir haben uns diesmal dort angemeldet.

Uns war diese Ranking Agentur bisher völlig unbekannt.

Lt. der offenen Rankingagentur Alexa steht EIKE derzeit bei stolzen 5.001 (niedriger ist besser) aller von Alexa erfassten deutschsprachigen Websites, "Klimaretter.info" z.B. 8.807. Wissenschaft kommuniziert hat keinen deutschen Platz, im weltweiten Vergleich bei 3´536.000. (Zum Vergleich: EIKE steht weltweit bei 107.527)

Ein weiteres Kriterium lt. Herrn Korbmann war, dass man in seinem Kommentarbereich einen Kommentar mit der Bitte um Teilnahme zu hinterlassen hätte. Das hatten wir blöderweise letztes Jahr wohl vergessen, aber dieses Jahr nicht. Mal sehen, was nächste Jahr daraus wird. Daher, wenn Sie abstimmen wollen, stimmen Sie für ScienceSceptical

EIKE Redaktion




Neuer Eisbohrkern spiegelt die Klimavariabilität in der Westantarktis

Die Autoren schreiben, dass sich die Region ihrer Analyse zufolge seit Ende der fünfziger Jahre erwärmt hat, und zwar mit einer Rate, die derjenigen auf der Antarktischen Halbinsel und in den zentralen Gebieten der Westantarktis ähnelt.

Allerdings weisen die Autoren auch darauf hin, dass diese jüngste Erwärmung in ihrer Größenordnung ähnlich den Erwärmungs- und Abkühlungstrends ist, die sich Mitte des 18. Und Mitte des 19. Jahrhunderts in ihrem Eisbohrkern zeigen. Dies bedeutet, dass an dieser Stelle an der Westantarktis die Auswirkungen einer vom Menschen induzierten Klimaänderung nicht über die natürliche Klimavariabilität der letzten 300 Jahre hinausgehen.

Quelle: Geophysical Research Letters, doi:10.1002/2013GL057782, 2013 http://onlinelibrary.wiley.com/doi/10.1002/2013GL057782/abstract

A 308 year record of climate variability in West Antarctica

[etwa: Eine 308 Jahre lange Aufzeichnung der Klimavariabilität in der Westantarktis]

Authors: Elizabeth R. Thomas, Thomas J. Bracegirdle and John Turner: British Antarctic Survey, Cambridge, UK; Eric W. Wolff: Department of Earth Sciences, University of Cambridge, Cambridge, UK.

Abstract:

Wir präsentieren eine neue Aufzeichnung aus stabilen Isotopen aus dem Ellsworth Land. Von dort haben wir einen wertvollen, 308 Jahre abdeckenden Eisbohrkern (1702 bis 2009) untersucht, der die Klimavariabilität in den küstennahen Gebieten der Westantarktis spiegelt. Die Klimavariabilität an dieser Stelle wird sehr stark beeinflusst von der Wassertemperatur und dem Luftdruck im tropischen Pazifik und ist abhängig von den Eisverhältnissen vor Ort. Die Aufzeichnung zeigt, dass sich diese Region seit Ende der fünfziger Jahre erwärmt hat, und zwar mit einer ähnlichen Rate, wie sie auf der Antarktischen Halbinsel und der zentralen Westantarktis beobachtet worden ist. Allerdings ist dieser Erwärmungstrend nicht einheitlich. Weit dramatischere isotopische Erwärmungs- (und Abkühlungs-)Trends ereigneten sich Mitte des 18. und Mitte des 19. Jahrhunderts. Dies belegt, dass gegenwärtig die Auswirkungen anthropogener Klimaantriebe nicht über die natürliche Variabilität während der letzten 300 Jahre oder so hinausgehen.

Link: http://wattsupwiththat.com/2013/12/05/new-ice-core-record-shows-climate-variability-in-west-antarctica/

Übersetzt von Chris Frey EIKE




Windturbinen verschandeln die Landschaft zum Nutzen von Milliardären

Bild rechts: George Osborne finanziert eine kleine Gruppe extrem wohlhabender Personen, damit diese Anderen erlauben, Windturbinen auf ihren Ländereien zu errichten, oder zumindest hat er das bis letzten Dienstag getan. Illustration: Satoshi Kambayashi

Ich bin nicht besonders egalitär. Ich unterstütze die Sparpolitik der öffentlichen Finanzen und akzeptiere, dass es ein wenig Besänftigung angesichts der Zumutungen bedarf. Aber George Osborne geht weit über das hinaus.

Die britische Energiepolitik ist chaotisch. Sie ist intellektuell inkohärent, schlingert von einer Seite zur anderen, wobei jedes Schlingern den Steuerzahlern eine Menge Geld aus der Tasche zieht, um einen Haufen von Lobbyisten zu bezahlen, die diesen Schlingerkurs schützen. Niemals in der Geschichte öffentlicher Subventionen kann so viel von so vielen an so wenige gezahlt worden sein.

Die sorgsam gewählte Ankündigung, dass der Kanzler  die Zuwendungen für Windturbinen an Land kappen will, wird teilweise begrüßt, ist aber sinnlos. Obwohl es auf den ersten Blick nicht so aussieht, sind Windturbinen im Meer sogar noch teurer und uneffizienter als dieselben auf dem Land. Der bizarre Plan, 240 Windturbinen mitten im Bristol Channel zu errichten, wurde bereits als unökonomisch fallen gelassen, trotz der Subventionen von Osborne. Der gewaltige Windpark in East Anglia kann Milliarden kosten. Gegen all das scheint Kernenergie ein echtes Geschäft zu sein.

In einer Hinsicht habe ich Mitleid mit der Windkraft-Lobby. Deren Mitglieder versuchen, das Geld ehrlich auszugeben und müssen vorausplanen. Erst vor wenigen Jahren hatte ihnen der fanatischste Unterstützer der Windkraft und dafür höchste Subventionen zahlende Chris Huhne empfohlen, 10000 Windturbinen an Land einzuplanen. Verträge wurden versprochen. Öffentliche Gelder standen unbegrenzt zur Verfügung. Allein die Offshore-Windparks würden „in UK 20000 Arbeitsplätze schaffen“. Das war blanker Unsinn.

Es gibt fast keine Arbeitsplätze in UK. Die deutsche Siemens AG konstruiert die meisten britischen Turbinen und verlässt sich vernünftigerweise nicht auf die Regierung von UK für seine Investitionen. Die Turbinen werden auf dem Kontinent gebaut. Konkurrent Vestas hat ein Werk in Kent stillgelegt, und die Firma Doosan aus Südkorea hat das Gleiche in Glasgow getan. Die erforderliche Energie, die Seltenen Erden im Bergbau zu gewinnen sowie der Bau, der Import und die Aufrichtung der Turbinen machen ihre „grüne Fassade“ zum Narren.

Die Industrielobby in Gestalt von RenewableUK hat beklagt, dass es eine ,,politische Entscheidung" war, Subventionen zu kürzen, und das war richtig. Die Änderung resultierte aus der Manie von Downing Street mit UKIP [United Kingdom Independence Party, eine rechtskonservative Partei. A. d. Übers.], hat sich diese Partei doch scharfsinnig gegen Windturbinen ausgesprochen. Aber eine Industrie, die im Grunde ein staatlicher Subunternehmer ist, muss derartige Launen hinnehmen. Die Goldene Gans gibt es nicht unbegrenzt.

Ich habe zwei Jahre damit zugebracht, auf der Suche nach den schönsten Ansichten durch ganz UK zu latschen. Es ist schwierig, die verheerenden Auswirkungen der Turbinen zu übertreiben; vor allem denjenigen gegenüber, die sie nie zu Gesicht bekommen haben, besonders eine politische Elite, die den Südosten niemals verlässt außer zu Auslandsreisen. Felder mit diesen Strukturen erheben sich jetzt fast überall. Sie sind errichtet ohne Rücksicht auf den Wind, da Subventionen unabhängig vom Ertrag gezahlt werden, selbst wenn der Wind gar nicht weht. Es macht die Landwirtschaftspolitik der EU zu einem Ausbund an Vernunft.

Die Turbinen werden Cornwall umzingeln und sich entlang der Küste von Devon erstrecken. Sie werden einen Wall vor der Küste von Dorset bilden. Sie werden in einer Linie von Offa’s Dyke über Gwent nach Shropshire reichen, mit einem einzelnen Giganten auf dem Clyro Hill, der über dem Wye-Tal thront wie Christ der Erlöser in Rio. Die einst desolaten Cambrian Mountains sind auf dem Weg, zu einer Landschaft mit 840 Windturbinen zu werden – nette Aussichten, egal wohin man schaut.

In den Grafschaften von Northampton, Nottingham und Cambridge haben sich schon jetzt die Turbinen versammelt. In Heckington Fen in Lincolnshire könnten welche stehen, die größer sind als die Lincoln-Kathedrale. Sie werden demnächst auch im Forest of Bowland in Lancashiere, in der Brontë-Landschaft von Yorkshire und auf Spurn Point erscheinen.

Die natürlichste Küstenlinie, die es in England noch gibt, in Northumberland, wird durch 70 Turbinen flankiert. In Schottland hat der Roxburghe-Windpark mit 400 Turbinen die einst liebliche Landschaft der Lammermuir Hills in ein Kraftwerk verwandelt. Inverness und Caithness sind dabei, ihre offenen Aussichtspunkte zu verlieren, ebenso wie die Shetlands und die Inseln vor Argyll. Schottische Aristokraten haben seit den Highland clearances [?] solch eine Wendung ihres Schicksals nicht mehr erlebt.

Die Landschaft in UK ist niemals zuvor Gegenstand derartiger visueller Umbrüche geworden. Menschenhand hat die Landschaft immer umgestaltet, sowohl in Städten als auch auf dem Lande, aber sie hat niemals deren Erscheinungsbild derartig und in dieser Größenordnung industrialisiert. Straßen, Eisenbahnlinien, selbst Städte sind im Vergleich zu Windturbinen unauffällig. Nur wenige der schönsten Landschaftspunkte in UK werden davon verschont bleiben.

Meistens ist der Fortschritt läppisch. Turbinen erzeugen selten ihre Kapazität. Diejenige, die über der M4 [vergleichbar mit einer Autobahn in D] thront, erzeugt gerade mal 16% ihrer Kapazität. Was sie wirklich erzeugen ist Geld, und zwar bis zu 30000 Pfund pro Jahr an Subvention. Die für Windenergie ausgegebenen Milliarden hätte man viel besser verwenden können – wie Energie-Professor Dieter Helm, die Berater von KPMG und Andere schon lange gesagt haben – um geringere Emissionen via Energie-Effizienz und saubereren Kohlenstoff zu erreichen.

Und doch hat der Mythos, dass der Wind „umsonst“ ist, die Politiker in den Wahnsinn getrieben. Sie haben den Reichtum der Landschaft mit Unmengen öffentlicher Gelder zerstört; Gelder, die an eine Handvoll Reiche fließen. Die moderne Landschaft in UK ist ihr Denkmal.

Link: http://www.theguardian.com/commentisfree/2013/dec/06/wind-turbines-landscape-billionaires-energy-policy

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: In diesem ganzen Artikel könnte man jedes Mal den Bezug auf UK mit dem Begriff Deutschland ersetzen. Darum habe ich das hier übersetzt.

C. F.




Video: Bemerkungen zur vom Menschen verursachten globalen Erwärmung – Episode 2: Einführung in den Stillstand bei der globalen Erwärmung

Ich habe an einem ziemlich großen Thanksgiving-Treffen teilgenommen. Anwesend waren etwa 18 Personen, hauptsächlich Erwachsene, die um 2 Tische verteilt saßen. Einer der grüneren Teilnehmer sagte etwas zur globalen Erwärmung, und meine Antwort lautete, dass diese sich verlangsamt habe und dass es seit über einem Jahrzehnt überhaupt keine Erwärmung der globalen Temperaturen mehr gegeben habe. Meine Aussage stieß bei den meisten auf Unglauben. Glücklicherweise hatten auch zwei der Teenager von diesem Stillstand gehört. (Wir lagen später bzgl. des Stillstands auf einer Linie). Dies führte zu einer Anzahl schneller Diskussionen, aber am überraschendsten für mich war, dass nur so wenige Erwachsene von dieser Verlangsamung und dem Stillstand gehört hatten … und dass die Klimawissenschaftler nicht in der Lage waren, diesen zu erklären. Ist der Stillstand der globalen Erwärmung irgendwie der Aufmerksamkeit der Mainstream-Medien in den USA entgangen?

Youtube erlaubt die Untertitelung des Videos, durch Einschalten der Untertiteloption. Zusätzlich können die Untertitel übersetzt werden. Dazu im Untertitelmenuepunkt die gewünschte Sprache auswählen

Hier folgen die Links zu den im Video präsentierten Websites und Studien:

• Artikel von Kevin Trenberth für die Royal Meteorological Society Has Global Warming Stalled? (Meine Antwort auf diesen Artikel findet sich hier.)

• Von Storch et al. (2013) “Can Climate Models Explain the Recent Stagnation in Global Warming?”

• Fyfe et al. (2013) “Overestimated global warming over the past 20 years

Und natürlich habe ich ein paar Graphiken mit Vergleichen zwischen Modellen und Daten eingefügt, die ebenfalls zeigen, wie schlecht die Modelle die globalen Temperaturen während der letzten Jahre simuliert haben. Weitere zahlreiche Beiträge zu diesen Themen und anderen Dingen, an denen die Modelle gescheitert sind, finden sich auf meinem Blog Climate Observations. Man beachte auch mein E-Buch Climate Models Fail.

In folgenden Videos werden wir die Entschuldigungen beleuchten, die die Enthusiasten der globalen Erwärmung angesichts des Stillstands vorbringen.

Die Videoreihe „Bemerkungen zur vom Menschen verursachten globalen Erwärmung“ enthält auch:

Episode 1 – The Hiroshima Bomb Metric

Link: http://wattsupwiththat.com/2013/12/05/video-comments-on-human-induced-global-warming-episode-2-introduction-to-the-halt-in-global-warming/

Übersetzt von Chris Frey EIKE