Neue AWI-Studie warnt: Klimamodelle unterschätzen natürliche Schwankungen der Meeresoberflächentemperaturen um den Faktor 50

Potsdam/Bremerhaven, den 10. November 2014. Das Klima der Erde scheint in den letzten 7000 Jahren sehr viel unbeständiger gewesen zu sein als bisher gedacht. Diese Schlussfolgerung legt eine neue Studie nahe, die im Lauf dieser Woche im US-amerikanischen Wissenschaftsmagazin „Proceedings of the National Academy of Sciences“ (PNAS) veröffentlicht wird. Wissenschaftler vom Potsdamer Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung, und der Harvard University zeigen darin, dass die aus Klimaarchiven rekonstruierten Meeresoberflächentemperaturen auf langen Zeitskalen erheblich stärker variieren als von Klimamodellen berechnet. Konsequenz: entweder liefern gängige Klimaarchive ungenaue Temperatursignale oder die getesteten Modelle unterschätzen die regionalen Klimaschwankungen in der jüngeren Erdgeschichte.
Wer die Klimageschichte rekonstruieren will, muss natürliche Archive studieren, denn der Mensch hat den Planeten erst seit erdgeschichtlich kurzer Zeit vermessen. Reale Messwerte von Meerestemperaturen gibt es erst seit ungefähr 150 Jahren. Für die Zeiträume davor sind Wissenschaftler auf sogenannte „Proxies“ angewiesen – Indikatoren, die indirekte Rückschlüsse auf Klimadaten früherer Zeiten erlauben. Solche Klimaarchive beziehen sich in der Regel auf räumlich begrenzte Gebiete und unterscheiden sich in ihrer zeitlichen Auflösung. Außerdem zeigen sie mitunter ein erhebliches Hintergrundrauschen.

„In unserer Untersuchung interessierte uns nicht, wie warm das Klima zum Zeitpunkt X in einer bestimmten Region gewesen sein mag. Wir wollten rückblickend analysieren, wie stark das regionale Klima über Jahrzehnte bis Jahrtausende zeitlich variiert“, erläutert Dr. Thomas Laepple vom Alfred-Wegener-Institut. „Eine unserer größten Herausforderungen bestand deshalb darin, verschiedene Messdaten und Klimaarchive aus einer Vielzahl von Regionen untereinander vergleichbar zu machen und das natürliche Rauschen herauszufiltern, das die Aussagekraft mancher Klimaarchive stark verfälscht.“

Laepple und sein Kollege Peter Huybers von der Harvard University verglichen Daten aus Temperaturmessungen, Korallen und Sedimentkernen, die aus vielen verschiedenen Meeresregionen der Erde stammen. Klimadaten aus heutigen Korallen reichen maximal 400 Jahre in die Vergangenheit zurück. Sie erlauben Rückschlüsse auf Temperaturänderungen im Lauf von Jahrzehnten oder Jahrhunderten. Meeressedimente können sehr viel ältere Informationen enthalten, erreichen in der Regel aber nur eine Auflösung über Jahrhunderte und Jahrtausende. Durch verschiedene Eich- und Filterprozesse gelang es den beiden Forschern, eine Vielzahl verfügbarer Daten aus Temperaturmessungen und Klimaarchiven so zu kombinieren, dass sie die rekonstruierten Meeresoberflächentemperaturen an verschiedenen Orten der Welt über einen Zeitraum von 7000 Jahren auf unterschiedlichen Zeitskalen miteinander vergleichen konnten.
„Wir haben zunächst einmal festgestellt, dass die natürlichen Schwankungen der Meerestemperaturen überraschend groß sind und um so stärker waren, je länger die analysierten Zeiträume sind“, so ein erstes Fazit der beiden Wissenschaftler. In einem zweiten Schritt haben sie dann rund 20 Klimamodelle in mehr als 100 Testläufen untersucht um festzustellen, wie gut die Modelle diese Temperaturschwankungen simulieren können. Ergebnis: Über Zeiträume von Jahren und Jahrzehnten stimmten Mess- bzw. Klimaarchivdaten und Modellläufe recht gut überein. Doch je länger die Zeitskalen, desto größer wurde die Diskrepanz – am stärksten in tropischen Meeresregionen. Auf tausendjähriger Zeitskala unterschätzten gängige Klimamodelle die aus den Klimaarchiven rekonstruierten Schwankungen der Meeresoberflächentemperaturen um den Faktor 50.
„Theoretisch gibt es nun zwei denkbare Erklärungen“, so Thomas Laepple. „Entweder liefern die Klimaarchive keine verlässlichen Temperaturdaten, oder die Klimamodelle unterschätzen die Variabilität des Klimas. Vielleicht stimmt auch beides ein bisschen.“ Da das Ergebnis auf mehreren unabhängigen Klimaarchiven und Korrekturmethoden beruht, glaubt Laepple, dass das Problem eher bei den Modellen liegt.
„Wir müssen die Vorhersagen, wie stark das Klima regional schwanken kann, wahrscheinlich korrigieren“, ist Thomas Laepple aufgrund seiner Forschungsergebnisse überzeugt. „Angesichts der enormen Mengen von Treibhausgasen, die in die Atmosphäre abgegeben werden, können wir uns sicher sein, dass es global wärmer wird. Aber die Bandbreite von Veränderungen, auf die wir zusteuern, ist wahrscheinlich wesentlich größer, als wir sie uns derzeit vorstellen.“ Denn die natürlichen Schwankungen, die den Trend zur Erwärmung überlagern, zeigen immer in beide Richtungen: Temperaturen können in einer bestimmten Region im Zeitraum von Jahrzehnten oder einem Jahrhundert weniger oder stärker steigen als Klimamodelle es derzeit im globalen Mittel prognostizieren.
Weil es sich hierbei um eine zentrale Frage für die Prognose künftiger Klimabedingungen auf der Erde handelt, leitet der Potsdamer Physiker seit etwa einem Jahr eine eigene Forschungsgruppe, die sich schwerpunktmäßig mit diesem Thema beschäftigt. Sie trägt den Namen „ECUS – Estimating climate variability by quantifying proxy uncertainty and synthesizing information across archives“.
„Wir stecken“, so Laepple, „mitten in einem Experiment, das sich nicht zurückdrehen lässt, das wir aber immer noch zu grob verstehen, um auf längeren Zeitskalen regional eindeutige Aussagen zu finden. Leider müssen wir mit dieser Unsicherheit wohl noch eine Weile leben.“
Zur Publikation:
Die Studie erscheint in der Woche ab dem 10. November 2014 (46. Kalenderwoche) unter folgendem Titel in der Online „Early Edition“ des Fachmagazins Proceedings of the National Academy of Sciences (PNAS):
Thomas Laepple und Peter Huybers: Ocean surface temperature variability: Large model–data differences at decadal and longer periods. DOI: 10.1073/pnas.1412077111 (Link: www.pnas.org/cgi/doi/10.1073/pnas.1412077111 or in the online early edition unterhttp://www.pnas.org/content/early/recent)
————-
Siehe auch dazugehöriger Artikel “Unterschätzte Temperaturschwankungen: Korallen und Sedimentfunde als Prüfstein für Klimamodelle” von Sven Titz in der Neuen Zürcher Zeitung.
Übernommen von Die kalte Sonne 




EIKE 8. IKEK Bildungsbedingungen der Kohlenwasserstoffe und Hydraulic Fracturing verlängern ihre Verfügbarkeit

Interessant war im kurzen Schlussteil die Beantwortung der immer wieder gestellten Frage nach einem evtl. nicht biotischen Ursprung von Öl und Gas. Gemäß Ewert ist dies auszuschließen, zumindest Öl und Gas in Schiefergestein können nur synergenetisch entstanden sein.

Video vom Vortrag Prof. Ewert zum Thema Fracking anlässlich der 8. IKEK am 16.10.14 in Frankfurt/Main




„Erneuerbare“ Energie – Solar- und Windenergie: Kapitalkosten und Effektivität im Vergleich

Die entsprechenden Daten zeigt diese Tabelle:

Alles in allem zeigen diese Zahlen, dass diese drei westlichen Nationen in einer Größenordnung von mindestens 500 Milliarden Dollar allein an Kapitalkosten aufgebracht haben (konservativ geschätzt und nur die primären Kapitalkosten), nur um Strom erzeugende Kapazitäten mittels Erneuerbarer zu schaffen.
Nominell sollte diese proklamierte Erzeugungskapazität von ~153 GW etwa 26% ihrer Gesamt-Stromerzeugung ausmachen, wenn es voll effektiv wäre. Weil es jedoch einen unvermeidlichen Kapazitätsfaktor von rund 20% gibt, der für alle Erneuerbaren gilt, ergibt sich als tatsächliche kumulative Energie aus diesen erneuerbaren Quellen lediglich 5% der Gesamt-Stromerzeugung für diese Nationen.
Für Solarenergie gilt, dass die Kosten etwa 34 mal so hoch sind wie die vergleichbare Erzeugung durch Gas, aber 9 mal weniger effektiv.
Bei Windkraft sind es nur etwa 12 mal so hohe Kosten und 4 mal geringer effektiv.
Der gleiche Gesamt-Strom-Output könnte mittels konventioneller Erdgaserzeugung für etwa 31 Milliarden Dollar oder einem Sechzehntel der tatsächlichen Kapitalkosten erzielt werden. Wäre konventionelle Gaserzeugungs-Technologie genutzt worden, hätten die gesamten ~31 GW Erzeugungskapazität eine sichere und ununterbrochene Stromerzeugung gewährleistet, wann und wo sie gebraucht wird.
Die folgenden Berechnungen stellen konservative Schätzungen der Kapitalkosten für die Installation Erneuerbarer dar. Sie diskontieren vollständig die hauptsächlichen zusätzlichen Kosten von:
● stützender Backup-Erzeugung,
● Anbindung an das Netz aus abgelegenen Orten
● die großen Differenzen der Kosten fortgesetzter Wartung.
Angesichts dessen, dass alle Technologien hinsichtlich erneuerbarer Energie nur mit Unterstützung üppiger Subventionen seitens der Regierung [= der Steuerzahler] sowie Markteingriffen und Marktmanipulationen realisierbar sind – kann dies ein verantwortungsvoller Umgang mit öffentlichen Fonds oder ein guter Grund für steigende Energiekosten sein, und zwar für Individuen und die Industrie in der westlichen Welt gleichermaßen?
Folgende Datenquellen für die USA, Deutschland und UK wurden begutachtet:
USA: Verfügbare Daten 2000 bis 2012
http://www.nrel.gov/docs/fy14osti/60197.pdf
Deutschland: Daten verfügbar von 1990 bis 2013
http://en.wikipedia.org/wiki/Wind_power_in_Germany
http://en.wikipedia.org/wiki/Solar_power_in_Germany
UK: Daten Verfügbar von 2008 bis 2013
http://en.wikipedia.org/wiki/Wind_power_in_the_United_Kingdom
http://en.wikipedia.org/wiki/Solar_power_in_the_United_Kingdom
Anmerkung: Diese Datenquellen wurden verwendet, weil sie normalerweise grün orientiert sind und weil es daher unwahrscheinlich ist, dass sie von den Befürwortern der anthropogenen globalen Erwärmung in Frage gestellt werden.
Diese oben gelisteten Daten stellen installierte „Nennwert“-Kapazitäten zur Verfügung, gemessen in Megawatt (MW), und Energie-Output gemessen das ganze Jahr über in Gesamt-Gigawattstunden (GWh). Folglich sind es keine direkt vergleichbaren Werte, da die Nennleistung in Megawatt und der tatsächlich erzielte Output angegeben sind. Für diesen Vergleich wurden die jährlichen Gigawattstunden hin zu äquivalenten Megawatt revidiert, für alle 8760 Stunden im Jahr, wie es Prof. David MacKay in „Sustainable Energy – without the hot air” auf Seite 334 angeführt hat.
Obwohl hierdurch die unvorhersagbaren und variablen Effekte der Periodizität und der Nicht-Verfügbarkeit, die für erneuerbare Energiequellen charakteristisch sind, eliminiert werden, ergibt sich ein konservativ vergleichbarer Wert des aktuellen Energie-Outputs, der folglich potentiell verfügbar ist.
Damit kann man die Kapazitätsfaktoren berechnen in Relation zu Erneuerbaren-Technologien in jeder Nation. Die folgende Graphik zeigt die Historie von Installationen erneuerbarer Energie (Solar und Wind zusammen) sowie den Fortschritt Jahr für Jahr hinsichtlich des tatsächlich erzeugten Stromes.

Die Energy Information Association EIA stellt die Informationen bzgl. Kapitalkosten in US-Dollar für die USA zur Verfügung. Diese Kapitalkosten werden für vergleichbare Ziele benutzt, berücksichtigen aber nicht Währungsschwankungen und andere lokale Finanzfaktoren.
http://www.eia.gov/forecasts/capitalcost/pdf/updated_capcost.pdf
Die EIA USA veröffentlicht umfassende Informationen zu den Kapitalkosten alternierender Stromerzeugungs-Technologien, und zwar in Tabelle 1 ihres Berichtes 2013. Aus dieser vollständigen Liste betrachten diese Anmerkungen drei Technologien:
● Photovoltaik in großem Maßstab: dies ist die wirtschaftlichste aller PV-Technologien mit rund 3,8 Milliarden pro GW.
● Kombiniert Wind 18-20: zusammengeführte Onshore 80% und Offshore 20% Wind bei rund 3,0 Milliarden Dollar pro GW
● Kombinierter fortschrittlicher Erdgas-Zyklus: die teuerste technische Option beträgt etwa 1,0 Milliarden Dollar pro GW.

„Kapitalkosten über Nacht“ (als ob eine Installation zur Stromerzeugung über Nacht errichtet wurde), ist die Standard-Vergleichszahl für Kapitalkosten in der Energieindustrie. Die hier verwendeten speziellen Kapitalkosten über Nacht enthalten:
● Zivile und strukturelle Kosten
● Mechanische Ausrüstung, Transport und Installation
● Elektrische und anderweitige Instrumentierung und Kontrolle
● Projizierte indirekte Kosten
● Kosten anderer Eigentümer: Design-Studien, gesetzliche Abgaben, Versicherungskosten, Eigentumssteuern und lokale Anbindung an das Netz.
Nicht enthalten in diesen Kapitalkosten über Nacht sind im Einzelnen:
● Bereitstellung von Backup-Stromversorgung, „verfügbare Reserve“ [spinning reserve], wenn erneuerbare Energie nicht verfügbar ist.
● Treibstoffkosten für die tatsächliche Erzeugung und die verfügbare Reserve
● Kosten für Zugangswege zu abgelegenen Stellen
● Erweiterte elektrische Verbindungen zum Netz
● Wartung
● Finanzierung usw.
Diese aus ,Kapitalkosten über Nacht‘ ausgeschlossenen zusätzlichen Kosten für erneuerbare Energie bedeuten, dass deren Nutzung möglicherweise bedeutend weniger ökonomisch ist als die in diesen Tabellen gezeigten Vergleiche. Zusätzlich zu diesen Vergleichen werden die EIA-Daten genannt in US-Dollar. Diese Ergebnisse dienen vornehmlich vergleichenden Zwecken und nehmen nicht für sich in Anspruch, präzise Angaben zu den tatsächlichen Ausgaben in den verschiedenen Nationen und durch Regierungen zu zeigen. Allerdings zeigen sie deutlich die Größenordnung der involvierten Kapitalsummen.
Sie erlauben auch die Berechnung vergleichender Zahlen zwischen der Erzeugung erneuerbarer Energie und der Standard-Stromerzeugung mit Gas. Die Ergebnisse für die individuellen Nationen in tabellarischer Form unter Verwendung der EIA-Daten zu ,Kapitalkosten über Nacht‘ folgen hier: Die Ergebnisse der Erzeugung erneuerbaren Stromes in jedem Land werden graphisch gezeigt:


In den USA ist Solarenergie noch vergleichsweise erfolgreich, weil sie hauptsächlich in südlichen Breiten installiert ist, aber in Deutschland ist es ernsthaft schwierig, in Solar zu investieren, ist es doch doppelt so teuer wie in den USA und nur halb so effektiv. Solarenergie in UK ist wiederum ist 55 mal teurer und halb so effektiv wie in Deutschland. Glücklicherweise trägt Solarerzeugung in UK nur etwa 25% zum Energiemix bei. Windenergie ist in den USA nur zu 26% so effektiv wie Gasstrom und etwa 11 mal teurer als dieser. In Deutschland ist Windenergie 50% teurer und substantiell weniger effektiv als in den USA. Windenergie in UK ist ebenfalls etwa 11 mal so teuer, ähnlich wie in den USA, aber wegen der Windbedingungen effektiver als in Deutschland.
Außerdem gibt es auch eine große Diskrepanz in den von der EIA genannten Wartungskosten. Im Vergleich zu einem Standard-Gaskraftwerk sieht der Vergleich der Wartungskosten so aus:

  • Photovoltaics                     times ~1.6

  • Onshore Wind-Power        times ~2.6

  • Offshore Wind Power        times ~4.9

  • Combined Wind  80 – 20    times ~4.0

  • Coal (without CCS)            times ~1.9   (included for reference)

  • Nuclear                              times ~6.1   (included for reference)

Auch gibt es bedeutende zu beantwortende Fragen über die Lebensdauer und die Widerstandsfähigkeit der Wind- und Solartechnologien: Dies ist besonders problematisch für Offshore-Windparks.
http://notrickszone.com/2014/09/11/spiegel-germanys-large-scale-offshore-windpark-dream-morphs-into-an-engineering-and-cost-nightmare/
Eine zusätzliche detailliertere Analyse könnte sehr gut zu dem Ergebnis kommen, dass trotz der praktisch kostenlosen Energie bei der Entwicklung, Herstellung und Installation sowohl von Solar- als auch von Windenergie größere Mengen CO2 emittiert werden. Die tatsächlichen Einsparungen der CO2-Emissionen halten sich daher vielleicht während der installierten Lebensdauer sehr in Grenzen.
http://sunweber.blogspot.fr/2014/11/prove-this-wrong.htm
Sporadische Natur und Nicht-Verfügbarkeit
Allerdings gibt es immer noch ein weiteres fundamentales Problem mit allen Quellen erneuerbarer Energie. Ihr Stromoutput ist sporadisch und nicht immer verfügbar. Ihr Stromoutput kann nicht auf die Stromnachfrage reagieren, falls und wenn der Strom gebraucht wird. Die Energie wird dem Netz in planloser Manier zugeführt, abhängig vom Wetter. Diesen Effekt kann man dem Diagramm unten entnehmen, das den Stromoutput in Deutschland in einer Woche im August 2014 zeigt, einer optimalen Periode für jedweden Solarenergie-Input. Strom war mit Sicherheit nicht immer verfügbar, als es erforderlich war.
http://notrickszone.com/2014/07/21/germanys-habitually-awol-green-energy-installed-windsolar-often-delivers-less-than-1-of-rated-capacity/
http://www.agora-energiewende.org/service/recent-electricity-data/stromerzeugung-und-verbrauch/
http://www.ukpowergeneration.info

Solarenergie variiert unvermeidlich abhängig von der Tageszeit, dem Wetterverlauf und natürlich auch grundlegend im Laufe der Jahreszeiten. Solarenergie ist am effektivsten in äquatornäheren Breiten und kann in Nordeuropa nicht ernsthaft effektiv sein. Im obigen Beispiel der Augustwoche 2014 variierte der Windkraft-Input zwischen 15,5 GW und 0,18 GW, und der solare Beitrag variierte von Null bis etwa 15 GW. Folglich ergab sich durch diese Variabilität der erneuerbaren Energie kombiniert mit der „Pflicht der Erneuerbaren“, die laut Gesetz falls verfügbar bevorzugt zu nutzen ist, eine Nachfrage nach konventioneller Erzeugung zwischen ~23 GW und ~47 GW während dieser Zeit. Die massive Zuwendung Deutschlands zu Solarenergie kann kurzzeitig in den Mittagsstunden an sonnigen Sommertagen etwa 20% der landesweiten Stromnachfrage decken, aber zu Zeiten maximaler Stromnachfrage an Winterabenden ist der solare Energieinput logischerweise Null. Aber gleichzeitig ist der Windkraft-Output genauso variabel wie in den Sommermonaten.
http://theenergycollective.com/robertwilson190/456961/reality-check-germany-does-not-get-half-its-energy-solar
In Deutschland ist die Sonneneinstrahlung und die Bewölkungsverteilung ähnlich wie in Alaska, und in UK, das sogar noch nördlicher liegt, ist die Solarausbeute noch schlechter. Stromerzeugung durch Windturbinen ist genauso flatterhaft wie in der Woche im Juli 2014, in der die Stromerzeugung aus Wind in ganz Deutschland viele Tage lang nahe Null lag. Ein stabiles Hochdruckgebiet mit geringem Wind in ganz Nordeuropa ist ein normales Ereignis in den Wintermonaten, wenn der Strombedarf am höchsten ist. Im Gegenzug kann der Output erneuerbarer Energie in anderen Jahreszeiten weit über die Nachfrage hinausgehen und muss teuer und unproduktiv entsorgt werden. Dies ist vor allem deswegen so, weil es keine Lösung hinsichtlich Stromspeicherung im industriellen Maßstab gibt. Aus diesem Grunde taucht das Wort „nominell“ immer wieder in diesen Noten auf in Relation zur Nennleistung erneuerbarer Energiequellen.
Unter dem Strich: diese drei Nationen haben sich massiven Investitionen in erneuerbare Energie verschrieben. Konservativen Schätzungen zufolge summieren sich diese Investitionen auf 500 Milliarden Dollar oder etwa 2,2% des kombinierten jährlichen BIP.
Diese Investitionen haben „nominell“ zu etwa 31 GW Erzeugungskapazität geführt bei einer installierten Nennleistung von etwa 150 GW. Dies ist „nominell“ etwa ein Viertel der gesamten installierten Nennleistung.
Aber diese nominellen 31 GW Output erneuerbarer Energie sind nur etwa 5,4% der insgesamt installierten Nennleistung von etwa 570 GW. Selbst diese 31 GW Erzeugung durch Erneuerbare ist nicht wirklich so zu gebrauchen, wie man sich das wünscht, und zwar wegen der Unregelmäßigkeiten und der Nicht-Verfügbarkeit.
Link: http://wattsupwiththat.com/2014/11/21/renewable-energy-solar-and-wind-power-capital-costs-and-effectiveness-compared/
Übersetzt von Chris Frey EIKE




Fakten, welche die Klimapolitik beachten sollte

von Ulrich Wolff Dipl. Physiker
Das „Intergovernmental Panel on Climate Change (IPCC)“, der sog. Weltklimarat, begründet seine Empfehlungen an die Staatsregierungen der Welt zur Klimapolitik
mit den Ergebnissen von Modellrechnungen. In Abb 1 werden solche Ergebnisse für den Beobachtungszeitraum von 1983 bis 2013 mit dem tatsächlichen Verlauf verglichen. Die fehlende Übereinstimmung wird folgend hinterfragt.
Abb.1  Klimamodelle im Vergleich zur Beobachtung.

1.  Die aktuelle Klimapolitik

Seit es Menschen gibt, war das tägliche Wetter eine überlebenswichtige Vorgabe der Natur, deren Beeinflussung  allenfalls übernatürlichen Autoritäten zustand. Grundlage einer „Klimapolitik“ war stets die erforderliche Anpassung an und Vorsorge für seine ständigen Veränderungen.
Erst in der zweiten Hälfte des vorigen Jahrhunderts führte die auch in der Politik erfolgreich angewandte Methode der „Angst auf Objektsuche“ findige Politiker zur Idee, die Verantwortung für Veränderungen künftig auf menschliches Handeln zu übertragen.
Das Wetter selbst, wie auch seine Statistik der Vergangenheit, mit der das „Klima“ unterschiedlicher „Klimate“ auf der Erde definiert und beschrieben wird, sind dazu als Messlatte einer Bedrohung grundsätzlich ungeeignet, weil meist Veränderungen in gleicher Richtung an einem Ort vorteilhaft, an einem anderen nachteilig sind. Erst mit der Erfindung eines Weltklimas können global die Urängste vor dem Unbekannten, vor  Veränderungen jeder Art erreicht werden. Der Anstieg weder spürbarer noch kaum prüfbarer Jahresmittelwerte für die Temperatur über der Oberfläche der Erdkruste und der Pegelstände der Weltmeere wird sofort als Gefahr verstanden. Dabei war doch z. B. in Deutschland der Anstieg der Temperatur seit der kleinen Eiszeit im Mittelalter ein Segen und seine Fortsetzung würde so manche Vorteile bringen.
Als konkrete Basis und Ausgangspunkt für das Angstobjekt „anthropogener Klimawandel“ dient ein winziger Ausschnitt aus der Klimageschichte, nämlich nur die Periode von 150 Jahren nach dem Beginn der Industrialisierung. Die mittlere Temperatur war während dieses Zeitraums um 0.7 – 0.8 ℃, die Pegelstände der Weltmeere um etwa 20 cm und der CO2 Gehalt in der Atmosphäre um 0,01 Vol.% über den Ausgangswert von 0,03 Vol.% hinaus angestiegen.
Die Parole: „Die Nutzung fossiler Brennstoffe sei die alleinige Ursache dieser in Zukunft dramatisch zunehmenden Veränderungen“. Nur mit den zeitlichen Scheuklappen von 150 Jahren ließ sich diese These gut verkaufen, denn  diese mittlere Temperatur war z. B. seit dem Ende der letzten Eiszeit vor 15.000 Jahren um etwa 5 ℃ und die Meeresspiegel sogar um 120 m angestiegen, ohne dass irgend jemand fossile Brennstoffe verwendet hätte. Assimilation hatte den CO2 Gehalt in der Atmosphäre in der Erdgeschichte sogar von mindestens 25% auf die zu Beginn der Industrialisierung noch existierenden 0,03 Vol.% verringert. Zur Zeit der Saurier waren es sogar mehr als 0,1 Vol.%.
Zur Einführung des neuen Angstobjektes „Klimawandel“ in die Realpolitik der Staaten wurde im Jahr 1988  vom „United Nations Environment Programme (UNEP)“ und der „World Meteorological Organization (WMO)“ das „Intergovernmental Panel on Climate Change (IPCC)“, der sog. Weltklimarat, installiert. Dieses IPCC soll seither der Welt als Vorgabe für die Politik einen klaren wissenschaftlichen Einblick in den gegenwärtigen Stand der Kenntnisse zur künftigen Klimaänderung verschaffen.
Die Wetterkunde nutzt für ihre Prognosen von Veränderungen in Erdkruste und Atmosphäre komplexe mathematische Modelle auf der Grundlage der Erfahrung aus Beobachtung, Messung und Experiment. Damit gelingt inzwischen die Vorhersage der wahrscheinlichen Veränderungen des Wetters für höchstens eine Woche.
Das zur Autorität erklärte IPCC setzt dagegen auf die Ergebnisse vergleichsweise stark vereinfachter mathematischer Modelle, die monokausal als Folge einer Fortsetzung der Nutzung fossiler Brennstoffe einen Anstieg der mittleren Temperatur über der Oberfläche der Erdkruste von einigen ℃ und der Meeresspiegel um einige Meter prognostizieren. Die globale Nutzung fossiler Brennstoffe sei daher drastisch zu reduzieren, um einen Anstieg der Temperatur auf 2 ℃ zu begrenzen. Dieser Ansatz wird im folgenden Abschnitt hinterfragt.
Die Reaktionen der Staatsregierungen auf diese Forderung des IPCC unterscheiden sich stark. Sie reichen von Ablehnen, Ignorieren, Lippenbekenntnis bis hin zu drastischen politischen Eingriffen in den Energiemarkt, wie das insbesondere Deutschland  – fast im Alleingang – vorführt.
Im Jahr 2014, 26 Jahre nach der Geburt des politischen Angstobjektes „anthropogener Klimawandel“, ist festzuhalten:
Der CO2 Gehalt der Atmosphäre steigt ungebremst weiter und folgt damit vermutlich zum Teil der globalen – und auch in Deutschland – weiter steigenden CO2 Freisetzung. Die mittlere Temperatur in Bodennähe (und auch darüber) über der Oberfläche der Erdkruste ändert sich dagegen seit etwa 18 Jahren nicht mehr.
Wie in Abb. 1 gezeigt, erfassen die Modelle, auf die sich das IPCC exklusiv stützt, diesen klaren Sachverhalt nicht.
Die deutschen Politiker, die ihr Handeln zwar mit ihrem Mandat für die Abwehr von Schäden für die menschliche Gesellschaft begründen, reagieren bisher nicht: „Weil Ihnen und ihren Institutionen der erforderliche Sachverstand fehle, würde man den Empfehlungen des IPCC weiterhin folgen.“

2.        Missverständnisse zur Erderwärmung

Die obere Erdkruste umfasst anteilig  29% Festland und 71% Ozeane mit einer mittleren Wassertiefe von ≈3800m. Lokale Wassertemperaturen bewegen sich  in diesem Volumen zwischen -2℃  und +30℃. An der Oberfläche des kleineren Festlandanteils variieren die Temperaturen dagegen zwischen -90℃ und +60℃. Der geschätzte Mittelwert der Temperaturen über der gesamten Oberfläche der Erdkruste liegt im mehrjährigen Mittel gegenwärtig bei knapp 15℃. (Eine genaue Bestimmung ist nicht möglich, weil dazu die Messmittel fehlen. Über Modellbetrachtungen (hic!) kommt man auf Werte zwischen 12.8ºC to 14.4ºC[1])
Ohne die  Absorption und langjährige Speicherung absorbierter Solarstrahlung, also allein gespeist von Erdwärme, würde diese Temperatur nur -240℃ betragen.
Der Energiefluss der Sonne erreicht die rotierende Erde im Jahresmittel mit einer Intensität von etwa 360 W/m2 an der Oberfläche ihrer Atmosphäre. Davon wird etwa ein Drittel ohne Wirkung direkt in den Weltraum umgeleitet. Gegenwärtig werden daher etwa 240 W/m2 von der Materie zunächst absorbiert, überwiegend in Wärme gewandelt, durchfließen Erdkruste und Atmosphäre und werden entsprechend verzögert als Wärmestrahlung ebenfalls in den Weltraum emittiert. Nur wenn die Energiebilanz der Erde bei diesem Vorgang nicht ausgeglichen ist, ändert sich der Energieinhalt von Erdkruste und/oder Atmosphäre. Das kann – mit entsprechender Verzögerung – sowohl Temperaturen, Eismengen und Meeresspiegel verändern. Diese Erwärmung um ≈255℃ lässt Ozeane und Atmosphäre entstehen. 
Zur Größe der Temperatur, die sich in der oberen Erdkruste einstellt, liefert der atmosphärische Treibhauseffekt einen signifikanten Beitrag. Seine Wirkung verzögert die Durchleitung der Solarenergie durch ihre flüssige und feste Materie zusätzlich.
Die Existenz eines atmosphärischen Treibhauseffektes wurde schon sehr früh richtig erkannt. Die Ursachen seiner Wirkung werden seither diskutiert. Eine Quantifizierung seines signifikanten Beitrages zur Erwärmung ist bisher nicht gelungen. Vermutet wird nur, dass dadurch die mittlere Temperatur über der Oberfläche der Erdkruste um erheblich mehr als nur um 33℃ angehoben wird. In diesem Beitrag wird der Versuch unternommen zu zeigen, dass es vermutlich erheblich mehr sein müsste. [2]
Fakt ist, dass Wolken ständig 60 bis 70% der Erdoberfläche vom Weltraum trennen. Die Projektion der Wasser und/oder Eispartikel in sichtbaren Wolken auf eine Kugelfläche bildet eine geschlossene Schicht flüssiger und/oder fester Materie. Jedes einzelne Partikel emittiert an seiner Oberfläche kontinuierlich Wärmestrahlung in den Raumwinkel von 4π, die gesamte Wolke also jeweils etwa hälftig in Richtung Weltraum und als Gegenstrahlung in Richtung Erdkruste.
Der Energiefluss zu den Partikeln der Wolken umfasst Absorption von Wärmestrahlung aus allen Richtungen, Kondensation, Konvektion und Wärmeleitung.
Eine Reihe von Indizien machen es sehr wahrscheinlich, dass auch an wolkenfreien Teilen der Atmosphäre existierende teils sehr geringe „Feuchte“ in Form sehr kleiner Eispartikel mit dann entsprechend großer Oberfläche ein dort vermutetes Fenster für Wärmestrahlung schließt.( https://de.scribd.com/doc/144664169/Treibhauseffekte)
Es ist offenbar feste und flüssige Materie, die in der Troposphäre[3] eine Wärmesenke entstehen lässt, von der sowohl die Emission in den Weltraum als auch eine Gegenstrahlung etwa gleicher Intensität zur Erdkruste ausgeht und so den atmosphärischen Treibhauseffekt entstehen lässt.
Bleibt die Frage nach dem tatsächlichen Einfluss der mehr als zweiatomigen Spurengase in der Atmosphäre, denen vom IPCC die Ursache für die Entstehung des atmosphärischen Treibhauseffektes zugeordnet wird.
Diese Gasmoleküle sind keine Kontinuumsstrahler. Sie absorbieren und emittieren Wärmestrahlung lediglich an diskreten Wellenlängen.
Sie erhalten und verlieren zudem kinetische Energie durch Stoß, sodass auch Spontanemission erfolgen kann.
Ihre Konzentration in der Troposphäre nimmt – gegenläufig zur Häufigkeit von Aerosolen – mit zunehmender Höhe ab.
Solche Gasmoleküle sind im Volumen der Troposphäre orts- und zeitabhängig mehr oder weniger mit den genannten Aerosolen gemischt.
Mehr als zweiatomige Spurengase interagieren daher sowohl mit Strahlungsflüssen, die von flüssiger und fester Materie an der Oberfläche als auch von den Partikeln in und außerhalb der Wolken emittiert werden.
Von  mehr als zweiatomigen Gasen absorbierte Strahlung wird dem Strahlungsfluss selektiv Energie an diskreten Wellenlängen entzogen, wenn einer Emission folgend eine Absorption in Aerosolen erfolgt. Die absorbierte Energie wird von dort ebenfalls wieder in den Raumwinkel von 4π emittiert, so dass sich zwar das Spektrum entsprechend ändert, nicht jedoch Intensität und Richtung der Strahlungsflüsse. Dieser Effekt wird durch Messung erfasst.
Auch eine Berechnung solcher Veränderung der Spektren von IR Strahlungsflüssen muss gelingen, wenn die Absorption der Gase mit Hilfe der umfangreichen  HITRAN Dateien korrekt erfasst wird.
Die Wirkung eines durch Wasser und Eis geschlossenen Fensters für Wärmestrahlung, die den atmosphärischen Treibhauseffekt erzeugt, kann jedoch an einem solchen, unvollständigen Modell, das Aerosole nicht erfasst, nicht erkannt werden.
Unabhängig von der Größe ihrer Konzentration in der Atmosphäre kann die Interaktion von mehr als zweiatomigen Gasen die Wirkung des atmosphärischen Treibhauseffektes nicht verändern. Von diesen Gasen kann daher nur in einer  Atmosphäre, die nahezu keine Aerosole enthält, eine energetisch wirksame Gegenstrahlung wesentlich geringerer Intensität emittiert werden.[4]
Ein solcher Zustand wurde zum Zweck der Prüfung von Berechnungsverfahren – lokal begrenzt – „am trockensten Ort der Erde“ gefunden und konnte zum Nachweis einer unter diesen Bedingungen von CO2 ausgehenden energetisch wirksamen Gegenstrahlung benutzt werden.
Die Abb. 2 zeigt das Ergebnis von Messung und Berechnung des Spektrums.

Abb. 2.  Spektrum der Gegenstrahlung aus sehr trockener Luft.
Fazit: Der fehlende Einfluss der mehr als zweiatomigen Gase auf die Größe des atmosphärischen Treibhauseffektes erklärt das Versagen der allein auf ihre Wirkung begrenzten Modellrechnungen. Die vom IPCC vertretenen Prognosen zum Anstieg von Temperatur und Meeresspiegel haben daher keine naturwissenschaftliche Grundlage.

3.        Klimageschichte und Ausblick

Der Ablauf der Klimageschehnisse der Vergangenheit kann mit Hilfe einer Reihe von sog. Klimaarchiven rekonstruiert werden. Dazu gehören u. a. Baumringanalyse, die Untersuchung von Ablagerungen in Seen und Ozeanen), Eisbohrkernen u. a. mehr. Eine solche Rekonstruktion der letzten 500 Millionen Jahre zeigt die Abb.3.

Abb.3. Abweichung der mittleren Temperatur an der Erdoberfläche vom Durchschnitt der      Jahre 1960 – 1990 in ℃.
Auch während dieser 500 Millionen Jahre ist kein Einfluss des CO2 Gehaltes der Atmosphäre auf Temperaturen zu erkennen:
Obwohl die Atmosphäre vor 300 Millionen Jahren noch etwa 8% CO2 enthielt, kam es zu einer Eiszeit. In den folgenden 250 Millionen Jahren stieg die Temperatur um 16℃ während der CO2 Gehalt im gleichen Zeitraum auf etwa 0,05% abnahm. Danach wurde ein Absinken der Temperatur um 16℃ von einer Abnahme der CO2 Konzentration um 0,02 – 0,03% begleitet.
Dieser Sachverhalt allein stellt die am rechten Bildrand als rote Punkte eingetragenen mit dem IPCC Modell erstellten Prognosen einer zukünftigen Erwärmung infrage.
Auffällig ist die ungewöhnlich lange Dauer der gegenwärtigen warmen Periode von etwa 10.000 Jahren, die sich in Abb. 4 im Vergleich zur Dauer der vorlaufenden warmen Perioden noch deutlicher abhebt.
Die Abb. 4 macht deutlich, dass der Anstieg der CO2 Konzentration in der Atmosphäre, die Entgasung, verzögert dem Anstieg der Wassertemperatur folgt. Aus gleichem Grund kann das durch die Nutzung fossiler Brennstoffe freigesetztes CO2 auch nur verzögert im Wasser der Ozeane in Lösung gehen.

Abb. 4. Temperaturverlauf und CO2 Konzentration der letzten 460.000 Jahren in der Antarktis.
Sowohl für den Übergang in eine Eiszeit vor etwa 2 Millionen Jahren als auch für die fast regelmäßigen Wechsel zwischen kurzen warmen und langen kalten Abschnitten sind die Ursachen nicht bekannt.
Daher ist es auch nicht möglich, Prognosen abzugeben. Die Temperaturen können ansteigen, weiter auf dem gegenwärtigen Niveau verharren, oder in den Übergang zu einer neuen kalten Periode absinken. Es gilt eine alte Bauernweisheit:
„Kräht der Hahn auf dem Mist, ändert sich das Wetter – oder es bleibt wie es ist!“


[1] Im SPM des IPCC AR4 (Fig SPM 3) wird für  1850 ein Wert von 13,65 °C gezeigt und für 2000 ein Wert von 14,4°C. Jones et al. vermuten die „wahre Globaltemperatur„ bei 14,0 °C auf der Südhalbkugel bei 13,4 °C und auf der Nordhalbkugel bei 14,6°C. [Jones, 1999]. Das Goddard Institute of Space Science (GISS) umgeht die Bestimmung der Mitteltemperatur aus Messwerten und verweist nur auf Modelle. Dazu schreibt man auf seiner Fragen und Antwortseite[2] unter den Titel „The Elusive Absolute Surface Air Temperature (SAT)“ in deutsch:“ Die schwer fassbare absolute Oberflächentemperatur“…For the global mean, the most trusted models produce a value of roughly 14 Celsius, i.e. 57.2 F, but it may easily be anywhere between 56 and 58 F (12.8ºC to 14.4ºC ) and regionally, let alone locally, the situation is even worse.
[2]Zur Berechnung dieser Differenz von 33℃ mit Hilfe des Stefan-Boltzmann Gesetzes wird der Wert für das Jahresmittel des mittleren Energieflusses in den Weltraum von  240 W/m2 benutzt. Tatsächlich handelt es sich jedoch um eine komplexe orts- und zeitabhängige Verteilung. Da die lokale Emissionstemperatur mit der 4. Potenz vom lokalen Energiefluss abhängt resultiert ein wesentlich größerer Wert als 33℃ für die Wirkung des atmosphärischen Treibhauseffektes.
[3] Die Troposphäre als untere Schicht der Atmosphäre reicht in hohen geographischen Breiten bis in eine Höhe von ca. 8 km, in Äquatornähe bis 15 km. Über der Erdoberfläche nimmt die Temperatur durchschnittlich um 0,5 – 0,7 °C pro 100 m Höhe ab. An der Oberkante der Troposphäre, der Tropopause, herrschen den Globus umfassend Temperaturen knapp unter -50℃ °C, die in der Stratosphäre darüber wieder ansteigen.
[4]https://de.scribd.com/doc/242156102/Der-Traum-vom-anthropogenen-Treibhauseffekt-docx


[ML1]Warum




Europaparlamentarier Roger Helmer widerspricht der Klima-Doktrin

Wir in der UKIP, der United Kingdom Independence Party, sind der Ansicht, dass die Klima-Abschwächung gemäß2  des Kyoto-Protokolls möglicherweise unnötig, mit Sicherheit belanglos und ruinös teuer ist.
Unnötig, weil die dem Klima-Alarmismus zugrunde liegende Wissenschaft höchst spekulativ ist. Seit fast zwei Jahrzehnten gibt es keine globale Erwärmung mehr. Die dieser Erwartung zugrunde liegenden Computermodelle haben mit ihren Prognosen wiederholt kläglich versagt. Es gibt eine lebhafte wissenschaftliche Debatte über die Sensitivität des Klimasystems hinsichtlich des atmosphärischen CO2, die alles andere als „settled“ ist. Das IPCC nennt gerne eine Zahl von 3°C Erwärmung pro Verdoppelung des CO2-Gehaltes. Viele Wissenschaftler glauben jedoch mit Blick auf den derzeitigen Temperaturtrend, dass ein Wert von 1°C wesentlich näher an der Marke liegt. Die IPCC-Zahl ist abhängig von heroischen Schätzungen positiver Rückkopplungen. Aber es gibt positive und negative Rückkopplungen, und viele Wissenschaftler kommen zu dem Ergebnis, dass die Gesamtbilanz negativ sein könnte.
Belanglos: Dafür gibt es viele Gründe. Dem Vernehmen nach gibt es 1200 neue Kohlekraftwerke in der globalen Pipeline (einschließlich – vielleicht überraschend – über 20 in Deutschland). Die globalen Emissionen werden zunehmen, egal was wir tun. Der jüngste Rückgang der US-Emissionen basiert auf dem Wechsel von Kohle zu Gas – nicht auf Maßnahmen zur Klima-Abschwächung oder Erneuerbaren. Die Chinesen haben beschlossen, dass ihre Emissionen um das Jahr 2030 ihren Höhepunkt erreichen – oder mit anderen Worten, sie haben alles auf die lange Bank geschoben. Und überhaupt, bis zum Jahr 2030 wird der demographische Rückgang begonnen haben, so dass die Emissionen sowieso zurückgehen. Und niemand stellt die Unzulänglichkeiten in Rechnung, die sich hinsichtlich der Verbrennung fossiler Treibstoffe als Backup für die ständig wechselnden Erneuerbaren ergeben.
Ruinös teuer: Man hat behauptet, dass die Erneuerbaren irgendwann wettbewerbsfähig werden, wenn die Preise für fossile Treibstoffe immer weiter steigen. Aber stattdessen sinken sie. Der ehemalige Industriekommissar Antonio Tajani sagte, dass wir in der EU hinsichtlich der Energiepreise „ein industrielles Massaker“ anrichten. Wir vertreiben energieintensive Industrien, vernichten deren Arbeitsplätze und vertreiben Investitionen. Und wir zwingen Haushalte und Pensionäre in die Energiearmut. Wir schädigen unsere Wirtschaft mit dem Export sowohl von Arbeitsplätzen als auch von Emissionen.
Wir haben Klimagipfel kommen und gehen sehen: Sie enttäuschten jedes Mal. In einem Anfall, Hoffnung über die Erfahrungen zu stellen, sprechen die Unterhändler über ihre Erwartungen hinsichtlich eines Erfolgs der Konferenzen in Lima und Paris. Ich sage erstens vorher, dass sie erneut enttäuscht werden, und zweitens, selbst wenn sie ein Abkommen zu Papier bringen, wird es mit der Lieferung grandios scheitern.
Britische Wähler und die britische Industrie (und ich wage mal zu behaupten, die Wähler und die Industrie auf dem Kontinent ebenso), ächzen schon jetzt unter den Energiekosten, und zwar unter den massiven Voraus-Investitionen in einen nutzlosen Versuch, hoch spekulative Probleme in einer fernen Zukunft abzuschwächen, unter Verlusten von Arbeitsplätzen und der Schließung von Unternehmen. Und zusätzlich zu all dem erwartet man von uns jetzt, dass wir in einen massiven Fonds einzahlen, um Entwicklungsländern bei Problemen zu helfen, die noch gar nicht aufgetreten sind und die möglicherweise niemals auftreten werden.
Wie also ist die Haltung der UKIP hierzu? Wir sollten die Ereignisse registrieren, auf die Daten schauen und die Wissenschaft im Licht der aktuellen Klimatrends überdenken. Und dann sollten wir moderate Summen zur Anpassung investieren, falls und wenn sie gebraucht werden. Das ist besser als Multimilliarden schwere Investitionen im Voraus für Lösungen, die man gar nicht braucht und womöglich nie brauchen wird. Zukünftige Generationen werden mit Erstaunen und ungläubig zurückblicken auf die ungeheure Verschwendung von Ressourcen, ausgelöst durch den Klimaalarmismus im 21. Jahrhundert.
Roger Helmer ist Mitglied des Europaparlaments. Er ist außerdem Leiter der 24-köpfigen UKIP-Delegation im Europaparlament – der größten britischen Delegation, und außerdem noch energiepolitischer Sprecher seiner Partei.
Link: http://www.americanthinker.com/articles/2014/11/a_member_of_the_european_parliament_dissents_on_climate.html
Übersetzt von Chris Frey EIKE