Die versteckten Agenden von Nachhaltigkeits-Illusionen

Genau wie der „gefährliche, vom Menschen verursachte Klimawandel“ reflektiert der Begriff Nachhaltigkeit das geringe Verstehen hinsichtlich grundlegender Prinzipien von Energie, Ökonomie, Ressourcen-Ausbeutung und Produktion – sowie eine Tendenz, Tautologien und theoretische Modelle als eine Alternative zu empfehlen für schon jetzt zu beobachtende Beweise in der realen Welt. Involviert sind auch schlecht informierte Menschen mit guten Absichten, die von gut informierten Aktivisten mit schlechten Absichten in die Irre geführt werden, welche damit eine größere Kontrolle der Regierung über das Leben, die Lebensweise und den Lebensstandard erreichen wollen.

Die allgemeinste Definition lautet, dass wir die Bedürfnisse der gegenwärtigen Generationen nur bis zu einem Ausmaß erfüllen dürfen, damit wir die Fähigkeiten zukünftiger Generationen, deren Bedürfnisse zu erfüllen, nicht gefährden.

Auf den ersten Blick klingt das logisch und sogar ethisch. Aber es erfordert unmögliche Hellseherei.

Im Jahre 1887, als das Hearthstone House zum ersten Haus wurde, das mit Wasserkraft erleuchtet wurde, konnte und hat niemand vorhergesehen, dass Strom unser Leben dominieren, verbessern und sicherer machen würde auf den unendlich vielfältigen Wegen, wie das heutzutage der Fall ist. Jahrzehnte später hat niemand erwartet, dass Kabel aus reinem Silizium-Fiber Kupferdrähte ersetzen würden.

Niemand prophezeite kleine Mobil-Telefone mit ausgezeichneten digitalen Kameras und größerer Computerleistung als ein Desktop-Computer des Jahres 1990 oder ein 3-D-Drucker oder Tausende Windturbinen verstreut über unsere fruchtbaren [fruited] Ebenen – oder Kadmium, Seltene Erden und andere Rohstoffe, die plötzlich erforderlich sind, um diese technologischen Wunder zu vollbringen.

Die Menschheit ist Tausende Jahre lang nur im Schneckentempo vorangekommen. Nachdem die moderne, auf fossilen Treibstoffen beruhende Ära Fuß gefasst hatte, beschleunigte sich dieses Vorankommen in atemberaubenden Tempo. Heute ist Änderung exponentiell. Als wir von Feuersteinen zu Kupfer, zu Bronze, Eisen, Stahl und darüber hinaus kamen, war der Grund hierfür nicht, dass die Vorräte von Feuersteinen, Kupfer, Zinn und so weiter erschöpft gewesen wären. Sondern wir taten es mit Innovation – indem wir etwas besseres, effizienteres oder praktischeres erfanden. Jeder Fortschritt erforderte unterschiedliche Rohstoffe.

Wer kann heute vorhersahen, über welche Technologien zukünftige Generationen in 25, 50 oder 200 Jahren verfügen werden? Welche Rohstoffe werden sie brauchen? Wie können wir heute vermeintlich sicherstellen, dass jene Familien ihre Bedürfnisse decken können?

Warum sollten wir darum auch nur daran denken, die Regierung zu ermächtigen, die heutigen Aktivitäten Vorschriften zu unterwerfen, die auf völlig unvorhersagbaren Technologien, Lebensweisen und Bedarf an Rohstoffen ferner Generationen in der Zukunft beruhen? Warum sollten wir die Bedürfnisse heutiger Generationen ignorieren oder beschneiden, um jenen völlig unvorhersagbaren zukünftigen Bedürfnissen zu genügen – einschließlich der Bedürfnisse der heutigen ärmsten, unterernährten Menschen ohne Zugang zu Strom, die verzweifelt nach einem besseren Leben streben?

Außerdem werden uns die Ressourcen in absehbarer Zeit längst nicht ausgehen. Ein 1 Kilometer langes Fiberglas-Kabel aus 45 Pfund Silizium (dem auf der Erde am meisten vorhandenen Element) überträgt tausendfach mehr Informationen als ein gleich langes RG-6-Kabel aus 3600 Pfund Kupfer, was die Nachfrage nach Kupfer zurückgehen lässt.

Im Jahre 1947 beliefen sich die nachgewiesenen Ölreserven der Erde auf 47 Milliarden Barrel. Während der nachfolgenden 70 Jahre verbrauchten wir hunderte Milliarden Barrel – und dennoch hatten wir im Jahre 2016 mindestens 2800 Milliarden Barrel Ölreserven, darunter Ölsande, Schieferöl und andere unkonventionelle Lagerstätten: mindestens noch ein Jahrhundert lang, dazu überreichlich Erdgas. Fortwährend sich verbessernde Technologien lassen uns jetzt Öl und Erdgas aus Lagerstätten finden und erzeugen, die wir noch vor ein paar Jahrzehnten nicht einmal erkennen, geschweige denn ausbeuten konnten.

Das Nachhaltigkeits-Dogma rankt sich um Hass auf fossile Treibstoffe und die Entschlossenheit, die Welt von diesen Stoffen zu befreien, ohne jede Rücksicht auf jedwede sozialen, ökonomischen oder umweltlichen Kosten. Und wir sehen häufig, dass vermeintlich grüne, ökofreundliche und nachhaltige Alternativen häufig genau das nicht sind.

Die [gesetzlichen] Äthanol-Quoten in den USA verbrauchen 40% der Maisvorräte der Nation, Ackerland von der Größe Iowas, Milliarden Gallonen Wasser und riesige Mengen von Pestiziden, Dünger, Treibstoff für Traktoren und Erdgas, um Energie zu erzeugen, welche die Preise für Nahrungsmittel in die Höhe treibt, kleine Motoren schädigt und ein Drittel weniger Kilometer-Leistung pro Gallone [= ca. 4 Liter] als Benzin bringt.

Stark subventionierte Windenergie erfordert mit fossilen Treibstoffen betriebene Generatoren im Standby-Modus, ultralange Fernleitungen und folglich Millionen Tonnen Beton, Stahl, Kupfer, seltene Erden und Fiberglas. Die Turbinen führen zu chronischen Gesundheitsproblemen bei Anwohnern und töten Millionen Vögel und Fledermäuse – nur um zeitweilig völlig unzuverlässigen Strom zu erzeugen, der bis zu 250% mehr kostet als kohlebasierter Strom.

Mit all dem erzeugten die 3500 gigantischen Windturbinen in UK an einem heißen, trockenen Augusttag gerade mal 12 Megawatt Strom: das waren 0,032% der 38.000 Megawatt, welche das Land zu jener Zeit verbrauchte.

UK subventioniert auch viele riesige anaerobic digesters, dazu ausersehen, tierischen Dung und andere landwirtschaftliche Abfälle in ökofreundliches Methan umzuwandeln, welches dann zur Stromerzeugung genutzt wird. Aber es gibt viel zu wenig landwirtschaftliche Abfälle. Also werden die Behälter mit Mais, Gras und Roggen befüllt, welcher auf 130.000 Acres (etwa viermal die Größe von Washington D.C.) angebaut wird und enorme Mengen Wasser und Dünger benötigt – und natürlich Dieselkraftstoff, um die Ernten anzubauen, zu ernten und zu den Behältern transportieren. Warum bohrt oder frackt man nicht einfach nach Erdgas?

Dies führt uns zu der politischen Arena mit ihrer zyklischen, dehnbaren und unendlich elastischen Terminologie – also das perfekte Werkzeug für Aktivisten. Was auch immer sie stützen ist nachhaltig; gegen was auch immer sie opponieren ist nicht nachhaltig; und welche Mantras oder vorsorgliche Maßnahmen sie vorschlagen – jedes Einzelne verleiht ihnen mehr Macht und Kontrolle.

Der Club of Rome trachtete danach, eine neue Bewegung ins Leben zu rufen, indem er „einen gemeinsamen Feind kreierte, vor dem wir uns vereinigen können“ – vermeintlich bevor stehende Katastrophen „verursacht durch menschliche Eingriffe in natürliche Prozesse“ sowie die Erfordernis „geänderter Haltung und Verhalten“, um globales Unheil zu vermeiden: globale Erwärmung und Ressourcen-Erschöpfung.

„Die Schaffung einer umweltlich nachhaltigen Zukunft erfordert Einschränkung der globalen Ökonomie, eine dramatische Veränderung der Vermehrung der Menschen sowie die Änderung von Werten und Lebensarten“, sagte der Gründer des Worldwatch Institute Lester Brown. „Um dies schnell zu erreichen, ist nichts Geringeres notwendig als eine Revolution“.

„Der gegenwärtige Lebensstil und Verbrauchsraten der wohlhabenden Mittelklasse – darunter hoher Fleischkonsum, der Verbrauch fossiler Treibstoffe, Elektrogeräte, Air Conditioning im Büro und zu hause sowie Wohnen in Vororten – ist nicht nachhaltig“, erklärte der kanadische Ur-Umweltaktivist Maurice Strong.

„Kleinere Änderungen der Politik, moderate Verbesserung von Gesetzen und Vorschriften anstelle einer echten Änderung“, sagte der ehemalige Vizepräsident Al Gore, „sind alles Formen der Besänftigung, dazu gedacht, die Öffentlichkeit dazu zu bringen zu glauben, dass Opfer, Mühen und eine die Öffentlichkeit zerreißende Transformation der Gesellschaft nicht erforderlich sein werden“. Der Umweltaktivist Daniel Sitarz stimmte dem mit den Worten zu: „Die Agenda 21 bietet eine Vielfalt von Maßnahmen mit der Absicht, diese jedem Menschen auf der Erde zu implementieren. Die effektive Durchführung der Agenda 21 wird eine ausgeprägte Umorientierung aller Menschen erforderlich machen; anders als alles, was die Welt bisher erfahren hat“.

Der National Research Council [etwa: Nationaler Forschungsrat] deklamierte in einem Report aus dem Jahr 2011: „Nachhaltige Entwicklung wirft Fragen auf, denen nicht vollständig oder direkt in der US-Politik oder in den US-Gesetzen Rechnung getragen wird, einschließlich der Frage, wie man nicht nachhaltige Produktion und Verbrauch definieren und kontrollieren kann und wie man die Entwicklung nachhaltiger Gemeinden, Erhaltung der Biodiversität, saubere Energie und umweltlich nachhaltige ökonomische Entwicklungen sowie die Kontrolle des Klimawandels fördern kann“. Tatsächlich, sagte Obamas Wissenschaftsberater John Holdren, können wir nicht einmal über Nachhaltigkeit sprechen, ohne über Politik, Macht und Kontrolle zu sprechen. Besonders Kontrolle!

Natürlich fühlen diese Aktivisten, Politiker und Vorschriftengeber kaum Beschwerden, erfreuen sie sich doch an Geldern und Vergünstigungen, für die Steuerzahler und Stiftungen aufkommen. Sie fliegen zu UN- und anderen Konferenzen und logieren dabei in Fünf-Sterne-Hotels auf der ganzen Welt – und implementieren Agenden, die das Leben anderer Menschen kontrollieren, umkrempeln und transformieren.

Es sind wir, die Regierten – vor allem die Arbeiterklasse und arme Bürger – welche den Preis zahlen, wobei die ärmsten Familien der Welt den höchsten Preis zahlen. Wir können nur hoffen, dass die Trump-Regierung und der Kongress nachhaltige Entwicklung abbricht und nicht mehr finanziert – das alter ego des katastrophalen, vom Menschen verursachten Klimawandels.

https://www.cfact.org/2017/02/09/the-hidden-agendas-of-sustainability-illusions/

Übersetzt von Chris Frey EIKE




Eine Merkwürdig­keit bei den Adjustie­rungen von Bojen-Daten von Karl et al. 2015

Das Argument lautet also, dass es der Übergang zu Bojendaten ist, der Warm-Änderungen in den ERSSTv4-Daten erforderlich macht.

Aber falls das so ist, was ist mit dem Zeitraum 1986 bis 2003? Während dieses Zeitraumes gab es eine Zunahme von Bojendaten von etwa 8% auf 50%.

Warum aber ist es nicht notwendig, den Zeitraum 1986 bis 2003 zu warm-adjustieren, wie man es im Zeitraum 2003 bis 2016 gemacht hatte?

Zwar kann dieser Umstand schon öfter zuvor angesprochen worden sein, aber davon habe ich nichts gesehen.

Daten des Bojen-Anteils in % sind Schätzungen aus diesem Artikel:

https://judithcurry.com/2015/11/22/a-buoy-only-sea-surface-temperature-record/

Bis 2006 sind die Prozentwerte aus der Graphik in diesem Artikel abgelesen. Und außerdem schreiben sie, dass der Bojen-Anteil nach 2007 über 70% gelegen habe. Folglich reflektieren die Zahlen der Jahre 2007 bis 2015, dass der Anteil 2015 über 70% gelegen hat.

Aber im Raum bleibt stehen, dass der Bojen-Anteil im Jahre 2003 auf 50% gestiegen ist, aber trotzdem nur einher ging mit immer noch kälteren Temperatur-Adjustierungen.

Es „sollte“ also einen sehr wichtigen Grund geben für die Kalt-Adjustierung von 1986 bis 2000 – welcher dominanter ist als der für die „notwendige“ Warm-Adjustierung infolge der Bojen.

Link: https://wattsupwiththat.com/2017/02/14/an-oddity-in-the-karl-et-al-2015-buoy-data-adjustments/

Übersetzt von Chris Frey EIKE




Rundbrief der GWPF vom 13. Februar 2017: Met.-Office vs. NOAA: Die Schlacht um Wahrheit und Glaub­würdigkeit hinsichtlich der ,Global Warming Pause‘

„What you see is that the slowdown just goes away.“ –Thomas Karl (NOAA),   Science Magazine, 4 June 2015.

,Verlangsamung‘ der Ozean-Erwärmung verleiht den Klimaskeptikern ein warmes Leuchten [a warm glow]

Der ,Slowdown‘ ist nicht verschwunden“ – Peter Stott (Met Office),  The Sunday Times, 12 February 2017 [paywalled].

Eine wissenschaftliche Kontroverse hinsichtlich der Auswirkung des Klimawandels auf Ozeane hat eine neue Wendung genommen angesichts von Forschungen, die eine langsamere Erwärmung als ursprünglich gedacht zeigen. Wissenschaftler haben von 2000 bis 2015 Millionen Messungen aus allen Ozeanen der Erde analysiert und festgestellt, dass die Wassertemperatur mit einer Rate von 1,17°C pro Jahrhundert steigt. Schätzungen zuvor hatten eine Rate von 1,34°C pro Jahrhundert angenommen. Der Unterschied mag gering scheinen, ist aber trotzdem wichtig, weil die Ozeane so riesig sind, dass selbst eine Erwärmung um ein Zehntelgrad eine sehr erhebliche Zunahme der gespeicherten Energie bedeutet – und den potentiellen Einfluss auf das Klima. Es ist auch politisch relevant, vor allem in Amerika, wo eine zunehmend klimaskeptisch werdende Republikanische Partei diesen Umstand als eine Bestätigung des vermuteten ,Slowdowns‘ der globalen Erwärmung betrachtet sowie als Beweis, dass die bisherige Erwärmung übertrieben dargestellt worden war. – Jonathan Leake, The Sunday Times, 12 February 2017 [paywalled]

——————————————-

Karl et al. (2015) und die Rückkehr der ,Pause‘

Die von Karl et al. (2015) ins Spiel gebrachten Änderungen [über die seinerzeit auch die „Süddeutsche Zeitung“ in großer Aufmachung berichtete, während sie jetzt natürlich zu der zugrunde liegenden Datenmanipulation dröhnend schweigt, Anm. d. Übers.] waren einflussreich, aber gering und vorübergehend. Inzwischen haben sie sich als völlig irrelevant herausgestellt, wenn man die derzeitige Datenlage betrachtet. Sollte immer noch irgendjemand glauben, dass die höheren Trends der Jahre 2015 und 2016 der langzeitlichen globalen Erwärmung geschuldet sind, der sollte sich die Abbildung 3 bei HadCRUT4 anschauen, aus der eindeutig hervorgeht, dass die Wärmespitze dem jüngsten starken El Nino zuzuordnen ist. Inzwischen sind die Temperaturen wieder auf das Niveau des Jahres 2014 und das Niveau der „Pause“ gesunken. – David Whitehouse, GWPF Observatory, 6 February 2017

Global mean temperature 1997 -2017 — source Met Office (HadCrut4)

——————————————-

Daten, Ableitungen und die ,Pause‘

Eine Story in der Sunday Times bestätigt, dass UKMO die Leugnung des Stillstandes der globalen Erwärmung seitens Karl et al. nicht akzeptiert, und es wird darin eingeräumt, dass der ,Slowdown‘ nicht verschwunden ist. In der Ausgabe des New Scientist von dieser Woche behauptet Michael Mann, dass die ,Pause‘ ein „total widerlegter Gedanke“ ist, dass es ,hinsichtlich der finalen Analyse viel Aufhebens um nichts gegeben‘ hatte und dass ,er zu einem favorisierten Punkt der Klima-Kontrarians geworden ist‘. Die ,Pause‘ ist real und enthält viel interessante Wissenschaft; es werden über 50 Erklärungen angeboten. Aber ein weiterer Aspekt ist, dass die Vielfalt von Meinungen in der Klimawissenschaft ans Tageslicht kommt, welche hinsichtlich dieses bedeutenden Themas alles andere als ,settled‘ ist. Wer kann leugnen, dass die Klimawissenschaft geteilt ist hinsichtlich dieses grundlegenden Themas? – David Whitehouse, GWPF Observatory, 12 February 2017

——————————————-

Wie können wir den Klimawissenschaftlern trauen, falls diese weiterhin Schindluder mit der Wahrheit treiben?

Wahrscheinlich noch größeren Schaden richtet die Behauptung Einiger in der grünen Lobby an, dass unsere Enthüllungen kleine Fische sind. Tatsächlich kann deren Bedeutung aber gar nicht überschätzt werden. Sie treffen ins Herz der Klimawissenschaft, weil sie die Integrität der Datensätze des globalen Klimas in Frage stellt, auf denen praktisch alles beruht. Die einzigen ,Fake News‘ in unseren Enthüllungen ist die Behauptung, dass sie keine Rolle spielen. In Wahrheit richten sie erheblichen Schaden an, weil sie ein stillschweigendes Übereinkommen von Figuren wie Barack Obama und David Cameron zeigen, die sich teilweise auf Forschungen beriefen, die nicht mit Integrität veröffentlicht worden waren. Dies ist ein Zeitalter, in welchem Viele die Rolle von Experten hinterfragen. Die Wiederherstellung des Vertrauens erfordert Transparenz. Al Gore tätigte einmal den berühmten Ausspruch: „Die Wissenschaft ist settled“. Das ist sie nicht! Wir können es nicht zulassen, dass ein so wichtiges Thema für unsere Zukunft in Halbwahrheiten und Irreführungen ertränkt wird. – David Rose, Mail on Sunday, 12 February 2017

——————————————-

Alles übersetzt von Chris Frey EIKE




Die Zukunft fossiler Treibstoffe: Düster oder strahlend?

Konfrontiert mit zunehmend kostenbewusster werdenden und nervösen Finanzministerien – selbst von China hört man, dass es seine Subventionen kürzt – hat die Erneuerbaren-Industrie während der letzten paar Jahre mit heftigen Beteuerungen reagiert, denen zufolge die bisher geleistete öffentliche Unterstützung (in UK beispielsweise über 20 Milliarden Pfund seit dem Jahr 2002) jetzt erste Ergebnisse zeitigt und dass einige Technologien, besonders Wind und Solar, fast schon im Wettbewerb mithalten können ohne weitere Unterstützung. Man muss nicht extra erwähnen, dass die Industrie eilends hinzufügt, dass sie nicht ganz dazu in der Lage ist und dass Subventionen schon noch etwas länger fließen müssen: Da mihi castitatem et continentiam, sed noli modo. [Für des Lateinischen nicht mächtige Leser: „Schenke mir Keuschheit und Enthaltsamkeit – aber nicht gleich!“ Übersetzung aus Wikipedia {hoffentlich nicht zensiert!} Anm. d. Übers.]

Bei näherer Betrachtung erscheinen die Details von vielen dieser Behauptungen längst nicht mehr so solide. Der viel gerühmte Angebots-Preis [bid price] des dänischen Offshore-Windparks bei Krieger’s Flak, 49 Euro pro MWh, stellt sich lediglich als fragwürdiger Beweis von Kostenreduktionen heraus, da der Park tatsächlich sehr nahe der Küste liegt und weil die Entwickler nicht die Kosten der Verbindung zum Netz und Offshore-Transformatorenstellen einbezogen haben (etwa 500 Millionen Pfund) (hier). Selbst zu diesem niedrigen Angebotspreis (ein Fluch des Gewinners?) wird erwartet, dass die Station während der ersten 15 Jahre etwa 400 Millionen Pfund einstreichen muss, was etwa die Hälfte des Einkommens während jener Zeit ausmacht. Mit anderen Worten, dieses Projekt ist eine nahe der Küste gelegene Stelle, einfach zu errichten, hat große Kosteneinsparungen infolge der Subventionen für die Netzanbindung, braucht aber trotzdem erhebliche Unterstützung, um sie existenzfähig zu machen. Kaum so etwas wie eine Revolution.

Selbst Jahresabschlüsse, die als besonnen [sober] angesehen werden können, wie etwa die folgende Graphik aus dem im vorigen Monat veröffentlichten Energy Outlook 2017 von BP, scheinen bei detaillierter Prüfung etwas zu zeigen, das inkompatibel mit ihren Schlagwörtern ist:

Als eine visuelle Graphik lenkt diese Darstellung den Betrachter eindeutig zu der Schlussfolgerung, dass fossil erzeugter Strom immer teurer wird, wobei die roten und schwarzen Balken Kohle und Gas repräsentieren, die stetig über die gesamte Abbildung steigen, während Erneuerbare viel billiger werden. Folglich ist das Wachstum im Sektor der Erneuerbaren implizit spontan und resultiert aus „zunehmender Wettbewerbsfähigkeit“, wie die Graphik suggeriert. Auf den ersten Blick würden man denken, dass neue Kohle- und Gaskraftwerke bis Mitte der zwanziger Jahre dieses Jahrhunderts sehr unwahrscheinlich auf rein ökonomischen Grundlagen stehen.

Allerdings müssen die Anmerkungen zu dieser Graphik berücksichtigt werden. Erstens, der Indizierung zufolge handelt es sich hier um Durchschnittskosten [Levelised Costs] über die gesamte Lebensdauer des Kraftwerkes, eine Tatsache, welche den misstrauischen Leser daran erinnern soll, dass die ökonomische Lebensdauer konventioneller Generatoren gut verstanden ist, während dies für Erneuerbare nicht der Fall ist und diese wirklich kontrovers sind. BP schreibt hier nichts von seiner Hypothese, aber wahrscheinlich handelt es sich um den fragwürdigen Industriestandard in zwanzig Jahren und noch weiter voraus. (Die Subventionen für Krieger’s Flak sind jedoch auf 15 Jahre ausgelegt, was eine bessere Annäherung an die Wahrheit ist).

Zweitens und eher ungewöhnlich sind die „Kostenschätzungen der Systemintegrationskosten“ für Wind und Solar. Das ist ein wichtiger Punkt und aufrichtig zu begrüßen, aber auf der anschließenden Seite bemerken die Autoren von BP, dass die Systemkosten für die bis 2035 projizierten Penetrationsgrade [Anteile der EE an der Energieversorgung] wahrscheinlich relativ niedrig sind. Wer mit den Kosten der Versorgungsnetz-Erweiterung vertraut ist und bei niedrigem Lastfaktor [tatsächlich gelieferte Energie der EE] eine nahezu unveränderte konventionelle Kraftwerkskette zur Gewährleistung der Versorgungssicherheit kennt, wird das etwas unplausibel finden. Die Kosten sind bereits jetzt nicht unbedeutend, aber bis 2035 sind sie wahrscheinlich sehr hoch].

[Dieser Absatz ist nur für Energiefachleute verständlich. Ich möchte mich bei meinem Übersetzer-Kollegen Herrn Andreas Demmig bedanken, der mir als Fachmann bei derÜbersetzung zu Hilfe gekommen ist. Anm. d. Übers.]

Also scheint der Lack schon bei geringem Kratzen an der Oberfläche der in dieser Darstellung projizierten Preisrückgänge für Erneuerbare abzugehen – mit Sicherheit genug, um sich zu fragen, ob die Gesamtkosten für die Verbraucher von Solarstrom in Nordamerika wirklich von 85 Dollar pro MWh im Jahr 2015 auf 55 Dollar pro MWh im Jahre 2035 zurückgehen. Angesichts dessen, dass die billigsten Stellen bereits entwickelt worden sind und die Systemkosten steil steigen mit zunehmender Penetration, scheint dies ziemlich unwahrscheinlich.

Die Zahlen für die fossilen Treibstoffe stellen sich als noch bemerkenswerter heraus. Oben merken die BP-Autoren an, dass sie einen Kohlenstoffpreis „mittlerer Lebensdauer“ von 20 Dollar pro Tonne CO2 abgeschätzt haben, 40 Dollar im Jahre 2025 und 60 Dollar in 2035. Hat man die Emissionen pro Megawattstunde aus Gasturbinen und Kohlestationen im Kopf, kann man berechnen, welche Proportionen der dargestellten Preise in den BP-Projektionen sich ergeben aus der Kohlenstoff-Besteuerung und welche aus technologischen Grundlagen und dem Treibstoffpreis.

Aus der Graphik können wir ablesen, dass der BP-Schätzung zufolge die Strompreise aus neu gebauten Gasturbinen in Nordamerika im Jahre 2015 in der Bandbreite zwischen 32 und 56 Dollar pro MWh lagen. Unter der Annahme, dass BP einen Emissionsfaktor von 0,35 Tonnen emittierten CO2 pro MWh (hier) ansetzt, ergibt dies eine Kohlenstoffsteuer von etwa 7 Dollar pro MWh, was bedeutet, dass die Bandbreite der Preise etwa 25 bis 49 Dollar pro MWh beträgt. Im billigsten Fall ist dies viel weniger als bei jeder anderen Treibstoff-Technologie, und selbst im teuersten Fall ist es immer noch billiger als die mittlere Bandbreite von Wind un d Solar.

Im Jahre 2035 steigen die Preise für Gasturbinen in Nordamerika auf 43 bis 68 Dollar pro MWh, einschließlich einer Kohlenstoffsteuer von 60 Dollar pro Tonne emittierten CO2. Die Emissionen pro MWh einer neu errichteten Combined Cycle Gas Turbine in jenem Jahr sind ungewiss, aber eine gewisse Verbesserung kann erwartet werden, und BP muss das zugestanden werden. Bleiben wir mal auf der konservativen Seite und nehmen an, dass es lediglich eine moderate Verbesserung der thermischen Effizienz gibt und die Emissionen auf auf etwa 0,3 Tonnen emittierten CO2 pro MWh zurückgehen. Dies würde eine Kohlenstoff-Steuerlast ergeben von etwa 18 Dollar pro MWh. Man subtrahiere das von dem projizierten Preis, und die Bandbreite im Jahre 2035 fällt auf 25 bis 49 Dollar pro MWh, was identisch ist mit den fundamentalen Kosten im Jahre 2015 und deutlich unter den Kosten sowohl von Solar- als auch von Windstrom liegt.

Führt man die gleiche grobe Berechnung für Schätzungen des Kohlepreises durch unter der Annahme, dass BP Emissionen von etwa 0,74 Tonnen emittierten CO2 pro MWh für die gegenwärtige super-kritische [?] Kohle ansetzt und 0,67 Tonnen emittierten CO2 pro MWh bei zukünftiger verbesserter superkritischer Kohle [?] [0.74 tCO2e/MWh for current super-critical coal and 0.67 tCO2e/MWh for future advanced supercritical coal], dann zeigt sich das überraschende Ergebnis, dass der in der BP-Graphik geschätzte Kohlenstoffpreis einen signifikanten Rückgang des Preises der Kohle-Erzeugung maskiert. Die Preise im Jahre 2015 lagen zwischen 48 Dollar pro MWh und 73 Dollar pro MWh ohne Kohlenstoffsteuer (15 Dollar pro MWh), während die Preise im Jahre 2035 zwischen 45 Dollar pro MWh und 59 Dollar pro MWh liegen ohne Kohlenstoffsteuer (40 Dollar pro MWh). Derartige Preise machen die Kohle auch im Jahre 2035 wettbewerbsfähig gegenüber Wind und Solar.

Mit anderen Worten, praktisch die gesamte Steigerung der in der BP-Graphik präsentierten Kosten der Kohle- und Gaserzeugung ist das Ergebnis von Kohlenstoff-Besteuerung, nicht von technologischen und Treibstoff-Grundlagen. Eine Graphik, die vordergründig einen stetigen Triumph von Erneuerbaren sogar über die billigsten fossilen Treibstoffe zeigen, zeigt jetzt, dass Strom aus Gas- und sogar aus Kohlekraftwerken wahrscheinlich noch viele Jahrzehnte lang fundamental billig bleiben wird, und dass Erneuerbare nur unter optimistischen Annahmen hinsichtlich Kostensenkungen wettbewerbsfähig werden sowie mit einer willkürlichen und politisch angreifbaren Zwangsabgabe für fossile Treibstoffe in Gestalt einer Kohlenstoffsteuer.

Ich habe nicht den Wunsch, ausschließlich BP einer Einzelkritik zu unterziehen. Darstellungen wie diese werden hundertfach von Unternehmen und Regierungen in der ganze Welt gezeigt. Dies ist Gruppendenken im größten Maßstab. Natürlich glauben dies nicht alle. Mr. Trump hat ambitionierte Pläne einer Re-Militarisierung der USA, zusammen mit einer Agenda niedriger Steuern und Reduktionen bei öffentlichen Ausgaben. Billige fossile Treibstoffe wie jene implizit in der BP-Studie werden diesen Kreis nicht nur quadrieren, sondern werden es dem Präsidenten auch erlauben, gegenüber den Bergarbeitern und Produktions-Mitarbeitern Wort zu halten, welche ihn ins Amt wählten. Der Outlook mag ziemlich konfus daherkommen, aber die Aussichten sind für jedermann klar erkennbar.

Link: http://www.thegwpf.com/the-future-of-fossil-fuels-dark-or-bright/

Übersetzt von Chris Frey EIKE




Wie Trump und der US-Kongress daran arbeiten, Obamas Klima-Agenda rückgängig zu machen

Zwar ist es erst drei Wochen her, dass Trump ins Amt eingeführt worden ist, doch hat der Präsident während dieser Zeit bereits die beiden Pipelines Keystone XL sowie Dakota Access genehmigt, welche von Obama blockiert worden waren, teils wegen Bedenken, wie diese zum Klimawandel beitragen würden.

Trump ist mittels eines Ausführungs-Dekrets gegen andere Vorschriften vorgegangen, während das Weiße Haus vier Maßnahmen unter dem Congressional Review Act zugestimmt hatte, um Vorschriften bzgl. Energie aus der Obama-Ära zu annullieren. Zwei dieser Maßnahmen fanden auch schon die Zustimmung des Senats.

Energie hat sich als ein Bereich entpuppt, in welchem Trump und die Republikaner im Kongress absolut einer Meinung sind, und ihre Maßnahmen haben Energie-Unternehmen und Klimawandel-Aktivisten gleichermaßen signalisiert, dass Trump und die Kongress-Republikaner es ernst meinen damit, eine komplette Änderung des Umgangs der USA mit großen politischen Fragen bzgl. globaler Erwärmung vorzunehmen.

„Ich denke, dass wir großartig begonnen haben“, sagte Senator Steve Daines von den Republikanern aus Montana und Mitglied des Energy and Natural Resources Committee des US-Senats, der sich fortwährend darüber beklagt hatte, dass Obama versucht hat, die Entwicklung von Kohle, Erdgas und Öl zu behindern wegen Bedenken hinsichtlich Klimawandels. „Die Verschiebung geht in Richtung einer Energiepolitik, die dem gesunden Menschenverstand folgt. Die Energiepolitik von Präsident Obama machte keinen Sinn. Präsident Trump leistet dem gesunden Menschenverstand Vorschub und plant, mehr Energieerzeugung in Amerika zu fördern.

Senator Brian Schatz von den Demokraten aus Hawaii, ein ausgesprochener Klima-Aktivist, sagte, dass Trump und seine Leute „in jeder Hinsicht so schlimm agierten wie die Menschen befürchtet haben. Man kann das alles nicht zurückfahren. Es klingt so, als ob es aus einem schlechten Film über Politik stammt“.

Er merkte an, dass zwei der vom Kongress genehmigten Maßnahmen Verpflichtungen eliminieren, denen zufolge Energieunternehmen Zahlungen an auswärtige Regierungen bekanntgeben müssen für die Energieerzeugung, und eine Vorschrift aufheben, Flüsse von Abfall des Kohlebergbaus freizuhalten.

Obama machte den Kampf gegen den Klimawandel in seiner zweiten Amtszeit zur obersten Priorität. Er stütze sich großenteils auf einseitige Maßnahmen wie etwa seinem Clean Power Plan, um CO2-Emissionen aus Kraftwerken zu begrenzen.

Obama unterzeichnete auch Verordnungen, die Methan-Emissionen begrenzen sollten, welches beim Bohren nach Öl und Erdgas anfällt. Er half bei den Verhandlungen zum Pariser Klima-Abkommen, in welchem fast 200 Nationen zustimmten, ihre Treibhausgas-Emissionen zu begrenzen. Außerdem blockierte er zum Betrieb der beiden o. g. Pipelines erforderliche Genehmigungen.

Während seiner Wahlkampagne hat Trump, der den Klimawandel einen Betrug nennt, [was er de facto natürlich so nicht getan hat, sondern er hat lediglich die vermeintliche Ursache des Klimawandels einen Betrug genannt, den Klimawandel selbst aber nie bestritten oder gar geleugnet. Anm. d. Übers.] hat wiederholt versprochen, viele dieser politischen Maßnahmen rückgängig zu machen.

Er hat führende Amtspersonen, die pro fossile Treibstoffe waren, mit der Leitung von maßgeblichen Agenturen beauftragt, darunter den ehemaligen geschäftsführenden Direktor der Exxon Mobil Corp. Rex Tillerson als Außenminister, den Generalstaatsanwalt von Oklahoma Scott Pruitt als Administrator der EPA, den ehemaligen Gouverneur von Texas Rick Perry (Republikaner) als Energieminister sowie den Repräsentanten Ryan Zinke als Innenminister.

Auf dem Capitol Hill arbeiten die Republikaner im Weißen Haus daran zu überprüfen, wie die EPA Wissenschaft missbraucht, um rückgängig zu machen, was sie als ungerechtfertigte Vorschriften ansehen.

Full Story

Link: http://www.thegwpf.com/trump-gop-controlled-congress-working-to-undo-obamas-climate-agenda/

Übersetzt von Chris Frey EIKE




Erneuer­bare Energie ist kein Allheil­mittel

Ein Stopp der Verfügungen und Subventionen für erneuerbare Energie, welche unsere ökonomischen Konkurrenten weiterhin fördern (wenngleich auch weniger als früher) wird unsere weitere globale ökonomischen Führerschaft zementieren. Fossile Treibstoffe, über die Amerika üppig verfügt, sind und werden mindestens noch bis zum Jahr 2050 und wahrscheinlich sogar noch darüber hinaus billiger sein als jedwede Form erneuerbarer Energie. Und fossile Treibstoffe sind auch die zuverlässigste Energiequelle. Falls Energie in den USA relativ billig bleibt und das Land aus dem Pariser Klimaabkommen aussteigt, wie es Präsident Trump versprochen hat, dann erwarte man, dass immer mehr Produzenten ihre Operationen in die USA verlagern.

Europa kürzt bereits seine Unterstützung für erneuerbare Energie. Falls Amerika dem folgt und Subventionen und Anreize für Wind- und Solarenergie kürzt, dann wird der größte Markt für Chinas Erzeugnisse für Erneuerbare austrocknen. Falls China mit seiner Erneuerbaren-Expansion fortfährt, wird es allein die hohen Kosten jener Technologien zahlen müssen, wenn diese im Ausland nicht mehr subventioniert werden. Chinas Wirtschaft schrumpft schon jetzt. Ohne die Märkte in den USA und Europa wird es interessant sein zu sehen, wie lange China noch „führend in der Welt“ bzgl. erneuerbarer Energie sein wird, falls dessen zunehmender Gebrauch sich als Bremsklotz der chinesischen Wirtschaft erweist, wie es bereits in Europa und in geringerem Umfang in den USA der Fall war.

Während China beschlossen hat, die Anzahl neu geplanter Kohlekraftwerke für die kommenden Jahre um über 100 zu reduzieren, sind immer noch über 100 in der Planung. Gebaut werden sie mit einer Rate von etwa einem Werk alle zwei Wochen. Ja doch, Indien errichtet Solarparks im Hinterland, aber es werden gleichzeitig ebenfalls rasch neue Kohlekraftwerke gebaut, ebenso wie in anderen Ländern in Asien und Afrika – wo fast 1000 Kohlekraftwerke sich in verschiedenen Stadien des Baus und der Planung befinden.

Sogar Japan, das Land also, welches in vielfacher Hinsicht den Kampf gegen den vermeintlich gefährlichen, vom Menschen verursachten Klimawandel angeführt hat, indem es entwickelte Länder drängte, deren Treibhausgas-Emissionen zu reduzieren, hat Pläne bekannt gegeben, 45 neue Kohlekraftwerke zu errichten, um den Ausfall der Kernkraftwerke nach dem Unfall in Fukushima zu kompensieren.

Aber was ist mit Google, Facebook und Amazon? Wollen sie sich nicht von Fossilen befreien? Kaum. Wie meine Freunde Isaac Orr und Paul Driessen erklären und wie es natürlich auch der gesunde Menschenverstand sagt, weht der Wind nicht immer und scheint die Sonne nicht immer. Wenn das der Fall ist, wird Google sich fossiler Treibstoffe bedienen (oder eventuell in einigen Fällen Kern- oder Wasserkraft), genau wie jeder andere auch. Driessen schreibt: „Kein Unternehmen, dass ununterbrochen 365 Tage im Jahr rund um die Uhr aktiv ist, kann zu 100% mit erneuerbarer Energie betrieben werden … 5 bis 25% über das Jahr verteilt sind weit realistischer. Die restliche Zeit muss der Strom von ,Backup‘-Systemen kommen, welche in der Tat die primären Energiequellen sind“. Orr beschreibt die Verkündung von „100% erneuerbar“ seitens Google als ein „Mätzchen“ und erklärt:

Googles eigener Erklärung seines Planes zufolge läuft es darauf hinaus, dass Google Zertifikate erneuerbarer Energie kauft, was es Google erlaubt, erneuerbare Energie zum Großhandelspreis zu kaufen, was bedeutend billiger ist als die Einzelhandelspreise, und jene Energie dann zum Einzelhandelspreis wieder in das Netz zu speisen.

Googles Ausflug in erneuerbare Energie ist kein altruistisches Unterfangen, um die Welt zu retten. Sondern es ist ein billiger Marketing-Trick, um „grün“ auszusehen, was es dem Unternehmen erlaubt, Profite mit politischen Maßnahmen zu machen, welche erneuerbare Energie subventionieren.

Die Zertifikate erneuerbarer Energie von Google sind nur solange wertvoll, wie sie die Politik unterstützt. Falls die Verordnungen und Subventionen verschwinden, wird der Markt und der Wert der Google’schen Zertifikate kollabieren. Falls dies so kommt, wollen wir um der Steuerzahler willen hoffen, dass die Regierung Google nicht als „too big to fail“ einstuft.

Quellen: Wired.com; Isaac Orr; Paul Driessen und Andrew Follett

—————————————————-

Kurzmeldungen der GWPF zu Kohlekraftwerken in Deutschland:

Hier folgen noch zwei Meldungen aus dem Rundbrief der GWPF über neue Kohlekraftwerke in Deutschland. Offenbar ist man hierzulande mit Hochdruck dabei, das unter dem Teppich zu halten. Aber jeder sollte es wissen:

Gut verborgen: Verbrauch von Strom aus Kohle- und Gaskraftwerken in Deutschland auf 5-Jahre-Hoch

Der Output von Kohle- und Gaskraftwerken in Deutschland hat im Januar den höchsten Stand seit fast fünf Jahren erreicht. Ursachen waren kaltes Wetter, dass der Nachfrage einen kräftigen Schub verlieh, und eine rekord-reduzierte Verfügbarkeit von Kernkraft. Dies geht aus Daten hervor, die das Institut für Solare Energiesysteme der Fraunhofer-Gesellschaft in Freiburg veröffentlicht hat. – Platts, 3 February 2017

—————————————————-

Und zu guter Letzt: Deutschland nimmt demnächst ein weiteres neues Kohlekraftwerk in Betrieb

Das Bezirksgericht Münster genehmigte eine Emissionskontrolle für das Kraftwerk Datteln 4, ein Steinkohlekraftwerk, welches von dem Unternehmen Uniper errichtet wird. Intensive Gerichtsverfahren mit Umweltaktivisten hatten den Bau stark verzögert. Uniper sagte, dass die Strom- und Wärmeerzeugung des 1050-Megawatt-Kraftwerkes in der ersten Hälfte des Jahres 2018 aufgenommen werden soll. Reuters, 19 January 2017

Alles übersetzt von Chris Frey EIKE




Dr. Judith Curry redet Klartext bzgl. der verhängnis­vollen Fehler der Klima­wissenschaft – sowie deren Scheitern bei der Erkundung und dem Verständnis von Unsicher­heiten

Video nicht mehr verfügbar

Im Verlauf ihres Interviews sprach Dr. Curry die zugrunde liegenden Hypothesen an, die von Anfang an ohne jeden wissenschaftlichen Beweis dafür, dass anthropogene Aktivitäten die „globale Erwärmung“ antrieben, vom IPCC einfach in den Raum gestellt wurden (der Terminus „globale Erwärmung“ wurde später zu „Klimawandel“ modifiziert nach dem „Stillstand“ der globalen Temperatur).

Dieses Thema wurde von ihr effektiv behandelt mittels ihrer Charakterisierung während der Sendung, als sie das völlige Versagen der Klimamodelle ansprach, die natürlichen Klimavariationen vor dem Jahr 1950 darzustellen: „Falls die Wissenschaft Klimaänderungen vor 1950 nicht erklären kann, wie können wir dann den heutigen Klimamodellen vertrauen?“

Sie sagte, dass sich das IPCC niemals die Mühe „harter Arbeit“ gemacht habe, um zu bestimmen, wie natürliche Klimavariationen Klimawandel beeinflussten. Stattdessen verließ es sich auf „Experten-Beurteilungen“, denen zufolge menschliche Aktivitäten dafür ursächlich seien. Damit wurde folglich jede Gelegenheit zunichte gemacht, die Klimawissenschaft in diesem wichtigen Bereich voranzubringen.

Dr. Curry hat dieses Thema bereits in früheren Artikeln angesprochen (hier), in denen sie die höchst fragwürdigen Computer-Modellierungs-Verfahren angesprochen hatte, die versuchen, eine Divergenz zu fabrizieren zwischen Klimamodell-Ensemble-Läufen ohne Antrieb bzw. mit anthropogenem Antrieb.

In diesen früheren Artikeln kam sie zu dem Ergebnis, dass mit der Wahl dieses vom Modell getriebenen Erkennungs- und Zuordnungsverfahrens „das IPCC es nicht vermocht hat, überzeugend eine ,Erkennung‘ zu zeigen“.

„Weil historische Aufzeichnungen nicht lang genug und Paläo-Rekonstruktionen nicht zuverlässig sind, ,erkennen‘ die Klimamodelle AGW mittels Vergleichen von Simulationen mit natürlichen Antrieben mit solchen mit anthropogenen Antrieben“.

Und weiter:

„Das IPCC betrachtet die Divergenz zwischen natürlich getriebenen und anthropogen getriebenen Simulationen nach etwa dem Jahr 1980 als das Zentrum ihres Erkennungs- und Zuordnungs-Argumentes. Siehe Abbildung 10.1 aus dem AR 5 (WG1): a) mit natürlichem und anthropogenen Antrieb, b) ohne anthropogenen Antrieb“:

Dr. Curry verwies folgendermaßen auf eine Anzahl kritischer Fehler in diesen Vergleichen:

„Man beachte besonders, dass die Modelle darin scheitern, die Erwärmung zwischen 1910 und 1940 zu zeigen.

Der schreiende Fehler in seiner [des IPCC] Logik ist Folgender: Falls man versucht, die Erwärmung über einen kurzen Zeitraum, z. B. seit 1980, irgendetwas zuzuordnen, erfordert dies die explizite Berücksichtigung, in welcher Phase der multidekadischen natürlichen internen Variabilität dieser Zeitraum der Erwärmung liegt (z. B. AMO, PDO).

Bei der Zuordnung der Erwärmung zum Ende des 20. Jahrhunderts hat man für das Erkennen derselben nicht berücksichtigt, in welcher Phase von AMO und PDO diese Zeitperiode liegt.

Typischerweise wird argumentiert, dass diese Oszillationen auf und ab schwingen, sich insgesamt aber ausgleichen. Vielleicht, aber sie gleichen sich NICHT aus, wenn man einen Zeitraum heranzieht, der kürzer ist als die multidekadischen Zeitmaßstäbe in Verbindung mit diesen Oszillationen.

Außerdem erfordert es eine überzeugende Zuordnung angesichts der Gegenwart multidekadischer Oszillationen mit einem nominellen Zeitrahmen von 60 bis 80 Jahren, dass man die Variabilität einem Zeitraum von mehr als 60 bis 80 Jahren zuordnen kann, vorzugsweise bis zurück zur Mitte des 19. Jahrhunderts.

Wenn man nicht in der Lage ist, die Zuordnung der Änderung zu Anfang des 20. Jahrhunderts einzuordnen, ist meiner Ansicht nach jede zuverlässige Zuordnung der Änderung zum Ende des 20. Jahrhunderts ausgeschlossen“.

In diesen früheren Artikeln kommt Dr. Curry zu dem Ergebnis, dass die IPCC-Klimamodelle für diesen Zweck nicht geeignet sind, dass sie Zirkelschlüsse bemühen bei der behaupteten Erkennung, und dass sie daran scheitern, den Einfluss von Antriebs-Unsicherheiten hinsichtlich Vermutungen der Zuordnung abzuschätzen.

Während der Sendung sagte Dr. Curry weiter, dass Klimamodelle wie die vom IPCC verwendeten Modelle, welche versuchen, Klimaauswirkungen in Verbindung zu bringen mit menschlichen Aktivitäten, in viele Fällen „sich selbst erfüllende Prophezeiungen“ repräsentieren aus einer politisch getriebenen Agenda, die „jede Objektivität verloren hat“, weil deren Bias bzgl. der Missachtung der natürlichen Klimavariabilität dazu führte, dass sie sich ausschließlich auf anthropogenen Klimawandel konzentrierte.

Dr. Curry sprach während der Sendung auch das jüngste Daten-Debakel der NOAA an. Diese Organisation, welche maßgeblich bei der Messung und Evaluierung globaler Temperaturdaten sein sollte, war extrem schlampig und inkompetent bei der Verwaltung ihrer Temperaturdaten.

Sie sprach im Zusammenhang mit dem Daten-Debakel der NOAA an, dass dieses durch politischen Druck der Obama-Regierung zustande gekommen sei, weil diese Ergebnisse wünschte zur Unterstützung ihrer Aktivitäten auf der Pariser Klimakonferenz.

Sie erwähnte, dass sie während der letzten 18 Monate in Kontakt mit dem NOAA-Wissenschaftler Dr. John Bates stand, mit welchem sie über seine Erfahrungen bzgl. des Fehlens wissenschaftlicher Sorgfalt bei der Behandlung der Datensätze seitens der NOAA diskutierte. Kritische Temperaturdaten wurden nicht angemessen archiviert, eine dokumentierte oder evaluierte Konsistenz mit den von der NOAA selbst etablierten Standards fand nicht statt. Sie bemerkte, dass sie mit Dr. Bates eine extensive Diskussion dieser Datenprobleme der NOAA auf ihrem Blog Climate etc. hatte.

Sie bemerkte weiter, dass angesichts der Bedeutung, welche die NOAA-Temperaturdaten bei der globalen und nationalen Gesetzgebung und politischer Entscheidungen bzgl. Klima-Belange spielen, die Billionen Dollar teuer werden konnten, diese Daten allen Standards der Verwaltung von Daten zu 100% genügen müssen, was hier eindeutig nicht der Fall war.

Sie glaubt, dass die Finanzierung der Studie zur natürlichen Klimavariation erheblich aufgestockt werden muss und dass der politische Druck seitens der Regierungen dafür gesorgt hatte, dass fast die gesamte Finanzierung an anthropogen ausgerichtete Studien geflossen war.

Ihrer Einschätzung nach bewegen sich die Klimaauswirkungen menschlicher CO2-Emissionen im „Winzig-Maßstab“.

Sie ermutigte alle diejenigen, die Bedenken hinsichtlich der Validität von Argumenten für einen vermeintlich anthropogen verursachten Klimawandel hegen, diese ihre Bedenken laut zur Sprache bringen.

Link: https://wattsupwiththat.com/2017/02/09/dr-judith-curry-speaks-out-on-climate-sciences-fatal-flaw-the-failure-to-explore-and-understand-uncertainty/

Übersetzt von Chris Frey EIKE




Selbsternannte Klimaapostel sägen an Deutschlands Klimaeichen

Mit ihren NGOs im Hintergrund betrachten diese Deutschland als Spielwiese für ihre Sehnsüchte und sind überzeugt, dass die Bürger sich nach ihren Vorstellungen zu verhalten haben. Um es zu erzwingen, versuchen sie, der Politik ihren Willen vorzuschreiben.
Leider werden sie nicht etwa in die Schranken verwiesen, sondern von den Medien und BeraterInnen unserer Regierung unterstützt, selbst wenn damit rechtswidrige Aktionen verbunden sind, was natürlich kein Zufall ist, denn verschiedene Parteien in Berlin sind ja selbst stolz darauf, zur Durchsetzung ihrer Ideologie Rechtsbrüche zu unterstützen.

Ein Beispiel kann man wieder auf dem bekannten (Des-)Informationsportal unserer offiziellen Regierungs-Klimaberaterin lesen, welches bekannt hemmungslos [4][5] einem reinsten Aktivisten und Klima-Demagogen [3] [2] regelmäßig ihre Plattform anbietet.

[1] klimaretter.info, Hendrik Sander: Deutschlands Klimaretter-Mythos zerstören

Damit der „klimaretter“-Leser gleich weiß, um was es geht, wird zum Artikel die Intention des Autors mitgeliefert:
Dem Aktivisten und Politikwissenschaftler Hendrik Sander geht es beim Klimaschutz nicht nur um die technische Revolution, sondern auch um die soziale. Darauf wartet er nicht gern auf dem Sofa – lieber geht er auf die Straße

Herr Sander ist kein unbeschriebenes Blatt, sondern schreibt öfters unter „Sander in Bewegung“ für „klimaretter“ und er beschreibt dort auch regelmäßig und unverblümt seine Einstellung:
H. Sander: [7] Zum Glück gibt es auch den anderen Teil der Klimabewegung: Er ist graswurzelbewegt, setzt auf direkte Aktionen und kämpft für einen grundlegenden Systemwandel. Dazu gehören etwa die mutigen Klima-Aktivisten von „Ende Gelände“, die im Sommer den Tagebau Garzweiler im Rheinischen Braunkohlerevier stürmten. Auf dem Climate March konnten wir sie an ihren weißen Schutzanzügen erkennen. Sie luden die Mitdemonstrierenden ein, es nicht bei mahnenden Worten an die Regierungen zu belassen, sondern den Klimaschutz selbst in die Hand zu nehmen.

Der Rundumschlag

Aufhänger des Rundumschlages von Hern Sander gegen Deutschlands Klimapolitik ist die nächste Klimakonferenz in Bonn.

H. Sander: [1] Es scheint das perfekte Paar zu sein: Der vom Untergang bedrohte Inselstaat Fidschi leitet offiziell die nächste Weltklimakonferenz im November 2017 und der scheinbare Klimaschutzvorreiter Deutschland fungiert als Gastgeber und Schirmherr des Treffens.
Dieses Märchen verfängt überraschend gut in der internationalen Klimaszene. Selbst von kritischen Klima-Aktivisten aus dem globalen Süden ist immer wieder zu hören, die Bundesrepublik habe doch schon den Umstieg auf 100 Prozent erneuerbare Energien geschafft. Ich bin immer wieder überrascht, wie sehr dieses Traumbild verfängt, obwohl doch Deutschland nach wie vor zu den globalen
„Carbon Majors“ zählt.

Aus dieser Einleitung heraus „zerpflückt“ der Aktivist sodann Berlins Klimapolitik und prangert sie – wie sollte anders sein -, als absolut unzureichend an. Damit ist es aber nicht getan, denn gegen das Klima-Böse – in seinen Augen die nicht ausreichende Klimawandel-Politik – muss unverdrossen und rücksichtslos gekämpft werden.
H. Sander: [1] Es wird deshalb die Aufgabe der Klimabewegung und kritischen Zivilgesellschaft sein, Risse in das Bild des „Klimaretters“ Deutschland zu reißen.

„ … Das wäre doch eine passende Gelegenheit, sich mal wieder vor die zerstörerischen Riesenbagger zu setzen. Und tatsächlich planen die Aktivisten von Ende Gelände, parallel zum Gipfelmarathon einen nahegelegenen Tagebau zum Stillstand zu bringen … “.

Den Blog klimaretter.info stören solche Aufrufe auf ihrer Homepage nicht, denn die Betreiber befürworten solche Aktionen ausdrücklich [5][6][7].

Für einen Aktivisten mit Politikstudium – und klimaretter.info – reicht es nachzuplappern

Es fällt auf, wie viele Aktivisten ein Politikstudium haben und mit diesem „Ausbildungswissen“ den Klimawandel beurteilen. Im Kern läuft diese Beurteilung aber immer auf das Gleiche hinaus:
CO2 ist ein Klimagift und darf vom Menschen nicht mehr emittiert werden. Das gilt als ökoheiliges Dogma, welches zu hinterfragen nicht erlaubt ist. Entsprechend tut jeder Gutes, der mit allem Einsatz für eine CO2-Reduzierung kämpft und umgekehrt. Und zu diesem Ökokreuzzug wird bedingungslos aufgerufen.
H. Sander: [1] … Ein Bundesbürger setzt jedes Jahr durchschnittlich über elf Tonnen CO2-Äquivalent frei, obwohl perspektivisch nur zwei Tonnen global verallgemeinerbar sind ...

Um das zu rechtfertigen, werden alle Metaphern des Klimawandels endlos wiederholt:
H. Sander: [1]
Ich gehe jede Wette ein, dass sich die neue Bundesregierung dann als Retterin der gefährdeten Inselrepublik inszenieren wird, obwohl wir hier mit jedem verbrannten Kilo Kohle, mit jedem neu produzierten Mercedes, mit jedem Fernflug in nach Lateinamerika den Pazifischen Ozean anschwellen lassen, der das Heimatland unserer Gäste schon bald überschwemmen könnte.

Klar, dass die Argumentation nicht nachgeprüft wird. Was einmal auf „klimaretter“ erschien, ist zur „Wahrheit“ mutiert. Und ökologische Betrachtungen zur Sinnhaftigkeit sind dem Aktivisten sowieso vollkommen fremd.
Wie man wirklich leicht nachrechnen kann, verursacht Deutschland mit der aktuellen Emission einen „Erwärmungsbeitrag“ von 0,094 °C in 100 Jahren [8]. Bestätigt wird dies durch einen aktuellen EIKE-Beitrag:
EIKE: Statistiker: UN-Klimavertrag wird 100 Billionen Dollar kosten – und keine Auswirkungen haben – Verschiebung der Erwärmung bis 2100 um weniger als vier Jahre!

Daraus abzuleiten, dass Deutschland „ … mit jedem verbrannten Kilo Kohle, mit jedem neu produzierten Mercedes, mit jedem Fernflug in nach Lateinamerika den Pazifischen Ozean anschwellen lassen … „ ist nicht nur vollkommen falsch, sondern bewusste … Anmerkung: war ein Ausdruck vorgesehen, der nach den neuen Regeln aber unter hate-speech fallen könnte, was inzwischen nur noch bei Zustimmung zur offiziellen Vorgabemeinung oder von Politikern in Richtung Volk erlaubt ist. Dazu gibt es schon ein Gerichtsurteil: „Darf man Claudia Roth als „ekelhaft“ bezeichnen?“; darf man natürlich nicht, aber C. Roth durfte in einer Talkshow sagen „ … wer den Klimawandel leugnet, kann nicht intelligent sein“.

Die gleichen, falschen Berichte endlos kopiert, werden zu Belegen

Was schon Herr Limburg kürzlich auf EIKE angeprangert hat: „Man muss eine Lüge nur oft genug wiederholen, und sie wird zur Wahrheit“, wendet auch der Aktivist Sander konsequent an. Beispielhaft weist die verlinkte „Belegung“: „ … den Pazifischen Ozean anschwellen lassen, der das Heimatland unserer Gäste schon bald überschwemmen könnte “, auf einen (klimaretter-) Artikel, in welcher sich ein Einheimischer Fidschi– selbstverständlich ein NGO-Vertreter – bitter über die Probleme durch den Klimawandel beklagt.
Wie es um die Probleme dort steht, wurde allerdings in einer umfangreichen Artikelreihe gezeigt. Es gibt viele, aber keine wegen eines Klimawandels:
EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang
EIKE 26.11.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2
EIKE 17.09.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 1 Die Malediven

Auch das Fidschi-Atoll und weitere in dieser Region des Pazifik wurden erst kürzlich „angesehen“:
EIKE 20.12.2016: Der Klimawandel wird bildlich gesprochen immer schöner, die Daten darüber nicht
Ein Bild daraus zeigt die Pegelverläufe in dieser Region über die letzten 60 Jahre.

Pegeldaten von Fidschi und weiterer Messstationen im Süd-Pazifik (ohne Normierung). Grafik vom Autor anhand der PSMSL Pegeldaten erstellt

Die Aussage dazu: „ … obwohl wir hier mit jedem verbrannten Kilo Kohle … “ sinngemäß den Untergang der in dieser Region liegenden Inseln hervorrufen, ist eindeutig mehr als falsch. Um jedoch trotzdem den Eindruck zu erzeugen, ist jedes Mittel recht:

EIKE: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht: Aus dem Lehrbuch für (Klima-)Statistikbetrug

Es geht auch nicht wirklich um Klima, sondern um die neue sozialistische Revolution im Ökogewand

Dem Aktivisten Sander ist das im Kern wohl auch vollkommen egal, denn ihm geht es um die Zerstörung des verhassten Kapitalismus. Und wäre dazu eine andere Begründung hilfreicher, würde er sicher sofort diese nehmen.

[2] Hendrik Sander, Buch: Auf dem Weg zum grünen Kapitalismus. Die Energiewende nach Fukushima
… Sander sieht in seinem Fazit „keine Kräfte im integralen Staat, die willens und in der Lage wären, eine Transformation in Richtung eines grünen Kapitalismus in der deutschen Energiewende anzuführen“ (263). Abschließend beschreibt er daher „Strategien für einen grünen Sozialismus“ (273). Der Politologe betont am Ende, dass er sich neben den wissenschaftlichen Kriterien in seiner Arbeit auch Zielen wie dem „grundlegenden sozialen, ökologischen und demokratischen Umbau der deutschen Energieversorgung sowie [… der] Entwicklung einer emanzipatorischen, postkapitalistischen Gesellschaft“ „parteilich“ (322) verpflichtet fühle.
Gefördert wurde Sanders Arbeit durch Stipendien der Hans Böckler und der FAZITStiftung. Das Buch ist als erster Band der Reihe „Kritische Wissenschaft“ erschienen.

Nun interessiert Herr Sander bisher niemanden. Dass aber Personen, welche solchen Aktivisten bedenkenlos ihre Plattform bieten, als RegierungsberaterIn ernannt werden [9] und es bleiben, ist das wirklich Erschreckende, wird sich jedoch leider kaum mehr ändern. Denn wer Missstände in seiner Partei nicht bedenkenlos mitträgt, sondern protestiert, sitzt ganz schnell verdammt einsam (Artikel, Bild dazu).

Quellen

[1] klimaretter.info, Hendrik Sander, 03. Februar 2017: Deutschlands Klimaretter-Mythos zerstören
http://www.klimaretter.info/meinungen/kolumnen/sander-in-bewegung/22633-deutschlands-klimaretter-mythos-zerstoeren

[2] Portal für Politikwissenschaft, Buchrezension: Hendrik Sander, Auf dem Weg zum grünen Kapitalismus. Die Energiewende nach Fukushima

[3] Rosa Luxemburg Stiftung, Autorenprofil Hendrik Sander: Hendrik Sander ist Sozialwissenschaftler und lebt in Berlin. Er promoviert zum Thema «Energiewende in Deutschland» und engagiert sich bei Attac und FelS (Für eine linke Strömung).

[4] EIKE 11.10.2016: C. Kemfert, Professorin und Politik-Beraterin für Umwelt und Energie, bekommt Ehrenpreise für Agitation

http://www.eike-klima-energie.eu/news-cache/c-kemfert-professorin-und-politik-beraterin-fuer-umwelt-und-energie-bekommt-ehrenpreise-fuer-agitation/

[5] EIKE 23.07.2016: Der Unterschied in der Klimawandel-Berichterstattung

Kritik an der Berichterstattung des Portals Klimaretter.Info

http://www.eike-klima-energie.eu/news-cache/der-unterschied-in-der-klimawandel-berichterstattung/

betrug

[6] EIKE 20.05.2016: Berichterstattung von Klimaretter.Info über die am Pfingstwochenende durchgeführten Agitationen im Braunkohlerevier

http://www.eike-klima-energie.eu/news-cache/berichterstattung-von-klimaretterinfo-ueber-die-am-pfingstwochenende-durchgefuehrten-agitationen-im-braunkohlerevier/

[7] klimaretter.info, Hendrik Sander: Wir müssen groß, bunt und radikal sein

[8] EIKE 11.06.2015: Mit CO2-Reduzierung retten wir die Welt – Einige Rechenspiele (nicht nur) für regnerische Nachmittage

http://www.eike-klima-energie.eu/klima-anzeige/mit-co2-reduzierung-retten-wir-die-welt-einige-rechenspiele-nicht-nur-fuer-regnerische-nachmittage/

[9] EIKE 14.05.2016: Umweltgutachten 2016 des Sachverständigenrates für Umweltfragen (SRU) der Bundesregierung




Mehr zum ein­schlägigen Artikel von David Rose: Insta­bilität im Global Historical Climate Network GHCN

Nachdem ich diese beiden Individuen kennen gelernt und ihren Zelotismus gesehen habe, überrascht mich kein einziger der Taschenspielertricks, die David Rose in seinem Artikel ans Tageslicht gebracht hat.

Die Gläubigen behaupteten, dass es keinen Unterschied gebe zwischen den Temperatur-Datensätzen der NOAA und von der HadCRUT, die im Rose-Artikel angesprochen worden waren, und sagen, dass die Differenz ein Grundlagen-Fehler ist. Sei’s drum, und vielleicht war es auch einfach ein Fehler der Graphik-Abteilung bei der Mail on Sunday – ich weiß es nicht.

Wenn man die Grundlinien der Anomalien übereinander legt, verschwindet die Differenz:

Abbildungen: Vergleich der monatlichen globalen Temperatur-Anomalien von HadCRUT4 und NOAA Ozean und Festland bezogen auf die allgemeine Basisperiode 1961 bis 1990. h/t The CarbonBrief

Aber … es gibt weitere ernste Probleme mit den globalen Klimadaten.

Was auch immer man denken mag, NOAA und HadCRUT sind nicht vollständig „unabhängig“. Beide verwenden Daten des GHCN, und das GHCN wurde betrieben von … Trommelwirbel! … Thomas Peterson von der NOAA, also von einem der Mitautoren der „Pausebuster“-Studie von Karl et al. 2015.

Der Fuchs bewacht den Hühnerstall, und wie man unten erkennt, sind die Daten ernstlich dubios.

Paul Matthews schreibt auf der Website CliScep:

Ziel dieses Beitrags ist es, eine der Beschwerden von Bates zu bestätigen. Im Mail-Artikel heißt es, dass „der für die Studie herangezogene Festlands-Temperaturdatensatz mit verheerenden Fehlern in dessen Software behaftet war, welche dessen Ergebnisse ,instabil‘ machten“. Weiter unten liest man: „Außerdem war auch die GHCN-Software von ernsten Fehlern befallen. Diese machten das Ganze so ,instabil‘, dass jedes Mal, wenn die Rohdaten der Temperatur im Computer berechnet wurden, unterschiedliche Ergebnisse herauskamen“.

Da hat Bates so ziemlich recht. Ich selbst habe die Instabilität des Algorithmus‘ der GHCN-Adjustierungen zum ersten Mal im Jahre 2012 entdeckt. Paul Homewood hat die Adjustierungen auf seinem Blog viele Jahre lang hinterfragt, besonders in Island, siehe Beispiele hier, hier, hier und hier. Oftmals wird die Vergangenheit durch diese Adjustierungen kälter, um die Erwärmung stärker aussehen zu lassen als es in den Rohdaten zum Ausdruck kommt. Als ich die Adjustierungen der Werte von Alice Springs in Australien betrachtete, bemerkte ich (siehe meinen Beitrag aus dem Jahr 2012), dass sich die Adjustierungen der Temperaturen in der Vergangenheit oftmals innerhalb nur weniger Wochen ziemlich dramatisch veränderten. Ich denke, dass auch Paul Homewood dies irgendwo auf seinem Blog kommentiert hat. Als wir diese Änderungen zum ersten Mal bemerkten, dachten wir, dass vielleicht der Algorithmus selbst verändert worden wäre. Aber es wurde bald klar, dass sich die Adjustierungen so oft änderten, dass dies nicht der Fall sein konnte, und es war der Algorithmus selbst, der instabil war. Mit anderen Worten, immer wenn dem System jede Woche neue Daten hinzugefügt wurden, wurde der Algorithmus erneut durchlaufen, und die sich daraus ergebenden Temperaturen der Vergangenheit waren jedes Mal ziemlich unterschiedlich.

Hier folgt eine von mir zu jener Zeit erstellte Graphik mit Daten, die von der GHCN ftp site heruntergeladen werden können. (die nicht adjustierten bzw. adjustierten Files sind ghcnm.tavg.latest.qcu.tar.gz bzw. ghcnm.tavg.latest.qca.tar.gz). Sie illustrieren die Instabilität des Adjustierungs-Algorithmus‘:

Die dunkelblaue Linie zeigt die Rohdaten-Temperaturaufzeichnung für Alice Springs. Die grüne Linie zeigt die adjustierten Daten, wie sie im Januar 2012 vom GHCN genannt worden sind. Man sieht, dass die Adjustierungen ziemlich gering sind. Die rote Linie zeigt die adjustierte Temperatur nach Durchlaufen des GHCN-Algorithmus‘, wie sie vom GHCN im März 2012 angegeben wurden. In diesem Falle sind die Temperaturen der Vergangenheit um 2 Grad abgekühlt worden. Im Mai erwärmte der Adjustierungs-Algorithmus die Temperaturen der Vergangenheit, so dass diese etwa 3 Grad höher lagen als die Temperaturen, die sie im März gezeigt hatten! Man beachte, dass alle Graphen am rechten Rand zusammenlaufen, da der Adjustierungs-Algorithmus in der Gegenwart beginnt und rückwärts läuft. Die Divergenz der Linien mit zunehmender Vergangenheit illustriert die Instabilität.

Es gibt einen Blogbeitrag von Peter O’Neill Wanderings of a Marseille January 1978 temperature, according to GHCN-M, in welchem die gleiche Instabilität des Algorithmus‘ gezeigt wird. Er betrachtet adjustierte Temperaturen von Marseille, welche die gleichen offensichtlich zufällig verteilten Sprünge zeigen, wenngleich die Amplitude der Instabilität etwas geringer ist als im Falle Alice Springs. Sein Beitrag zeigt auch, dass jüngere Versionen des GHCN-Codes das Problem nicht gelöst haben, gehen doch seine Graphiken bis zum Jahr 2016. Man findet auf seinem Blog viele ähnliche Beiträge.

Es gibt noch viel mehr zu sagen über die Temperatur-Adjustierungen, aber ich möchte mich in diesem Beitrag auf diesen einen Punkt beschränken. Der GHCN-Algorithmus ist instabil, wie von Bates festgestellt, und erzeugt praktisch bedeutungslose adjustierte Temperaturdaten der Vergangenheit. Die hier gezeigten Graphiken ebenso wie diejenigen von Peter O’Neill belegen dies. Kein ernsthafter Wissenschaftler sollte sich eines derartig instabilen Algorithmus‘ bedienen. Man beachte, dass diese unechten adjustierten Daten danach als Input verwendet werden für weithin gebräuchliche Datensätze wie etwa GISTEMP. Was sogar noch absurder ist: das GISS führt selbst noch weitere Adjustierungen der schon adjustierten GHCN-Daten durch. Es ist unfasslich, dass sich die Klimawissenschaftler bei GHCN und GISS dieses sehr ernsten Probleme bei ihren Verfahren nicht bewusst sind.

Zum Schluss habe ich noch die jüngsten Roh- und adjustierten Temperaturdaten vom GHCN heruntergeladen, bis zum 5. Februar 2017. Hier folgen die Plots für Alice Springs. Es gibt keinen Preis, wenn man richtig rät, welches die Rohdaten und welches die adjustierten Daten sind. Beim GISS gibt es eine sehr ähnliche Graphik.

Der ganze Beitrag dazu steht hier: https://cliscep.com/2017/02/06/instability-of-ghcn-adjustment-algorithm/

Link: https://wattsupwiththat.com/2017/02/07/more-on-the-bombshell-david-rose-article-instability-in-the-global-historical-climate-network/

Übersetzt von Chris Frey EIKE




12. Inter­nationale Konferenz zu Klima­wandel: jetzt an­melden!

Auf der 12. Internationalen Konferenz zu Klimawandel (ICCC 12), die am 23. und 24. März (Donnerstag und Freitag) im Grand Hyatt Hotel in Washington stattfindet, werden die mutigen Frauen und Männer zu Wort kommen, die während des Höhepunktes der Angsterzeugung bzgl. globale Erwärmung die Wahrheit über den Klimawandel aussprachen. Jetzt beraten viele von ihnen die neue Regierung oder haben an ihr in leitenden Positionen teil.

HIER ANMELDEN!

Dies war die beste Konferenz, an der ich je teilgenommen hatte, und in meinem früheren Leben habe ich für mein Leben gern Konferenzen besucht!“ – Ein Teilnehmer von ICCC 10 im Jahre 2015.

Die ICCC 12 wird vom Heartland Institute ausgerichtet, also „der prominentesten Denkfabrik der Welt, die den Skeptizismus hinsichtlich AGW unterstützt“ (The Economist). Seit dem Jahr 2008 haben über 4000 Personen an einer oder mehreren ICCCs teilgenommen.

Die ICCC konzentriert sich dieses Mal weniger auf Wissenschaft als die Konferenzen zuvor, weil Klimarealisten über alle Zweifel erhaben nachgewiesen haben, dass der menschliche Einfluss auf das Klima wahrscheinlich sehr gering und außerdem eher vorteilhaft als nachteilig ist. Realisten haben nachgewiesen, dass die meisten Wissenschaftler inzwischen diese Ansicht teilen, außer jenen, deren Laufbahn darauf beruht, einen menschlichen Einfluss aufzuspüren und diesen zu übertreiben.

Die Aufgabe jetzt besteht darin, die Vorteile hervorzuheben, die eine Beendigung von Obamas Krieg gegen die Kohle mit sich bringt und welche politischen Veränderungen hierfür vorgenommen werden müssen. Auf der ICCC 12 wird es mit aller Tiefe genau darum gehen: Diskussionen von Experten über die Ökonomie der Energiepolitik sowie Vorteile und Kosten fossiler Treibstoffe.

Es gibt nur eine sehr begrenzte Anzahl von Plätzen, darum sollte man sich noch heute registrieren. Die Gebühr beträgt 179 Dollar, darin enthalten sind fünf Mahlzeiten. Fragen an Nikki Comerford unter [Vorwahl USA] 312/377-4000.

Die Tagung findet statt im Grand Hyatt Hotel, 1000 H Street NW, Washington D.C. Hotelreservierungen unter [Vorwahl USA] 202/582-1234. Es gibt weitere Hotels in der Nähe.

Die vergangenen elf Konferenzen zu Klimawandel waren uneingeschränkte Erfolge. Über die Konferenzen wurde jeweils ausführlich in internationalen Medien berichtet [außer in Deutschland natürlich – nach der schon im Mittelalter erfolgreichen Devise „Haltet das Volk dumm, dann regiert es sich leichter!“ Anm. d. Übers.] Über 200 Experten haben sich mit Informationen und Gedanken ausgetauscht hinsichtlich der neuesten Wissenschaft, Wirtschaft und Politik mit Bezug zur Debatte um die globale Erwärmung. Über 4000 Personen haben an einer ICCC teilgenommen. Videos der Vorträge gibt es online hier.

Falls jemand nicht kommen kann, die Konferenz aber verfolgen möchte, kann das tun auf YouTube channel und Facebook page.

Link: https://wattsupwiththat.com/2017/02/04/registration-now-open-for-the-12th-international-conference-on-climate-change/

Übersetzt von Chris Frey EIKE




IPCC-Ziele und -Verfahren verlangten Elimi­nierung, Reduktion und Manipu­lation unge­eigneter Daten sowie die Erzeu­gung falscher Daten

Die folgende Aussage aus dem 4. Zustandsbericht ist völlig unhaltbar angesichts der Ergebnisse der Projektion:

Es gibt beträchtliches Vertrauen [considerable confidence], dass Klimamodelle glaubwürdige quantitative Schätzungen des zukünftigen Klimawandels liefern, besonders im Maßstab von Kontinenten und darüber. Dieses Vertrauen ergibt sich aus der Grundlage der Modelle, also aus anerkannten physikalischen Prinzipien und aus deren Fähigkeit, beobachtete Vorgänge des gegenwärtigen Klimas und Klimaänderungen der Vergangenheit zu reproduzieren. Das Vertrauen in die Modellschätzungen ist für manche Klimavariablen (z. B. Temperatur) höher als bei anderen (z. B. Niederschlag). Über viele Jahrzehnte der Entwicklung hinweg haben die Modelle konsistent ein robustes und eindeutiges Bild einer signifikanten Klimaerwärmung als Folge von zunehmenden Treibhausgasen gezeigt.

Dies ist genau so, als ob man sagt, dass eine Seifenkiste eine gute Approximation eines Rolls Royce oder eines Ferrari ist. Als Beweis führen sie an, dass die Seifenkiste anscheinend einige Spuren-Charakteristika hat und der Straße in der gleichen Richtung folgt – falls sie sich auf einem Hügel befindet.

Abbildung 1: Grundbestandteile einer Seifenkiste

Selbst ein einfaches Systemdiagramm der Atmosphäre (Abbildung 2) ist tausend mal komplizierter als die gezeigten Grundmaterialien für die Seifenkiste.

Abbildung 2. Nach Kellogg und Schneider (1974)

In der Liste der Variablen in diesem Diagramm sowie der vielen fehlenden Variablen stecken keine bedeutsamen Daten. Mit bedeutsam meine ich, dass falls es sie gibt, sie unzureichend sind hinsichtlich Länge, Abdeckung oder Genauigkeit. Sie sind unzureichend als Grundlage eines Computermodells, und die Modellergebnisse sind vollkommen unrepräsentativ bzgl. der Realität und gänzlich ungeeignet als Grundlage für jedwede Politik. Der Beweis für diese Behauptung ist im Scheitern der Validierung der Modelle zu finden, außer wenn man Variablen hinzufügt oder adjustiert dergestalt, dass sie zu den Modellbedingungen passen. Das Scheitern dieser Taschenspielertricks liegt in den gescheiterten Projektionen. Die einzige Lehre, die sie daraus ziehen, ist die Notwendigkeit, sich total auf die Datensammlung zu konzentrieren, weil die Klimawissenschaft schon jetzt der Warnung von Sherlock Holmes genügt:

Es ist ein kapitaler Fehler zu theoretisieren, bevor man Daten hat. Unmerklich beginnt man dann, Fakten zu verdrehen, damit sie zu den Theorien passen, anstatt die Theorien nach den Fakten auszurichten“.

Ich habe schon oft über das Datenproblem geschrieben, aber es ist von so grundlegender Bedeutung, dass eine fortwährende Wiederholung desselben erforderlich ist. Es scheint, als ob die Trump-Regierung dafür sorgt, dass die Verdrehung von Tatsachen, bis sie zur Theorie passen, gestoppt wird. Sie könnte beschließen, weitere Förderungen der Klimawandelforschung einzustellen mit der Rechtfertigung, dass die Förderungen bis jetzt missbraucht worden sind. Falls sie jedoch auf diesem Weg voranschreitet, wird jedes Weiterkommen wegen fehlender Daten fehlschlagen.

Hubert Lamb, der möglicherweise mehr Klimadaten zusammengetragen hat als irgendjemand vor oder nach ihm, erklärte in seiner Autobiographie (1997), dass er die Climate Research Unit gegründet hatte, weil:

…klar war, dass es die erste und größte Notwendigkeit war, die Fakten auf der Grundlage der Aufzeichnungen des natürlichen Klimas der Vergangenheit zu etablieren, bevor irgendwelche Nebeneffekte menschlicher Aktivitäten bedeutsam geworden sind“.

In unserer persönlichen Kommunikation beschrieb er die Probleme, welche das Fehlen von Daten hervorrufen würde, und bedauerte, dass genau das an der CRU der Fall war. Er schrieb:

Mein direkter Nachfolger, Prof. Tom Wigley, war hauptsächlich interessiert an den Perspektiven des Weltklimas, das sich als Folge menschlicher Aktivitäten ändert, hauptsächlich durch das Verbrennen von Holz, Kohle, Öl und Erdgas… Nach nur wenigen Jahren war praktisch die gesamte Arbeit an der historischen Rekonstruktion von Klima und Wetterlagen der Vergangenheit, welche die Unit weithin bekannt gemacht hatte, aufgegeben worden“.

Wigley war der Urvater des IPCC, die zentrale Institution, der Fels inmitten der zentralen Gestalten während des Debakels, zu dem die CRU wurde, nachdem sie den 3. Zustandsbericht entworfen und kontrolliert hatte. Man lese die veröffentlichten Klimagate-E-Mails und beachte, wie oft sie seine Ausführungen zur Lösung von Streitfragen herangezogen hatten. Es ist eine surreale Erfahrung, weil seine Kommentare ausnahmslos in Warnungen bestanden vor Dingen, die ihre AGW-Objektive bedrohen könnten. Es ging ihm nie darum, nach Wahrheit zu trachten.

Viele Kommentatoren beschreiben sehr markant einige unverrückbare Tatsachen hinsichtlich Daten und Statistiken:

Falls man die Daten nur ausreichend frisiert, wird die Natur immer mitspielen“ – Ronald Coase.

Fakten sind stur, aber Statistiken sind formbarer“. – Anonym

Wir alle sind gewaltigen Mengen von Rohmaterial ausgesetzt, welche Daten, Gedanken und Schlussfolgerungen enthalten – vieles davon falsch oder missverstanden oder einfach nur durcheinander. Es besteht eine schreiende Notwendigkeit für intelligentere Kommentare und Begutachtungen“. – Murray Gell-Mann

Wissenschaft ist ein Gebäude aus Fakten, so wie ein Haus aus Ziegelsteinen gebaut ist; aber eine Ansammlung von Fakten ist nicht mehr Wissenschaft als ein Stapel von Ziegelsteinen schon ein Haus ist“. – Henri Poincare.

Ich habe zu fehlenden Daten schon oft auf dieser Website und anderswo Stellung genommen:

https://wattsupwiththat.com/2014/03/21/ipcc-scientists-knew-data-and-science-inadequacies-contradicted-certainties-presented-to-media-public-and-politicians-but-remained-silent/

https://wattsupwiththat.com/2015/09/27/approximately-92-or-99-of-ushcn-surface-temperature-data-consists-of-estimated-values/

https://wattsupwiththat.com/2013/10/22/lack-of-data-for-all-phases-of-water-guarantees-failed-ipcc-projections/

https://wattsupwiththat.com/2013/10/02/ipcc-climate-a-product-of-lies-damn-lies-and-statistics-built-on-inadequate-data/

https://wattsupwiththat.com/2016/04/24/particulates-aerosols-and-climate-the-more-important-story/

https://wattsupwiththat.com/2015/11/04/more-ipcc-inadequacies-and-failures-precipitation/

In einem der Artikel wies ich darauf hin, dass das IPCC und zentrale Figuren des AGW-Betrugs genau wussten, dass es keine Daten gibt.

Im Jahre 1993 ist Stephen Schneider, eine an vorderster Stelle stehende Figur der AGW-Hypothese und dem Gebrauch von Modellen verschrieben, über die Zweifel an der Sicherheit hinausgegangen, als er sagte:

Unsicherheit bzgl. bedeutender Rückkopplungs-Mechanismen ist ein Grund, warum das ultimative Ziel der Modellierung des Klimas – also die zuverlässige Vorhersage der Zukunft von Schlüsselvariablen wie Temperatur und Niederschlagsverteilung – nicht realisierbar ist“.

Am 3. Februar 1999 hieß es in einem Report des US National Research Council:

Defizite hinsichtlich Genauigkeit, Qualität und Kontinuität der Aufzeichnungen stellen ernste Begrenzungen des Vertrauens dar, das man den Forschungsergebnissen entgegen bringen kann.

Kevin Trenberth erwiderte darauf:

Es ist sehr eindeutig – wir haben kein Klimabeobachtungs-System … Dies könnte für viele Menschen als Schock kommen, die annehmen, dass wir adäquat darüber Bescheid wissen, was mit dem Klima los ist; aber das ist nicht der Fall!“

Zwei CRU-Direktoren, Tom Wigley und Phil Jones sagten:

Viele Unsicherheiten rund um die Gründe des Klimawandels werden niemals erkannt werden, weil es an den notwendigen Daten fehlt“.

Sie haben diese Tatsache nicht verschleiert, weil diese es ihnen erlaubte, die Daten, die sie als Beweis für ihre Hypothese brauchten, zu fabrizieren und die Modelle dann als repräsentativ für die reale Welt auszugeben. Sie wussten auch, dass die Öffentlichkeit wie in den meisten Bereichen der Klimawissenschaft nicht wusste, dass die Datenlage völlig unzureichend war [und die, die es wissen, dürfen das bis auf den heutigen Tag nicht laut sagen, wenn sie keine Schwierigkeiten bekommen wollen. O heilige Welt der Wissenschaft! Anm. d. Übers.]

Auslöser zum Schreiben dieses Artikels war der Vortrag eines mächtigen Vertreters der AGW-Hypothese, der von ,synthetischen‘ Daten so sprach, als seien es reale Daten. Die meisten Menschen wissen einfach nicht, dass die meisten Daten synthetischer Natur sind. Um dem Mangel von Daten für globale Klimamodelle zu begegnen, ist es allgemein üblich, synthetische Daten mit einem Modell zu erzeugen, die dann als ,reale‘ Daten in ein anderes Modell eingehen. Da es praktisch keine Daten für irgendeine aus der Vielfalt der Variablen gibt, die in Kombination Wetter und Klima bewirken, erzeugen sie eine virtuelle Realität.

Das IPCC hat Fortschritte im Bereich Klimawissenschaft seit seiner Gründung im Jahre 1990 eingefroren, indem man den Schwerpunkt absichtlich auf menschliche Gründe richtete. Dann widersprachen sie der wissenschaftlichen Methodik, als sie versuchten, die AGW-Hypothese zu beweisen anstatt sie zu widerlegen. Diese Maßnahmen führte zu einer ganzen Reihe von Dilemmata:

Nationale Wetterbüros beriefen die IPCC-Mitglieder und kontrollierten die Finanzierung der Klimaforschung in ihren Ländern.

Dieses Vorgehen führte dazu, dass es die politische oder wissenschaftliche Kontrolle umging. Skeptiker wurden eliminiert.

Der größte Teil der Förderung floss in Theorien und Forschungen, welche die AGW-Hypothese ,bewiesen‘.

In vielen Fällen wurde das für die Datensammlung gedachte Geld abgezogen, als sich der politische Schwerpunkt festigte. Hier folgen Kommentare von Ken Green aus einer Untersuchung dessen, was bei Environment Canada vor sich gegangen war:

Die Behauptung wissenschaftlicher Unehrlichkeit angemessen zu unterstützen war schwierig infolge der vertraulichen Natur eines großen Teils der internen Kommunikation der Regierungen und dem offensichtlichen Zögern von Beamten auszusagen. Allerdings wurden als Folge einer jüngst erhobenen Forderung nach Informationen [Access to Information request] wissenschaftliche Unehrlichkeit und „aufgebrezelte Schlussfolgerungen“ entdeckt in einem der größten Wissenschafts- und Technologie-Projekte Kanadas jemals – die Bemühung, Klimawandel und die Wissenschaft zu „managen“, welche vermeintlich die Kyoto-Bemühungen unterstützt. Dies wird enthüllt durch die folgende Analyse des anhängenden ,contract reports‘ des Consulting-Unternehmens „The Impact Group“ sowie in damit zusammenhängenden internen Kommunikationen zwischen dem Meteorological Service of Canada (MSC) von Environment Canada und anderen und dem „ADM Committee on Climate Change Science“.

Wetterstationen auf der ganzen Welt wurden stillgelegt, angeblich um sie durch Satellitendaten zu ersetzen. NASA GISS stellte diese Änderungen graphisch dar, in welchen sich zwei verschiedene Abnahmen während der sechziger und der neunziger Jahre zeigten:

Das Problem ist sogar noch viel größer, weil Daten verloren gegangen sind, Aufzeichnungen beendet oder gestutzt worden sind, und weil Proxy-Rekonstruktionen pervertiert wurden, als deren Historie zugunsten einer politischen Agenda umgeschrieben wurde.

Ich hörte von den Kommentaren über synthetische Daten nach meinem Engagement in Australien mit Senator Malcolm Roberts und Tony Heller. Ich war nach Australien gereist, um Senator Roberts zu unterstützen bei seiner Anforderung empirischer Daten als Beweis für die AGW-Behauptungen seitens der Bürokraten beim Commonwealth Scientific and Industrial Research Organization (CSIRO), der Organisation also, die die Regierung bzgl. Klimawandel berät. Wir wollten tatsächliche Daten haben mit begleitenden Beweisen von Ursache und Wirkung, nicht Simulationen von Computermodellen. Sie reagierten mit einem Report, der nichts enthielt außer den mittels Computern erzeugten Behauptungen des IPCC. Aber das war keine Überraschung, weil sie ihnen Daten des IPCC-Mitglieds Australian Bureau of Meteorology übermittelt hatten.

Aber es geht nicht nur um empirische Daten und Beweise für AGW. Die Anzahl realer, direkt gemessener Daten zur Erstellung von Computermodellen sowie die Politik beeinflussender Beweise ist vollkommen unzureichend. Die synthetischen Daten, von der die Person sprach, wurden in einem Computermodell von einem Anteil des riesigen Systems Ozean-Atmosphäre erzeugt und dann als reale Daten in ein größeres Modell gesteckt.

Einer der größten absichtlichen Schwindel ist der Unterschied zwischen den Sicherheiten des IPCC, welche in der Summary for Policymakers (SPM) beschrieben werden, und der beängstigenden Liste von Unzulänglichkeiten im Physical Science Report der Arbeitsgruppe I. Die folgenden Zitate stammen direkt aus jenem Report, aber nur sehr wenige Menschen lesen diesen jemals. Grund hierfür ist, dass die SPM mit großem Tamtam schon Monate vor dem Erscheinen des Science-Reports veröffentlicht wird. Der Experten-Begutachter des IPCC David Wojick schrieb:

Eklatante Auslassungen sind nur für Experten eklatant. Darum werden die „Policymakers“ – einschließlich der Medien und der Öffentlichkeit – welche die SPM lesen, nicht bemerken, dass ihnen nur die eine Seite der Story aufgetischt wird. Aber die Wissenschaftler, die die SPM verfasst haben, kennen die Wahrheit natürlich, wie durch die manchmal kunstvolle Art und Weise enthüllt, mit der sie diese Wahrheit verheimlichen.

Was in den SPM systematisch ausgelassen wird, sind genau die Unsicherheiten und positiven Gegenbeweise, die der Theorie der menschlichen Interferenz entgegen stehen. Anstatt diese Objektionen zu bewerten, beschreiben die SPM vertrauensselig nur jene Ergebnisse, die den Fall stützen. Kurz gesagt, das ist Verfechten und nicht Einschätzung.

In der SPM zum 5. Zustandsbericht wird behauptet:

Anthropogene Treibhausgas-Emissionen haben seit der vorindustriellen Ära zugenommen, getrieben hauptsächlich durch ökonomisches Wachstum und Zunahme der Bevölkerung, und sie sind derzeit höher denn je. Dies hat zu atmosphärischen Konzentrationen von Kohlendioxid, Methan und Stickoxiden geführt, die beispiellos sind zumindest während der letzten 800.000 Jahre. Deren Auswirkungen wurden zusammen mit anderen anthropogenen Antrieben im gesamten Klimasystem entdeckt und waren extrem wahrscheinlich der dominante Grund der beobachteten Erwärmung seit Mitte des 20. Jahrhunderts.

Der Terminus „extrem wahrscheinlich“ ist 95% bis 100%. Man stelle diese Einschätzung in den Zusammenhang mit den folgenden Daten-Begrenzungen aus dem Science Report. Er beginnt mit der Anerkennung der ernsten Begrenzungen in einem allgemeinen Statement.

Unsicherheiten bei den gemessenen Aufzeichnungen

Die große Mehrheit historischer (und moderner) Wetterbeobachtungen wurde nicht explizit zum Zweck des Klima-Monitorings durchgeführt. Messungen haben sich ihrer Natur nach verändert, als sich Anforderungen an die Daten, Beobachtungsverfahren und Technologien entwickelt haben. Diese Änderungen ändern die Charakteristika von Mess-Aufzeichnungen fast immer, ändern deren Mittelwerte, deren Variabilität oder beides. Darum ist es notwendig, die Rohdaten zu bearbeiten, bevor sie als nützlich eingestuft werden können zur Einschätzung der wahren Klimaentwicklung. Dies gilt für sämtliche Messverfahren von physikalischen atmosphärischen Quantitäten. Die Unsicherheit in Messaufzeichnungen umfassen instrumentelle Fehler bzw. Fehler bei der Aufzeichnung, Auswirkungen auf die Repräsentanz (z. B. Position, Häufigkeit von Messungen oder deren Timing) ebenso wie Auswirkungen infolge physikalischer Änderungen bei der Instrumentierung (wie etwa Verlagerung von Stationen oder neue Satelliten). Alle weiteren Bearbeitungsschritte (Übermittlung, Speicherung, Interpolation, Mittelwertbildung) haben jeweils ihre eigenen speziellen Unsicherheiten. Weil es keinen einheitlichen, eindeutigen Weg gibt zur Identifizierung oder zur Berücksichtigung nicht klimabezogener Artefakte in der großen Mehrzahl der Aufzeichnungen, muss es einen Grad der Unsicherheit geben, wie sich das Klimasystem verändert hat. Die einzigen Ausnahmen sind bestimmte Messungen der atmosphärischen Zusammensetzung und der Flüsse, deren Messungen und Unsicherheiten rigoros miteinander verbunden sind mittels einer ununterbrochenen Kette international anerkannter absoluter Mess-Standards (z. B. die CO2-Aufzeichnungen am Mauna Loa; Keeling et al. 1976a).

Unsicherheiten bei der Erstellung von Datensätzen können entweder resultieren aus der Auswahl der Parameter innerhalb einer speziellen analytischen Struktur – parametrische Unsicherheit; oder aus der Auswahl einer analytischen Gesamtstruktur – strukturelle Unsicherheit. Strukturelle Unsicherheiten werden am besten abgeschätzt, wenn mehrere voneinander unabhängige Gruppen die gleichen Daten mit unterschiedlichen Verfahren bewerten. Mehr jetzt bewertete Analysen als im AR 4 enthalten u. A. veröffentlichte Schätzungen parametrischer oder struktureller Unsicherheiten. Es ist wichtig anzumerken, dass es in der Literatur eine sehr große Bandbreite von Verfahren gibt. Große Sorgfalt hatte man walten lassen beim Vergleich der veröffentlichten Unsicherheits-Bandbreiten, weil sie fast niemals einen Punkt-für-Punkt-Vergleich enthalten [as they almost always do not constitute a like- for-like comparison]. Im Allgemeinen zeigen Studien, die multiplen potentiellen Fehlerquellen in rigoroser Weise Rechnung tragen, größere Unsicherheits-Bandbreiten. Dies führt zu einem offensichtlichen Paradoxon in der Interpretation, weil man denken könnte, dass geringere Unsicherheits-Bandbreiten ein besseres Produkt vorgaukeln. Allerdings wäre dies in vielen Fällen eine falsche Herangehensweise, weil die geringere Unsicherheits-Bandbreite stattdessen reflektieren könnte, dass die veröffentlichte Abschätzung nur einen Teil der plausiblen Unsicherheitsquellen berücksichtigt hat. Innerhalb der Zahlen einer Zeitreihe, bei denen dieses Problem am akutesten ist, sind derartige parametrische Abschätzungen daher nicht allgemein enthalten.

Fazit: die große Mehrheit der Rohmessungen, die zum Monitoring des Klima-Zustandes herangezogen werden, enthält Residuen nicht-klimatischer Einflüsse. Die Entfernung dieser Einflüsse kann nicht definitiv vorgenommen werden, ebensowenig wie die Unsicherheiten nicht eindeutig abgeschätzt werden können. Daher ist Sorgfalt erforderlich sowohl bei der Interpretation der Daten-Erzeugnisse und deren festgestellter Unsicherheits-Abschätzungen. Vertrauen kann entstehen aus: Redundanz bei Bemühungen zur Erzeugung der Produkte; Datensatz-Eigenschaften [data set heritage] und Quervergleiche von Variablen, von denen man erwartet, dass sie aus physikalischen Gründen gleichlaufend variieren, wie etwa LSATs [?] und Wassertemperatur an Küsten. Und schließlich werden Trends oftmals als eine Möglichkeit herangezogen, die Daten in eine einzige Zahl zu destillieren.

Warum steht dies nicht auf der ersten Seite der SPM?

Die folgenden Zitate stammen direkt aus dem AR 5 und wurden ausgewählt, weil darin die Datenprobleme eingeräumt werden. Der Bericht verwendet verschiedene Termini, welche ihre Einschätzung der Verfügbarkeit der Beweise anzeigen sollen, das heißt die Menge, das Ausmaß und die Qualität, während ein zweiter Terminus ihr Vertrauen in ihre Wissensgrundlage für Prophezeiungen andeutet. Ich habe ihre Einschätzungen fett und unterstrichen dargestellt sowie Prozentzahlen eingefügt, wo es angebracht war, und die unzulängliche, irreführende Analyse und Ausdrucksweise kommentiert.

In diesem Bericht wurden die folgenden zusammenfassenden Termini verwendet, um die verfügbaren Beweise zu beschreiben: begrenzt, mittel oder robust; und für den Grad an Übereinstimmung: niedrig, mittel und hoch. Ein Vertrauensniveau ist ausgedrückt mittels fünf Kriterien: sehr niedrig, niedrig, mittel, hoch und sehr hoch sowie durch Kursivdruck. Für einen bestimmten Beweis und ein Statement zu Übereinstimmung können unterschiedliche Vertrauensniveaus eingeschätzt werden, aber zunehmendes Vertrauensniveau und Grad an Übereinstimmung sind korreliert mit zunehmendem Vertrauen.

In diesem Bericht wurden die folgenden Termini verwendet, um die eingeschätzte Wahrscheinlichkeit eines Ergebnisses zu zeigen: Fast Sicherheit 99% bis 100% Wahrscheinlichkeit, sehr wahrscheinlich 90% bis 100%; wahrscheinlich 66% bis 100%; eher wahrscheinlich als unwahrscheinlich 33% bis 60%; unwahrscheinlich 0 bis 33%; sehr unwahrscheinlich 0 bis 10%; außerordentlich unwahrscheinlich 0 bis 1%. Zusätzliche Termini (Extrem wahrscheinlich: 95% bis 100%; eher wahrscheinlich als unwahrscheinlich >50% bis 100% und extrem unwahrscheinlich 0 bis 5%) können auch verwendet werden, wo es angebracht ist. Die abgeschätzte Wahrscheinlichkeit ist kursiv.

Wegen der großen Variabilität und relativ kurzen Perioden mit Datenaufzeichnungen ist das Vertrauen in Trends des stratosphärischen Wasserdampfes niedrig. (Dies ist wichtig, weil sichtbar werdende Eiskristalle in Gestalt von Leuchtenden Nachtwolken und Polar Stratospheric Clouds vor allem in Ozonschichten bedeutsam sind, was wahrscheinlich die Ursache für ihre Probleme beim nächsten Punkt ist).

Vertrauen ist mittel in die großräumige Zunahme troposphärischen Ozons auf der Nordhemisphäre seit den siebziger Jahren.

Vertrauen ist niedrig in Ozonänderungen auf der Südhemisphäre infolge begrenzter Messungen. Die Öffentlichkeit glaubt, dass wir in vollem Umfang bzgl. Ozon Bescheid wissen und dass das Montreal-Protokoll allen diesbezüglichen Bereichen Rechnung getragen hat.

Satellitenaufzeichnungen von Strahlenflüssen an der Obergrenze der Atmosphäre sind seit dem AR 4 substantiell ausgeweitet worden, und es ist unwahrscheinlich (0 bis 33%), dass es signifikante Trends gibt im globalen und tropischen Strahlungshaushalt seit dem Jahr 2000.

Die die Erdoberfläche erreichende Solarstrahlung durchlief wahrscheinlich (66% bis 100%) verbreitete dekadische Änderungen nach dem Jahr 1950, mit Abnahme (dimming) bis zu den achtziger Jahren und nachfolgender Zunahme (brightening), welche an vielen Stellen auf dem Festland gemessen worden ist. Es gibt mittleres Vertrauen in eine zunehmende abwärts gerichtete thermische und Gesamt-Strahlung an landbasierten Beobachtungsstellen seit Anfang der neunziger Jahre.

Während die Trends der Wolkenbedeckung in bestimmten Gebieten konsistent in unabhängig voneinander bestehenden Datensätzen sind, verbleibt eine substantielle Vieldeutigkeit und daher geringes Vertrauen in Beobachtungen der Wolkenvariabilität bzw. deren Trends im globalen Maßstab.

Es ist wahrscheinlich (66% bis 100%), dass seit etwa 1950 die Anzahl von Starkregenereignissen auf dem Festland in mehr Gebieten zu- als abgenommen hat. (Eine völlig bedeutungslose Bemerkung).

Das Vertrauen in einen beobachteten Trend hinsichtlich Dürre oder Trockenheit im globalen Maßstab ist seit Mitte des 20. Jahrhunderts niedrig, was dem Fehlen direkter Beobachtungen, methodischer Unsicherheiten und geographischen Inkonsistenzen in den Trends geschuldet ist. (Die Niederschlagsdaten sind in jeder Hinsicht weit stärker begrenzt als Temperaturdaten, und sie sind völlig unzulänglich. Aber trotzdem wird der Öffentlichkeit weisgemacht, dass die Wahrscheinlichkeit von Dürren infolge AGW signifikant zugenommen hat).

Das Vertrauen für langfristige Änderungen (nach Jahrhunderten) der Aktivität tropischer Zyklone bleibt niedrig nach den Veränderungen der Beobachtungs-Kapazitäten in der Vergangenheit. (Heißt dies, dass es nutzlos ist, bevor man diesen Änderungen der Vergangenheit Rechnung trägt?).

Das Vertrauen in großräumige Trends von Stürmen oder Proxys hierzu während des vorigen Jahrhunderts ist niedrig wegen der Inkonsistenzen zwischen Studien oder fehlenden langzeitlichen Daten in einigen Regionen der Welt (vor allem der Südhalbkugel). (Es ist nicht nur die Südhalbkugel, obwohl schon diese den halben Planeten ausmacht).

Infolge unzureichender Studien und Belangen der Datenqualität ist das Vertrauen auch niedrig in Trends kleinräumiger schwerer Wetterereignisse wie etwa Hagel oder Gewitter. (Die hier gemeinten Stürme sind ein grundlegender Mechanismus für den Transfer von Treibhausgasen und latenter Wärme in der gesamten Atmosphäre).

Es ist wahrscheinlich (66% bis 100%), dass sich Zirkulationsmuster seit den siebziger Jahren polwärts verschoben haben, was eine Ausweitung des tropischen Gürtels involviert, eine polwärts gerichtete Zugbahn von Stürmen und Jet Streams sowie eine Konzentration der nördlichen Polarwirbels. (Es liegt vermutlich am unteren Ende von „wahrscheinlich“, weil es viel zu wenig Messpunkte gibt, um die Ausdehnung zu belegen).

Große Variabilität von Jahr zu Jahr sowie im Zeitmaßstab von Jahrzehnten behindert robuste Erkenntnisse hinsichtlich langzeitlicher Änderungen der atmosphärischen Zirkulation in vielfacher Hinsicht. (Was heißt hier „robust“? In der Atmosphäre, bei Wetter und Klima ist alles Zirkulation! Diese Bemerkung ist so grob und vage, dass der Schluss nahe liegt, sie wissen nicht, was los ist).

Das Vertrauen in die Existenz langfristiger Änderungen der übrigen Aspekte der globalen Zirkulation ist niedrig infolge Grenzen von Beobachtungen und Verständnis. (Dies passt zu obiger Erkenntnis, dass sie nicht wissen, was eigentlich los ist).

Unsicherheiten in Datensätzen des Wärmeflusses Luft ↔ Ozean sind zu groß (wie groß ist zu groß?), um eine Änderung des globalen mittleren Wärmeflusses zwischen Ozean und Atmosphäre zu erkennen mit einer Größenordnung von 0,5 W/m² seit 1971, was erforderlich ist, um direkt Trends zu identifizieren in der regionalen oder globalen Verteilung von Verdunstung oder Niederschlag über den Ozeanen im Zeitmaßstab der beobachteten Änderungen des Salzgehaltes seit 1950. (Dies sind massive Maschinen des Transfers latenter Wärme und sind allein schon ausreichend, um zu sagen, dass jedwede Aussagen zu ihrer Wirkungsweise bedeutungslos sind).

Wind-Trends im Maßstab von Ozeanbecken und im Zeitmaßstab von Jahrzehnten bis Jahrhunderten wurden beobachtet im Nordatlantik, dem Tropischen Pazifik und dem Südlichen Ozean mit niedrigem bis mittlerem Vertrauen. (Wind ist eine fast vergessene Variable und mit der geringsten Anzahl von Daten behaftet, aber dennoch unabdingbar für genaue Messungen von Verdunstung und Energie-Transfer).

Beobachtete Änderungen der Eigenschaften von Wassermassen reflektieren wahrscheinlich (66% bis 100%) die kombinierte Auswirkung langzeitlicher Trends des Oberflächen-Antriebs (z. B. Erwärmung der Ozean-Wasseroberfläche und Änderungen bei E – P) sowie die Variabilität von Jahren und Jahrzehnten in Bezug auf Klimazustände. (Eigenschaften von Wassermassen bestimmen den Meeresspiegel. Darum macht diese Bemerkung Behauptungen über einen Anstieg des Meeresspiegels infolge AGW zum Gespött).

Es ist wahrscheinlich (66% bis 100%), dass sich die jährliche Periode des Schmelzens von mehrjährigem arktischen Eis um 5,7 ± 0,9 Tage pro Jahrzehnt im Zeitraum von 1979 bis 2012 verlängert hat. (Die Daten bzgl. des Meereises waren bis 1981 völlig unzuverlässig, und eine Datensammlung über nur 30 Jahre ist absolut unzureichend für jedwede klimarelevante Variable trotz des von der WMO festgelegten Zeitraumes von 30 Jahren als Normalperiode).

Nach fast einem Jahrzehnt stabiler CH4-Konzentrationen seit Ende der neunziger Jahre haben atmosphärische Messungen einen erneuten Anstieg der CH4-Konzentrationen seit dem Jahr 2007 gezeigt. Die Auslöser dieser erneuten Zunahme sind immer noch Gegenstand von Diskussionen. (Offenbar nicht. Die Medien stecken voller Stories über die zunehmende Bedrohung durch Methan aus menschlichen Quellen).

Viele der von den Klimamodellen in wärmeren Klimaten simulierten Änderungen von Bewölkung und Feuchtigkeit werden jetzt als Folge von langfristigen Zirkulationsänderungen angesehen, die nicht stark von Modellprozessen im Meso-Maßstab abhängig zu sein scheinen, was das Vertrauen in diese Änderungen zunehmen lässt. (Aber gerade eben haben sie uns gesagt, dass sie großräumige Zirkulationsänderungen nicht verstehen). Zum Beispiel zeigen mehrere Beweislinien Beiträge durch positive Rückkopplung aus zirkulations-getriebenen Änderungen sowohl der Höhe von hohen Wolken und breitenkreis-abhängige Verteilung von Wolken (mittleres bis hohes Vertrauen). Einige Aspekte der Reaktion der Bewölkung insgesamt variieren jedoch substantiell von Modell zu Modell, und diese scheinen stark abhängig von mesoskaligen Prozessen, in welche es geringeres Vertrauen gibt. (Wie viel weniger? Tatsächlich wissen sie es nicht).

Klimarelevante Aerosol-Prozesse sind besser verstanden, und klimabezogene Aerosol-Eigenschaften werden besser beobachtet als zur Zeit des AR4 (Aber damals waren sie nicht gut verstanden oder gemessen, weshalb dies ein relatives und bedeutungsloses Statement ist). Die Repräsentanz relevanter Prozesse variiert jedoch erheblich in globalen Aerosol- und Klimamodellen, und es bleibt unklar, welches Niveau der Güte [sophistication] erforderlich ist, um deren Auswirkung auf das Klima zu modellieren. Global sind zwischen 20% und 40% der optischen Dichte von Aerosolen (mittleres Vertrauen) und zwischen einem Viertel und zwei Drittel der Konzentration von Wolken-Kondensationskernen (niedriges Vertrauen) anthropogenen Ursprungs. (Dies ist gleichbedeutend der Aussage, dass man bei einer 20/20-Vision 20% aller Dinge über 20% der Zeit sieht. Dazu auch das nächste Zitat).

Die Quantifizierung von Wolken und konvektiver Vorgänge in den Modellen sowie die von Wechselwirkungen zwischen Aerosolen und Wolken bleibt eine Herausforderung. Klimamodelle enthalten inzwischen mehr relevante Prozesse als zu Zeiten des AR 4, aber das Vertrauen in die Repräsentanz dieser Prozesse bleibt schwach. (Ein weiteres relatives Statement, welches bedeutungslos ist. Es ist, als ob man sagt, es war früher nutzlos, aber ich glaube, jetzt ist es etwas besser).

Rückkopplungen Aerosole ↔ Klima erfolgen hauptsächlich mittels Änderungen der Stärke der Quelle natürlicher Aerosole oder Änderungen der Effizienz von Senken bzgl. natürlicher und anthropogener Aerosole; eine gewisse Anzahl von Modellierungs-Studien haben den Rückkopplungs-Parameter als innerhalb ± 0,2 W/m² °C, mit niedrigem Vertrauen. (Was ist eine gewisse Anzahl? Wie viele Studien würden es bedeutsam machen?)

Modelle des Klimas und des Systems Erde beruhen auf physikalischen Prinzipien, und sie reproduzieren viele bedeutende Aspekte des gemessenen Klimas. (Viele, aber nicht alle Aspekte). Beide Aspekte (dies ist irreführend. Sie sprechen über ihre Aspekte und nicht über die des gemessenen Klimas) tragen zu unserem Vertrauen bei in die Eignung der Modelle für Erkennungs- und Zuordnungs-Studien (Kapitel 10) und für quantitative zukünftige Prophezeiungen und Projektionen (Kapitel 11 bis 14). Im Allgemeinen gibt es kein direktes Mittel, quantitative Messungen der Vergangenheit in sichere Statements über die Genauigkeit zukünftiger Klimaprojektionen zu übersetzen. (Das ist ein politisch vollkommen bedeutungsloses Statement. Sagen sie damit, dass das Verhalten in der Vergangenheit keine Messgröße oder kein Prädiktor ihres zukünftigen Verhaltens ist? Also machen wir bitte weiter, vorwärts zu stolpern und Milliarden Dollar zu verschwenden, wenn das gesamte Problem unlösbar ist, weil es keine Daten gibt).

Die projizierte Änderung der globalen mittleren Temperatur wird wahrscheinlich (66% bis 100%) innerhalb der Bandbreite zwischen 0,3°C und 0,7°C liegen (mittleres Vertrauen). (Heißt das, sie sind sich zu 60% sicher, dass sie zu 50% recht haben?)

Klimamodelle haben sich seit dem AR 4 weiterentwickelt und verbessert, und viele Modelle wurden zu Modellen des Systems Erde erweitert, indem die Repräsentanz biogeochemischer Zyklen einbezogen wurden, die für Klimawandel bedeutsam sind. (Sie haben sich seit dem AR 4 nicht verbessert!) Diese Modelle gestatten es, politisch relevante Berechnungen wie etwa CO2-Emissionen durchzuführen, die mit einem speziellen Ziel der Stabilisierung des Klimas kompatibel sind. (Sie gestatten keine „politisch relevanten Berechnungen“, und sie haben sich nicht verbessert, weil sie in jeder erzeugten Projektion versagt haben).

Die Fähigkeit von Klimamodellen, die Temperaturen zu simulieren, haben sich hinsichtlich vieler, jedoch nicht aller Aspekte verbessert relativ zu den in AR 4 eingesetzten Modellen. (Wie viele Modelle haben sich verbessert, und wie viele werden gebraucht, um bedeutsam zu sein? Dies bestätigt, was am vorhergehenden Statement nicht stimmt).

Die Simulation der großräumigen Verteilung von Niederschlag hat sich seit dem AR 4 etwas verbessert, obwohl sich die Modelle weiterhin bzgl. Niederschlag schlechter verhalten als bzgl. Temperatur. (Es gibt praktisch keine Verbesserung. Dies ist eine erhebliche Untertreibung).

Die Simulation von Wolken in Klimamodellen bleibt eine Herausforderung. Es gibt sehr hohes Vertrauen, dass Unsicherheiten bei den Wolkenprozessen einen großen Teil des Spreads der modellierten Klimasensitivität erklären (Ein klassisches Beispiel Orwell’scher Doppeldeutigkeit [double talk]. Sie sind sich sehr sicher, dass sie unsicher sind.

Modelle sind in der Lage, die allgemeinen Charakteristika von Zugbahnen von Stürmen und außertropischen Zyklonen abzubilden, und es gibt einige Beweise der Verbesserung seit dem AR 4. Verzerrungen bzgl. der Zugbahn von Stürmen im Nordatlantik haben etwas abgenommen, aber die Modelle erzeugen immer noch eine Zugbahn, die zu stark zonal ausgerichtet ist, und sie unterschätzen die Intensität der Zyklonen. (Ja was denn nun? Sind sie besser geworden oder nicht? Ich vermute eher nicht. Sonst hätten sie es nämlich gesagt).

Viele bedeutende Zustände der Klimavariabilität und Phänomene innerhalb von Jahreszeiten oder von Jahreszeit zu Jahreszeit werden von den Modellen reproduziert mit einigen belegten Verbesserungen seit dem AR 4. (jene bedeutungslose Relativ-Messung. Die Verbesserung von fast nichts ist immer noch fast nichts). Die Statistik des globalen Monsuns, der Nordatlantischen Oszillation, der ENSO, des Indischen Ozean-Dipols und der Quasi-zweijährigen Oszillation QBO werden von vielen Modellen gut simuliert, obwohl diese Einschätzung abgeschwächt wird durch den begrenzten Umfang der bislang veröffentlichten Analysen oder durch begrenzte Beobachtungen. (Noch ein Beispiel Orwell’scher Doppeldeutigkeit: Die Modelle haben sich verbessert, außer da, wo sie sich nicht verbessert haben).

AGW-Befürworter und IPCC-Mitglieder machen die Öffentlichkeit glauben, dass sie über eine riesige Menge Daten verfügen zur Stützung ihrer Analyse, und sie behaupten, dass sie sich zu 95% sicher sind, dass menschliches CO2 globale Erwärmung verursacht. Sie verkünden auch, dass 97% aller Wissenschaftler dieser Schlussfolgerung zustimmen. Sie tun das mittels spezieller Statements, unterlassen es aber, die Güte der Daten zu untersuchen oder zu sagen, wenn sie wissen, dass sie falsch sind.

Die meisten Menschen, vermutlich mindestens 97%, haben die SPM nie gelesen, einschließlich Wissenschaftler, Politiker und die Medien. Vermutlich 99% aller Menschen haben nie den Science Report gelesen. Wie viele Menschen würden ihre Ansicht ändern, falls ihnen die o. g. Informationen unterkommen? Vielleicht ist das zu viel. Vielleicht ist all das notwendig für die Erfahrung, dass jede jemals vom IPCC erzeugte Projektion falsch war.

Dieser kurze und auszugsweise Blick auf das, was das IPCC selbst sagt, bestätigt den Vorwurf des Prof. Em. Hal Lewis, den er in seinem Brief anlässlich seines Rückzugs aus der American Physical Society im Oktober 2010 erhoben hat:

Der Betrug um die globale Erwärmung ist der größte und erfolgreichste pseudowissenschaftliche Betrug, den ich je in meinem langen Leben als Physiker erlebt habe“.

Es ist in der Tat ein pseudowissenschaftlicher Betrug, weil es keinerlei Daten als Grundlage für irgendeine ihrer Arbeiten gibt. Die auserwählten Wissenschaftler, deren Aufgabe es war, die Objektive des IPCC hochzuhalten, der zufolge ,wissenschaftlich‘ bewiesen werden soll, dass menschliches CO2 ursächlich für globale Erwärmung ist, mussten die unpassenden realen Daten modifizieren oder eliminieren sowie falsche Daten erzeugen. Selbst wenn unter dem neuen Regime der Betrug bloßgestellt wird und ordentliche Wissenschaft und wissenschaftliche Verfahren wiederhergestellt werden, wird es sehr lange dauern, bis man die minimale Anzahl der erforderlichen Daten beisammen hat. Bis dahin ist alles nichts als eine Handbewegung. Allerdings gibt es genügend Beweise als Beleg, dass das Vorsorgeprinzip hier nicht anwendbar ist. Diese Beweise legen nahe, dass es sicherer ist, wenn wir gar nichts tun..

Link: https://wattsupwiththat.com/2017/01/29/ipcc-objectives-and-methods-mandated-elimination-reduction-manipulation-of-inadequate-real-data-and-creation-of-false-data/

Übersetzt von Chris Frey EIKE




Statistiker: UN-Klima­vertrag wird 100 Billionen Dollar kosten – und keine Aus­wirkungen haben – Verschie­bung der Erwärmung bis 2100 um weniger als vier Jahre!

Der dänische Statistiker Björn Lomborg, Präsident des Copenhagen Consensus Center, hat sich bzgl. des Pariser UN-Klimaabkommens zu Wort gemeldet und dieses eine massive Geldverschwendung genannt, das nichts dazu beitragen wird, das Klima zu beeinflussen. Am 16. Januar 2017 veröffentlichten Prager U-Video mit dem Titel „The Paris Climate Agreement Won’t Change the Climate” erklärt Lomborg, dass „das Abkommen ein Vermögen kosten wird, aber kaum etwas zur Reduktion der globalen Erwärmung beitragen wird“. (Gesamte Transkription hier).

Lomborg machte sich über die Unterstützer des Abkommens lustig, machen diese doch „große Verkündigungen und sehr vage Angaben“.

Lomborg wandte seine Expertise bzgl. Statistik zuerst darauf an, die EPA-Klimavorschriften von Präsident Obama zu zerlegen, welche dieser via executive order implementiert hatte.

„Mittels des gleichen Vorhersagemodells, welches die UN benutzen, kam ich zu dem Ergebnis, dass Obamas Power Plan fast nichts erreichen würde. Selbst wenn die CO2-Kürzungen in vollem Umfang implementiert werden würden – nicht nur während der 14 Jahre, die das Paris-Abkommen abdeckt, sondern über das gesamte restliche Jahrhundert – würde der Clean Power Plan der EPA die Temperaturzunahme bis zum Jahr 2100 um gerade mal 0,023 Grad Fahrenheit reduzieren“, erklärte Lomborg.

„In dem unwahrscheinlichen Fall, dass all diese zusätzlichen Kürzungen ebenfalls durchgeführt werden und für den Rest des Jahrhunderts durchgehalten werden, würde der Temperaturrückgang in Kombination 0,057 Grad ausmachen. Anders gesagt, falls die USA über das gesamte Jahrhundert der sehr ambitionierten Rhetorik von Präsident Obama folgten, würde die globale Erwärmung bis zum Ende des Jahrhunderts um 8 Monate nach hinten verschoben“, sagte Lomborg.

Lomborg fuhr fort und widmete sich jetzt dem so überschwänglich gepriesenen UN-Klimaabkommen von Paris.

„Jetzt wollen wir einmal so tun, als würden die Pariser Versprechungen der übrigen Welt ebenfalls eingehalten. Falls wir allgemein annehmen, dass die versprochenen Kohlenstoff-Kürzungen bis 2030 eingehalten werden können – was selbst für die UN ein Novum wäre – sondern auf den Rest des Jahrhunderts greifen würden, würde die Temperatur im Jahre 2100 um 0,3 Grad sinken – das ist äquivalent mit der Verschiebung der Erwärmung um weniger als vier Jahre. Und noch einmal, dass gilt alles, wenn man die eigene Klima-Prophezeiung der UN zugrunde legt.

Aber hier liegt das größte Problem: Diese minimalen Vorteile gibt es nicht umsonst – sondern ziemlich genau das Gegenteil ist der Fall. Die Kosten des Pariser UN-Klimapaktes werden sich sehr wahrscheinlich auf 1 bis 2 Billionen Dollar jedes Jahr belaufen. Diese Schätzung basiert auf Schätzungen des Stanford Energy Modeling Forum und der Asia Modeling Exercise. Mit anderen Worten, wir werden mindestens einhundert Billionen Dollar aufwenden müssen, um die Temperatur bis zum Ende des Jahrhunderts um den enormen Betrag von drei Zehntelgrad sinken zu lassen“.

Lomborg wies optimistische Behauptungen zurück, dass das UN-Abkommen auch nur die geringste Chance habe, stärkeren Einfluss auf Emissionen zu nehmen. Dies erfordere „mentale Klimmzüge und heroische Hypothesen“. Jene, die behaupten, dass das UN-Abkommen von Paris einen großen Einfluss haben wird, liegen ihren „Hypothesen zugrunde, dass in Zukunft sogar noch stärkere politische Maßnahmen ergriffen werden“.

Aber Lomborg entgegnet darauf: „Tatsächlich werden 98% der hypothetischen Reduktionen erst nach 2030 eintreten, was das jetzige Paris-Abkommen abdeckt“.

„Die tatsächlich zugesagten Emissions-Reduktionen unter dem Paris-Abkommen geben uns lediglich 1% des Weges zum 2°C-Ziel. 99% dessen was gefordert wird, ist verlegt bis nach dem Jahr 2030“.

Lomborg wies auch zurück, was er „die politische heiße Luft nannte sowie immer üppigere Subventionen seitens der Regierung für die heutigen ineffizienten grünen Technologien“.

Lomborg pries Fracking. „Die USA führen bereits vor, wie sie das Fracking voranbringen sowie es mit jeden Jahr sicherer und effizienter machen wollen. Die Kosten für Erdgas hat Amerika bereits drastisch gesenkt. Diese momentane Zuwendung hin zum Erdgas mit niedrigeren CO2-Emissionen als Energiequelle hat weit mehr dazu betan, CO2-Emissionen zu senken als jedwede der jüngsten politischen Maßnahmen im Zuge der Klimapolitik“.

Er schloss mit den Worten: „Es stellt sich heraus, dass jene Politiker, die sich in Paris, Frankreich, versammelt hatten, eine Menge aus Paris, Texas, lernen können“ (Das ganze Transkript ist hier).

Weitere Links: 

Bill Nye Blames Global Warming For Floods In California – Implies UN climate deal could lessen floods – Nye: ‘Perhaps the US should stick with the Paris Agreement, oui?’

Marlo Lewis: Why The Senate Should Help Trump Repudiate The Paris Climate Agreement

UN Paris climate deal ‘is likely to be history’s most expensive treaty’ – ‘Cost of between $1 trillion and $2 trillion annually’

NY Mag: ‘The Climate Summit of Money’ at the UN – ‘It will cost sixteen & a half trillion dollars for world to meet its collective Paris goals)

Der Geologe an der University of Pennsylvania Dr. Robert Giegengack sagte im Jahre 2014: „Keine einzige der von der US-Regierung, der EPA oder von irgendjemand sonst entworfenen Strategien hat auch nur im Entferntesten die Chance, das Klima zu ändern, falls es wirklich vom CO2 kontrolliert werden sollte“.

In der Sprache von Laien: Alle der so genannten ,Lösungen‘ des Problems der globalen Erwärmung sind rein symbolischer Natur, wenn es um Klima geht. Selbst wenn wir also vor einer Klimakatastrophe stünden und uns auf das UN-Klimaabkommen verlassen müssten, wären wir alle dem Untergang geweiht!

UN Armed Security Shuts Down Skeptics After Trump Event – SHREDDED UN Climate Treaty at Summit – Full Video of UN Climate Cops Shutting Down Skeptics

Climate Report to UN: Trump right, UN wrong – Skeptics Deliver Consensus Busting ‘State of the Climate Report’ to UN Summit

Trump wins U.S. Presidency! Climate Skeptics Rejoice! Set to dismantle & Defund UN/EPA climate agenda!

Bjorn Lomborg: Trump’s climate plan might not be so bad after all – Clexit ‘will will stop the pursuit of an expensive dead end’

————————————–

Link: http://www.climatedepot.com/2017/01/17/danish-statistician-un-climate-treaty-will-cost-100-trillion-to-postpone-global-warming-by-less-than-four-year-by-2100/

Übersetzt von Chris Frey EIKE




Übersicht über Deutschland-Energie im Vergleich zu anderen Ländern

Im Jahre 2016 sind die Emissionen in Deutschland im zweiten Jahr nacheinander gestiegen als Folge der Stilllegung eines der Kernkraftwerke des Landes und Ersatz des ausfallenden Stromes durch Kohle und Erdgas. Dies geht aus einer aktuellen Analyse von Environmental Progress hervor.

Die Emissionen in Deutschland wären gesunken, hätte das Land nicht ein Kernkraftwerk stillgelegt und den ausfallenden Strom mit Strom aus Kohle und Erdgas ersetzt.

Nicht nur, dass zusätzlich installierte Solar- und Windkapazitäten nicht den Ausfall des Kernkraftstromes ausgleichen konnten, sondern auch, dass die zeitliche Prozentzahl im Jahre 2016 der Stromerzeugung durch Wind und Solar dramatisch abgenommen hat.

Deutschland fügte zwischen 2015 und 2016 atemberaubende weitere 10% an Windkapazität und 2,5% Solarkapazität hinzu, erzeugte jedoch weniger als 1% mehr Strom durch Wind und 1% weniger Strom durch Solar.

Grund hierfür: Im Jahre 2016 gab es in Deutschland deutlich weniger Wind und Sonnenschein als im Jahre 2015.

Darum ist das Jahr 2016 als solches eine eindringliche Demonstration der Grenzen von Energiequellen, die vom Wetter abhängig sind. Deren Output variiert nicht nur von Stunde zu Stunde, sondern auch von Jahr zu Jahr.

Anti-Kernkraft-Propagandisten haben sich lange darauf versteift, dass das Problem dieser dramatischen Periodizität durch mehr Überlandleitungen und Speicher gelöst werden kann. Aber da gibt es ein anderes Problem: weder weitere Überlandleitungen noch mehr Speicherkapazität hätten das Jahr 2016 in Deutschland sonniger und windiger gemacht.

Das Analyse-Verfahren

Die Analyse erfolgt auf der Grundlage von zwei Datensätzen und Analysen durch drei Quellen in Deutschland, von denen zwei Denkfabriken sind, die Deutschlands Transition weg von Kernkraft und hin zu fossilen Treibstoffen und Erneuerbaren vorantreiben. Die Daten sind vorläufig und können sich noch ändern, aber es gibt bedeutende Abgleiche zwischen den unterschiedlichen Schätzungen. Das Fraunhofer-Institut für Solare Energiesysteme, 6. Januar 2017, leitet seine Zahlen ab aus Daten des Statistischen Bundesamtes bis Oktober 2016, und Agora Energiewende 2017 aus Daten der AG Energiebilanzen, Dezember 2016. Die beiden Schätzungen sind weitgehend gleich bei allen Schätzungen bzgl. der Erzeugung mit Ausnahme geringer Differenzen bei Wind und Solar sowie sehr großer Differenzen bei der Erzeugung durch Erdgas.

Um die Emissionen Deutschlands durch die Stromerzeugung im Jahre 2016 zu berechnen, die man ohne Stilllegung von Kernkraftwerken hätte vermeiden können, schätzten wir die Stromerzeugung aller historisch in Deutschland betriebener Reaktoren größer als 600 MW.

Diese Stromerzeugung wurde dann ersatzweise in den gegenwärtigen Strom-Mix in Deutschland eingeführt unter der Hypothese der Ablösung von Braun- und Steinkohle sowie Erdgas zur Stromerzeugung im Verhältnis zum Anteil jener Quellen im Jahre 2016 an der Gesamt-Stromerzeugung.

Die Emissionen für das Jahr sind inoffizielle Gesamtzahlen berechnet mittels der jüngsten Zahlen der Gesamt-Erzeugung vom Fraunhofer-Institut sowie den Emissionsfaktoren von RTE France zur Berechnung der Kohlenstoff-Intensität von Strom. Der Gebrauch dieser Emissionsfaktoren ist eine Approximation. Allerdings liegen unsere Ergebnisse der Kohlenstoff-Emissionen durch die Stromerzeugung grob auf einer Linie mit den offiziellen Werten Jahr für Jahr des gesamten Energiesektors. Unsere Berechnung zeigt, dass die mittlere Kilowattstunde Strom im Jahre 2016 aus fossilen Treibstoffen 930 g CO2 emittierte.

Wir haben die geschätzte Erzeugung bei einem Kapazitätsfaktor von 90% bei den folgenden Reaktoren mit einbezogen:

Biblis A and B:            2.41 GWe
Brunsbüttel:                0.77 GWe
Grafenrheinfeld:        1.28 GWe
Isar 1:                           0.88 GWe
Krümmel:                     1.35 GWe
Mülheim-Kärlich:      1.22 GWe
Neckarwestheim 1:   0.79 GWe
Philippsburg:               0.89 GWe
Stade:                            0.64 GWe
Unterweser:                1.35 GWe
Würgassen:                 0.64 Gwe

Obwohl die fünf kleinen sowjetischen Druckwasser-Reaktoren des Kernkraftwerkes Greifswald mit insgesamt 2 GWe nicht mit einbezogen worden waren, ist dieses Modell eines Reaktors nach wie vor in verschiedenen Varianten in Europa und Russland in Betrieb.

Deutsche Emissionen steigen seit dem Jahr 2009:

Schließung von Kernkraftwerken machte Emissions-Reduktionen durch weniger Kohleenergie zunichte:

Deutschland erzeugte im Jahre 2016 fast 1% weniger Energie durch Solar…

…obwohl 2,5% mehr Solarpaneele installiert worden waren.

Deutschland installierte 11% mehr Windturbinen…

…aber Windenergie stieg lediglich um 0,8%.

Warum? Weil es im Jahr 2016 nicht so sonnig oder windig war wie im Jahre 2015!

Welche Implikationen ergeben sich daraus?

Prozent des Stromes in Deutschland im Jahre 2016 von Kohle, Kernkraft, Erdgas, Wind und Solar:

Falls Deutschland bis zum Jahr 2030 50% mehr Solarkapazität hinzufügen würde…

…würde Solarenergie in wolkigen Jahren wie 2016 immer noch lediglich 9% des Stromes erzeugen

Quellen und Verfahren

Zwei Schätzungen von Energie und Emissionen in Deutschland für das Jahr 2016 von:

Fraunhofer-Institut für solare Energiesysteme, 6. Januar 2017, extrapoliert aus Daten des Statistischen Bundesamtes bis Oktober 2016

Schätzungen der AG Energiebilanzen Dezember 2016, die auch von Agora Energiewende verwendet worden sind, 2017

Zwei Analysen liegen grob auf einer Linie mit geringen Differenzen bzgl. Wind und Solar sowie großen Differenzen bei der Erzeugung mit Erdgas.

Zahlen von Agora Energiewende bzgl. installierter Kapazität und Emissionen wurden herangezogen.

Drastisch unterschiedliche Schätzungen bei Erdgas, geringe Unterschiede bei der Abschätzung von Wind und Solar:

Low-Carbon-Anteil der Stromversorgung:

Frankreich erzeugt doppelt so viel Strom aus sauberen Energiequellen:

Strom in Deutschland ist doppelt so teuer wie Strom in Frankreich:

Strompreise stiegen von 2006 bis 2016 um 47%:

Schließung von Kernkraftwerken erhält den Anteil fossilen Stromes aufrecht:

Emissionen der Stromerzeugung in Deutschland waren ohne den Strom aus stillgelegten Kernkraftwerken um 43% höher:

Link: http://www.environmentalprogress.org/big-news/2017/1/13/breaking-german-emissions-increase-in-2016-for-second-year-in-a-row-due-to-nuclear-closure

Übersetzt und aufbereitet von Chris Frey EIKE




Licht, so viel man Kraft hat – die nachhaltige EEG-Innovation für Afrika

Bild 1 Einer der stolzen Erfinder der Lampe. Quelle: Werbevideo [2]
Nicht, dass nun jemand fälschlicherweise meint, die Erfindung würde die Energie der Gravitationswellen nutzen. Nein, es wird die Gravitation selbst genutzt, also eine unbestritten nachhaltige Öko-Kraftquelle angezapft und damit eine Weiterführung der EEG-Energiephilosophie, dass in Zukunft nur noch derjenige Licht bekommt, der die Energie dazu selbst ernten kann, erfolgreich umgesetzt.

Bild 2 Sreenshot mit Bild der Lampe im Betrieb. Der Sack mit dem Gewicht treibt den Generator an und muss dazu etwa alle 20 Minuten hochgezogen werden. Quelle: Werbevideo [3]
Bild 2 Sreenshot mit Bild der Lampe im Betrieb. Der Sack mit dem Gewicht treibt den Generator an und muss dazu etwa alle 20 Minuten hochgezogen werden. Quelle: Werbevideo [3]

In diesem Fall ist es zwar deutlich mühsamer, als vom deutschen EEG bekannt und wird auch nicht mit einem Einspeisevergütungs-Obulus belohnt. Im Gegensatz zu Solar und Windstrom ist das dadurch erzeugte Licht aber wirklich immer verfügbar – sofern sich jemand findet, der alle 20 Minuten das ca. 12 kg schwere Gewicht, welches das Generatörchen antreibt – wieder nach oben zieht. Diesen “Gewichtssack” kann man im Bild 2 schön sehen (und wie er zum Design der Lampe kontrastiert).

Gedacht ist diese Erfindung, wie in der Einleitung bereits mitgeteilt, zum Erhellen des dunklen Afrika und wird dazu vom Konzern Shell unterstützt.

Bild 3 [2] Erklärung zum Nutzen der Gravitationslampe
Der Autor meint, dabei allerdings schon ein Beispiel der zukünftigen Verwendung der Klimaschutz-Milliarden zu erkennen: Das Geld zur Klima- und EEG Rettung fließt weiter wie gehabt in die Taschen der politischen “Führungskräfte”, die Arbeit verbleibt der armen Schicht.

Es macht aber nichts. Fortschritt bleibt Fortschritt. Und wenn sogar Bill Gates dieser Überzeugung ist, müssen die eigenen Gedanken eben „einpacken“ und der Autor überlegt, seine bisher nur zur Dekoration hängende Wanduhr mit Aufziehpendel wieder „anzuschmeißen“, um auch Teilnahme am nachhaltigen Fortschritt zu zeigen. Zudem ist er wieder voller Achtung vor den Altvorderen, die schon vor vielen, vielen Jahren Gewichte an Uhren und auch Sonstigem hingen, um dank deren Kraft Energie zu erzeugen.
Dass dies vorübergehend abgeschafft wurde, kann nur ein deutliches Zeichen zwischenzeitlicher Energiedekadenz gewesen sein. Bestimmt kommt deshalb demnächst ein viel gelobter Startup mit der Erfindung der nachhaltigen Ökodesign-Galeere*.
Von dieser Gravitations-Lampen-Erfindung wird man auch gleich wieder an das Kernprinzip des EEG erinnert: Nur Energie die nicht gebraucht wird, ist wirklich ökologisch, denn welche damit erzeugen zu wollen ist eigentlich unlogisch. Die Daten der „Gewichts-Ziehsack-Innovativlampe“ zeigen es überdeutlich (und erklären die erkennbare Lichtschwäche im Bild 2).
Technische Lampendaten:
Max loaded bag weight: 12.5 kg
Max electrical power: 0,085 W

*Entsprechende Forschungen sind bereits im vollen Gang und diesmal nicht schnöde in Amerika, sondern bei uns.
FAU: Rudern wie die Römer: FAU baut römisches Boot in Originalgröße
Gemeinsam bauen sie, mit Unterstützung der Stadt Erlangen, das römische Patrouillen- und Geleitzugboot „Fridericiana Alexandrina (Navis)“ – kurz: FAN – in Originalgröße nach. Und wollen damit Frankens Wasserstraßen unsicher machen.
Das Bauteam hat sich vorgenommen, nicht nur ein ganz anderes Modell zu bauen, sondern tatsächlich auch die antiken Rudertechniken zu rekonstruieren. Nur so können die Wissenschaftler erforschen, wie viel Krafteinsatz tatsächlich nötig war und auf welche Distanzen man das Boot einsetzen konnte.
Das Projekt bringt verschiedene Disziplinen der Universität zusammen – von den Historikern über die Archäologen bis hin zu den Ingenieuren der FAU.

Wohl bald wird dieser Zweig der Forschung Nachhaltigkeits-Archäologie heißen und dann mit ausreichend Forschungsgeldern versorgt die energietechnischen Innovationen der Vergangenheit in die EEG-Zukunft integrieren helfen. Zwar steht einer nicht rein privaten Verwendung das deutsche Mindestlohn-Gesetz entgegen. Aber im Gegensatz zu den Gesetzen der Physik lässt sich dieses wirklich ändern.

Quellen

[1] WUWT, Eric Worrall, November 25, 2016: Gravity Light: Our Renewable Energy Future

[2] ENGINEERING.COM, November 25, 2016 : GravityLight Brings Clean Energie to Kenia

[3] ENGINEERING.COM, November 22, 2013: Gravity Light Offers a Safe Affordable Alternative to Kerosene Lamps




Der Januar kennt keine Klimaerwärmung

Der Januar 2017 zeigte sich in Mittel- und Süddeutschland als kalter Wintermonat. Der DWD gibt den Monat mit -2,3°C für ganz Deutschland an, in weiten Teilen Süddeutschlands war der Januar jedoch ein durchgehender Eisschrank. (BaWü hatte -3,6 C, Bayern gar -4,8 C ). In Helgoland, umgeben vom wärmenden Golfstrom, war der Monat mit 3,7 C am wärmsten und deutlich wärmer als die Vergleichsjahre von 1961 bis 1990, obwohl damals auch bereits der Golfstrom die Küsten umspülte. Im Norddeutschen Tiefland fiel dieser Januar generell milder aus, und spätestens angesichts dieser Tatsache wird klar, dass die überall fast gleich hohe CO2- Konzentration von mehr als 405 ppm diese gravierenden Temperaturunterschiede nicht erklären kann:

Grafik 1: Eisiger Süden, normaler bis etwas zu milder Norden im Januar 2017. Die Abweichungen beziehen sich auf die relativ kalte, aber längst veraltete Klimanormalperiode von 1961 bis 1990. Bei Nutzung der aktuellen „CLINO- Periode“ (1981 bis 2010) wären die negativen Abweichungen noch etwas deutlicher ausgefallen und hätten auch den gesamten Norden erfasst. Bildquelle: Bernd Hussing

Wir fragen uns natürlich, wo sich dieser Januar 2017 im langen Geschehen Deutschlands einreiht und wie sich der Monat über einen längeren Zeitraum entwickelt hat. Aus unseren Vorartikeln über die anderen Monate weiß der Leser bereits, dass die Temperatur Deutschlands im letzten Jahrhundert in Form einer sinusähnlichen Schwingung verläuft mit Wellenbergen und Wellentälern. Beim Monat Januar sieht das so aus:

Grafik 2: Die letzten 103 Januarmonate zeigen das gewohnte Bild. Warme Jahrzehnte wechseln sich mit den kalten ab, wir haben zwei Wärmeberge und 1 Wellental. Extrem kalt waren die Januare 1940 und 1942, während sehr milde Januare außer in den 1970er bis 2000er Jahren auch in der ersten Hälfte des 20. Jahrhunderts gehäuft auftraten – ein eindeutiger, signifikanter Erwärmungstrend blieb über diesen langen Betrachtungszeitraum bislang aus.

Auch wenn die polynome Trendlinie den Anfang und das Ende überbetont, zeigt sie uns doch sehr gut den Verlauf. Das Wellental begann unmittelbar vor 1930 und endete abrupt 1974 und 75 mit zwei warmen Januarmonaten hintereinander und der Ausbildung eines neuen Plateaus, auf dem wir uns noch befinden.

Im Klimamonitoring des DWD zusammen mit den Umweltministerien aus Bayern und BaWü im Herbst letzten Jahres wurde der Januar als ein Monat mit einer besonders starken Erwärmung bezeichnet. Wir verweisen auf den Artikel von Herrn Kuntz: https://www.eike-klima-energie.eu/2017/01/16/der-klimamonitoringbericht-2016-fuer-sueddeutschland/ Kein Wunder, man nahm als Startjahr der Betrachtung das Jahr 1931, also den Beginn des Kältetales und zeichnete dann eine lineare Trendlinie bis zum Januar 2016 mit einer Erwärmung von etwa zwei Zehntel in 10 Jahren und die gedachte suggerierte Verlängerung bis zum Jahr 2100 ergibt beinahe einen neuen Wonnemonat mitten im Winter. Die CO2-Klimaerwärmung bestätigt? Keine Winter mehr in Deutschland? Für die beiden naturwissenschaftlich ungebildeten Umweltminister von BaWü und Bayern schon.

Doch kehren wir zurück zur seriösen Betrachtung der Januarreihe und halten fürs erste fest: Bis 1973 sind die Januarmonate zunächst kälter geworden trotz weltweiter CO2-Zunahme. Wir fragen uns nun: Wie entwickelt sich der Monat ab dem Temperatursprung 1974 und deutet sich eine Abkühlung in ein neues Temperaturkältetal bereits an? Wir nähern uns der Antwort mit der nächsten Grafik, gezeichnet nach den Originaldaten des Deutschen Wetterdienstes.

Grafik 3: 1974/75 erreichte der Januar mit einem Temperatursprung ein höheres Wärmeniveau, ein Plateau, das seitdem anhält.

Man kann aber auch feststellen: Seit 1974 hat sich laut linearer Trendlinie der Januar nicht mehr signifikant erwärmt. Trotz intensiver Kohlendioxidzunahme in diesen mehr als vier Jahrzehnten hat das angebliche Treibhausgas CO2 in Deutschland keine Erwärmung mehr bewirkt. Eine Tatsache, die einmal mehr zeigt, dass dieses für das Leben auf der Erde notwendige und saubere Gas kaum oder nichts erwärmen kann. Der Januar 2017 war zudem deutlich unterhalb des Mittelwertes. Gegenüber der Vergleichsperiode 1981 bis 2010 betrug die Abweichung sogar -2,7 Grad.

Wärmeinseleffekt (WI): Die Originaldaten des Deutschen Wetterdienstes sind nicht wärmeinselbereinigt. In diesen vier Jahrzehnten hat Deutschland sich in die Fläche hinein erweitert, derzeit um 70 Hektar täglich und innerhalb der Städte und Gemeinden werden Baulücken geschlossen, damit die Flächenerweiterung ins Umland –eigentlich eine Naturzerstörung – rein statistisch geringer ausfällt, was die Politik uns dann wieder als Naturschutz andrehen will. Im Winter wärmt zusätzlich die Abwärme der Industrie, der Haushalte und des Verkehrs die Siedlungen und deren näheres Umfeld auf, im Umland heizen „Biogas“-, Solar- und Windkraftanlagen ebenfalls. Insgesamt sind die WI- Effekte nach unseren bisherigen Untersuchungen im Winter aber etwas geringer als in den Frühjahrs- und Sommermonaten.

Kurzum, bei den Messstationen des DWD hat der Wärmeeintrag zugenommen und die Thermometer der Stationen messen diese Zusatzwärme aus den sich vergrößernden Wärmeinseln mit. Natürlich gibt es auch Stationen mit geringen wärmenden Veränderungen. Eine solche wäre Zwönitz im Erzgebirge, deren Temperaturverlauf wird in der nächsten Grafik im Vergleich zum Gesamtschnitt der DWD-Stationen aus Grafik 3 wiedergeben. Die DWD-Deutschlandtemperaturen sind wieder in brauner Farbe aufgetragen.

Grafik 4: in brauner Farbe sind die Original Temperaturdaten des DWD vom Monat Januar in den letzten 44 Jahren aufgetragen. In blauer Schrift die Daten der Wetterstation Zwönitz im Erzgebirge.

Der Ort Zwönitz hat sich in diesen 44 Jahren landschaftlich kaum verändert, jedenfalls nicht so stark wie der Rest von Deutschland. Deswegen hat sich auch der Wärmeinselanteil weniger vergrößert. Zwönitz blieb weitgehend Zwönitz.

Ergebnis: Der Januar wurde in Zwönitz seit 1974 ein halbes Grad kälter, und in der freien unbebauten Landschaft um Zwönitz herum sicherlich etwas mehr als ein halbes Grad. Damit können wir eindeutig dem Klimamonitoring des DWD vom Herbst letzten Jahres anhand seiner eigenen Daten widersprechen. Der Januar dürfte in Deutschland ohne Zunahme des Wärmeinselanteiles bei den Messstationen seit 1974 bis 2017 bereits kälter geworden sein. Nur die stete leichte WI-Zunahme bei den Messstationen hindert die Thermometer daran, eine Abkühlung ähnlich wie in Zwönitz, zu registrieren.

Die letzten 30 Jahre: 30 Jahre sind eine Klimaeinheit. Aus diesem Grunde betrachten wir nun die Temperaturentwicklung der letzten 30 Januarmonate, also seit 1988 anhand der Originaldaten des Deutschen Wetterdienstes.

Grafik 5: Der Januar wird immer kälter in Deutschland. Bereits seit 30 Jahren wird es trotz der 2 warmen Januarmonate der Jahre 2007 und 2008 deutlich kälter. Allerdings ist dieser Trend in Richtung deutliche Abkühlung (noch) nicht signifikant.

Ergebnis: Die Januartemperaturen des Deutschen Wetterdienstes zeigen in den letzten 30 Jahren eindeutig eine Abkühlung und das trotz weiter zunehmender CO2-Konzentrationen. Abkühlung ist das Gegenteil von Erwärmung. Ob der Abkühlungstrend sich fortsetzen wird? Wir wagen keine Prognose. Aber: Ein Wonnemonat Januar oder gar eine bevorstehende Erwärmungskatastrophe ist überhaupt nicht in Sicht. Die Trendlinie lässt eher gegenteiliges vermuten. Das Klimamonitoring des DWD zusammen mit den zwei Umweltministerien Bayerns und Baden-Württembergs im Herbst letzten Jahres war ein Treffen der Märchenerzähler. Jedenfalls argumentierte die meist nicht naturwissenschaftlich ausgebildete Führungsriege des DWD einmal mehr gegen die eigenen Daten. Wie lange werden sich das die Fachleute in der 2.ten Reihe des DWD und all die Stationsleiter noch gefallen lassen müssen? Wohl alle der weit über 2000 Wetterstationen in Deutschland dürften einen fallenden Trend über die letzten 30 Januarmonate haben. (nächste Grafik).

Nebenbei sei noch angemerkt, dass die Temperatur-Trendlinien bei den wärmeinselarmen, ländlichen Standorten wie z.B. Amtsberg-Dittersdorf, in den letzten 30 Jahren noch deutlicher als der DWD-Gesamtschnitt nach unten zeigen. Für die Stationsleiter, die ihre eigene Station überprüfen möchten, haben wir die negative Steigungsformel des DWD-Schnittes in obiger Grafik 5 als Vergleich dazugeschrieben. Über Stations-Rückmeldungen würden wir uns freuen.

Grafik 6: Die WI- arme Station Schneifelforsthaus (Eifel) kühlte sich in den vergangenen 30 Januaren etwas stärker als das WI- belastete Frankfurt/Main- Flughafen ab. Man erkennt jedoch auch die enorme Streuung der Januar- Temperaturen, so dass die Trends und die Unterschiede trotz des relativ langen Zeitraumes von 30 Jahren nicht signifikant sind. Eines lässt sich aber mit Sicherheit sagen: Eine Januar- Erwärmung blieb seit den späten 1980er Jahren aus.

Ist vielleicht Deutschland eine Ausnahme oder gar ein Sonderfall? Wird nur bei uns der Januar kälter? Wir werfen einen Blick in die USA, zur Dale-Enterprise Weather Station in Virginia, der ältesten Wetterstation in diesem Bundesstaat. Die Station hat den Vorteil, dass sie noch ländlicher und noch einen Tick wärmeinselärmer ist als deutsche Stationen. Das Wetterhäuschen steht unverändert bei einer einsamen Farm.

Grafik 7: Die Temperaturen in den USA werden in Fahrenheit gemessen. 32 F entspricht 0 C. Auch diese Trendlinie ist fallend, ähnlich der DWD-Deutschland Trendlinie. In den letzten 30 Jahren wurde der Januar auch in Virginia, zumindest bei dieser wärmeinselarmen Station in der Nähe der Kleinstadt Harrisonburg eindeutig kälter.

Umrechnung Fahrenheit – Celsius hier.

Virginia befindet sich in einer anderen Klimazone als Deutschland, zwar ist der Januar dort ähnlich kalt im Durchschnitt wie bei uns, aber die einzelnen Jahre entsprechen sich nicht. So war der Januar 2017 in Deutschland kalt und in Virginia eher warm. Umso erstaunlicher ist der gleichartig fallende Trendlinienverlauf über die jüngste Klimavergleichseinheit.

Fazit: Gerade der Monat Januar zeigt, dass Kohlendioxid keine oder fast gar keine Wirkung auf den Temperaturverlauf haben kann. Sogar stark Wärmeinsel-geprägte Orte wie Frankfurt zeigen eine – wenn auch kleinere – Temperaturabnahme

Kohlendioxid hat in den letzten 30 Jahren beim Januar keine Erwärmung bewirkt, es gibt jedoch viele andere Ursachen der Abkühlung.

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher