Neun Fragen zum Klimaschutz

Das Vorhaben einer kompletten Dekarbonisierung mit der Konsequenz einer ebenso kompletten Deindustrialisierung Deutschlands kann eigentlich nicht ernst gemeint sein. Es geht tatsächlich nicht um die „Rettung der Welt“. Alle früheren, erfolgreichen Herrscher wussten es schon immer: Nur mit Angst oder Krieg lassen sich Völker wirkungsvoll still stellen.

Drohfiktionen wie hier der “Klimawandel“ (meist ohne den notwendigen Vorsatz „anthropogen“ nach dem Motto „der Bürger wird den Quatsch sowieso schlucken, wir bemühen uns schließlich erfolgreich, das Bildungsniveau immer weiter abzusenken“) oder das absurde 2 °C Ziel, von dem renommierte Klimawissenschaftler von „Verarschung“ sprechen (Originalzitat Prof. v. Storch), benötigen noch nicht einmal einen Realitätsbezug. Je abartiger, umso größer ist die Wirkung.

Wir leben momentan in einer westlichen Welt, in welcher der größte Unsinn als tiefe Erkenntnis verkauft wird und zum politischen Pflichtfach wird. Die wenigen, die sich dem Quatsch widersetzen, stellt man mit Hilfe der Medien oder von sozialen Netzwerken ins Abseits. Dieses Phänomen fehlgeleiteten menschlichen Verstandes ist Religionspropheten, Psychologen, Soziologen und nicht zuletzt zynisch/cleveren Erfolgspolitikern bestens bekannt und erlebt aktuell eine lange nicht gesehene Hochkultur. Die nach den Hexenverbrennungen einsetzende Phase der Aufklärung ist definitiv vorbei.

Zurück zum „Klimaschutz“. Wir erzeugen in Deutschland aktuell rund 85% der Primärenergie aus fossilen Brennstoffen, und hierzulande soll der Dekarbonierungsplan auch noch ohne die Kernenergie auskommen. Mit Sonnen- und Windstrom geht das nicht und wenn es noch so viele grüne Vollpfosten mit Hilfe von fragwürdigem akademischen Beistand immer wieder behaupten (Beistand z.B. von einer Prof. Claudia Kemfert, der Autor erspart sich jeden weiteren Kommentar zu dieser „Expertin“). Mit einem Industrievernichtungsprogrammen wie „Klimaschutz“ wird es weder Heizung noch Industrieproduktion in Deutschlands Zukunft mehr geben. Diese schlichten Fakten, die eigentlich jedem Grundschüler eingängig sein müssten, haben gegen politisch geschickt propagierte Angst unter kräftiger Mithilfe fast aller deutscher Medien wenig Chancen.

Inzwischen zieht sich ein immer tieferer Riss durch die EU, welche die Pläne zur Dekarboniserung schließlich propagiert. Zumindest ihr östlicher Teil, der intensiv Kohle und Kernenergie nutzt und unter dem Kürzel Visegrad-Gruppe läuft (Polen, Tschechien, Slowakei, Ungarn), wird der EU-Bürokratie in Sachen Dekarbonisierung was husten. Das gleiche wird dieser östliche Teil auch bei der von der EU-geforderten Aufteilung von Wohlstandsmigranten aus problematischen Ländern tun. Schließlich haben die östlichen EU-Länder nicht umsonst sachgerecht ihre Grenzen geschützt.

Man darf freilich nicht allzugroße Hoffnung darauf setzen, dass sich irgendwann einmal auch deutscher Widerstand gegen den Dekarbonisierungs-Plan regt. Die Kosten, ebenso wie die Sinnlosigkeit dieser Aktion werden nämlich von den Medien gehütet wie ein gefährliches Geheimnis. Bisher haben wir nur jede Menge Nimbys gegen Windräder (zur Info: Nimby = not in my backyard, also Windräder und Energiewende ok, bloß nicht vor meiner Haustüre). Nach den bisherigen Erfahrungen mit deutscher Obrigkeits-Hörigkeit und dem miserablem technisch/naturwissenschaftlichen Bildungsstand werden wohl nicht so schnell aus Nimbys informierte Bürger werden. Höchstens dann, wenn das Kind vollständig im Brunnen ertrunken ist.

Die „neun Fragen zum Klimaschutz“ sollen, in aller Kürze und ausführlich mit Quellen belegt, der Sachinformation möglichst vieler interessierter Bürger zum hier behandelten Thema dienen. Hoffentlich wird sich dieser Wunsch von uns drei Autoren erfüllen.




„Illegale Hanfanbauer erhöhen das Risiko für geschützte Eulenarten, an Giften einzugehen“, so eine staatlich finanzierte Studie in Kalifornien

Link zur Bildquelle: https://www.fws.gov/oregonfwo/articles.cfm?id=149489595

Mit dem neuen Jahr wird Marihuana für Freizeitgebrauch in Kalifornien legalisiert. Es wird erwartet, dass die Anzahl von Marihuana-Farmen – legaler und illegaler Anbau – im ganzen Staat zunimmt. Forscher sorgen sich, dass mehr und größere illegale Anbaubetriebe den Fleckenkauzen [Eulenart] schaden könnten.

[[da zum einen wilde Müllablagerungen entstehen und daher Rattengifte und andere Chemikalien – zum Schutz der Hanfpflanzen [von Laien] unkontrolliert und oft verwendet werden.

Müllansammlungen, die von illegalen Marihuana-Anbauenden hinterlassen wurden, im Six Rivers National Forest

… eine geschätzte mehrere tausend Meter lange Bewässerungslinie, zahlreiche wesentliche Wasserumleitungen, erhebliche Baumbeseitigung, Hunderte von Pfund Dünger und mehrere Gallonen von Pestiziden wurden festgestellt.

]]

„Kauze [und Eulen] neigen dazu, entlang der Waldränder auf Futtersuche zu gehen“, sagte Mourad Gabriel, der Autor der Studie und Direktor der University of California-Davis und der Gruppe des Integral Ecology Research Center, in einer Erklärung. „Weil die wachsenden oder neu entstehenden Farmen diese Waldlandschaften zerschneiden, sind sie wahrscheinlich Quellen für das Gefahrenpotential „. Diese Studie wird in der Zeitschrift Avian Conservation and Ecology veröffentlicht .

Es gibt Tausende von nicht zugelassenen Marihuanafarmen in Nordkalifornien. Die Studienautoren schätzen, was bedeutet, dass diese Anbaugebiete ohne regulatorische Aufsicht betrieben werden. An Orten, wie dem Humboldt County, befinden sich eingetopfte Hanfpflanzen in Wäldern, in denen die Eulen leben.

Gabriels Studie fand hohe Konzentrationen von Rattengift in Flecken- und Streifenkauzen. Sieben der 10 gefleckten Eulen und 40 Prozent der untersuchten 84 Eulen wurden positiv auf Rattengift getestet. Die Ergebnisse stützen die Argumente, dass Topfzucht-Betriebe die Tiere mehr dem Rattengift aussetzen, sagte Gabriel.

Rattengift kann Eulen und andere Tiere davon abhalten, Vitamin K zu rezyklieren, das zu Gerinnung und inneren Blutungen führen kann. Gabriel und seine Co-Autoren untersuchten tote Eulen, die sie im Wald gefunden hatten, und Proben von Eulen, die sie von anderen Forschern bekommen haben.

US-Beamte führten im Jahr 1990 unter dem gefährdeten Arten [Endangered Species Act ESA] Fleckenkauze auf, größtenteils mit dem Vorwurf, dass die Holzindustrie den Lebensraum des Vogels zerstört. Die ESA-Notierung war ein schwerer Schlag für die Holzindustrie in Oregon, Kalifornien und Washington.

Aber selbst als die Holzindustrie verdrängt wurde, erholten sich die Zahlen der Eulen nicht. Wie sich herausstellte, hat der Streifenkauz die Fleckenkauz aus ihrem Lebensraum vertrieben.

Der US-amerikanische Fish and Wildlife Service stellt fest:„Fleckenkauze sind derzeit mit einer durchschnittlichen Rate von 2,9 Prozent im ganzen Jahr rückläufig.“ Bundesbeamte genehmigten kürzlich die Tötung von 450 Eulen, um den Druck auf die Fleckenkauze zu verringern.

Jetzt können Topffarmen einen weiteren Stressfaktor für die Fleckenkauze darstellen, so Gabriels Studie: „Wenn es Tausende von unerlaubtem Zuwachs der Topffarmen gibt und nur eine Handvoll Biologen, die das für mehrere Landkreise regeln, sind wir zutiefst besorgt, dass es nicht genügend konservierende Schutzmaßnahmen gibt“.

„Wenn niemand untersucht, in welchem Ausmaß die privaten Betriebe die Marihuana Chemikalien einsetzen, können die fragmentierten Waldlandschaften, die durch diese Standorte geschaffen werden, für die Gefährdung von Eulen und anderen Wildtieren dienen“.

Erschienen auf The Daily Caller am

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/01/10/govt-funded-study-claims-illegal-pot-farms-are-poisoning-spotted-owls/

 

[1] http://dailycaller.com/2017/12/11/60-minutes-describes-jerry-brown-as-a-climate-missionary-who-preaches-the-gospel-of-renewable-energy/

Bei Eike übersetzt: https://www.eike-klima-energie.eu/2017/12/30/trump-sollte-den-zorn-gottes-fuerchten-sagt-ein-klima-missionar-der-demokraten/




EU Initiative gegen Fake-News: Wo sind die deutschen Medien?

Allgemeines

Noch einmal der Link zur Initiative (hier) und der Link zu den Fragebögen, die in Deutsch erhältlich sind, aber nur direkt Online bearbeitet werden können (hier). Die Fragebögen sind zu unterscheiden in Bögen für Einzelpersonen (hier) und für Organisationen (hier). Zu beachten in der Beschreibung der Initiative (hier) ist insbesondere die Definition der Zielgruppen. Zumindest auf den ersten Blick scheinen alle relevanten Gruppen aufgeführt zu sein. Etwas befremdend wirkt der relativ geringe Zeitraum, den die EU für Beschwerden in ihrer Fake-Initiative möglich macht. Das Ende der Aktion ist der 23. Februar 2018, viel Zeit verbleibt nicht.

Vielleicht handelt es sich ja nur um einen Versuchsballon der EU, um die Wirkung auf die Bevölkerung zu testen. Hierzu passt bestens, dass bisher auch nach sorgfältigem „googeln“ keine Reaktion der deutschen Medien auf die Initiative zu entdecken ist.

Schauen wir uns jetzt nur einmal die vielen EIKE-News aus dem Jahr 2017 an, die insbesondere die Fake-News der deutschen Medien aufs Korn nahmen. Es sind stellvertretende Beispiele (alle aus dem Jahr 2017), die Liste würde sonst zu lang werden (hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, …..). An Hand dieser Beiträge wird sofort klar, warum die deutschen Medien über die EU-Initiative Stillschweigen wahren. Sind sie  schließlich selber die ersten Erzeuger von Fake-News und haben infolgedessen kein Interesse daran, dass sie als „Lückenpresse“ dem Bürger bekannt werden.

Ebenfalls recht befremdend ist der Aufbau der Fragebögen. Es werden alle nur denkbaren Quellen von Fake-News berücksichtigt. Leider ist aber die wichtigste Quelle völig unberücksichtigt, nämlich die jeweiligen großen Medien der betreffenden Länder und vor allem deren Regierungen selber. Es braucht hier wohl kaum näher ausgeführt zu werden, dass unser Bundesumweltministerium hier den Vogel anschießt. So viele Fakes, Desinformation und Dummheiten von einer einzigen Regierungsinstitution ist bereits bewundernswert.

Was können Sie tun?

Jeder Leser, der sich unseren Bemühungen nach Aufklärung anschließt, könnte Folgendes tun:

1) Seiner Tageszeitung oder auch den großen Blättern wie FAZ etc. schreiben und sie bitten, über die EU-Initiative zu berichten. Dabei nicht die Anmerkung vergessen, dass das Verschweigen von anderen Meinungen als der des journalistischen Mainstreams eine Spezialität der jeweils angeschriebenen Redaktion sei. Sie werden damit zwar keinen Erfolg haben, aber vielleicht zum Nachdenken anregen. Es wäre schön, wenn EIKE eine Kopie Ihreres Schreibens an die Redaktion erhielte, um darüber später berichten zu können (Ihr Name wird dabei natürlich nicht genannt).

2) Selber einen EU-Bogen ausfüllen und abschicken.

3) Gleichgesinnte Freunde und Bekannte mit der EU-Initiative bekannt zu machen und sie gegebenenfalls zu bitten, ebenfalls einen Bogen auszufüllen und abzusenden.

Worauf ist beim ausfüllen des Fragebogens zu achten?

Jede Meldung an die EU in Sachen Fake-News ist, wie schon erwähnt, nur Online möglich. Daher ist vielleicht folgendes Vorgehen sinnvoll: Geben Sie bei dem von Ihnen ausgesuchten Fragebogen (Bürger oder Institution) rechts oben  „Deutsch“ an, laden Sie sich den Fragebogen als pdf herunter, speichern Sie ihn ab und füllen Sie ihn erst einmal probeweise auf Papier aus. Dies empfiehlt sich, um den Überblick zu wahren und zu wissen, was auf Sie in diesem recht umfangreichen Fragebogen überhaupt zukommt.

Wir kommentieren nachfolgend nur den Fragebogen für Bürger und lassen dabei die selbsterklärenden Punkte weg. Uns interessieren ferner auch nur die Klima/Energie betreffenden Fake-News der öffentlichen Medien, denn diese richten den größten Schaden in einer weitgehend ahnungslosen Bevölkerung an.

Kommentierung des Fragebogens für Bürger

Unsere Kommentierung besteht im Folgenden darin, ein stellvertretendes Beispiel für den Bürger-Fragebogen anzugeben. Falls Sie sich nicht die Zeit nehmen wollen, alle Einzelheiten des Fragebogens zu durchforsten oder von Ihnen selbst entdeckte Fakes zu melden, können Sie sich an diesem Beispiel orientieren. Vor allem haben wir mit der oben unter „Allgemein“ aufgeführten Liste von veröffentlichten Fake-News der Medien bereits eine ganze Reihe von Quellen angegeben, die Sie für Ihre Beschwerde bei der EU nutzen können.

Sie sollten grundsätzlich zwischen Fakes unterscheiden, die echte Falschaussagen oder nur das Verschweigen von begründeten Gegenmeinungen sind. Ein Beispiel für echte Falschaussagen sind zunehmende Extremwetter, hier können Sie die einschlägigen Sachstandsberichte des IPPC (IPCC 2013, AR5, WG1, Kapitel 2.6) zur Widerlegung angeben (hier), ein weiteres Beispiel betrifft Medien-Aussagen über das Versinken von Pazifik-Inseln infolge Meeresspiegelanstieg, auch hier können Sie die offen erreichbaren Pegelmessungen bzw. Fachliteratur angeben (hier, hier).

Die Mehrheit der Medien-Fakes bestehen aber wohl eher aus dem bewussten Verschweigen von begründeten Gegenmeinungen. Hier muss die Quelle der Gegenmeinung genannt werden. Prominentestes Beispiel sind die Behauptungen der Medien über eine gefährliche globale Erwärmung infolge anthropogener CO2-Emissionen. Begründete Gegenmeinungen wären hier populartechnology-paper, populartechnology-eminent scepticals, Oregon-Petition, Heidelberger Manifest, Leipziger Deklaration, U.S. Senate Minority Report, Eingabe an US-Präsidenten Obama, Offener Brief an UN Generalsekretär Ban Ki-Moon, Petition von R. Lindzen an Präsident Donald Trump, Umfrage v. Storch und Bray, Umfrage Kepplinger/Post.

Also noch einmal die drei wichtigsten Punkte  

1) Die Art des Fakes ist zu nennen, also Falschaussage oder Verschweigen anderer begründeter Meinungen.

2) Die Quelle des betreffenden Fakes ist nachvollziehbar anzugeben.

3) Die Aussage im Fake ist nachvollziehbar zu widerlegen.

Um Ihnen eine Vorstellung zu geben, wie es im Fragebogen abläuft, nachfolgend ein Musterbeispiel. Sie können es so machen, wohlgemerkt ist es aber nur ein Beispiel. Punkte, die selbsterklärend sind (Beispiel Angeben zu Ihrer Person etc.), haben wir in unserem Beispiel aus Platzgründen weggelassen.

Das Beispiel

Punkt 5 und 6: Hier sind für unser Thema die Unterpunkte „Umwelt“ sowie „Wissenschaft und Technologie“ anzukreuzen

Punkt 7 ist besonders wichtig, denn die laufend von den deutschen Medien verfassten Fakes über Klimawandel und Energiewende dienen der Verbreitung einer grün-roten Ideologie. Man kann, wenn man der gleichen Auffassung wie EIKE ist, in das darunter liegende Sonderfeld mit der Bezeichnung „Wenn Sie glauben, dass es andere Gründe für die Online-Verbreitung von Fake News gibt, geben Sie diese bitte an“ die entsprechende Beschwerde hineinschreiben. Leider sind 300 Zeichen viel zu wenig, probieren Sie es vorher aus, in Word gibt es unter „überprüfen“ einen Wort- und Zeichenzähler. Sie könnten beispielsweise schreiben „Fakes der öffentlich rechtlichen Medien zum Klimawandel und zur Energiewende dienen zur Verbreitung einer grünen Ideologie. Ein Beispiel für Fake-Aufklärung ist (hier könnten Sie den Link einer zugehörigen EIKE-News angeben, wie sie oben unter „Allgemeines“ genannt wurden)“.

Punkt 8:  Hier ist für EIKE-Leser der Unterpunkt „Ich besuche Fakten-Check-Websites, wenn ich Zweifel habe“ anzukreuzen.

Punkt 9: letzten Unterpunkt „Ich vertraue Informationen, die ich auf Fach-Websites und in Online-Fachpublikationen finde“ ankreuzen.

Punkt 10: Unterpunkte 1 und 3 ankreuzen, also „Absichtliche Desinformation zur Beeinflussung von Wahlentscheidungen“ und „Absichtliche Desinformation zur Beeinflussung der Umweltpolitik„. Danach sehr wichtig, der Unterpunkt „Bitte präzisieren Sie, welche weiteren Kategorien von Fake News der Gesellschaft Schaden zufügen können?“ Hier könnten Sie z.B. schreiben „Eine angebliche Bedrohung durch CO2, denn es gibt wissenschaftliche Stimmen, die CO2-Einsparungen für wirkungslos halten. Die Fake-News besteht darin, dass diese anderen wissenschaftlichen Stimmen in den Medien nicht zu Wort kommen.“ Oder eben Analoges zur Energiewende schreiben.

Punkt 12: Unterpunkt 6 „Tatsachencheck durch unabhängige Nachrichtenorganisationen und Organisationen der Zivilgesellschaft (Erklärung, weshalb ein Beitrag irreführend sein könnte)“ ankreuzen, er trifft 100% auf EIKE zu.

Punkt 13: Hier sollten Sie unter „Haben Sie einen Kommentar zu überprüften Informationen?“ nennen: EIKE (hier), Kalte Sonne (hier), Wattsupwiththat (hier), Joanne Nova (hier), Notrickszone von Pierre Gosselin (hier), welche die EU-Initiative indirekt aber engagiert unterstützen, indem sie Fake-News aufdecken.

Punkt 15: hier kommen nur die Unterpunkte „Online Plattformen“ sowie „Sonstiges“ in Frage. Unter „Sonstiges“ können Sie darauf hinweisen, dass ja gerade nationale Regierungen und zuständige Behörden, wie z.B. das Bundesumweltamt, die schlimmsten Erzeuger von Fake-News sind. Beispiele von Fakes nennen, s. oben unter Allgemeines die betreffende Liste von EIKE-News. Geben Sie den Link einer oder mehrerer News an, die Ihnen zusagt (max. 300 Zeichen insgesamt beachten!).

Punkt 16: Hier kommt nur der letzte Unterpunkt in Frage. Sein Ankreuzen entbehrt der waltenden Umstände wegen nicht einer gewissen Ironie.

Punkt 17: Maßgebend sind hier die Unterpunkte 1 „Investitionen in neue Formen von Journalismus (d. h. datengestützten Investigationsjournalismus), um verlässliche und attraktive Diskurse anbieten zu können“ und (ironisch) 5 „Unterstützung von Organisationen der Zivilgesellschaft und partizipativen Plattformen (zum Beispiel unter Nutzung von Wikipedia/Wikinews) zur Verbesserung der Überwachung und Aufdeckung von Fake News.“

An dieser Stelle sei auf den üblen Fake von Wikipedia über EIKE hingewiesen (hier), etwa, dass EIKE kein Büro habe (die Anschrift steht auf der EIKE-Webseite!) oder dass EIKE nicht in begutachteten wissenschaftlichen Journalen veröffentliche. Das Gegenteil ist der Fall, was zum Teil zuerst einmal (hier) nachzulesen ist. Es gibt aber noch weitere EIKE-Autoren von begutachteten Fachveröffentlichungen, in Kürze wird dies im Vortrag des Autors auf der Klimakonferenz in Düsseldorf in 2017 in den EIKE-News gebracht. Dort werden dann alle begutachteten Veröffentlichungen von EIKE-Autoren genannt.

Da insbesondere grüne Wikipedia-Sichter Musterbeispiele für schlimmste Fakes sind, wird hier gebeten, dass sich der eine oder andere Leser(in) mit seiner EU-Meldung speziell mit dem Wikipedia-Artikel über EIKE befasst, einen betreffenden Beschwerdebogen ausfüllt und absendet.

Punkt 19: Absolut zentraler Punkt, der Ihnen satte 2000 Zeichen als Kommentar bietet. Hier können Sie sich ein wenig ausführlicher austoben.

Fazit

Wir wünschen der EU-Aktion viel Erfolg, sind aber skeptisch. Man wird in der EU schnell bemerken, dass der Schuss nach hinten losgegangen ist und daher die Angelegenheit still und heimlich begraben. Liebe Leser(innen): Sie allein mit möglichst vielen Ihrer Stimmen können etwas dafür etwas tun, dass dies nicht erfolgt. Folgen Sie nicht dem Vorbild früherer trauriger Epochen Deutschlands, indem Sie sich wegducken und schweigen!

 

 

 

  

 

 

 

 




Deutsche Windenergie und der Morgenthau-Plan

Allgemeines

Dem Wind mit mühlenartigen Anlagen Energie zu entziehen hat eine lange Geschichte (hier). Dabei interessiert uns heute nur noch die Erzeugung von Strom aus Wind, die bereits Ende des 19. Jahrhunderts in Einzelfällen einsetzte. Fakt ist, dass insbesondere die National Sozialisten (vulgo „Nazis“ oder „NS“, den Sozialismus hört man nicht so gerne) begeisterte Anhänger der Idee von Strom aus Wind waren. In der EKE – News vom 26.Juli 2017 wurde darauf schon einmal eingegangen und das Bild eines 400 m hohen geplanten Windrads aus der NS-Zeit gezeigt. Ganz allgemein findet man viele geistige Wurzeln des modernen Sozialismus und der grünen Bewegung bei den Nazis wie Vegetarismus, Homöopathie, Esoterik, Rauchverbot u.w.m.

Die Fakten zur Stromerzeugung moderner Windräder werden im Folgenden aufgeteilt in „Aufwand“, „Ertrag“, „Landschaftsverbrauch“, „Naturschädigung“ und „Gesundheitsschädigung“.

 

Aufwand von Windstrom

Zur Zeit sind in Deutschland rund 27.000 Windräder installiert. Es wird darauf verzichtet, den gesamten Energie- und Materialaufwand zum Bau und zur Errichtung dieser Anlagen zu ermitteln, eine  stellvertretende Großanlage wie die Enercon E-126 reicht zur Veranschaulichung völlig aus: 198,5 m Gesamthöhe, überstrichene Propellerfläche 12.668 m^2 = 1,267 ha, Gewicht ca. 3460 t plus 3500 t Stahlbetonfundament (hier, hier). Drei E 126 haben daher das Gesamtgewicht aller 300 Leopard II – Panzer von je 68 t der deutschen Bundeswehr. Da im bundesdeutschen Orts- und Zeitmittel Windräder nur mit ca. 17% ihrer Nennleistung beitragen, liefert die E 126 im gleichen Mittel nur etwa 1,3 MW elektrische Leistung. Dies entspricht 4 Automotoren von je 330 kW wie beispielsweise dem Motor des M3 von BMW. Eigentlich sollten hier auch überzeugte Anhänger der Windenergie ins grübeln kommen, nachdenken geht aber leider nur mit etwas Resthirnsubstanz zwischen den Ohren …..

 

Ertrag von Windstrom

Im Jahre 2016 lieferten 27.000 Windanlagen in Deutschland nur 1,9 % der gesamten deutschen Primärenergie (hier): Es handelt sich hier nicht um einen Tippfehler, Eins-Komma-Neun-Prozent sind es. Der erzeugte Windstrom lag mit ca. 2,1% etwas höher, der Unterschied erklärt sich durch den unbrauchbaren Windstrom bei Überproduktion, der gegen Aufpreis ans Ausland verschenkt werden musste. Da Strom  nur etwa 1/6 der Primärenergie ausmacht, sind die vorgenannten Zahlen mit 6 zu multiplizieren, wenn man sie nur auf Strom bezieht. Diese extrem schlechte Ertragslage hat zwei naturgesetzliche Gründe.

Die Leistung von Windrädern folgt in erster Näherung der dritten Potenz der Windgeschwindigkeit v. Verdoppelung von v führt daher zur Verachtfachung der Stromleistung, Halbierung umgekehrt zur Verringerung auf ein Achtel. Wenn man also bei säuselndem Wind sich drehende Windradpropeller sieht und dabei an Stromerzeugung denkt, liegt man komplett falsch. Es wird so gut wie nichts erzeugt. Dass sich Schwankungen von v mit dritter Potenz verstärkt auf die Schwankungen der Windrad-Leistung auswirken, erklärt nun auch die auf den ersten Blick ansonsten kaum verständlichen Schwankungen der Windradleistung.

Das v^3-Gesetz und die wirtschaftliche Vernunft verbieten Windräder im deutschen Binnenland, weil hier die Windgeschwindigkeiten zu gering sind. Real liegt die Windradleistung wegen der Betz-Joukowski-Grenze (hier) und weiterer Verluste noch unter dem v^3-Gesetz. Eine tiefer in die technischen Details gehende Publikation über Windradphysik ist (hier) zu finden. Bild 1 zeigt detailliert die realen Verhältnisse stellvertretend an Hand einer Anlage, die der Enercon E-115 entspricht.

Bild 1: Typische Windradkennlinie zur Veranschaulichung der technisch/wirtschaftlichen Sinnlosigkeit von Windstrom im deutschen Binnenland. Grün = v^3-Gesetz, gestrichelt = Betz-Joukowsky-Limit, blau = reale Kennlinie, grünes Quadrat = Veranschaulichung des Arbeitsbereichs eines Windrads im Odenwald.

Von dem größten zweiten Mangel des Windstroms, nämlich seiner Wetter- und jahreszeitlichen Abhängigkeit war noch gar nicht die Rede. Es reicht hier auf den Vortrag von Prof. Hans-Werner Sinn zu verweisen, s. auch (hier).

Bereits die ersten beiden Punkte „Aufwand und Ertrag“ weisen Windenergie eine wirtschaftlich nachgeordnete Stellung unter allen Methoden der Stromerzeugung zu – euphemistisch ausgedrückt. Dies ist keine freie Behauptung, sondern wird am Erntefaktor deutlich, der in der englischsprachigen Fachliteratur als ERoEI (Energy Returned to Energy Invested) bezeichnet wird. Er ist das Verhältnis der gesamten, während der Lebenszeit einer Methode zur Stromerzeugung erzeugten elektrischen Energie zur der Energie, die für ihren Betrieb selber aufgewendet werden musste, inklusive des erforderlichen Energieaufwands, um die benötigen Brennstoffe zu fördern und bereitzustellen. Der ERoEI ist ein Energiemultiplikator. Man investiert eine Kilowattstunde und erhält ein Vielfaches zurück, natürlich nur bei ERoEI > 1, sonst wäre es ein Verlustgeschäft.

Im Jahre 2012 wurde über den ERoEI eine grundlegende Studie publiziert (hier). Nach ERoEI > 1 ist die zweite maßgebende ERoEI-Schwelle von ERoEI = 7 ökonomischer Natur. Unterhalb von ihr ist eine Methode volkswirtschaftlich nicht mehr sinnvoll. Zu der nicht ganz trivialen Herleitung des Faktors 7 wird auf die Originalarbeit verwiesen, das Bruttosozialprodukt sowie eine Energieverbrauchs-Technologie wie von OECD-Ländern gehen in die Herleitung ein. Eine weitere Komplikation bei der Berechnung des ERoEI ist der Energieaufwand zur Pufferung von fluktuierendem Zufallsstrom aus Wind und Sonne. Fluktuierender Strom ist nämlich zur direkten Einspeisung in ein Stromnetz ungeeignet. Bild 2 zeigt den ERoEI für die wichtigsten Methoden zur Erzeugung von elektrischem Strom.

 

Bild 2: Erntefaktoren von Stromerzeugungsmethoden (gepuffert). Sonne, Wind und Energiemais liegen unterhalb der wirtschaftlichen Schwelle von OECD-Ländern

Sind die bis hierher abgehandelten Themen „Aufwand und Ertrag“ nicht bereits ausreichend, kommen noch weitere „Kleinigkeiten“ hinzu. Zuerst der

Landschaftsverbrauch von Windstrom

Man sollte einmal fragen, wie viel Watt elektrische Leistung im Jahres- und Ortsmittel mit Wind pro Quadratmeter deutschem Boden überhaupt zu erzielen ist. Der Betrag ist fast unglaublich niedrig, nämlich grob 1 W/m^2. 1,1 W/m^2 hat eine begutachtete Studie von Miller et al, PNAS (2015) für ein Gebiet der USA aus Messungen und Berechnung ermittelt. Der Wert entspricht in etwa den deutschen Verhältnissen, wie die folgende Grobabschätzung für das Jahr 2016 zeigt: 27.000 Windräder, jedes benötigt ca. 0,3 km^2 Fläche in einem Windpark, ergeben mit 1,1 W/m^2 die Jahresenergie von 27.000 x 300000 m^2 x 1,1 W/m^2 x 8760 h = 78 TWh (Terawattstunden, ein Jahr hat 8760 h). Die reale Jahresenergie aus deutschem Wind in 2016 betrug dagegen rund 80 TWh.

Solardachbesitzer, die sich ihre Jahresabrechnung genauer ansehen, wissen, dass sie im günstigsten Fall mit 15 W/m^2 rechnen können, 10 W/m^2 sind aber in der Regel realistischer (dies macht im Jahr ca. 90 kWh elektrische Energie pro m^2). Damit ist Wind mindestens 10-mal ungünstiger als Sonne.

Wollte man den gesamten Strom Deutschlands aus Wind erzeugen würde man daher rechnerisch die Fläche von ganz Bayern benötigen. Man kann es auch anders ausdrücken. Ein großes Kohle- oder Kernkraftwerk entsprechen mehreren 100 km Windrädern hintereinander. Das reicht aber immer noch nicht, denn Strom aus Kohle und Uran ist stetig und daher brauchbar, Windstrom ist dagegen wetterabhängig.

Naturschädigung durch Windstrom

Allgemein bekannt ist die Gefährdung von Greifvögeln, Störchen usw. sowie von Fledermäusen. Letzteren nützt ihre Infraschallortung leider nichts, denn die extrem hohem Geschwindigkeiten der Propellerenden zerreißen den armen Tieren die Lungen (hier, hier). Aber nicht nur der Windradpropeller bedroht Tiere, auch die Kettensäge krimineller Zerstörer von Brutstätten macht dies. Wer da wohl dahintersteckt? Wir wollen nicht spekulieren. Jedenfalls ist es eine beliebte Methode, um illegal Platz für Windräder in Wäldern zu schaffen (hier). Es gibt aber noch eine weitere Naturzerstörung, die der Öffentlichkeit weitgehend unbekannt ist. Werden größere Energiemengen dem Wind der tiefen Atmosphäre entzogen, hat dies schädliche Einflüsse auf die Strömungssituation und die lokalen meteorologischen Verhältnisse. Insbesondere die mittleren Windgeschwindigkeiten sind betroffen, die inzwischen weltweit abzunehmen scheinen. Es gibt zu diesem Thema eine Reihe von begutachteten Publikationen (hier, hier, hier, hier, hier, hier, hier).

Gesundheitsschädigung durch Windstrom

Windräder erzeugen Infraschall. Das ist Schall unterhalb der Hörschwelle, also unterhalb von 16 – 20 Hz. Der entscheidende Unterschied von natürlichem Infraschall zu Windradinfraschall besteht darin, dass Infraschall aus Windrädern zyklisch ist. Natürlicher Infraschall ist für die menschliche Gesundheit unbedenklich, zyklischer Infraschall aus Windrädern dagegen nicht. Meeresrauschen hat beispielsweise hohe Infraschallanteile, wird aber als angenehm empfunden und ist es auch. Windradinfraschall wird oft nicht nur durch die Luft übertragen, sondern kann Resonanzen in Kanalrohren erzeugen. In diesen Fällen breitet er sich bis in das Innere von Häusern aus, das Schließen der Fenster hilft hier nicht. Die verantwortlichen Behörden verschließen die Augen vor diesem Problem, indem sie Messungen von Geräten anerkennen, die den Infraschall überhaupt nicht erfassen. Es dürfen eigentlich nur Messgeräte eingesetzt werden, die Schallfrequenzen bis auf 0,5 Hz herunter erfassen können.

Die Literatur zur Schädlichkeit von Infraschall ist inzwischen zu lang geworden, um sie hier im Einzelnen aufzuzählen. Daher wird auf einen EIKE – Artikel des Autors verwiesen, in welchem auch die Fachliteratur zum Infraschallthema angegeben wird (hier) und in welcher von Zeit zu Zeit die Literaturangaben auf den neuesten Stand gebracht werden. Die bislang umfangreichste wissenschaftliche Untersuchung stammt von M. Weichenberger et al.: Altered cortical and subcortical connectivity due to infrasound administered near the hearing threshold ± Evidence from fMRI, PLOS, April 12 (2017). Der Artikel ist offen und kann auch als pdf heruntergeladen werden (hier).

Fazit und Zusammenfassung

Falls man technisch/wirtschaftliche Kriterien als Maßstab anerkennt, ist es angesichts des absurd hohen Aufwands und zugleich minimalen Ertrags von Windstrom sachlich gerechtfertigt von einer Bekloppten-Methode zu sprechen – der saloppe Ausdruck sei dem Autor nachgesehen. Landschaftsverbrauch, Naturschädigung und Gesundheitsschädigung von Windradanrainern durch zyklischen Infraschall belegen zusätzlich, dass es sehr schwer fallen dürfte, etwas Ungünstigeres und Schädlicheres zur elektrischen Stromerzeugung zu finden als Windräder.

Von der kommenden GroKo, einer Wiederauferstehungsübung von bereits  abgewählten Untoten, ist keine Remedur des Windradwahns zu erwarten. Dieser Wahn kommt aber vielen Profteuren gerade recht, weil er so ganz nebenbei auch noch zur größten wirtschaftlichen Umverteilung von arm zu reich seit Bestehen der Bundesrepublik geführt hat (Energiewende). Diese Energiewende, hier insbesondere Strom aus Wind, verschlechtert unsere Stromversorgung dramatisch, anstatt sie zu verbessern. Sie verwandelt Deutschlands Landschaften in überdimensionale Spargelfelder. Rücksichten auf Tierschutz und den Schutz der menschlichen Gesundheit werden nicht mehr genommen.

Und zum Schluss bitte die Kosten nicht zu vergessen: Die Energiewende ist, grob geschätzt, ein 1000 Milliarden Euro-Verlustgeschäft. Gleich teure Verlustgeschäfte sind die sinnlose Rettung maroder südländischer Banken, der sinnlose Klimaschutz, die sinnlose Vernichtung der Kerntechnik und die sinnlose und zudem ungesetzliche Öffnung der deutschen Grenzen für alle Welt. Also Morgenthau-Plan ja oder nein ……? Ein Schelm, wer Böses dabei denkt.




Gegen eine Dummheit, die gerade in Mode ist, kommt keine Klugheit auf. Theodor Fontane

So, so, die Sondierer der SPD, CDU und CSU haben ihre „Sondierungen“ „erfolgreich“ abgeschlossen und sich auf ein gemeinsames Papier geeinigt (Ergebnis Sondierung CDU_CSU_SPD 120118). So melden es unisono die Medien und die meisten können sich vor Begeisterung darüber nicht lassen.

Niemandem von denen kommt die Frage in den Sinn, was denn die künftigen Groß-Koalitionäre die letzten vier Jahre so miteinander beredet und getrieben haben? Bis auf den Großeuropäer Schulz haben doch immer dieselben Leute – wie heute auch- beieinander gesessen und häufig nichts weiter getan, als miteinander geredet ..und „Politik gemacht“.

Und schon fast kleinlich kommt man sich vor, wenn man auf die simple Tatsache verweist, dass die SPD nach der Wahlklatsche vom 24. September vorgab dazu gelernt zu haben und sich in der Opposition zu regenerieren wollte. Ohne wenn und aber.

Tweet von Martin Schulz vor knapp 8 Wochen

„Wir stehen für den Eintritt in eine Große Koalition nicht zur Verfügung – diese Konstellation wurde abgewählt. Wir scheuen Neuwahlen nicht.“

Doch Ministerposten, div. StaatssekrärInnnenposten und ähnliches führten wohl dazu, dass man sich an den alten Müntefehring erinnerte, dessen Frau Michelle Müntefehring die gelernte Kindergärtnerin wohl bei den Verhandlungen dabei war, der sagte: Opposition ist Mist“

„Was schert mich mein Geschwätz von gestern“ pflegt der alte Adenauer ehrlich zu sagen, wenn er mal wieder alle überrascht hatte mit einer politischen Volte. So auch hier und heute.

In diesem Sondierungspapier sind nun wieder mal alle Plattitüden. Gemeinplätze und Worthülsen nachzulesen, die uns jedoch immer wieder aufs Neue als Tatkraft und klare Strategie verkauft werden sollen. So auch beim „Klimaschutz“ und der von ihm befeuerten Energiewende.

So liest man nach viel Tra Ra auf S 5 zum . „Klimaschutz“ (Hervorhebungen vom Autor):

Die EU muss beim Klimaschutz international eine Vorreiterrolle einnehmen und für eine ambitionierte Umsetzung des Pariser Klimaschutzabkommens eintreten.

Um wenig auf S 6 später aufzuzählen 

Die Soziale Marktwirtschaft ist der Motor, der unser Land wirtschaftlich nach vorn gebracht hat. Digitalisierung, Globalisierung, Klimawandel und abnehmender gesellschaftlicher Zusammenhalt stellen uns vor zahlreiche Herausforderungen.

Was der Klimawandel damit zu tun hat, erschließt sich wohl nur den gläubigen Absorbenten der öffentlich rechtlichen Regierungspropganda, die seit langem jedes Wettergeschehen dem „Klimawandel“ zuordnet. Dem menschgemachten versteht sich. Obwohl sich weder hierzulande noch weltweit die Zahl, noch die Dauer noch Stärke von Extremwetterereignissen erhöht hat, baut man -wie gewohnt- einen inhaltsleeren Buhmann auf, hinter dem man dann bestenfalls ganz andere Interessen verfolgen kann, ohne auch nur gestehen zu müssen, dass man eigentlich nicht weiß, wovon man redet.

Zur Umschreibung des größten Fehlers (sogar absichtlich begangen, wie man im Buch von Robin Allexander „ Die Getriebenen“ detailliert nachlesen kann) der vergangenen Regierung – nämlich die völlig kontrollfreie Zulassung der größten Massenimmigtation der jüngeren Geschichte muslimischer Menschen in unser Land- werden die dürren Worte benutzt … und abnehmender gesellschaftlicher Zusammenhalt.. .. stellen uns vor zahlreiche Herausforderungen,…. werden wohl Berufenere als ich kommentieren

Von ähnlicher Qualität und voll innerer Widersprüche sind die anderen Verlautbarungen von den ich hier nur die klima- und energierelevanten zitieren

 

S7

Wir wollen Fahrverbote vermeiden und die Luftreinhaltung verbessern. Die Mobilitätspolitik ist dem Pariser Klimaschutzabkommen verpflichtet. Wir wollen die Klima- ziele von Paris erreichen und dabei soziale Belange berücksichtigen, die Wettbewerbsfähigkeit der Industrie gewährleisten und bezahlbare Mobilität sicherstellen.

S 20

Wir wollen Fluchtursachen bekämpfen, nicht die Flüchtlinge.

  •  Entwicklungszusammenarbeit verbessern 

  • Ausbau humanitären Engagements 

  • Engagement für Friedenssicherung ausweiten (u.a. Stärkung internationaler 
Polizeimissionen)
  • Faire Handels- und Landwirtschaftspolitik (faire Handelsabkommen) 

  • Verstärkter Klimaschutz 

  • Restriktive Rüstungsexportpolitik 


Die Lösung: Wir werden eine Kommission Fluchtursachen im Deutschen Bundestag einrichten.

Anmerkung des Autors: An dieser Stelle kann ich es mir nicht verkneifen … die alte Beamtenweisheit zu zitieren: … Und wenn Du nicht mehr weiter weißt, dann gründe einen Arbeitskreis..landläufig auch gern Kommission genannt.

Und dazu gestatte ich mir noch einen Tip: Die Hauptfluchtursache heißt: Deutschland. Unterbindet man die unkontrollierte Zuwanderung, dann fällt Hauptfluchtursache weg.

S 23

Wir wollen weniger Bürokratie und mehr Effizienz für eine marktfähige Landwirtschaft, die gesunde Lebensmittel nachhaltig produziert. Insofern sind besonders Tier-, Natur- und Klimaschutz sowie die Wahrung sozialer Standards im öffentlichen Interesse auch öffentlich zu fördern.

Klimaschutz, Energie und Umwelt  

S 24

  1. Klimaschutz

Wir bekennen uns zu den Klimazielen 2020, 2030 und 2050. Die Handlungslücke zur Erreichung des Klimaziels 2020 wollen wir so schnell wie möglich schließen. Das Minderungsziel 2030 wollen wir auf jeden Fall erreichen. Dies soll unter Beachtung des Zieldreiecks Versorgungssicherheit, Sauberkeit und Wirtschaftlichkeit sowie oh- ne Strukturbrüche realisiert werden.

Wir werden eine Kommission „Wachstum, Strukturwandel und Beschäftigung“ unter Einbeziehung der unterschiedlichen Akteure aus Politik, Wirtschaft, Umweltverbänden, Gewerkschaften sowie betroffenen Ländern und Regionen einsetzen, die bis Ende 2018 ein Aktionsprogramm mit folgenden Elementen erarbeiten soll:

Maßnahmen, um die Lücke zur Erreichung des 40 %-Reduktionsziels bis 2020 so weit wie möglich zu reduzieren,

Maßnahmen, die das 2030-Ziel für den Energiesektor zuverlässig erreichen, einschließlich einer umfassenden Folgenabschätzung,

einen Plan zur schrittweisen Reduzierung und Beendigung der Kohleverstromung einschließlich eines Abschlussdatums und der notwendigen rechtlichen, wirtschaftlichen, sozialen und strukturpolitischen Begleitmaßnahmen und

die finanzielle Absicherung für den notwendigen Strukturwandel in den betroffenen Regionen und einen Fonds für Strukturwandel aus Mitteln des Bundes.

Ein paralleles Vorgehen soll für den Bau- und Verkehrssektor erfolgen. Auf dieser Grundlage wollen wir ein Gesetz verabschieden, dass die Einhaltung der Klima- schutzziele 2030 gewährleistet. Wir werden 2019 eine rechtlich verbindliche Umset- zung verabschieden.

 

S 25

Voraussetzung für eine erfolgreiche Klimaschutzpolitik ist ein weiterer zielstrebiger, effizienter, netzsynchroner und zunehmend marktorientierter Ausbau der Erneu- erbaren Energien. Unter diesen Voraussetzungen streben wir einen Anteil von etwa 65 % Erneuerbarer Energien bis 2030 an. Der Ausbau der Erneuerbaren Energien muss deutlich erhöht werden, auch um den zusätzlichen Strombedarf zur Erreichung der Klimaschutzziele im Verkehr, in Gebäuden und in der Industrie zu decken.

Vorgesehen ist eine Sonderausschreibung, mit der acht bis zehn Mio. t CO2 zum Klimaschutzziel 2020 beitragen sollen. Hier sollen je vier Gigawatt Onshore- Windenergie und Photovoltaik sowie ein Offshore-Windenergiebeitrag zugebaut wer- den, je zur Hälfte wirksam in 2019 und 2020. Voraussetzung ist die Aufnahmefähig- keit der entsprechenden Netze.

Wir wollen
 weitere Anstrengungen zum Ausbau und zur Modernisierung der Energienetze

(Netzausbaubeschleunigungsgesetz).

  •   die Sektorenkoppelung in Verbindung mit Speichertechnologien voranbringen. 

  •   die Kraft-Wärme-Kopplung weiterentwickeln und umfassend modernisieren. 


 

III. Umwelt

Wir wollen für unsere Kinder und Enkelkinder eine intakte Natur bewahren. Dazu werden wir folgende Maßnahmen umsetzen:

 Programm „Nationales Naturerbe“ fortsetzen
 Programm zum vorbeugenden Hochwasserschutz ausbauen
 Endlagersuche zielstrebig fortsetzen
 Erhalt der Biodiversität und den Artenschutz als Querschnittsaufgabe verankern und entsprechende Bundesprogramme weiter stärken
 „Aktionsprogramm Insektenschutz“
 die Potenziale der Landwirtschaft für Klimaschutz und Biodiversität nutzen
 die Vermüllung der Weltmeere eindämmen; Müllvermeidung und Recycling stärken
 durch multi- und bilaterale Entwicklungszusammenarbeit den Aus- und Aufbau von Kreislaufwirtschaftssystemen unterstützen.

 

Dazu fallen mir nur die klugen Worte von – Curt Goetz ein:

„Keine Dummheit ist so groß, als dass sie nicht durch Beharrlichkeit noch größer werden könnte.“

 

 

 

 

 




Graphen, Trends und Hypothesen

Warnung: Dieser Beitrag enthält die Aussage Trends können keine zukünftigen Werte prognostizieren und tun es auch nicht. Wem dieser Gedanke zuwider ist, sollte jetzt aufhören zu lesen.

Ich beginne diesen Beitrag mit einem früheren Kommentar auf den ersten, oben verlinkten Beitrag von Andrew C. Rifkin mit dem Titel „Warming Trend and Variations on a Greenhouse-Heated Planet” vom 8. Dezember 2014. Darin verlinkt er auch meine Erwiderung. Der folgende Kommentar stammt von Dr. Eric Steig. Dieser ist Professor des Fachbereiches Earth & Space Sci. an der University of Washington, wo er als Direktor des IsoLab fungiert. Auf der Website der Fakultät wird er als Gründungsmitglied und Beitragender zu der einflussreichen (deren Bezeichnung) klimawissenschaftlichen Website RealClimate.org gelistet. Steig sagt:

Kip Hansens „Kritik“ des Cartoons ist clever – und geht vollständig an der Sache vorbei. Ja, die Kommentatoren hätten nicht sagen sollen, „der Trend bestimmt die Zukunft“, das war schlecht formuliert. Aber der Klima-Antrieb (zumeist CO2) bestimmt doch den Trend, und der Trend (wo Herrchen läuft) bestimmt, wohin der Hund gehen wird, im Mittel. (Hervorhebung von mir, Hansen)

Ich glaube, dass Dr. Steig seine Erwiderung einfach „schlecht formuliert“ hat. Er meinte sicherlich, dass die Klimaantriebe, welche selbst nach oben tendieren, die zukünftigen Temperaturen bestimmen („wohin der Hund laufen wird, im Mittel“). Diese Meinung steht ihm zu, aber er irrt sich, wenn er darauf besteht, dass „der Trend (wo Herrchen läuft) bestimmt, wohin der Hund läuft“. Es ist diese wiederholte und fast überall benutzte, ungenaue Wortwahl, welche einen erheblichen Teil der Missverständnisse auslöst sowie Schwierigkeiten in der englischsprachigen Welt (und ich vermute, auch in anderen Sprachen nach einer direkten Übersetzung), wenn es um Zahlen, Statistiken, Graphiken und Trendlinien geht. Menschen, Studenten, Journalisten, Leser, Publikum … fangen an, tatsächlich zu glauben, dass der Trend selbst zukünftige Werte bestimmt.

Viele werden nun sagen „Unsinn! Niemand glaubt so etwas!“ Das glaubte ich auch, aber man lese die Kommentare zu meinen beiden Beiträgen zuvor, und man wird erstaunt sein.

Datenpunkte, Linien und Graphiken:

Betrachten wir zunächst die Definition einer Trendlinie: „Eine Linie in einer Graphik, welche die allgemeine Richtung anzeigt, in die eine Gruppe von Datenpunkten zu laufen scheint“. Oder eine andere Version: „Eine Trendlinie (auch die Linie des besten Fits genannt) ist eine Linie, die man einer Graphik hinzufügt, um die allgemeine Richtung anzuzeigen, in welche die Punkte zu gehen scheinen“.

Hier folgt ein Beispiel (zumeist mit Bildern):

Trendlinien werden Graphiken bestehender Daten hinzugefügt, um die „allgemeine Richtung zu zeigen, in welche die Datenpunkte zu laufen scheinen“. Genauer, zur Klarstellung, die Trendlinie allein zeigt tatsächlich die allgemeine Richtung, in welche die Datenpunkte gelaufen sind – und man könnte hinzufügen „bisher jedenfalls“.

Das sieht sehr pingelig aus, oder? Aber es ist sehr wichtig für das Verständnis, was ein Datengraph wirklich ist – nämlich eine Visualisierung bestehender Daten – also der Daten, wie wir wirklich haben – und die gemessen sind. Wir würden alle zustimmen, dass die Hinzufügung von Datenpunkten an beiden Enden des Graphen betrügerisch ist – Daten, die wir gerade erst bekommen haben und die nicht wirklich gemessen oder experimentell gefunden worden sind. Aber trotzdem haben wir kaum jemanden gesehen, der gegen „Trendlinien“ ist, die weit über die auf dem Graphen liegenden Datenpunkte hinausgehen – gewöhnlich in beide Richtungen. Manchmal ist es Bequemlichkeit bei der Erstellung der Graphik. Manchmal liegt aber auch die absichtliche (ungerechtfertigte) Implikation zugrunde, dass Daten in Vergangenheit und Zukunft auf der Trendlinie liegen. Aber klar gesagt: falls es keine Daten „vorher“ und „nachher“ gibt, dann kann und sollte eine solche Hypothese nicht aufgestellt werden.

Hier noch ein oder zwei kleine Argumente:

[Eggnog = Eierlikör]

Ich werde mit einer Graphik antworten:

Aber (gibt es nicht immer ein ,Aber‘?):

Fügt man den Datenpunkten auf einem Graphen Zwischenschritte hinzu, kann dies manchmal dazu führen, dass man diese Zwischenschritte als Daten ansieht, die zwischen den gezeigten Datenpunkten liegen. Angemessener würde der Graph NUR die Datenpunkte zeigen, falls das alles ist, was wir haben – aber wie oben gezeigt sind wir es nicht wirklich gewöhnt, Zeitreihen-Graphen auf diese Weise zu sehen – wir wollen die kleinen Linien über die Zeit laufen sehen, welche die Werte verbinden. Das ist gut, solange wir nicht auf den närrischen Gedanken kommen, dass die Linien irgendwelche Daten repräsentieren. Das ist nicht so, und man sollte sich nicht durch kleine Linien dazu bringen lassen zu glauben, dass zwischenzeitliche Daten sich entlang dieser kleinen Linien positionieren. Das kann so sein … oder auch nicht … aber es gibt keine Daten, zumindest nicht auf dem Graphen, die diesen Gedanken stützen.

Für Eierlikör-Verkäufe habe ich Teile des Graphen zwecks Anpassung an die Realität modifiziert:

Dies ist einer der Gründe, warum Graphiken von so etwas wie „jährliche mittlere Daten“ erheblich irreführende Informationen vermitteln – die Spurlinien zwischen den jährlichen mittleren Datenpunkten können leicht dahingehend missverstanden werden, dass sie zeigen, wie sich die Daten in der dazwischen liegenden Zeit verhalten haben – zwischen year-end totals oder jährlichen Mittelwerten. Die graphische Darstellung jährlicher Mittelwerte oder globaler Mittelwerte verdeckt leicht wichtige Informationen über die Dynamik des Systems, welches die Daten hervorbringt. In einigen Fällen, wie Eierlikör wäre es sehr entmutigend, lediglich auf individuelle monatliche Verkaufszahlen zu schauen wie die Zahl der Verkäufe im Juli (die traditionell nahe Null liegen). So etwas könnte einen Eierlikör-Produzenten dazu verleiten, das jährliche Verkaufspotential erheblich zu unterschätzen.

Es gibt viele gute Informationsquellen, wie man eine Graphik angemessen anwendet – und über die allgemeinen Wege, auf denen Graphen missbraucht und missgebildet werden – entweder aus Ignoranz oder mit Absicht, um Propagandazwecke zu unterstützen. Sie treten fast überall auf, nicht nur in der Klimawissenschaft.

Hier folgen zwei klassische Beispiele:

In beiden Graphiken gibt es noch ein weiteres, unsichtbares Element – Fehlerbalken (oder Vertrauensintervalle, wenn man so will) – unsichtbar, weil sie vollständig fehlen. In Wirklichkeit sind Werte vor 1990 „vage geraten“, Vertrauen nimmt von 1900 bis 1950 zu aufgrund von „Schätzungen [erraten] aus sehr ungenauen und räumlich sehr dünn verteilten Daten“. Vertrauen nimmt weiter zu von 1950 bis zu den neunziger Jahren aufgrund „besserer Schätzungen“ und schließlich in der Satelliten-Ära „bessere Schätzungen auf der Grundlage von rechenintensiver Hybris“.

Soweit die Einführung und die Beschreibung von Punkten, an die wir alle uns immer wieder mal erinnern sollten.

Der Knopf-Sammler [the button collector]: überarbeitet

Meine früheren beiden Beiträge über Trends konzentrierten sich auf den button collector, den ich hiermit noch einmal einführen möchte:

Ich habe einen Bekannten, der ein fanatischer Sammler von Knöpfen [button collector] ist. Er sammelt Knöpfe bei jeder Gelegenheit, verwahrt sie, denkt jeden Tag an sie, liest über Knöpfe und Knöpfe sammeln; er bringt jeden Tag Stunden damit zu, seine Knöpfe in verschiedene kleine Schachteln zu sortieren und sorgt sich um die Sicherheit seiner Sammlung. Ich nenne ihn einfach den button collector*. Natürlich sammelt er nicht wirklich Knöpfe, sondern er sammelt Dollars, Yen, Lira, Pfund Sterling, Escudos, Pesos usw. Aber er verwendet sie nie für irgendeinen brauchbaren Zweck; sie helfen weder ihm noch anderen, also könnten es genauso gut auch Knöpfe sein.

[*Im Folgenden behalte ich den Begriff kursiv bei. Anm. d. Übers.]

Er hat nach der jüngsten Zählung Millionen über Millionen Knöpfe, genau, Sonntag Abend. Also können wir die „Millionen über Millionen“ ignorieren und einfach sagen, dass er Montag früh, zu Beginn seiner Woche, keine Knöpfe hat, um die Dinge vereinfacht darzustellen. (Man sieht schon, der Gedanke von „Anomalien“ hat schon ein paar Vorteile). Montag, Dienstag und Mittwoch gehen vorüber, und Mittwoch Abend zeigt ihm sein Buchhalter die folgende Graphik:

Wie in meinem Beitrag zuvor frage ich: „wie viele Knöpfe wird BC am Freitag Abend haben, also am Tag 5?“

Bevor wir antworten wollen wir darüber sprechen, was man tun muss, um diese Frage auch nur zu beantworten versuchen. Wir müssen einen Gedankengang formulieren, welches Verfahren mit diesem kleinen Datensatz modelliert wird. (Mit „modellieren“ meine ich einfach, dass die täglichen Ergebnisse irgendeines Systems visuell dargestellt werden).

„Nein, müssen wir nicht!“ werden Einige sagen. Wir nehmen einfach ein kleines Lineal zur Hand und zeichnen eine kleine Linie wie folgt (oder verwenden komplizierte mathematische Prozeduren auf unseren Laptops, die das für uns tun) und – voila! Die Antwort ist enthüllt:

Und unsere Antwort lautet „10“ … … (und wird natürlich falsch sein).

Es gibt keinerlei mathematische oder statistische oder physikalische Gründe oder Rechtfertigung zu glauben, dass wir die korrekte Antwort gezeigt haben. Wir haben einen sehr wichtigen Schritt ausgelassen. Wir sind einfach zu schnell vorgegangen. Wir müssen zuerst versuchen zu ergründen, welcher Prozess dahinter steckt (mathematisch, welche Funktion hier graphisch dargestellt wird), der die Zahlen erzeugt, die wir sehen. Dieses Ergründen wird wissenschaftlicher eine „Hypothese“ genannt, ist aber an diesem Punkt nicht anders als jeder andere Guess. Wir können sicher annehmen, dass der Prozess (die Funktion) lautet, „der Gesamtwert von morgen wird der Gesamtwert von heute plus 2 sein“. Dies ist tatsächlich der einzige vernünftige Ansatz für die Daten der ersten drei Tage – und geht sogar konform mit formalen Prognose-Prinzipien (wenn man fast nichts weiß, prognostiziere man mehr des Gleichen).

Schauen wir mal auf den Donnerstag-Graphen:

Klasse! Genau wie gedacht! Und jetzt Freitag:

Hoppla! Was ist passiert? Unsere Hypothese ist mit Sicherheit korrekt. Vielleicht eine Störung…? Versuchen wir es mit Sonnabend (wir arbeiten über das Wochenende, um verlorene Zeit aufzuholen)

Aha, das sieht schon besser aus. Bewegen wir unsere kleine Trendlinie etwas, um sicher zu gehen…:

Na ja, sagen wir, immer noch ziemlich nah dran … jene verdammten Störungen!

Aber einen Moment … wie lautete unsere Original-Hypothese, unser guess hinsichtlich des Systems, des Prozesses, der Funktion, welche die Ergebnisse der ersten drei Tage ergab? Sie lautete „Die Gesamtzahl morgen ist die Gesamtzahl heute plus 2“. Stützen unsere Ergebnisse unsere Original-Hypothese, unseren first guess, bis zum Tag 6? (Klarstellung: diese Ergebnisse kommen einfach durch Zählen zustande – das ist unser Verfahren der Datengewinnung – zählen). Nein, tun sie nicht. Keine wie auch immer geartete Schummelei – etwa zu sagen „aufwärts ist aufwärts“ oder „der Trend ist immer noch steigend“ – lassen diese Ergebnisse unsere Hypothese stützen.

Was würde ein Wissenschaftler, der etwas auf sich hält, an diesem Punkt tun? Er darf viele Dinge nicht tun, als da wären: 1) Die Ergebnisse so frisieren, dass sie zur Hypothese passen, 2) so tun, als ob „nahe“ das Gleiche ist wie Unterstützung ist („erkennen Sie, wie eng die Trends korrelieren?“), 3) Die Option „warten wir bis morgen, wir sind uns sicher, dass sich die Störung aufklären wird“ übernehmen, 4) eine Neuzählung anordnen und sicherstellen, dass die Knopf-Zähler verstehen, welche Zahlen sie zu finden haben, 5) eine Re-Analyse durchzuführen, incremental hourly in-filling, krigging, de-trending and re-analysis and anything else, bis die Ergebnisse auf der Linie liegen, auf der sie „liegen sollten“.

Während unsere Kollegen diese Tricks durchführen, wollen wir schauen, was am Tag 7 passiert:

Oh Mann … mitten in unserem „immer noch steigend“-Mantra müssen wir erkennen, dass wir die Daten nicht mehr weiter verwenden können, um unsere Original-Hypothese zu stützen – irgendetwas Anderes, was wir nicht erwartet haben, muss hier geschehen sein.

Ein wahrer Wissenschaftler macht an diesem Punkt Folgendes:

Er stellt eine neue Hypothese auf, welche die tatsächlichen Ergebnisse besser erklärt, normalerweise mittels Modifizierung der Original-Hypothese.

Das ist schwer – erfordert es doch das Eingeständnis, dass man beim ersten Mal falsch gelegen hatte. Es kann bedeuten, einen wirklich schönen Gedanken aufzugeben – einen Gedanken, der professionell, politisch oder sozial ist, unabhängig davon, ob er die Frage, um die es hier geht, beantwortet. Aber – an diesem Punkt MUSS man das tun!

Tag 8, obwohl „in die richtige Richtung weisend“, hilft unserer Original-Hypothese auch nicht:

Der gesamte Trend der Woche „geht immer noch aufwärts“ – aber dafür ist eine Trendlinie nicht geeignet.

Warum also eine Trendlinie?

Um uns zu helfen, das System oder den Prozess zu visualisieren und zu verstehen, der die Zahlen (tägliche Zählung der Knöpfe) hervorbringt (verursacht), die wir sehen – das ist vor allem nützlich bei Daten, die viel mehr durcheinander sind als hier.

Um uns bei der Beurteilung zu helfen, ob die Hypothese korrekt ist oder nicht.

Solange wir nicht verstehen, was vor sich geht, welcher Prozess zugrunde liegt, werden wir kaum in der Lage sein, bedeutsame Prognosen abzugeben darüber, was die tägliche Zählung der Knöpfe in Zukunft ergibt. An diesem Punkt müssen wir einräumen, dass wir es nicht wissen, weil wir die zugrunde liegenden Prozesse nicht vollständig verstehen.

Trendlinien sind zum Austesten einer Hypothese sinnvoll. Sie können den Forschern visuell oder numerisch zeigen, ob sie einerseits das System oder den Prozess korrekt erkannt haben, welcher ihren Ergebnissen zugrunde liegt, oder ihnen andererseits aufzeigen, wo sie vom Weg abgekommen sind und ihnen Gelegenheit geben, Hypothesen umzuformulieren oder sogar „zurück auf Los gehen“, falls das notwendig ist.

Diskussion

Mein Beispiel ist für die Leserschaft ein wenig unfair, weil es für Tag 10 keine offensichtliche Antwort auf die Frage gibt, die wir beantworten müssen: Welcher Prozess oder welche Funktion erzeugt diese Ergebnisse?

Das ist der ganze Punkt dieses Beitrags!

Ich will bekennen: Die Ergebnisse dieser Woche sind zufällig ausgesucht – es gibt kein zugrunde liegendes System, das es in den Ergebnissen zu entdecken gibt.

Derartiges tritt viel öfter bei Forschungsergebnissen auf als allgemein bekannt – man sieht scheinbar zufällige Ergebnisse, hervorgehend aus einer schlecht durchgeführten Studie, aus einer zu geringen Datenmenge, aus einer ungenauen Selektion der Parameter und einer „Hypothese weit daneben liegend“. Dies hat zu unsäglichen Bearbeitungen unschuldiger Daten geführt, die unablässig „bearbeitet werden, um Geheimnisse zu ergründen, die sie gar nicht enthalten“.

Wir glauben oft, dass wir ziemlich klar und offensichtlich sehen, was verschiedene Visualisierungen numerischer Ergebnisse uns sagen können. Wir kombinieren diese mit unserem Verständnis der Dinge, und wir geben kühne Statements ab, oftmals mit übertriebener Sicherheit. Haben wir diese erst einmal aufgestellt, sind wir versucht, aus falschem Stolz bei unseren first guesses zu bleiben. Falls unsere Zeiträume im obigen Beispiel nicht Tage, sondern Jahre gewesen wären, würde diese Versuchung sogar noch stärker sein, vielleicht unwiderstehlich – unwiderstehlich, falls wir zehn Jahre mit dem Versuch zugebracht haben zu zeigen, wie richtig unsere Hypothese ist, nur um zu sehen, dass die Daten uns betrügen.

Wenn unsere Hypothesen daran scheitern, die Daten zu prognostizieren oder zu erklären, die bei unseren Ergebnissen oder bei Messungen in Systemen der realen Welt zutage treten, brauchen wir neue Hypothesen – neue guesses – modifizierte guesses. Wir müssen uns dem Umstand stellen, dass unsere Hypothese nicht stimmt – oder noch schlimmer, dass sie vollständig falsch ist.

Von Linus Pauling, brillanter Chemiker und Nobelpreisträger, glaubt man allgemein, dass er sich zum Ende seines Lebens zu viele Jahre lang dem Kampf gegen eine Krebs-Kur mit Vitamin C verschrieben hat, und der es stets abgelehnt hat seine Hypothese neu zu evaluieren, als die Daten gegen sie sprachen und andere Gruppen seine Ergebnisse nicht nachvollziehen konnten. Dick Feynman machte für Derartiges etwas verantwortlich, dass er ,sich selbst zum Narren halten‘ nannte. Andererseits kann Pauling recht haben hinsichtlich der Fähigkeit von Vitamin C, gewöhnliche Erkältungen zu verhindern oder deren Dauer zu verkürzen. Dieses Thema war noch nicht ausreichend Gegenstand guter Experimente, um Schlussfolgerungen ziehen zu können.

Wenn unsere Hypothese nicht zu den Daten passt wie im oben ausführlich beschriebenen Beispiel – und es scheint dafür keine vernünftige, belastbare Antwort zu geben – dann müssen wir zurück zu den Grundlagen gehen und unsere Hypothesen testen:

1) Ist unser Experiment-Aufbau valide?

2) Sind unsere Messverfahren angemessen?

3) Haben wir die richtigen, zu messenden Parameter gewählt? Reflektieren/repräsentieren unsere gewählten Parameter (physisch) das, was wir glauben, dass sie reflektieren/repräsentieren?

4) Haben wir alle möglichen Störvariablen berücksichtigt? Sind die Störfaktoren um Größenordnungen größer als das, was wir zu messen versuchen? (Hier steht ein Beispiel).

5) Verstehen wir das größere Bild gut genug, um ein Experiment dieser Art angemessen durchzuführen?

Darum geht es heutzutage – das ist der Fragenkatalog, den ein Forscher aufstellen muss, wenn die Ergebnisse einfach nicht zur Hypothese passen, unabhängig von wiederholten Versuchen und Modifizierungen der Original-Hypothese.

„Moment“, kann man jetzt sagen, „was ist mit Trends und Prognosen?“

Trends sind einfach nur graphische Visualisierungen der Änderungen während der Vergangenheit oder von vorhandenen Ergebnissen. Das möchte ich wiederholen: es sind Ergebnisse von Ergebnissen – Auswirkungen von Auswirkungen – es sind keine Ursachen und können auch keine sein.

Wie wir oben sehen, können selbst offensichtliche Trends nicht herangezogen werden, um zukünftige Werte beim Fehlen eines wahren (oder zumindest „ziemlich wahren“) und klaren Verständnisses der Prozesse, Systeme und Funktionen (Ursachen) zu prognostizieren, welche zu den Ergebnissen, den Datenpunkten führen, welche die Grundlagen des Trends sind.

Wenn man ein klares und ausreichendes Verständnis der zugrunde liegenden Systeme und Prozesse wirklich hat, dann ist es so: falls der Trend der Ergebnisse vollständig unserem Verständnis (unserer Hypothese) entspricht und falls man eine Größe verwendet, welche die Prozesse genau genug spiegelt, dann kann man dies heranziehen, um mögliche zukünftige Werte innerhalb bestimmter Grenzen zu prognostizieren – fast mit Sicherheit, falls Wahrscheinlichkeiten allein als Prognosen akzeptabel sind. Aber es ist das Verständnis des Prozesses, der Funktion, dass es gestattet, die Prognose abzugeben, nicht der Trend – und das tatsächliche kausative Agens ist immer der zugrunde liegende Prozess selbst.

Falls man durch Umstände, Druck der Öffentlichkeit oder seitens der Politik oder einfach durch Hybris gezwungen wird, eine Prognose trotz des Fehlens von Verständnis abzugeben – mit großer Unsicherheit – ist es das Sicherste, „weiterhin das Gleiche“ zu prognostiziere und selbst bei einer solchen Prognose sehr viel Spielraum zuzulassen.

Anmerkungen:

Studien aus jüngerer Zeit zu Trends in nicht linearen Systemen (hier) geben nicht viel Hoffnung, abgeleitete Trends für Prognosen nutzen zu können. Meist reicht es nur zu „vielleicht wird es so weitergehen wie in der Vergangenheit – aber vielleicht wird es auch eine Änderung geben“. Klimaprozesse sind fast mit Sicherheit nicht linear – folglich ist es für Zahlen physikalischer Variablen als Ergebnis von Klimaprozessen (Temperatur, Niederschlag, atmosphärische Zirkulation, ENSO/AMO/PDO) unlogisch, wenn man davon gerade Linien (oder Kurven) über Graphiken numerischer Ergebnisse dieser nicht linearen Systeme zeichnet, um Projektionen zu erhalten und zu nicht physikalischen Schlussfolgerungen zu kommen.

Es gibt immer mehr Arbeiten zum Thema Prognose. (Hinweis: Die Konstruktion gerader Linien in Graphiken ist kein Beweis). Scott Armstrong bemühte sich viele Jahre lang, einen Satz von Prognose-Prinzipien zu entwickeln, um „wissenschaftliches Prognostizieren allen Forschern, Praktikanten, Klienten und Anderen zugänglich zu machen, die sich um Prognose-Genauigkeit kümmern“. Seine Arbeit findet sich hier. Auf seiner Website gibt es viele Beiträge zu Schwierigkeiten, Klima und globale Erwärmung zu prognostizieren (nach unten scrollen).

# # # # #

Der größte Teil der Leserschaft hier ist skeptisch hinsichtlich des Mainstreams und des IPCC-Konsens‘ der Klimawissenschaft, welche meiner Ansicht nach zu verzweifelten Versuchen verkommen ist, eine gescheiterte Hypothese namens „CO2-induzierte katastrophale globale Erwärmung“ mit aller Gewalt am Leben zu halten – Treibhausgase mögen allgemein eine gewisse Erwärmung bewirken, aber wie stark, wie schnell, wie lange sowie vorteilhaft oder schädlich – das sind alles Fragen, die bisher in keiner Weise beantwortet sind. Und außerdem steht immer noch die Frage im Raum, ob sich das Klima der Erde selbst reguliert trotz sich ändernder Konzentrationen von Treibhausgasen oder solarer Fluktuationen.

Link: https://wattsupwiththat.com/2018/01/04/the-button-collector-revisited-graphs-trends-and-hypotheses/

Übersetzt von Chris Frey EIKE




Das Grüne U-Boot

An langen Winterabenden klickt man sich öfter als sonst durch die Netzwelt und lässt sich Fragen beantworten, die man sich zu Zeiten schönen Wetters nicht erst gestellt hätte. Mehr als drei Monate nach der Bundestagswahl hockt eine historisch große Zahl an Parlamentariern in den Bundestagsfraktionen, bildet wie in U-Booten selbstreflektive Echokammern der Beschäftigung mit sich selbst und ist nicht ausgelastet. Ob sie eine Elite sind, lässt sich nicht mit Gewissheit sagen, auf jeden Fall gehören sie nicht zum intellektuellen und finanziellen Prekariat im Lande. Die kreative Pause, die sich für die Mehrheit von ihnen wohl noch einige Zeit hinziehen wird, ist jedenfalls nicht schlecht vergütet, 9.541,74 Euro monatlich plus 4.318,38 steuerfrei. Da muss Oma lange für stricken, allerdings haben die Schals dann auch einen Gebrauchswert.

Wer sind diese Leute? Besonders die, die in vergangenen Legislaturperioden Konfetti warfen, als ein Gesetz mehrheitlich beschlossen wurde? Die Opposition spielten und am Ende doch die Kanzlerinnenpolitik stützten? Die entgegen ihrem Gründungsmythos als Friedenspartei einem Krieg gegen Serbien zustimmten? Die nicht weniger als die Welt retten wollen, denen Schmetterlinge wichtiger sind als Menschen?

Ein Blick in die Biografien der jetzt 67 Abgeordneten von Bündnis 90 / Die Grünen zeigt eine Gruppe mit spezifischen Lebensläufen und Karrieren, eine Mischung verschiedener Qualifikationen, die sich am Ende doch ähneln und in der sich das Spektrum der Gesellschaft nicht wiederfindet.
Ein einziges Gewimmel bilden Politikwissenschaftler (27%), vor VWLern und BWLern (19%), Soziologen (16%), Pädagogen (13%) und Juristen (12%), weiterhin treffen wir auf Verwaltungswissenschaftler, Religionswissenschaftler, Landschaftsökologen, Biologen, Philologen, Philosophen, Psychologen, Germanisten, Umweltwissenschaftler, Religionswissenschaftler, Kunstwissenschaftler, Mediziner. Immerhin sieben von ihnen (10,5%) haben einen Beruf erlernt.

Oft haben Studienrichtung und –abschluss, so vorhanden, nicht viel mit der später ausgeübten Tätigkeit zu tun. Zumeist ausgeübte Tätigkeiten waren Politiker, Projektmitarbeiter, Kulturreferent, Büroleiter, wissenschaftlicher Angestellter, Lehrer/Referent/Dozent, Verwaltungsmitarbeiter, Anwalt, Manager, studentische Hilfskraft. Eine Polizistin mutet schon exotisch an.
Auffällig in ihren Viten ist die oftmalige Tätigkeit bei NGO`s oder als Referenten und Mitarbeiter von Landtags- und Bundestagsabgeordneten. Das schafft Kenntnisse der Abläufe und man kann gut netzwerken. Wer will schon das raue Leben in Wirtschaft und Praxis durchackern? Der gerade Weg in den Bundestag beginnt an der Parteibasis und führt über die Gremien. Einige der Abgeordneten waren bereits im Bundestag (39%) oder hatten Mandate in Landtagen (7,5%).
Auffällig ist das Fehlen von Vertretern aus Industrie und Ökonomie, Gewerbe und Bundeswehr, es gibt nur wenige Selbständige, keine Unternehmer oder Arbeitnehmer im traditionellen Sinn.

Plötzlich wundert man sich nicht mehr über grüne Politik, die nicht den selbstbewussten eckigen und kantigen Bürger akzeptiert, sondern den zukunftsverängstigten Staatsgläubigen zum Ziel hat, der von einer Regierung erzogen, besser noch, therapiert werden muss. Die die Marktwirtschaft nicht schätzt, weil in ihr Menschen selbstverantwortlich handeln und grüner Einflussnahme nicht bedürfen. Die Menschen nach ihrem Bild des höheren Ökologismus erziehen will, nicht mit kuscheliger Waldorfpädagogik, sondern mit grünem Frontalunterricht, der mit Schuld und Sühne arbeitet. Für die Technikphobie, Naturesoterik, Atomangst und Klimareligion die Grundlagen sind, die in ihre einzigen politischen Instrumente münden: Umverteilung, Verbote und Subventionen.
Ihre fehlende Lebensnähe ist ein Grund für die Maßlosigkeit in ihren ökologistischen Zielen. Da Unternehmer und Arbeitnehmer, die die Grundlagen für unsere Industriegesellschaft bilden, in der Fraktion praktisch nicht zu finden sind, wird das Grüne Wolkenkuckucksheim üppig ausgebaut.

Abseits der Realitäten

Ausgerechnet der grünen Fraktionsführung kann man ein gerütteltes Maß an realer Lebenserfahrung wirklich nicht vorwerfen. Respekt vor der Ausbildung und Promotion von Dr. Hofreiter. Allerdings arbeitete auch er nur wenig im Fachgebiet Biologie und wechselte 2005 als Politprofi in den Bundestag.
Über Referenzen von Frau Göring-Eckhardt zu sprechen, erübrigt sich. Es gibt sie nicht, sie ist Funktionärin in Partei und Kirche. Sie denkt an Karl den Käfer, aber nicht an Robert, den Rotmilan. Sie beklagt schwindende Artenvielfalt, tut aber nichts gegen Monokulturen von Energiemais. Sie geißelt Rodungen des Regenwaldes, tut aber nichts gegen die Rodung von Bäumen bei uns für Windkraftwälder. Selten hatten Politiker weniger Charakter.

Während es in der FDP über Jahrzehnte zum guten Ton gehörte, die Bundestagsdiät nur als Zubrot zum „richtigen“ Job zu kassieren, würde der größte Teil der Grünen- Abgeordneten im Leben außerhalb der Politik nicht annähernd das Einkommen erzielen können, das ihnen der Abgeordnetensitz einbringt. Das erklärt die sehr hohe Flexibilität in den Schwampel-Sondierungen. Bei positivem Ausgang wäre ein Arbeitsbeschaffungsprogramm für die eigene Klientel die Folge gewesen.
Nun leiden sie unter akutem „Jamaika-Entzugsfieber“ (Wolfram Weimer), nachdem sie doch schon die Disziplin „huldvolles Winken vom Balkon“ so gekonnt zelebrierten.

Keine Abgeordneten ohne Wähler. Es gilt als sicher, dass Grünen-Wähler eher jung, gut verdienend, verbeamtet oder im Öffentlichen Dienst tätig sind. Auffällig die große Spreizung zwischen den Großstädten und dem Rest des Landes. Liegen in den Zentren wie Berlin, Hamburg und München die Grünen-Ergebnisse zwischen 11 und 18 Prozent (stadtteilbezogen bis 25 Prozent), ist die Partei in der Fläche im Osten oft unter der 5-Prozent-Hürde, auch im Westen vielmals nur knapp drüber. Die von Windkraftanlagen umstellte Landbevölkerung hat die Grünen inzwischen als existenzielles Problem erkannt.
Auch innerhalb der großen Städte kann es große Unterschiede geben: Stimmten in Berlin-Kreuzberg/Friedrichshain die Hipster mit 26/20 Prozent (Erst-/Zweitstimme) für Grün, waren in Marzahn/Hellersdorf die dort mehrheitlich wohnenden Proleten und Dienstleister nur zu 3,2/4,1 Prozent für diese. Wo der Mindestlohn eine große Rolle spielt, wird wenig gegendert.

Selbst in mittleren Städten wie in Aachen II konnte die 5-Prozent-Hürde nicht genommen werden. In Cottbus/Spree-Neiße landen die Grünen ein stattliches halbes Prozent vor Sonneborns „Die Partei“.
So bleiben die Großstädter der Grünen verlässlichste Anhänger. Für sie kommt der Strom kommt aus der Steckdose, das Fleisch vom Biomarkt. Die Ursprungstiere wurden Zeit ihres Lebens gestreichelt und an dessen Ende nicht gewaltsam gemeuchelt sondern vom tierflüsternden Biobauern totgequatscht.

Parlament und Gesellschaft

Sind denn die Qualitätsabgeordneten der anderen Fraktionen so viel besser? Die Blauen sind natürlich fast alle neu in der Politik, sieht man von ehemaligen CDU-Mitgliedern ab. Die Lebensläufe sind sehr verschieden, die Qualifikationen breiter gestreut. Hier gibt es den Landwirt wie den Malermeister. Unter den 92 Abgeordneten sind auch hier Juristen reichlich vertreten (fast 22%), vor Wirtschaftsleuten (17%), Lehrern/Pädagogen (12%) und – größtenteils ehemaligen – Bundeswehrangehörigen (9%). Ingenieure (12%) sind auch vorhanden wie einige Naturwissenschaftler, IT-Spezialisten (5%), Mediziner, Piloten und Polizisten. 31 Prozent haben einen Berufsabschluss, knapp 22 Prozent sind Promovierte (bei den Grünen knapp 20 Prozent). Die Tätigkeiten reichen vom höheren Staatsbediensteten über Berater, Unternehmer und Handwerksmeister bis zum Angestellten. Die Breite der Gesellschaft zeigt sich deutlicher.

Es ist der bleibende Verdienst der Grünen, Umweltbewusstsein in der Gesellschaft verankert zu haben. Allerdings ist dies heute kein Alleistellungsmerkmal mehr, denn alle anderen Parteien denken in ihren Entscheidungen inzwischen Umweltschutz mit. Im Gegensatz zu den Grünen, die auf Grund ihres ökoesoterisch praktizierten Klimaschutzes den Umweltschutz aus dem Auge verloren haben und andere Aspekte wie Wirtschaft und Soziales ohnehin nur am Rande betrachten.

Neben dem grünen gibt es noch ein schwarzes, zwei rote, ein blaues und ein yellow submarine im Bundestag. Wie tief sie in der verbleibenden Legislaturperiode vor der Wirklichkeit abtauchen, werden die Wähler 2021 zu honorieren wissen. Vielleicht auch eher. Das grüne U-Boot wird wieder besonders tief tauchen.

Daten aus: http://www.bundestag.de/abgeordnete/




11. IKEK Konrad Fischer: CO2 einsparen durch Dämmzwang – warum und wie?

Konrad Fischer behandelt in seinem Vortrag die Themen:

Kalk und CO2-Verminderung durch Karbonatisierung Un-Endlichkeit der „fossilen“ Energien – Abiotische Genese von Erdöl, Erdgas, Steinkohle, Braunkohle (Öl, Gas, Kohle) CO2/Kohlendioxid Klimageschichte und Globaltemperatur durch Weglassen gefälscht Wärmedämmfassade und Taupunktunterschreitung, Tauwasser, Kondensat, Algen, Flechten, Pilze auf Dämmfassaden und WDVS Enstegshuset-Skandal in Schweden Feuchteanreicherung in Zwischensparrendämmung/Dachdämmung Keine Energieeinsparung durch Fassadendämmung Einfach-Fensterglas, Zweifachverglasung/Isolierverglasung, Dreifachverglasung wirtschaftlich? Raumluft und Raumklima verpestet durch Blower-Door-dichte Gebäudehülle, Schimmelpilzrisiko Wie hat der Ritter geheizt? Heiztechnik und Dämmtechnik früher, Innendämmung und Außendämmung Der Architekt als Treuhänder des Bauherrn/Auftraggebers schuldet wirtschaftliches Bauen und Dämmen Einflußnahme des Baustoffvertriebs/Produktberaters auf die Planung Ausbleibende Energieersparnis und Kostensteigerung durch energetische Sanierung/Umstellen der Heizung von Ölheizung auf Pellets-Heizung, Wärmerückgewinnung und Wärmepumpe? Krankmachende Raumlüftung? Inkaufnahme von Baupfusch und Gesundheitsgefährung/Gesundheitsschäden/Krankheit der Bewohner durch Klimaschutz-Planung, Energieeffizienz? Klimaschutz – ein Verbrechen gegen die Menschlichkeit?

Ein Video von EIKE bearbeitet von Konrad Fischer www.konrad-fischer-info.de




Wissenschaftler verklagen die EPA, da sie nicht einsehen, dass erhaltene Subventionen ein Interessenkonflikt im Ausschuss zu diesem Thema sein kann.

EPA-Administrator Scott Pruitt kündigte im Oktober die neue Richtlinie an, um „wissenschaftliche Unabhängigkeit“ und „geographische Vertretung“ in wissenschaftlichen Beiräten zu gewährleisten.

„Was auch immer die Umweltbehörde an wissenschaftlichen Expertisen veröffentlicht, es sollte keine Politikwissenschaft sein“, sagte Pruitt im Oktober. „Ab diesem Tag werden Mitglieder des EPA-Beratungsausschusses von der Behörde finanziell unabhängig sein.“

Die Idee besteht darin, EPA-Wissenschaftsbeiräte frei von potenziellen Interessenkonflikten zu halten, indem Forscher ausgeschlossen werden, die Steuergelder erhalten. Die EPA hat 22 wissenschaftliche Gremien, aber die Regulierung trifft derzeit nur für drei von ihnen zu.

Umweltschützer und einige Wissenschaftler waren außer sich vor Wut. Jetzt verklagt die Gruppe „Umweltrecht und Erdgerechtigkeit“ der Columbia Universität die EPA im Namen aktueller und ehemaliger Forscher von Beiräten, berichtete The Washington Post.

Die Klage argumentiert, dass Pruitt die Befugnis zur Änderung zur Regulierung der wissenschaftlichen Beiräte der EPA fehlt. Aktivisten behaupten auch, dass Pruitts Anordnung gegen das Federal Advisory Committee Act [Bundesgesetz für Beratungskommissionen] verstoße, das Zuschussempfängern erlaubt, in Beiräten zu dienen, aber nur, wenn diese Gremien nicht eng mit ihrer Finanzierung verbunden sind.

Aber das ist der Haken. Die EPA sagte, dass Mitglieder von drei Beiräten in den letzten drei Jahren 77 Millionen Dollar an EPA-Zuschüssen erhalten haben und diese gleichzeitig wesentlich an der Ausarbeitung von Vorschriften beteiligt waren.

Das Energy & Environment Legal Institute [Rechtsinstitut für Energie und Umwelt] verklagte die EPA in 2016, um zu verhindern, dass sich weiterhin das Clean Air Scientific Advisory Committee [wissenschaftlicher Beirat, saubere Luft] (CASAC) zu Ausarbeitungen für Regulierungen trifft, nachdem festgestellt wurde, dass 24 seiner 26 Mitglieder mehr als 190 Millionen US-Dollar von der EPA erhalten hatten.

Siebzehn der 20 wissenschaftlichen Berater, die im Ozon-Panel der EPA sitzen, profitierten laut E & E Legal ebenfalls von 192 Millionen US-Dollar an EPA-Zuschüssen.

Trotzdem lehnte ein von der Regulierung betroffene Wissenschaftlerin ihren Rücktritt ab. Sie hat sich der Klage gegen die EPA angeschlossen und Pruitts Anordnung als „moralisch verwerflich“ bezeichnet.

„Es klingt alles sehr gut gemeint, möchte mehr Vielfalt auf den Brettern haben und möchte, dass mehr Stimmen gehört werden. Wer wird dem widersprechen? „Sagte Robyn Wilson [Co-Professor für Risikoanalyse und Entscheidungswissenschaft] von der Ohio State University gegenüber der Washington Post.

„Ich denke, es ist ein Versuch, Menschen loszuwerden, von denen man annimmt, dass sie mit den Zielen der gegenwärtigen Regierung, die deregulierend sind, nicht konform gehen“, sagte sie.

Umweltschützer bezichtigen Pruitt, diese Regulierung zu nutzen, um die Ausschüsse mit Teilnehmern zu füllen, die den Interessen der Industrie und des Staates entsprechen.

Pruitt benannte [bislang] 66 Experten, die in drei Ausschüssen teilnehmen sollen, und alle dieser Beauftragten sind – unabhängig von ihren Verbindungen – Experten auf ihrem Gebiet.

„Und wenn wir Einzelpersonen in einem Ausschuss haben, die manchmal bereits Jahre um Jahre Gelder von der Umweltbehörde erhalten, dann summiert sich das im Laufe der Zeit auf Millionen von Dollars“, sagte Pruitt „damit stellt sich für mich die Frage nach der Unabhängigkeit, der Wahrhaftigkeit und Transparenz der Empfehlungen dieser Ausschüsse, mit denen wir konfrontiert werden.“

Erschienen auf The Daily Caller am 21.12.2017

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/12/21/scientists-sue-epa-for-not-letting-them-take-taxpayer-money-and-serve-on-advisory-boards/




Deutschlands politische Krise ist eine gute Nachricht für die Vernunft

Der Hauptgrund für dieses Durcheinander ist eine populistische* Revolte à la Trump seitens der deutschen Bevölkerung. Wie in den meisten anderen europäischen Ländern auch gibt es in Deutschland viele unterschiedliche politische Parteien, weshalb schon kleine Änderungen große Auswirkungen haben könnten.

In diesem Falle bekam eine neue populistische Partei 15% (Anm. d.R. es waren knapp 13 % Stimmen für die AfD, welche der Autor offensichtlich meint) der Wählerstimmen bei den Wahlen zum Bundestag im September. Dies hat sich als „Kipp-Punkt“ herausgestellt, weil Merkels Koalition dadurch bei den Wahlen einen neuen Tiefstwert erreichte, so dass die Koalition zerbrach.

Merkel versuchte eine neue Koalition zu bilden, doch scheiterte dieser Versuch beim Thema Kohlestrom, genauer dessen Auslaufen, womit konform zu gehen von einer Partei abgelehnt wurde. Der neue Populismus spielte auch hier eine große Rolle.

[*Hinter diesem Link zum Oxford Dictionary steht die beste Definition, was ,Populismus‘ ist, die mir je untergekommen ist! Anm. d. Übers.]

Inzwischen versucht sie, sich wieder mit ihren alten Koalitionspartnern auf dem linken Flügel zusammen zu tun, aber deren Mitglieder sind schwer dagegen. Diese Lage verschlimmerte sich, als der Landwirtschaftsminister im Namen Deutschlands für einen EU-Antrag stimmte, ein Herbizid nicht zu verbieten, welches die Grünen hassen. Merkel behauptete, nicht hinter diesem Votum zu stehen, aber es ist nun einmal da.

Also gibt es in Deutschland auch nach zwei Monaten immer noch keine neue Regierung, wobei die alte Regierung den Laden so ruhig wie möglich weiterführt. Eine weitere Möglichkeit für Merkel ist die Bildung einer Minderheitsregierung. In einem parlamentarischen System ist man jedoch draußen, sowie man eine wichtige Abstimmung zur Gesetzgebung verliert. Eine Minderheitsregierung erfordert also die Bildung ständig neuer, flüchtiger Koalitionen.

Die letzte Alternative sind Neuwahlen, bis sich eine irgendwie geartete Mehrheit bildet. Nichts dergleichen gab es schon einmal in der neueren Geschichte, und darum ist es eine große Sache, ein echtes Durcheinander. Es ist gut möglich, dass Merkel ihre Führungsposition dabei verliert, was eine weitere Transition bedeutet.

All das sind gute Nachrichten, soweit es das Abdriften von linken und grünen Ideologien betrifft. Deutschlands Maßnahmen hatten katastrophale Folgen [was die große Mehrheit unserer Mitbürger hierzulande offenbar noch nicht gemerkt hat oder nicht merken will! Anm. d. Übers.] ließen diese Maßnahmen doch die Energiepreise in den Himmel schießen. Es sind auch gute Nachrichten, soweit es das Zügeln der EU betrifft, wo die populistische Revolte von allen Seiten kommt. UK verabschiedet sich bereits, und andere könnten sehr gut folgen. Dies gilt vor allem, seit Deutschland sich mehr oder weniger im Abwärtstrend befindet, war das Land bisher doch der stärkste Unterstützer der EU. Frankreich, die dritte große Wirtschaftsmacht in der EU, wird jetzt von einer neuen Partei geführt, welche den Slogan „Reform der EU!“ vor sich her trug. Daher ist auch dieses Land inzwischen eine Bedrohung für die EU. Kurz gesagt, die Links-EU überlebt vielleicht nicht. Das würde ich begrüßen.

Dieser hoffnungsfrohe Aufruhr verdient es, während der kommenden Tage und Monate genau verfolgt zu werden [sagt ein Amerikaner! Anm. d. Übers.]. Vielleicht kann die Trump-Regierung helfend eingreifen. Die linkslastige Presse liebt es zu sagen, dass nachdem Präsident Trump gewählt worden war, Kanzlerin Merkel zur so genannten „Führerin der freien Welt“ geworden ist. So sieht es sicher nicht aus, ist doch der Populismus im Vormarsch. Wirklich, es sind gute Nachrichten.

Link: http://www.cfact.org/2017/12/05/germanys-political-meltdown-is-good-news-for-rationality/

Anmerkung: Der Beitrag datiert vom 5.12.2017, kann also bei Veröffentlichung teilweise schon überholt sein.




Winter 2017/18 – weiterhin Tendenz zu milder, wechsel­hafter Witterung

Ein Blick auf die Entwicklung der NAO (Nordatlantische Oszillation, ein Maß für das Luftdruckgefälle zwischen Azoren und Island) zeigt, dass sich im Dezember 2017 zunehmend positive NAO- Werte einstellten, was mildes Westwetter in Mitteleuropa begünstigt und uns das alljährliche „Weihnachtstauwetter“ beschert hat:

Abb. 1: Seit Anfang Dezember herrschen durchweg positive NAO-Werte, was ein erhöhtes Luftdruckgefälle zwischen den Azoren und Island bedeutet. Die daraus resultierenden Westwinde halten die Kälte von Mitteleuropa fern. Quelle: NOAA (Wetterdienst der USA)

Bauernregeln werden zwar oft als altmodisch belächelt; doch oftmals haben sie einen wahren Kern. Sie stellen oft (unbewusst) auf die Erhaltungsneigung der großräumigen Zirkulation ab, welche kurz nach der Wintersonnenwende besonders groß ist. Die beiden Regeln „Dezember, wechselhaft und lind, der ganze Winter bleibt ein Kind.“ und „War bis Dreikönigstag kein (richtiger) Winter, so folgt (meist) keiner mehr dahinter“ machen wenig Hoffnung auf Winterwetter, zumal auch fast alle Modelle eine sehr milde Witterung in den Monaten Januar und Februar erwarten, freilich mit großer Unsicherheit:

Abb. 2a und 2b: Momentan sieht das wichtigste Langfristmodell, das CFSv2 des US-Wetterdienstes NOAA, einen extrem milden Januar (oben) und einen sehr milden Februar vorher. Zur Beachtung: Diese Prognosen sind experimenteller Art und keinesfalls stets zutreffend; doch momentan erwarten alle Institute, IRI, DWD, MeteoSchweiz und UKMO, einen milden Hochwinter 2018.

Fazit: Eindeutige, verlässliche Anzeichen für einen länger kalten Hochwinter 2018 fehlen. Es bleibt vorwiegend mild bis sehr mild. Kurze winterliche Episoden oder ein einzelner zu kalter Wintermonat sind noch nicht völlig ausgeschlossen, aber momentan wenig wahrscheinlich. Nur mit ganz viel Glück könnte sich also nach Mitte Januar noch eine Umstellung hin zu sehr kalter Witterung vollziehen; letztmalig erlebten wir Ähnliches im Winter 2011/12.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 26.12. 2017




Berechnung der Kosten von globaler Erwärmung

Zur Durchführung der Berechnung braucht man eine Schätzung der monetären Schäden durch globale Erwärmung, sobald sie anfallen, und den Diskontsatz des Geldes über jenen Zeitraum. Wir führen den Versuch der Berechnung nicht hier durch, da zu komplex, aber wir können über die eingehenden Parameter reden und über einige, von Dritten durchgeführte Berechnungen.

Zunächst sollte die Leserschaft daran erinnert werden, dass die Hypothese, dass die Menschen ursächlich sind für den größten Teil der jüngsten globalen Erwärmung, nicht bewiesen ist. Die Berechnung des menschlichen Einflusses auf das Klima stammt ausschließlich von nicht validierten Klimamodellen, wie hier und hier beschrieben. Tatsächlich können die meisten Klimamodelle nicht die globale Erwärmung von 1910 bis 1945 modellieren (hier). Falls sie eine bekannte globale Erwärmung nicht abbilden können, wie können sie dann eine solche akkurat vorhersagen? Die Vorhersage des natürlichen Anteils der Erwärmung (hier) ist offensichtlich entscheidend zur Berechnung der Größenordnung der menschlichen Einwirkung. Darum müssen wir skeptisch bleiben hinsichtlich jedweder Berechnung des menschlichen Einflusses.

Um Kosten der globalen Erwärmung zu berechnen, müssen wir zunächst annehmen, dass globale Erwärmung überhaupt Kosten mit sich bringt. Dann müssen wir einen Wert für jene Kosten annehmen, sowohl menschliche als auch sächliche. Außerdem müssen wir eine Aufstellung der Kosten und Vorteile annehmen, damit wir den angenommenen Diskontsatz für das ausgegebene und das eingesparte Geld angeben können. Man könnte sagen, dass die Ergebnisse dubioser Klimamodelle in dubiose ökonomische Modelle eingehen und damit dann Projektionen für 100 Jahre im Voraus simuliert werden.

Für den Moment wollen wir also einmal annehmen, dass eine vom Menschen verursachte globale Erwärmung eine Gefahr ist. Wir stellen diese Hypothese nur auf, um zu zeigen, dass die Eliminierung fossiler Treibstoffe nicht notwendigerweise die korrekte Entscheidung ist, selbst wenn die Gefahr existieren sollte. Im 5. IPCC-Zustandsbericht stellt die Arbeitsgruppe II (WG II) dies mit ein wenig mehr Sicherheit fest als mir lieb ist: (Seite 37 der technical summary):

Ein menschlicher Einfluss auf das Klimasystem ist vorhanden. Klimawandel stellt Risiken für menschliche und natürliche Systeme dar“.

Die Menschen beeinflussen das Klima mit Sicherheit bis zu einem gewissen Grad, genau wie viele großen Spezies auch, vor allem Bäume und Phytoplankton. Klimawandel, egal ob natürlich oder anthropogen, ist ein Risiko. Es gibt immer zwei Optionen, Klimawandel zu begegnen, nämlich dass wir uns entweder an die Änderungen anpassen oder, falls wir wirklich die Ursache sind, dass wir die Änderungen mittels Änderung unseres Verhaltens abschwächen können. Diese beiden Optionen können miteinander in Konflikt kommen. Falls die Abschwächung unseren Verbrauch fossiler Treibstoffe reduziert, eine billige [und sichere] Form von Energie und wir uns alternativen Treibstoffen zuwenden, welcher teurer ist, reduzieren wir unsere Fähigkeit, uns anzupassen. Die Anpassung, das können Dinge sein wie die Errichtung von Deichen, Dämmen und Gräben, die Installation von Air Condition, Bewässerung trockenen Ackerlandes und vieles mehr, was eine Menge Energie erfordert sowie den Transport großer Gütermengen und Treibstoffe. Risiken und Anpassungsverfahren werden vom IPCC hier; Abschwächungsverfahren hier angesprochen.

Was sind nun Kosten globaler Erwärmung?

Die Abschätzung zukünftiger Kosten durch die globale Erwärmung ist außerordentlich schwierig. In der Technical Summary der WG II des IPCC-Berichtes Nr. 5 heißt es auf Seite 71:

Globale ökonomische Auswirkungen durch Klimawandel sind schwierig abzuschätzen. Schätzungen dieser Art, vervollständigt während der letzten 20 Jahre, variieren in ihrer Abdeckung von ökonomischen Unterbereichen und hängen von einer großen Anzahl von Hypothesen ab, von denen viele diskussionsbedürftig sind, und viele Schätzungen ziehen nicht katastrophale Änderungen, Tipping Points und viele andere Faktoren in Betracht. Mit diesen erkannten Limitierungen lauten unvollständige Schätzungen durch einen zusätzlichen Temperaturanstieg von ~2°C zwischen 0,2 und 2% des Einkommens (±1 Standardabweichung um das Mittel), (mittleres Vertrauen, mittlere Übereinstimmung).

Das BIP der Welt liegt der Weltbank zufolge gegenwärtig bei 75,5 Billionen Dollar pro Jahr. 1% davon wären also etwa 0,755 Billionen. Das ist viel Geld, aber das ist die auf „mittlerem Vertrauen, mittlerer Übereinstimmung“ beruhende Schätzung der Schäden, die globale Erwärmung anrichten kann, +- about 100%, that is 0.15 trillion to 1.51 trillion dollars by 2100! [Diese Aussage verstehe ich nicht. 100% von was? Oder liegt ein Schreibfehler des Autors vor? Anm. d. Übers.] Die IPCC-Schätzung der Kosten globaler Erwärmung ist in jeder Hinsicht ungenau, bei den Schätzungen Dritter ist es genauso, wie ich in diesem Beitrag zeigen werde. Aber die Schätzungen werden von „Experten“, Ex-Vizepräsidenten und Hochschul-Aussteigern usw. kolportiert, allesamt darauf angelegt uns zu ängstigen zu versuchen. Da wollen wir mal genau hinschauen.

Es wird spezifisch eine „gefährliche Temperatur“ von ~2°C genannt, doch wird keine maximale Temperatur erwähnt, die noch „sicher“ ist. In Abbildung 1 sind vier der mittleren globalen Temperatur-Prophezeiungen des IPCC AR 5-Modellensembles gezeigt. Daten sind darin nicht enthalten, sondern nur Prophezeiungen und Nachhersagen.

Abbildung 1: Temperaturprojektionen des IPCC im AR 5 (Datenquelle: AR 5, heruntergeladen vom KNMI climate explorer).

RCP („Representative Concentration Pathway”) ist eine Bezeichnung, die man einem Satz von Klimamodell-Parametern gegeben hat. In diesen Parametern sind prophezeite Treibhausgas-Emissionen enthalten, ebenso wie Hypothesen, wie sensitiv das Klima auf jene Emissionen reagiert. In diesem Fall hier ist das RCP2.6-Szenario ein „sicherer“ Satz von Hypothesen, weshalb wir annehmen, dass die Erwärmung unter diesem Szenario keine Schäden verursachen wird und den Temperaturanstieg auf 1,1°C über die Mitteltemperatur des Zeitraumes 1980 bis 1999 begrenzt. RCP8.5 ist ein ziemlich radikaler „Worst Case“, und unter diesem Satz von Parametern wird die Temperatur bereits im Jahre 2053 um 2°C gestiegen sein. Für den Moment wollen wir uns auf das RCP4.5-Szenario konzentrieren, wie es auch die meisten Analysten tun. In diesem Szenario wird die um „gefährliche“ 2°C höhere Temperatur im Jahre 2096 erreicht.

Abschwächung und Anpassung

Seit das IPCC davon überzeugt ist [oder so tut, als ob es davon überzeugt ist, Anm. d. Übers.], dass menschliches CO2 der Haupttreiber des Klimawandels ist, glaubt es auch, dass Abschwächung eine Komponente zur Lösung des Klimawandel-Problems ist. Es beschreibt Abschwächung in der technical summary der WG III im AR 5 auf Seite 37 so:

,Abschwächung‘ im Zusammenhang mit Klimawandel ist ein menschlicher Eingriff, um die Quellen von Treibhausgasen zu reduzieren oder die Senken derselben zu stärken.

Das IPCC beschreibt Anpassung so (technical summary der WG II im AR 5, Seite 40):

Dabei handelt es sich um den Prozess der Adjustierung zu aktuellen oder erwarteten Klimaten und dessen Auswirkungen. In menschlichen Systemen ist Anpassung darauf ausgerichtet, Schäden abzuschwächen oder zu vermeiden, oder vorteilhafte Gelegenheiten auszunutzen. In einigen natürlichen Systemen scheinen menschliche Eingriffe die Adjustierung an erwartete Klimate und Auswirkungen zu begünstigen.

Wir übernehmen diese Definitionen für diesen Beitrag.

In jedweder Diskussion über die potentiell gefährliche globale Erwärmung werden viele potentielle Kosten oder Gefahren angesprochen. Sind Hurrikane und andere Extremwetterereignisse wegen des Klimawandels nicht immer schlimmer? Diesen Punkt werden wir in Beitrag 6 diskutieren. Steigt der Meeresspiegel nicht gefährlich und mit sich beschleunigender Rate? Dies ist Gegenstand von Beitrag 7 [der hier vermutlich nicht übersetzt erscheint, weil die Beiträge von Prof. Mörner auf diesem Blog grundlegend sind. Anm. d. Übers.] Werden die Kosten der globalen Erwärmung sie nicht auf astronomische Höhen steigen lassen? Das ist Gegenstand dieses Beitrags. Wird es nicht weit mehr Todesfälle im Zusammenhang mit Hitze geben? Das ist Gegenstand von Beitrag Nr. 5. Es gibt begutachtete, im AR 5 genannte Studien, die diese Szenarien prophezeien. Die Prophezeiungen basieren auf nicht validierten Modellen und enthalten wenig oder gar keine tatsächlichen Daten, um sie zu stützen. Wir werden die Prophezeiungen und die Daten ansprechen. Schon zuvor habe ich zu den Vorteilen des zusätzlich in die Atmosphäre freigesetzten CO2 gesprochen, so dass ich darauf nicht noch einmal eingehe.

Der jüngste Anstieg der globalen mittleren Temperatur, egal ob natürlich oder anthropogen, ist nicht ungewöhnlich (siehe hier). Aber falls anthropogenes CO2 Ursache des größten Anteils an der jüngsten Erwärmung ist, ist es dann nicht besser, den Verbrauch fossiler Treibstoffe einzuschränken? Oder sollten wir unser Geld für die Anpassung an höhere Temperaturen ausgeben? Um diese Fragen zu beantworten, müssen wir quantitativ sein. Die Reduktion fossiler Treibstoffe lässt die Energiekosten steigen (siehe die Abbildungen 1 und 2 hier) und vermindert unsere Fähigkeiten uns anzupassen, erfordern doch sämtliche Anpassungsverfahren Energie. In der technical summary der WG III im AR 5 heißt es dazu:

Bestimmte Abschwächungsmaßnahmen können die Verwundbarkeit durch Klima teilweise betreffen, sowohl durch Einfluss auf die Exposition gegenüber Auswirkungen als auch durch Veränderung der Kapazität, um sich daran anzupassen“.

Zeitwert des Geldes und der Diskontsatz

Weiter. Die Reduktion des Verbrauchs fossiler Treibstoffe hat eine unmittelbare Auswirkung auf unser Wohlergehen hinsichtlich einer möglichen und unbelegten Verbesserung unserer Gesundheit in über 100 Jahren von heute an. Es ist ziemlich wahrscheinlich, dass wir von zusätzlichem CO2 in der Atmosphäre profitieren, und das wird auch mindestens noch viele Jahrzehnte lang so sein, wenn nicht noch länger, wie die NASA hier schreibt. Siehe auch die Sektion „Energie und Landwirtschaft“ hier.

In der technical summary der WG III im AR 5 steht dazu:

Investitionen zur Abschwächung des Klimawandels werden erst weit in der Zukunft Früchte tragen, vielfach erst in über 100 Jahren von heute an. Zu entscheiden, ob es eine Investition wert ist, müssen deren zukünftige Vorteile mit den gegenwärtigen Kosten verrechnet werden. Dabei setzen die Ökonomen normalerweise nicht eine Quantität von Gütern als gleich an mit dem Wert der gleichen Güter zu einer anderen Zeit. Normalerweise verleihen sie späteren Gütern niedrigere Werte als früheren. Sie ,diskontieren‘ spätere Güter. Die Rate, mit welcher das Gewicht auf spätere Güter sich mit der Zeit vermindert, ist bekannt als ,Diskontsatz‘ auf Güter“.

Mit anderen Worten, der „gegenwärtige Wert“ von Vorteilen in ferner Zukunft ist sehr klein wegen des „Zeitwertes des Geldes“. Oder man könnte einfach sagen „ein Vogel in der Hand ist besser als zwei Vögel im Busch“. Falls wir Klimawandel als gefährlich annehmen und falls menschliche Emissionen die Ursache sind – zwei große „falls“ – wie viel müssen wir dann heute ausgeben, um einen gefährlichen Klimawandel in 100 Jahren oder so zu vermeiden? Falls die Gefahren mit Sicherheit eintreten und bekannt sind, wäre es einige Ausgaben wert. Aber falls die potentiellen Gefahren wie jene sind, welche 1798 von Thomas Maltus oder 1968 von Paul Ehrlich vorhergesagt worden waren, hält sich die Gefährlichkeit doch in Grenzen. Falls wir warten, bis wir hinsichtlich der Gefahren sicher sind, ist dieses Warten gefährlich? Diese Fragen müssen wir ansprechen.

Die Gesamtwert-Berechnung (net present value), auf die ich oben hingewiesen habe, ist sehr sensitiv hinsichtlich der Wahl eines Diskont-Satzes. Dies gilt besonders für Investitionen in Klimawandel-Abschwächung oder -Anpassung, weil sich diese Investitionen erst in 100 Jahren oder später in der Zukunft auszahlen. Weil die U.S. S&P 500-Sammlung von Aktien zwischen 1975 und 2017 eine mittlere Rendite von 7,5% (rate of return of 7.5%) abgeworfen hat, adjustiert bzgl. Inflation mit rückinvestierter Dividende, ist es vernünftig, diesen Wert als Diskontsatz anzusetzen. Hintergrund ist der Gedanke, dass falls man einen positiven net present value von 7,5% bekommt, man die Rendite des Aktienmarktes übertroffen hat mit der Investition. Aber falls dies nicht gelingt, sollte man sein Geld stattdessen in den Aktienmarkt stecken. Diskontsätze zwischen 6% und 12% können angewendet und gerechtfertigt werden. Vor dem Jahr 2100, wenn alles Klimageld ausgegeben worden und nichts wieder hereingekommen ist, verlieren 6% doppelt soviel Geld wie 12%, aber in beiden Fällen verliert man sehr viel Geld. Dieses Geld kommt aus den Taschen der Steuerzahler und fließt an Erzeuger alternativer Treibstoffe oder andere Organisationen, welche sich die Reduktion von Treibhausgasen auf die Fahnen geschrieben haben.

Dr. Bjorn Lomborg, Dr. Richard Tol, Alex Epstein, Dr. Matt Ridley und Dr. Roger Pielke Jr. haben extensiv über die Ökonomie des Klimawandels geschrieben. Diese Reihe von Beiträgen basiert zumeist auf deren Arbeiten und dem IPCC AR 5. Vor allem stütze ich mich auf Cool It von Björn Lomborg, The Moral Case for Fossil Fuels von Alex Epstein, The Rational Optimist von Matt Ridley und The Climate Fix von Dr. Roger Pielke Jr.

Wie wir auch stellen sie nicht den Gedanken in Frage, dass etwas der jüngsten globalen Erwärmung dem Menschen geschuldet ist [schade! Sollten sie aber eigentlich! Anm. d. Übers.], sondern sie nehmen sich einfach die Klimaprophezeiungen des IPCC vor, um die Kosten von globaler Erwärmung für die Gesellschaft zu bestimmen. Während bislang nicht bewiesen ist, dass der Mensch Ursache des größten Teil der Erwärmung seit der Kleinen Eiszeit ist (siehe hier), ist es dennoch sinnvoll, die Kosten der Erwärmung sowie verschiedener vorgeschlagener Lösungen zu diskutieren. Die Kleine Eiszeit, Mitte des 19. Jahrhunderts zu Ende gegangen, war die kälteste Periode im Holozän. Das ist auf keinen Fall das Klima, zu dem zurückzukehren wir anstreben sollten, siehe hier.

Wir listen einige der allgemein behaupteten Kosten (oder Gefahren) der globalen Erwärmung und – wo es opportun ist – die potentiellen Kosten entweder der Anpassung an die Erwärmung oder an die Abschwächung der Temperaturänderung durch Reduktion des Verbrauchs fossiler Treibstoffe. Wir werden nur einige der bekannteren behaupteten Kosten besprechen. Sie alle anzusprechen ist unmöglich, wurde doch der Klimawandel für eine große Anzahl von Problemen verantwortlich gemacht, darunter beeinträchtigte chinesische Produktion (Chinese manufacturing), der Beginn des Bürgerkriegs in Syrien, Dezimierung von Hummeln usw. Eine umfassende Liste der angeblichen Kosten und Gefahren kann der technical summary im AR 5, WG II, entnommen werden. Wir halten uns an die konventionelleren Behauptungen.

Die Kosten der Reduktion von CO2-Emissionen

Es gab zwei internationale Abkommen bzgl. Abschwächung des Klimawandels mittels Reduktion des Verbrauchs fossiler Treibstoffe. Das waren die Abkommen von Kyoto und Paris. Diesen Abkommen liegt die Hypothese zugrunde, dass die Klimamodelle korrekt sind und die Temperaturen hauptsächlich durch menschliche Emissionen aus der Verbrennung fossiler Treibstoffe steigen. Die Länder haben in den Abkommen versprochen, ihre Emissionen aus fossilen Treibstoffen zu reduzieren, um die globale Erwärmung abzuschwächen. Hier diskutieren wir über die Kosten dieser Abschwächung und wollen einen Grund-Kostenrahmen ermitteln.

Es wurde erwartet, dass der Kyoto-Vertrag, falls er denn implementiert worden wäre, Kosten um180 Milliarden Dollar pro Jahr oder 0,5% des globalen BIP verursacht hätte (aus Cool It, Kindle location 472, Originalquelle hier):

Es stellte sich heraus, dass sich die Gesamtkosten des Kyoto-Protokolls mit Beteiligung der USA im kommenden Jahrhundert auf über 5 Billionen Dollar belaufen würden. Es gibt einen Vorteil für die Umwelt durch die geringfügig niedrigere Temperatur zum Ende des Jahrhunderts:etwa 0,3°F. Der Gesamtnutzen für die Welt beläuft sich auf fast 2 Billionen Dollar. – Lomborg, Bjorn. Cool It (Kindle Locations 610-613).

Die Einschränkungen der Industrie fossiler Treibstoffe würde zusätzliche Rückwirkungen zeitigen. Grund: die Öl-, Erdgas- und Kohleindustrie machen etwa 4 Billionen Dollar pro Jahr oder 5,5% des globalen BIP aus. Limitierung oder Eliminierung dieser Industrien würde viele Arbeitsplätze kosten und zu ernsten ökonomischen Störungen führen. Also könnten die exzessiven Kosten der Abschwächung noch weiter über den Wert der Vorteile hinausgehen als die oben geschätzten 3 Billionen Dollar – abhängig davon, was mit der Industrie fossiler Treibstoffe passiert.

Falls die Reduktion oder die Eliminierung fossiler Treibstoffe das globale BIP erniedrigen würde, was die meisten Leute erwarten, wird die Anzahl der Armen steigen und unser Lebensstandard erniedrigt werden. Beide Faktoren werden den Welt-Gesundheitszustand betreffen, wie in einem Artikel in einem Journal über menschliche Ressourcen beschrieben mit dem Titel „Wealthier is Healthier“von Lant Pritchett und Lawrence Summers (1996).

Das Paris-Abkommen

Falls die USA im Paris-Abkommen verblieben wären, wären die USA verpflichtet gewesen, ihre CO2-Emissionen bis zum Jahr 2025 um 26% bis 28% zu reduzieren im Vergleich mit dem Jahr 2005. Dies wäre nur mit den aktuell geltenden und zusätzlichen Vorschriften und/oder zusätzlichen Steuern zu erreichen gewesen. Schätzungen der Kosten der erforderlichen zusätzlichen Vorschriften einschließlich des – inzwischen annullierten – Clean Power Planes CPP variieren von 37 Milliarden Dollar (RFF) bis 250 Milliarden Dollar (NERA) an BIP-Verlust bis zum Jahr 2025. Schätzungen bzgl. des Verlustes von Arbeitsplätzen in der gesamten Ökonomie variieren von gar keine Verluste (REF) bis über 2,7 Millionen (NERA) bis zum Jahr 2025. Die höheren Verluste des BIP und von Arbeitsplätzen stammen aus einer Studie des NERA. Niedrigere Schätzungen stammen aus einem Artikel einer liberalen Denkfabrik namens „Resources for the Future” (RFF) von Chen and Hafstead, 2016. In beiden Studien wird eingeräumt, dass Vorschriften und Bemühungen im Jahre 2016 nicht ausreichten, um den Paris-Verpflichtungen gerecht zu werden. Die Heritage Foundation schätzt, dass den USA 206.104 Arbeitsplätze allein im produzierenden Gewerbe verloren gehen werden, siehe Abbildung 2:

Abbildung 2. Quelle: Heritage.org

Die unterschiedlichen Schätzungen kommen zustande durch unterschiedliche Ansichten hinsichtlich der zukünftigen relativen Kosten von Energie aus alternativen Quellen und fossilen Treibstoffen; plus der Kosten, die bei Erreichen der Emissionsreduktion seitens der USA anfallen. Der NERA-Schätzung lagen gegenwärtige Kostenschätzungen alternativer Treibstoffe zugrunde, welche allgemein von der EIA und der IEA geteilt werden. Die REF nimmt aufgrund gegenwärtig projizierter Raten des Kostenrückgangs alternativer Treibstoffkosten im Wesentlichen an, dass die Alternativen genauso billig seien wie fossile Treibstoffe, wenn nicht noch billiger. Das ist extrem unwahrscheinlich, was hier ausführlich begründet ist. Die Berechnung der relativen Kosten der erzeugten Energie mittels unterschiedlicher Quellen ist ziemlich komplex, aber gegenwärtig und in absehbarer Zukunft erscheinen diese relativen Kosten für Energie aus Solar, Wind und Biomasse insgesamt negativ. Dies bedeutet, dass wir mehr Energie verbrauchen, um diese Treibstoffe zu erzeugen und/oder die entsprechenden Kraftwerke zu betreiben als wir wieder herausbekommen. Details zu den involvierten Berechnungen finden sich hier und hier.

Die Berechnung von Arbeitsplatzverlusten hängt davon ab, wie teuer die Energie in den westlichen Ländern wird, wenn diese ihren Verbrauch fossiler Treibstoffe einschränken. Indien und China dürfen so viele fossile Treibstoffe verbrauchen, wie sie wollen, weshalb deren Energiekosten im Vergleich zu den Kosten in den westlichen Ländern sehr niedrig sein werden. Arbeitsplätze im produzierenden Gewerbe werden sich dorthin verlagern, wo die Energie billig ist. Beispielsweise ist es billiges Erdgas und billiger Strom, der die Firmen Voestalpine und Tanjin Pipe zur Verlagerung in die Stadt Corpus Christi in Texas veranlasst hat.

Wegen des Verlustes der Arbeitsplätze im produzierenden Gewerbe mit höheren Löhnen werden sich die Menschen mehr dem Dienstleistungs-Sektor zuwenden, wo die Löhne niedriger sind. Dies wird das Einkommen von Familien verringern.

Solange es keinen dramatischen Durchbruch gibt hinsichtlich der Kernfusion oder konventioneller Kernkraft werden Erneuerbare – außer Wasserkraft – unerschwinglich teuer bleiben, es sei denn, es fließen erhebliche Subventionen. Konventionelle Kernkraft ist ökonomisch, aber aufgrund einer Last von Vorschriften schwierig einzurichten. Fusion und Thorium-Reaktoren sind noch nicht kommerziell in Betrieb, aber wenn das [demnächst hoffentlich! Anm. d. Übers.] doch der Fall ist, dürften die Karten völlig neu gemischt werden.

Die Annahmen von NERA sind realistischer. Ich weiß von keinem glaubwürdigen Szenario, bei dem alternative Treibstoffe nicht teurer oder sogar noch billiger wären als fossile Treibstoffe, jedenfalls nicht ohne eine happige Kohlenstoffsteuer, welche unseren Lebensstandard drastisch erniedrigen würde. Und da es das Paris-Abkommen China, Indien und anderen Entwicklungsländern gestattet, so viele fossile Treibstoffe zu verbrennen wie sie wollen, wären die Auswirkung einer solchen Steuer die Verlagerung von Arbeitsplätzen und Wohlstand in die Entwicklungsländer. Diese Politik dürfte in der entwickelten Welt kaum Erfolg haben oder populär sein [nur dass die Menschen hierzulande absichtlich durch Medien und Politik dumm gehalten werden, weil über diese Inhalte nichts berichtet wird. Anm. d. Übers.], vor allem in den USA.

Die New York Times liebt es zu sagen, dass in der Erzeugung von Solarenergie mehr Menschen arbeiten als in der Kohleindustrie. Das klingt großartig – bis man erkennt, dass der EIA zufolge nur 0,9% unseres Stromes durch Solar erzeugt worden sind mit 373.807 Menschen, während Kohle 30% unseres Stromes erzeugte mit 160.119 Menschen. Zunahme von Produktivität ist dort, wo unser Lebensstandard herkommt, und die Hinwendung zu Solar geht in die falsche Richtung. Es wird offenbar, dass die NYT ignorant ist hinsichtlich grundlegender ökonomischer Prinzipien. Man betrachte die Graphik der NYT in Abbildung 3. Was dies bedeutet, ist: man braucht 83 Solar-Arbeitskräfte, um die gleiche Menge Strom zu erzeugen wie eine Arbeitskraft mit Kohlestrom. Das ist nur dann ökonomisch sinnvoll, falls die Solar-Arbeiter nur 1,2% des Lohnes eines Kohle-Arbeiters erhalten.

Abbildung 3, Quelle: New York Times.

Um der von den USA in Paris abgegebenen Versprechung nachzukommen fordert der RFF eine Steuer von 21,22 Dollar pro Tonne CO2-Emission. Das ist eine lähmende Steuer angesichts des Umstandes, dass die best estimate der Kosten in Verbindung mit CO2-Emissionen 2 Dollar beträgt und die Kosten der Erwärmung fast mit Sicherheit unter 14 Dollar liegen. Wir würden 7 bis fast 20 Dollar mehr bezahlen als die Kosten ausmachen, die wir vermeiden. Das wird unseren Lebensstandard garantiert erniedrigen. Aus Cool It:

In einem globalen makro-ökonomischen Modell werden die derzeitigen Gesamtkosten einer permanenten 1-Dollar-CO2-Steuer über 11 Milliarden Dollar betragen. Also sollten wir zweimal darüber nachdenken, den Regler aufzudrehen auf eine 30-Dollar-CO2-Steuer, welche fast 7 Billionen kosten wird. – Lomborg, Bjorn. Cool It (Kindle Locations 558-561).

Zweitens, Richard Tol kommt unter vernünftigen Annahmen zu dem Ergebnis, dass es sehr unwahrscheinlich ist, dass die Kosten höher als 14 Dollar pro Tonne CO2 liegen werden, und wahrscheinlich viel niedriger sind. Als ich ihn im Einzelnen nach seinem best guess fragte, war er nicht allzu begeistern davon, seine Vorsicht aufzugeben – wahre Forscher sind alle so – nannte dann aber als best guess 2 Dollar pro Tonne. – Lomborg, Bjorn. Cool It (Kindle Locations 574-578).

Das Paris-Abkommen hätte lediglich Arbeitsplätze in Zusammenhang mit Kohle in den USA und anderen westlichen Ländern eliminiert, wobei diese Arbeitsplätze im Wesentlichen nach China und Indien transferiert werden würden, wo der Kohleverbrauch weiterhin steigen wird. Dies gilt auch für die Stahlindustrie und einige Bereiche der Öl- und Gasindustrie. Im Grunde war es ein sehr schlechter Deal für die USA, und aus genau diesem Grund haben sich die USA aus dem Paris-Abkommen zurückgezogen (siehe auch hier).

Kosten vs. Nutzen

Der Weltenergieverbrauch steigt weiter. Sogar in den USA nimmt der Gesamt-Energieverbrauch zu, siehe Abbildung 4. Geräte, Häuser und Autos sind heute effizienter denn je, aber wir verbrauchen Energie auch zum Betrieb sehr viel anderer Dinge.

Abbildung 4 (Quelle EIA)

Dem BP-Energy Outlook für das Jahr 2017 zufolge hat sich die Gesamtmenge der verbrauchten Energie seit dem Jahr 1965 vervierfacht und wird als weiter zunehmend projiziert, siehe Abbildung 5:

Abbildung 5 Quelle: BP

Egal ob wir nun Kosten und Nutzen von Kyoto oder Paris vergleichen, das Problem ist das Gleiche. Es ist sehr schwierig, die Kosten der CO2-Reduktion auf ein Niveau zu drücken, welches ökonomisch sinnvoll ist. Lomborg erklärt:

Es kostet 15,8 Billionen Dollar, die Temperaturzunahme bei 2°C zu stabilisieren. Es ist aufschlussreich, dies zu vergleichen mit den Gesamtkosten der globalen Erwärmung. Modellen zufolge wäre die Welt um 14,5 Billionen Dollar reicher, falls es nicht zu der globalen Erwärmung gekommen wäre. Folglich können die Kosten der globalen Erwärmung mit 14,5 Billionen Dollar veranschlagt werden. Den Temperaturanstieg bei ~2°C zu stabilisieren bedeutet, dass wir mehr für eine Teillösung zahlen als die Kosten des gesamten Problems ausmachen. Das ist ein schlechter Deal. – Lomborg, Bjorn. Cool It (Kindle Locations 646-650).

Der Zeitwert des Geldes ist in dieser Analyse ebenfalls wichtig:

Einer akademischen Studie zufolge (Kavuncu & Knabb, 2005) „sind die Kosten im Zusammenhang mit einem Emissions-Stabilisierungs-Programm folglich relativ hoch für derzeitige Generationen, sie werden während der nächsten 100 Jahre weiter steigen. Die erste Generation, die einen Nutzen ziehen könnte aus dem Stabilisierungs-Programm wird diejenige sein, welche zu Beginn des 24. Jahrhunderts geboren wird“. Falls es unser Wille ist, den vielen Generationen zuvor zu helfen zusammen mit den Armen der Welt, ist die Beschneidung von Emissionen nicht der beste Weg. Vielleicht, was womöglich noch überraschender ist, ist die Beschneidung von Emissionen ist auch nicht der beste Weg, um den Menschen im 24. Jahrhundert zu helfen, könnten wir uns doch auf die Lösung vieler anderer, vordringlicherer Probleme konzentriert haben, was die Zukunft viel besser gemacht hätte. – Lomborg, Bjorn. Cool It (Kindle Locations 672-677).

Kyoto ist ein außerordentlich teurer Weg, so wenig für so weit voraus zu tun. – Lomborg, Bjorn. Cool It (Kindle Locations 637-638).

Diskussion und Schlussfolgerungen

Können Klimamodelle so frisiert werden, dass sie prophezeien, dass menschliche Emissionen große finanzielle Schäden verursachen? Ja, das geht, aber sind sie auch genau? Sind sie genau genug, um uns zu einer Reduktion des Verbrauchs fossiler Treibstoffe zu bewegen? Diese Reduktion lässt die Energiekosten steigen und macht uns ärmer, weniger anpassungsfähig und damit verwundbarer für Klima-Katastrophen.

Alarmismus hat in der Klimadebatte eine lange Historie. Was am gruseligsten ist: dies war auch schon offenkundig bei den Hexenprozessen im mittelalterlichen Europa. Nach dem Ausmerzen der augenblicklichen Häretiker seitens der Inquisition waren die meisten Hexen seit Anfang des 15. Jahrhunderts angeklagt, schlechtes Wetter erzeugt zu haben. Die Menschen im Jahre 1484 erkannten, dass „Hexen die Produkte der Erde, die Trauben für den Wein, die Früchte der Bäume und viele andere Nahrungsmittel verdarben“. Mit dem Abgleiten Europas in die Kleine Eiszeit kam es in immer mehr Gebieten zu Missernten, hohen Preisen für Nahrungsmittel und Hunger. Hexen wurden da zu offensichtlichen Sündenböcken in Regionen mit einer schwachen Regierung. Bis zu einer halbem Million Menschen wurden zwischen 1500 und 1700 exekutiert, und es gab eine starke Korrelation zwischen niedrigen Temperaturen und einer hohen Anzahl von Hexenprozessen in ganz Europa. – Lomborg, Bjorn. Cool It (Kindle Locations 1825-1833).

Selbst wenn die Ursache ganz offensichtlich natürlichen Ursprungs ist, wird eine Gesellschaft immer jemanden finden, dem man die Verantwortung in die Schuhe schieben kann (mehr dazu hier). Der Sprung unseren Daten so weit voraus, selbst wenn mit Computermodellen erzeugt und verbunden mit der Behauptung, dass der Klimawandel vom Menschen verursacht und gefährlich ist, bevor wir irgendeinen direkten Beweis dafür sehen, ist ebenfalls gefährlich. Dies wird unseren Lebensstandard beeinträchtigen, die Rate der aus der Armut Herausfindenden reduzieren, zu Mangelernährung und zunehmender Ungleichheit bei den Einkommen führen, woran wir uns seit Jahrzehnten erfreut haben. Aber – und das ist am wichtigsten – es wird unsere Fähigkeit beeinträchtigen, uns an Klimawandel anzupassen.

Weiter. Das Klima als gefährlich einzustufen mittels fragwürdiger Klimamodelle, welche das Klima weit in die Zukunft hinein projizieren, deren Ergebnisse dann in fragwürdige ökonomische Modelle eingehen, um Kosten zu berechnen, ist eine befremdliche und gefährliche Fiktion. Meine Hoffnung ist, dass die geneigte Leserschaft diesem Beitrag entnimmt, dass wir das Klima der Zukunft nicht kennen und wir mit Sicherheit nicht die Kosten berechnen können. Außerdem prophezeit kein einziger glaubwürdiger Mensch ernsthaft irgendwelche Kosten der globalen Erwärmung, sei diese nun natürlichen oder anthropogenen Ursprungs. Wir haben Zeit abzuwarten und zu sehen, was passiert, bevor wir uns selbst verarmen lassen.

Das IPCC scheint sich ausschließlich auf die negativen Aspekte des Klimawandels zu konzentrieren unter völliger Ignoranz der positiven Aspekte. Die positiven Aspekte sind heute höchst offensichtlich: steigende Ernteerträge, zunehmendes urbares Land und weniger Kältetote. Die Vorteile der globalen Erwärmung überwiegen die Nachteile bei Weitem, und das wird auch in absehbarer Zukunft so bleiben.

Link: https://andymaypetrophysicist.com/2017/12/14/calculating-the-cost-of-global-warming/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Dem gesamten Beitrag liegt ja globale Erwärmung zugrunde, von der der Autor annimmt, dass sie viel mehr Vorteile als Nachteile bringt.

Das bedeutet natürlich um Umkehrschluss: Sollte diese vermeintliche Erwärmung ausbleiben und stattdessen global eine Abkühlung einsetzen, wird es teuer. Und leider sieht es ja der immer schwächer werdenden Sonnenaktivität zufolge genau danach aus.




EIKE wünscht allen Lesern und Unterstützern ein frohes Weihnachtsfest und ein glückliches und erfolgreiches Neues Jahr..

Das Geld reicht zwar immer gerade so, aber dank unsere schlanken Struktur, sowie dem hohen Grad an gern erbrachter Selbstausbeutung, kommen wir unter allen Sparanstrengungen mit den geringen Mitteln zurecht, die uns unsere Spender – häufig unter persönlichem Verzicht – erübrigen konnten. Manchmal gab es zum Glück auch größere Spenden.

Damit konnten wir z.B. unsere Konferenz (11. IKEK) im November in Düsseldorf finanzieren, sie war ein voller Erfolg. Die Teilnehmerzahl war mit ca. 160 so hoch wie nie zuvor. Organisationen aus den USA, der Schweiz, den Niederlanden und Frankreich waren beteiligt. Auch war die Teilnehmerstruktur noch nie so international wie dieses Mal. 

Für das nächste Jahr hoffen wir auf eine möglichst drastische Ausweitung unserer Aktivitäten, da die Klima-Propaganda ständig schriller wird, und die „grün“ getarnten Interventionen in unseren Alltag immer unerträglicher werden, leider aber die Angst-Kampagnen bei Vielen immer noch auf fruchtbaren Boden fallen.

Dazu kommt, dass wir auch von der nächsten Regierung kein Umsteuern erwarten. Im Gegenteil. Wie ein Krebsgeschwür, das sich metastasierend – zunächst fast immer unbemerkt- durch den ganzen Körper frisst, schaffen die Regierung und die ihr ebenso zugetanen wie abhängigen Institutionen fast täglich neue Fakten. Wie zuletzt das soeben unter Führung von Staatssekretär Baake in Brüssel verabschiedete „Legislativpaket „Saubere Energie für alle Europäer“. Wir werden in Kürze darüber berichten. Dabei geht sie nach dem alten Junkers Spruch vor

„Wir beschließen etwas, stellen das dann in den Raum und warten einige Zeit ab, was passiert. Wenn es dann kein großes Geschrei gibt und keine Aufstände, weil die meisten gar nicht begreifen, was da beschlossen wurde, dann machen wir weiter – Schritt für Schritt, bis es kein Zurück mehr gibt.“ – 

in Die Brüsseler Republik, Der Spiegel, 27. Dezember 1999.

Und das funktioniert besonders gut, wenn es um das langsame Abkochen der Bürger mittels Klimaangst und Energiewende geht. Diese Themen sind leider ziemlich kompliziert und selbst für erfahrene Experten nicht so leicht in wenigen Worten erklärbar. Und wer will sich schon gerne mit als „Wissenschaftlern“ verkleideten Propagandisten anlegen? Etwa Journalisten oder Politiker?

Hinzu kommt die erfolgreiche Kampagne der Klimagewinnler und aller ihrer Hilfstruppen, die gekonnt alle Abweichler für mindestens blöde erklären, noch schlimmer, als böse Häretiker darzustellen, die dem hehren Ziel der unbedingt erforderlichen Klimarettung nicht folgen wollen. Und deswegen am Besten ausgesondert gehören. Man will sich noch nicht einmal mit ihnen und ihren Argumenten auseinandersetzen, um sie nicht auch noch „zu adeln“.

Hier muss daher dringend weiterhin viel getan werden.

Ermutigend finden wir dabei, daß das TV-Interview mit unserem Vize Michael Limburg bisher fast 135.000 Zuschauer auf Youtube gesehen haben. Ein anderes hat inzwischen die 90.000 Marke überschritten. Und die Zahl der Anfragen an uns nimmt täglich zu.

Vieles, was an guten Ideen und Projekten an uns herangetragen wird, können wir jedoch wegen fehlender Mittel und Personal gar nicht bearbeiten. Zur Zeit arbeiten wir daran, die Referate unserer letzten Konferenz als Filme so vorzubereiten, dass wir sie ins Internet stellen können. Dafür müssen Vortragsfolien und Filmsequenzen hinter einander geschnitten werden, was mit einigem Aufwand verbunden ist.

Da das für uns der einzige Weg ist, die Öffentlichkeit zu erreichen, bitten wir Sie herzlich, darüber nachzudenken, ob es Ihnen möglich ist, diese und unsere für 2018 außerdem geplanten Aktivitäten mit einer Spende zu unterstützen. Wir sind noch immer gemeinnützig und dürfen nach dem Bescheid des Finanzamtes Jena vom 25. 1. 2016 abzugsfähige Spendenquittungen ausstellen.

 

Nochmals Dank

Der Vorstand für alle EIKE Mitglieder

 

Unsere Spendenkonto bzw. die komfortable Eingabe finden Sie hier




Folge 3 der ersten kompletten Fach­information über Klimawandel in Youtube

Die nun vorliegende Folge 3 hinkte im Zeitplan – im Gegensatz zu allen anderen Folgen – leider erheblich hinterher. Grund waren ungewöhnlich viele Verzögerungen, wie sie immer wieder auftreten können (die deutsche Bahn lässt grüßen). Hier die Quellen aller bisherigen Videos:

Klima-Video Teil I, Teil II, Teil III

Energiewende-Video Teil I, Teil II

Eine zweite Quelle nur für die Klima-Videos bietet der Video-Kanal des technischen Erstellers Klaus Maier

1. Video: https://youtu.be/aYtpOtM1UGM
2. Video: https://youtu.be/iqoGlewQBzQ
3. Video: https://youtu.be/d9d2iQTLf4I

Natürlich können alle Videos auch direkt auf der EIKE-Webseite erreicht werden. Dazu auf „Videos“ (ganz oben) gehen und nochmals „Videos“ klicken. Die Folge 3 der Klima-Videos beschäftigt sich nunmehr mit

  • Meeresversauerung und Koallensterben?
  • Der CO2 – Gehalt der Luft und die Erdtemperaturen über 0,5 Millarden Jahre bis heute.
  • Steuert der CO2 – Gehalt der Luft die Erdtemperatur oder ist es umgekehrt?
  • Das Rasiermesser von Ockham.
  • Ist der jüngste Anstieg des CO2 menschgemacht?
  • Näheres zum globalen CO2 Zyklus.
  • CO2 zweitstärkstes Treibhausgas nach dem Wasserdampf und dennoch kein maßgebender Verursacher der jüngsten globalen Erwärmung – wie erklärt sich das?.
  • Die Schlüssel-Rolle der Wolken beim Treibhauseffekt.
  • Unzuverlässige Klimamodelle als Rettungsanker der Alarmisten.
  • Klimaschutz gehört in den Müll der Geschichte!

Verbreiten Sie auch die dritte Folge wieder – falls sie Ihnen zusagt – so weit wie möglich unter Ihren Freunden und Bekannten!

Anmerkungen zu den fachlichen Grundlagen der Klima-Videos

Bereits Teil 2, aber insbesondere jetzt Teil 3, nehmen sich der mehr komplexen Zusammenhänge an, indem sie diese veranschaulichen und auch dem Laien näherbringen. Diese Themen sind für den Klima-Disput absolut maßgebend.

Ein Disput wird zwar in der wissenschaftlichen Fachliteratur geführt, von Medien und Politik wird er aber salopp als „überflüssig“ weggewischt. Gültig sind dort nur die alarmistischen Aussagen von wenigen ausgesuchten „Fachexperten“ (argument from authority), die ihre wissenschaftliche Neutralität politischen Zielen unterordnet haben. Unsere Bemühungen in EIKE bestehen darin, die dringend erforderliche öffentliche Klimadiskussion endlich in Gang zu setzen.

Um in den Klima-Videos korrekt berichten zu können, ist Kenntnis der Fachliteratur unabdingbar. Wer hat die aber schon, die Sache ist mühsam und zeitraubend. Ziel unseres Videoprojekts bestand infolgedessen darin, diesen Schritt dem Zuschauer zu ersparen. Korrekte, von ihm nachprüfbare, auf Basis der Fachliteratur gemachte Aussagen der Videos sollen es ihm dennoch ermöglichen, sich eine eigene unabhängige Meinung zu bilden.

Die Tendenz von Fachpublikationen kann man in „klima-alarmistisch“, „klima-skeptisch“ oder „anderes“ einteilen. Die weit überwiegende Anzahl aller referierten Klimapublikationen beschäftigt sich überhaupt nicht mit dem vermuteten Klima-Einfluss des Menschen. Sie gehört zu „anderes“. Sogar derjenige Teil des IPCC-Sachstandsberichts AR5, der das Thema „Extremwetterentwicklung“ behandelt, gehört zu „anderes“. Es geht hier nämlich nicht um einen anthropogenen Einfluss, sondern nur um Extremwetter-Messungen. Von vielen Teilen der IPCC-Berichte kann man das leider nicht behaupten. Sie sind klima-alarmistisch, insbesondere die indiskutablen IPCC-Berichte für Politiker.

Was die Berücksichtigung klima-alarmistischer und klima-skeptischer Fachstudien für die Videos angeht, bemühten wir uns besten Wissens und Gewissens um Objektivität. Es erstaunt daher vielleicht, dass kein Argument für einen anthropogenen Klimaeinfluss in den Videos vorkommt. Dies liegt schlicht daran, dass bis heute keine klima-alarmistische Studie aufzufinden ist, die fachlich ausreichende Substanz besitzt, um in ihrer Aussage ernst genommen zu werden. Insbesondere Klimamodelle sind als Zeugen ungeeignet.

Die klimaskeptischen Argumente in den Videos stützen sich auf Fachstudien von weltweit renommierten Klimawissenschaftlern, die als Skeptiker einer maßgebenden anthropogenen Klimaerwärmung bekannt sind. Zu diesen zählen neben vielen weiteren Fred Singer, Richard Lindzen, Jong-Sang Choi, Nir Shaviv, Hendrik Svensmark, Jan Veizer, Garth Paltridge,  Francois Gervais, Vincent Courtillot, Willie Soon, Roy Spencer, John Christy, Ross McKittrick, R.A. Pielke, Christopher Essex, Nicola Scafetta …. mehrere mit dem Autor persönlich bekannt und einer ein Freund des Autors. Es sind die fachlichen Zeugen unserer Klima-Videos.

Die Fach-Zuständigkeit des Drehbuchautors der Videos kann (hier) eingesehen werden. Da er bereits rund 10 begutachtete (peer reviewed) Klima-Fachpublikationen vorgelegt hat, darf er als Klimaforscher gelten. „Von der Pike auf“ war er es nicht. Sein Berufsweg als Physiker hat ihn aber in Spezialgebiete verschlagen, die in (einem Zweig) der Klimaforschung von Nutzen sind und ohne die seine peer reviewed Klima-Fachveröffentlichungen nicht möglich gewesen wären.

Erstellung und Verfügbarkeit der Videos

Die Klimavideos sind von allen Beteiligten in freiwilliger Arbeit ohne finanzielle Zuwendungen von irgend einer Seite erstellt worden. Sie sind frei verfügbar und können auf jeder Webseite verlinkt werden. Lediglich Kürzungen, Veränderungen oder eigene Hinzufügungen der Inhalte sind ausgeschlossen.

So wurden die drei Klima-Videos beispielsweise von der AfD der Öffentlichkeit  in AfD Kompakt vom 28.Nov.2017 zur Kenntnis gebracht (s. den dort angegebenen Link am Ende des zweiten Absatzes). Grund dafür war die Übereinstimmung der in den Klimavideos gemachten Sachaussagen mit denen des AfD-Parteiprogramms zum Thema „Klimawandel“.

Es sei an dieser Stelle betont, dass die Erstellung der 3 Klimavideos nicht auf Veranlassung irgend einer Institution erfolgte. Sie sind auch keine EIKE-Produkte. Veranlassung waren Diskussionen mit Zuhörern in zahlreichen Fachvorträgen des Verfassers und die Bekanntschaft des Verfassers mit seinem kongenialen Kollegen Klaus Maier. Schlussendlich dürfen nicht die unzähligen Freunde und Bekannten der beiden Video-Ersteller vergessen werden, deren Kritik an Form und Inhalten des Projekts zu vielen Verbesserungen führte. All ihnen sei an dieser Stelle herzlich gedankt.

Es soll nicht verschwiegen werden, dass die gewählte Dialogform der Videos – je nach Alter des Kritikers – zu oft sehr gegensätzlichen Beurteilungen führte. Ausschlag für uns gab dagegen letztendlich das Nutzen/Aufwand – Verhältnis, welches hier am höchsten war. Nur so konnten wir die Videos ohne nennenswerten finanziellen Aufwand erstellen. Es kam uns auf den Inhalt an. Falls unser „Opus“ daher vielleicht nicht immer den heutigen Zeitgeschmack für „fetzige“ Videos trifft, möge man es uns nachsehen.

Die beiden Energiewende-Videos sind dagegen reine EIKE-Produkte, technisch erstellt von einem Profi und dem zugehörigen Drehbuch des Autors folgend.

Wie geht es weiter?

Geplant ist ein Video über die Kernenergie – ebenfalls in Dialogform. Eigentlich hätte man dieses Video zuerst erstellen müssen, denn es gibt kaum ein Thema, über welches hierzulande so viel Desinformationen verbreitet werden, wie über die friedliche Nutzung der Kernkraft.




Neue Studie stellt die Temperatur­grenzen von 1,5°C bzw. 2°C des Paris-Abkommens in einen histori­schen Klima-Zusammen­hang

Presseerklärung vom 13. Dezember 2017
Bei dem Pariser Klima-Abkommen vom Dezember 2015 wurde vereinbart, dass die Zunahme der globalen mittleren Temperatur auf deutlich unter 2°C verglichen mit dem „vorindustriellen Niveau“ begrenzt werden muss und dass man sich bemühen sollte, den Anstieg auf 1,5°C zu begrenzen. Eine genauere Betrachtung des Vertrags-Wortlautes enthüllt jedoch, dass der Terminus „vorindustrielles Niveau“ nirgendwo in diesem epochalen UN-Dokument definiert ist, welches mittlerweile von 170 teilnehmenden Parteien ratifiziert worden ist. Dies ist besonders komisch, weil die „vorindustriellen“ Temperaturen der letzten 10.000 Jahren signifikante Variationen durchlaufen haben, wie akribisch dokumentiert in hunderten paläoklimatischer Studien.

Verwirrt durch diese klaffende Lücke im Abkommen machte sich Fritz Vahrenholt daran, die Historie der Definition zum Temperaturlimit zu ergründen. Der ehemalige Manager erneuerbarer Energie und derzeit Leiter der German Wildlife Foundation fand zu seiner Überraschung heraus, dass die ursprüngliche Beschreibung dieses bedeutenden Klimaziels von Mitte der siebziger Jahre stammt und von einem Ökonom namens William Nordhaus ins Spiel gebracht worden ist. Nordhaus‘ Gedanke war ebenso einfach wie effektiv: Er betrachtete die Höchstwerte der Temperatur der letzten paar hunderttausend Jahre und warnte, dass die dabei zutage getretene natürliche Bandbreite in Zukunft nicht überschritten werden darf. Zwei Jahrzehnte danach, nämlich im Jahre 1995 überarbeitete der Wissenschaftliche Beirat Globale Umweltveränderungen WBGU dieses Konzept, behielt aber den ursprünglichen Gedanken eines tolerierbaren „Temperatur-Fensters“ von Nordhaus bei.

Vahrenholt: „Unglücklicherweise ist diese wichtige paläoklimatische Perspektive in nachfolgenden grundlegenden Studien, welche den Weg nach Paris bereitet hatten, verloren gegangen. In Berichten der Weltbank und des United Nations Framework Convention on Climate Change (UNFCCC) aus den Jahren 2014 und 2015 wurde der historische Zeitraum auf die letzten 200 Jahre eingeengt, welche den enormen natürlichen Temperatur-Fluktuationen im Zeitmaßstab von Jahrtausenden nicht gerecht wird“.

Um die komplexe präindustrielle Temperatur-Historie besser zu verstehen tat er sich mit Sebastian Lüning zusammen, einem professionellen Ressourcen-Geologen, der in seiner Freizeit an paläoklimatischen Studien arbeitet am in der Schweiz ansässigen Institute for Hydrography, Geoecology and Climate Sciences. Lüning durchforstete die Literatur und integrierte die Temperaturgrenzen von 2,0°C bzw. 1,5°C in die Klimaentwicklung der letzten 2000, 10.000 und 200.000 Jahre.

Lüning: „Der Vergleich der derzeitigen Erwärmung mit dem Referenz-Niveau am Ende der Kleinen Eiszeit vor etwa 150 Jahren ist wenig sinnvoll, weil diese Zeit eine der kältesten Epochen der letzten 10.000 Jahre repräsentiert. Die Auswahl eines Parameters als Grundlinie nahe dem untersten Extrem eines variablen Parameters ist in der Wissenschaft unüblich. Das Temperaturniveau des Zeitraumes von 1940 bis 1970 wäre ein viel besser geeignetes Referenz-Niveau, weil es in etwa mit dem mittleren vorindustriellen Temperaturniveau der letzten beiden Jahrtausende korrespondiert“.

In einem sogar noch längeren Zeitmaßstab stellte sich heraus, dass die Temperatur gegenwärtig noch nicht einmal über die höchsten Temperaturen einer natürlichen Warmphase hinausgegangen sind, dem „Thermalen Maximum des Holozäns“ vor etwa 7000 Jahren. Die globalen Temperaturen können während jener Warmphase gut über das Limit von 1,5°C hinaus gegangen sein, wenn man Land- und Wassertemperatur zusammen in Betracht zieht. Die Zunahme dieses natürlichen Temperatur-Fensters und die Verschiebung der Grundlinie vergrößert die Obergrenze des 1,5°C-Limits und muss weiter untersucht werden.

Nichtsdestotrotz geben die beiden Forscher zu bedenken, dass die obere Grenze von 2°C davon nicht betroffen ist, weil dieses durch das sogar noch wärmere Klima des letzten Interglazials repräsentiert wird, also vor etwa 120.000 Jahren. Das 2°C-Limit bleibt also gültig, vor allem, weil der Meeresspiegel während jener Zeit 5 bis 7 Meter höher lag als heute. Falls es dazu heutzutage kommen würde, hätte dies ernste Konsequenzen.

Die am 12. Dezember 2017 in dem Journal Frontiers in Earth Science veröffentlichte Studie erinnert Politiker, Wissenschaftler und die Öffentlichkeit daran, dass die im Paris-Abkommen genannte „vorindustrielle“ Zeit einen dynamischen Wechsel zwischen Warm- und Kaltphasen involviert, der im Zusammenhang betrachtet werden muss. Die Kleine Eiszeit, um das Jahr 1850 zu Ende gegangen, repräsentiert kein geeignetes Referenz-Niveau für die Erwärmung im 20. und 21. Jahrhundert, weil sie grundlegende wissenschaftliche Kriterien vermissen lässt.

Studie:

Lüning, S., F. Vahrenholt (2017): Paleoclimatological context and reference level of the 2°C and 1.5°C Paris Agreement long-term temperature limits. Frontiers in Earth Science, 12 December 2017, doi: 10.3389/feart.2017.00104

Media contact:

Dr. habil. Sebastian Lüning
Institute for Hydrography, Geoecology and Climate Sciences, Ägeri, Switzerland
luening@ifhgk.org
Tel.: 00351-961 470 494

Übersetzt von Chris Frey EIKE