Die Gesetze der Mittelwerte: Teil 3, Der durchschnittliche Durchschnitt

Durchschnittliches

Sowohl das Wort als auch das Konzept „Durchschnitt“  sind in der breiten Öffentlichkeit sehr viel Verwirrung und Missverständnis unterworfen und sowohl als Wort als auch im Kontext ist eine überwältigende Menge an „lockerem Gebrauch“ auch in wissenschaftlichen Kreisen zu finden, ohne die Peer-Reviewed-Artikel in Zeitschriften und wissenschaftlichen Pressemitteilungen auszuschließen.

In Teil 1 dieser Serie lasen Sie meine Auffrischung über die Begriffsinhalte von Durchschnitten, Mittelwerten und Beispiele dazu. Entspricht Ihr Hintergrundwissen bezüglich Mathematik oder Wissenschaft dem großen Durchschnitt der Normalbürger, schlage ich vor, dass Sie einen schnellen Blick auf die Grundlagen in Teil 1 [Teil 1 hier übersetzt] und dann Teil 2 [Teil 2 hier übersetzt] werfen, bevor Sie fortfahren.

 

Warum ist es eine mathematische Sünde, eine Reihe von Durchschnittswerten zu mitteln?

„Der Umgang mit Daten kann manchmal Verwirrung verursachen. Ein oft gemachter Fehler ist es, Durchschnittswerte zu mitteln. Dies ist oft zu sehen, wenn versucht wird, regionale Werte aus Landes- oder Kreisdaten abzuleiten“. – Was man mit Daten nicht machen darf: Durchschnittswerte zu mitteln.

„Ein Kunde hat mich heute gebeten, einen“ Durchschnitt der Durchschnittswerte „zu einigen seiner Leistungsberichten hinzuzufügen. Ich gebe offen zu, dass ein nervöses und hörbares Stöhnen meinen Lippen entrang, als ich mich in Gefahr fühlte, hilflos in die fünfte Dimension von „Simpsons Paradox“ zu stürzen – Anders ausgedrückt: Kann die Mittelung der Mittelwerte der verschiedenen Populationen den Durchschnitt der zusammengefassten Bevölkerung darstellen?“- Ist der Durchschnitt der Durchschnittswerte korrekt? (Hinweis: NEIN!)

Simpsons Paradoxon … ist ein Phänomen der Wahrscheinlichkeiten und Statistik, in dem ein Trend in verschiedenen Datengruppen zu erkennen ist, aber verschwindet oder sich umkehrt, wenn diese Gruppen kombiniert werden. Es wird manchmal auch als Umkehrparadox oder Verschmelzungsparadox angegeben. „- siehe Wiki.de “Simpsons Paradox

Durchschnittliche Mittelwerte sind nur gültig, wenn die Sätze von Datengruppen, Kohorten, Anzahl der Messungen – alle gleich groß sind (oder fast gleich groß) und die gleiche Anzahl von Elementen enthalten, denselben Bereich repräsentieren, die gleiche Lautstärke, die gleiche Anzahl von Patienten, die gleiche Anzahl von Meinungen und, wie bei allen Durchschnittswerten, sind die Daten selbst physisch und logisch homogen (nicht heterogen) und physisch und logisch kommensurabel (nicht inkommensurabel). [wem dies unklar ist, bitte schauen Sie noch mal Teil 1]

Zum Beispiel, hat man vier Klassen der 6. Klasse, zu denen jeweils genau 30 Schüler gehören und wollte nun die durchschnittliche Größe der Schüler finden, könnte man über es zwei Wege berechnen: 1) Durchschnitt jeder Klasse durch die Summierung der Größen der Schüler Dann finden Sie den Durchschnitt durch Division mit 30, dann summieren Sie die Mittelwerte und teilen sie durch vier, um den Gesamtdurchschnitt zu bekommen – ein Durchschnitt der Mittelwerte oder 2), Sie kombinieren alle vier Klassen zusammen für einem Satz von 120 Studenten, Summieren die Größen und teilen durch 120. Die Ergebnisse sind gleich.

Das gegenteilige Beispiel sind vier Klassen von 6. Klasse Schülern, die alle unterschiedlich groß sind und jeweils unterschiedliche Klassenstärken haben: 30, 40, 20, 60 Schüler. Die Suche nach den Mittelwerten der vier Klassen- und dann Mittelung der Mittelwerte ergibt eine Antwort – ganz anders als die Antwort, als wenn man die Größe von allen 150 Schülern summiert und dann durch 150 teilt.

Warum? Das liegt daran, dass die einzelnen Schüler der Klasse mit nur 20 Schülern und die einzelnen Schüler der Klasse von 60 Schülern unterschiedliche, ungleiche Auswirkungen auf den Gesamtdurchschnitt haben. Um für den Durchschnitt gültig zu sein, sollte jeder Schüler den 0,66ten Anteil des Gesamtdurchschnitts repräsentieren [0,66 = 1/150].

Wenn nach Klasse gemittelt wird, steht jede Klasse für 25% des Gesamtdurchschnitts. So würde jeder Schüler in der Klasse von 20 Schülern für 25% / 20 = 1,25% des Gesamtdurchschnitts zählen, während jeder Schüler in der Klasse von 60 jeweils nur für 25% / 60 = 0,416% des Gesamtdurchschnitts steht. Ebenso zählen die Schüler in den Klassen von 30 und 40 jeweils für 0,83% und 0,625%. Jeder Schüler in der kleinsten Klasse würde den Gesamtdurchschnitt doppelt so stark beeinflussen wie jeder Schüler in der größten Klasse – im Gegensatz zu dem Ideal eines jeden Schülers, der im Durchschnitt gleichberechtigt ist.

Es gibt Beispiele dafür in den ersten beiden Links für die Quoten, die in diesen Abschnitt vorgestellt wurden. (Hier und hier)

Für unsere Leser in Indiana (das ist einer der Staaten in den USA), konnten wir das beim Pro-Kopf Einkommen im Indianapolis Metropol Bereich erkennen:

Informationen zum Pro-Kopf-Einkommen vom Indiana Business Research Center und hier deren Artikel mit dem Titel: „Was man mit Daten nicht machen darf: Durchschnittswerte zu mitteln.

Wie Sie sehen können, mittelt man die Durchschnittswerte der Landkreise, bekommt man ein Pro-Kopf Einkommen von $ 40,027, aber zuerst kumulieren und dann mitteln gibt die wahre (wahrere) Zahl von $ 40.527. Dieses Ergebnis hat einen Unterschied – einen Fehler – von 1,36%. Von Interesse für diejenigen in Indiana, nur die Top drei der Verdiener in den Landkreisen haben ein Pro-Kopf-Einkommen, dass höher ist als der Landesdurchschnitt nach jedem Rechenweg und acht Landkreise liegen unter dem Durchschnitt.

Das mag trivial für Sie sein, aber bedenken Sie, dass verschiedene Behauptungen von „auffallenden neuen medizinischen Entdeckungen“ und „dem heißesten Jahr überhaupt“ nur diese Art von Unterschieden in den Rechenwegen basieren, die im Bereich der einstelligen oder sogar Bruchteilen von Prozentpunkten liegen, oder ein Zehntel oder ein Hundertstel Grad.

Um das der Klimatologie zu vergleichen, so reichen die veröffentlichten Anomalien aus dem 30-jährigen Klima- Referenzzeitraum (1981-2011) für den Monat Juni 2017 von 0,38 ° C (ECMWF) bis 0,21 ° C (UAH), mit dem Tokyo Climate Center mit einem mittlerem Wert von 0,36 ° C. Der Bereich (0,17 ° C) beträgt fast 25% des gesamten Temperaturanstiegs für das letzte Jahrhundert. (0,71ºC). Selbst bei Betrachtung nur den beiden höchsten Werten: 0,38 ° C und 0,36 ° C, ergibt die Differenz von 0,02 ° C bereits 5% der Gesamtanomalie. [Kann man diesen Unterschied merken? – der Übersetzer]

Wie genau diese Mittelwerte im Ergebnis dargestellt werden, ist völlig unerheblich. Es kommt überhaupt nicht darauf an, ob man absolut Werte oder Anomalien schätzt – die Größe des induzierten Fehlers kann riesig sein

 

Ähnlich, aber nicht identisch, das ist Simpsons Paradox.

Simpsons Paradox

Simpsons Paradox, oder korrekter der Simpson-Yule-Effekt, ist ein Phänomen, das in Statistiken und Wahrscheinlichkeiten (und damit mit Mittelwerten) auftritt, oft in medizinischen Studien und verschiedenen Zweigen der Sozialwissenschaften zu sehen, in denen ein Ergebnis (z. Bsp. ein Trend- oder Auswirkungs-Unterschied) dargestellt wird, der beim Vergleich von Datengruppen verschwindet oder sich umkehrt, wenn die Gruppen (von Daten) kombiniert werden.

Einige Beispiele mit Simpsons Paradox sind berühmt. Eine mit Auswirkungen auf die heutigen heißen Themen behauptete Grundlage über die Anteile von Männer und Frauen bei den zum Studium an der UC Berkeley zugelassenen Bewerbern.

[Die 1868 gegründete University of California, Berkeley, gehört zu den renommiertesten Universitäten der Welt.]

Hier erklärt es einer der Autoren:

„Im Jahr 1973 wurde UC Berkeley für geschlechtsspezifische Regeln verklagt, weil ihre Zulassungszahlen zum Studium offensichtliche Nachteile gegen Frauen zeigen.

UCB Bewerber
Applicants
Zugelassen
Admitted
Männer 8442 44%
Frauen 4321 35%

Statistischer Beweis für die Anklage (Tabelle abgetippt)

Männer waren viel erfolgreicher bei der Zulassung zum Studium als Frauen und damit führte es Berkeley zu einer der ersten Universitäten, die für sexuelle Diskriminierung verklagt werden sollten. Die Klage scheiterte jedoch, als Statistiker jede Abteilung getrennt untersuchten. Die Fachbereiche haben voneinander unabhängige Zulassungssysteme, daher macht es Sinn, sie separat zu überprüfen – und wenn Sie das tun, dann sie scheinen eine Vorliebe für Frauen zu haben.“

In diesem Fall gaben die kombinierten (amalgamierten) Daten über alle Fachbereiche hinweg keine informative Sicht auf die Situation.

Natürlich, wie viele berühmte Beispiele, ist die UC Berkeley Geschichte eine wissenschaftliche Legende – die Zahlen und die mathematischen Phänomen sind wahr, aber es gab nie eine Klage wegen Benachteiligung von Geschlechtern. Die wahre Geschichte finden sie hier.

Ein weiteres berühmtes Beispiel für Simpsons Paradox wurde (mehr oder weniger korrekt) auf der langlaufenden TV-Serie Numb3rs vorgestellt. (Ich habe alle Episoden dieser Serie über die Jahre hinweg gesehen, einige öfter). Ich habe gehört, dass einige Leute Sportstatistiken mögen, also ist dieses etwas für Sie. Es „beinhaltet die durchschnittlichen Leistungswerte des Schlägers von Spielern im Profi-Baseball. Es ist möglich, dass ein Spieler in einer Reihe von Jahren einen höheren Durchschnitt der Abschlagwerte hat als ein anderer Spieler, obwohl er in all diesen Jahren nur einen niedrigeren Durchschnitt erreichte.“

Diese Tabelle zeigt das Paradox:

In jedem einzelnem Jahr erreichte David Justice einen etwas besseren Abschlag – Durchschnitt, aber wenn die drei Jahre kombiniert werden, hat Derek Jeter [auch tatsächlich ein Baseballspieler, Jg. 1974] die etwas bessere Statistik. Dies ist das Paradox von Simpson, die Ergebnisse werden umgekehrt, je nachdem ob mehrere Gruppen von Daten separat oder kumuliert betrachtet werden.

 

Klimatologie

In der Klimatologie tendieren die verschiedenen Gruppen die Daten über längere Zeiträume zu betrachten, um die Nachteile der Mittelungsdurchschnitte zu vermeiden. Wie wir in den Kommentaren sehen, werden verschiedene Vertreter die verschiedenen Methoden gewichten und ihre Methoden verteidigen.

Eine Gruppe behauptet, dass sie überhaupt nicht mitteln – sie engagieren sich in „räumlicher Vorhersage“, die irgendwie magisch eine Vorhersage hervorbringt, die sie dann einfach als die globale durchschnittliche Oberflächentemperatur markieren (während sie gleichzeitig bestreiten, eine Mittelung durchgeführt zu haben). Sie fangen natürlich mit täglichen, monatlichen und jährlichen Durchschnitten an – aber das sind keine echten Mittelwerte…. mehr dazu später.

Ein anderer Experte mag behaupten, dass sie definitiv keine Durchschnittswerte der Temperaturen bilden – nur den Durchschnitt von Anomalien. Das heißt, sie berechnen erst die Anomalien und dann mitteln sie diese. Wenn sie energisch genug befragt werden, dann wird diese Fraktion zugeben, dass die Mittelung längst durchgeführt wurde, die lokalen Stationsdaten – die tägliche durchschnittliche „trockene“ [dry-bulb] -Temperatur – wird wiederholt gemittelt, um monatliche Mittelwerte zu erreichen, dann Jahresdurchschnitte. Manchmal werden mehrere Stationen gemittelt, um einen „Messzellen-Durchschnitt“ zu erreichen und dann werden diese jährlichen oder klimatischen Mittel von dem gegenwärtigen absoluten Temperaturdurchschnitt subtrahiert (monatlich oder jährlich, je nach Prozess), um einen Rest zu erhalten, der dann als sogenannte „Anomalie“ bezeichnet wird – oh, dann sind die Durchschnittswerte der Anomalien „gedurchschnittet“ (gemittelt).

Die Anomalien können oder können nicht, je nach Berechnungssystem, tatsächlich gleiche Flächen der Erdoberfläche darstellen. [Siehe den ersten Abschnitt für den Fehler bei der Mittelung von Durchschnittswerten, die nicht den gleichen Bruchteil des kumulierten Ganzen darstellen (~präsentieren)]. Diese Gruppe von Experten und fast alle anderen, verlassen sich auf „nicht echte Durchschnittswerte“ an der Wurzel ihrer Berechnungen.

Die Klimatologie hat ein Mittelungsproblem, aber das echte Problem ist nicht so sehr das, was oben diskutiert wurde. In der Klimatologie ist die tägliche Durchschnittstemperatur, die bei Berechnungen verwendet wird, kein Durchschnitt der Lufttemperaturen, die während der letzten 24-Stunden-Periode bei der Wetterstation erlebt oder aufgezeichnet wurden. Es ist das arithmetische Mittel der niedrigsten und höchsten aufgezeichneten Temperaturen (Lo und Hi, das Min Max) für den 24-Stunden-Zeitraum. Es ist zum Beispiel nicht der Durchschnitt aller stündlichen Temperaturaufzeichnungen, auch wenn sie aufgezeichnet und berichtet werden. Egal wie viele Messungen aufgezeichnet werden, der Tagesdurchschnitt wird berechnet, indem man den Lo und den Hi summiert und durch zwei teilt.

 

Macht das einen Unterschied? Das ist eine heikle Frage.

Die Temperaturen wurden als hoch und niedrig (Min-Max) für 150 Jahre oder mehr aufgezeichnet. Das ist genau so, wie es gemacht wurde und um konsequent zu bleiben, so macht man es auch heute noch.

Ein Daten-Download von Temperaturaufzeichnungen für die Wetterstation WBAN: 64756, Millbrook, NY, für Dezember 2015 bis Februar 2016 enthält alle fünf Minuten eine Temperaturablesung. Der Datensatz enthält Werte für „DAILYMaximumDryBulbTemp“ und „DAILYMinimumDryBulbTemp“, gefolgt von „DAILYAverageDryBulbTemp“, alles in Grad Fahrenheit. Die „DAILYAverageDryBulbTemp“ durchschnittliche trockene Temperatur ist das arithmetische Mittel der beiden vorhergehenden Werte (Max und Min). Dieser letzte Wert wird in der Klimatologie als die tägliche durchschnittliche Temperatur verwendet. Für einen typischen Dezembertag sehen die aufgezeichneten Werte so aus:

Täglich Max 43 F – Täglich Min 34 F – Täglicher Durchschnitt 38F (das arithmetische Mittel ist eigentlich 38,5, aber der Algorithmus rundet x,5 ab auf x)

Allerdings ist der Tagesdurchschnitt aller aufgezeichneten Temperaturen: 37.3 F… Die Differenzen für diesen einen Tag:

Unterschied zwischen dem berichteten Tagesdurchschnitt von Hi-Lo und dem tatsächlichen Durchschnitt der aufgezeichneten Hi-Lo-Zahlen ist = 0,5 ° F aufgrund des Rundungsalgorithmus.

Unterschied zwischen dem angegebenen Tagesdurchschnitt und dem korrekteren Tagesdurchschnitt unter Verwendung aller aufgezeichneten Temperaturen = 0,667 ° F

Andere Tage im Januar und Februar zeigen einen Differenzbereich zwischen dem gemeldeten täglichen Durchschnitt und dem Durchschnitt aller aufgezeichneten Temperaturen von 0,1 ° F bis 1,25 ° F bis zu einem hohen Wert von 3,17 ° F am 5. Januar 2016.

Täglicher Durchschnittswert aller Aufzeichnungen, korrekte Rechnung minus des aufgezeichneten Durchschnitts.

Dies ist kein wissenschaftliches Sampling – aber es ist eine schnelle Fallstudie, die zeigt, dass die Zahlen von Anfang an gemittelt werden – als tägliche Durchschnittstemperaturen, die offiziell an den Oberflächenstationen aufgezeichnet wurden. Die unmodifizierten Grunddaten selbst, werden in keinem Fall für die Genauigkeit oder Präzision überhaupt berechnet [zur Berechnung herangezogen] – aber eher werden berechnet „wie wir das schon immer getan haben“ – der Mittelwert zwischen den höchsten und niedrigsten Temperaturen in einer 24-Stunden-Periode – das gibt uns nicht einmal, was wir normalerweise als „Durchschnitt“ erwarten würden für die Temperatur an diesem Tag „- aber irgendeinen anderen Wert – ein einfaches Mittel zwischen dem Daily Lo und dem Daily Hi, das, wie die obige Grafik offenbart, ganz anders zu sein scheint. Der durchschnittliche Abstand von Null [Abweichung, d.h. wie es korrekt wäre] für die zweimonatige Probe beträgt 1,3 ° F. Der Durchschnitt aller Unterschiede, unter Beachtung des Vorzeichens beträgt 0,39 ° F [also in Richtung wärmer].

Die Größe dieser täglichen Unterschiede? Bis zu oder [sogar] größer als die gemeinhin gemeldeten klimatischen jährlichen globalen Temperaturanomalien. Es spielt keine Rolle, ob die Unterschiede nach oben oder unten zählen – es kommt darauf an, dass sie implizieren, dass die Zahlen, die verwendet werden, um politische Entscheidungen zu beeinflussen, nicht genau berechnete, grundlegende täglichen Temperaturen von einzelnen Wetterstationen sind. Ungenaue Daten erzeugen niemals genaue Ergebnisse. Persönlich glaube ich nicht, dass dieses Problem bei der Verwendung von „nur Anomalien“ verschwindet (was einige Kommentatoren behaupten) – die grundlegenden Daten der ersten Werteebene sind falsch, unpräzise, ungenau berechnet.

 

Aber, aber, aber … Ich weiß, ich kann die Maulerei bereits jetzt hören. Der übliche Chor von:

  1. Am Ende gleicht sich alles aus (tut es nicht)
  2. Aber was ist mit dem Gesetz der großen Zahlen? (Magisches Denken)
  3. Wir sind nicht durch absolute Werte besorgt, nur durch Anomalien.

Die beiden ersten Argumente sind fadenscheinig.

Das letzte will ich ansprechen. Die Antwort liegt in dem „Warum“ der oben beschriebenen Unterschiede. Der Grund für den Unterschied (außer der einfachen Auf- und Abwärtsbewegung von Bruchteilen in ganzem Grad) ist, dass die Lufttemperatur an einer beliebigen Wetterstation nicht normal verteilt wird … das heißt, von Minute zu Minute oder Stunde zu Stunde, keiner würde eine „normal Verteilung“ sehen, die sich so darstellt:

Normal-oder-Standard-Verteilung

Wenn die Lufttemperatur normalerweise so über den Tag verteilt wäre, dann wäre die aktuell verwendete tägliche durchschnittliche trockene Temperatur – das arithmetische Mittel zwischen dem Hi und Lo – korrekt und würde sich nicht vom täglichen Durchschnitt aller aufgezeichneten Temperaturen für den Tag unterscheiden.

Aber echte Oberflächentemperaturen der Luft sehen viel mehr aus, wie diese drei Tage von Januar und Februar 2016 in Millbrook, NY:

Reale stündliche Temperaturen

Die Lufttemperatur an einer Wetterstation startet nicht am Lo Wert – um gleichmäßig und stetig zum Hi aufzusteigen und sich dann gleichmäßig zum nächsten Lo zurück zu schleichen. Das ist ein Mythos – jeder der sich draußen aufhält (Jäger, Seemann, Camper, Forscher, sogar Jogger) kennt diese Tatsache. Doch in der Klimatologie werden die tägliche Durchschnittstemperatur – und konsequent alle nachfolgenden wöchentlichen, monatlichen, jährlichen Durchschnitte – auf der Grundlage dieser falschen Idee berechnet.

Zuerst nutzten die Wetterstationen Min-Max-Aufnahmethermometer und wurden oft nur einmal pro Tag überprüft und die Aufnahme-Tabs zu diesem Zeitpunkt zurückgesetzt – und nun so weitergeführt aus Respekt für Konvention und Konsistenz.

Wir können nicht zurückkehren und die Fakten rückgängig machen – aber wir müssen erkennen, dass die täglichen Mittelwerte aus diesen Min-Max / Hi-Lo-Messwerten nicht die tatsächliche tägliche Durchschnittstemperatur darstellen – weder in Genauigkeit noch in Präzision. Dieses beharren auf Konsistenz bedeutet, dass die Fehlerbereiche, die in dem obigen Beispiel dargestellt sind, alle globalen durchschnittlichen Oberflächentemperaturberechnungen beeinflussen, die Stationsdaten als Quelle verwenden.

Anmerkung: Das hier verwendete Beispiel ist von Wintertagen in einem gemäßigten Klima. Die Situation ist repräsentativ, aber nicht unbedingt quantitativ – sowohl die Werte als auch die Größen der Effekte werden für verschiedene Klimazonen [… Gegenden], verschiedene Stationen, verschiedene Jahreszeiten unterschiedlich sein. Der Effekt kann durch statistische Manipulation oder durch Reduzierung der Stationsdaten zu Anomalien nicht vermieden werden.

Alle Anomalien, die durch Subtrahieren von klimatischen Durchschnittswerten von aktuellen Temperaturen abgeleitet werden, werden uns nicht mitteilen, ob die durchschnittliche absolute Temperatur an einer Station steigt oder fällt (oder um wie viel). Es wird uns nur sagen, dass der Mittelwert zwischen den täglichen Hochtemperaturen steigt oder fällt – was etwas ganz anders ist. Tage mit sehr niedrigen Tiefs für eine Stunde oder zwei am frühen Morgen gefolgt von hohen Temperaturen für die meiste Zeit des restlichen Tages haben die gleichen Max-Min Mittelwerte wie Tage mit sehr niedrigen Tiefs für 12 Stunden und eine kurze heiße Spitze am Nachmittag. Diese beiden Arten von Tagen, haben nicht die gleiche tatsächliche durchschnittliche Temperatur. Anomalien können den Unterschied nicht erhellen. Ein Klimawandel von einem zum anderen wird in Anomalien nicht auftauchen. Weder noch würde die Umwelt von einer solchen Verschiebung stark betroffen sein.

 

Können wir etwas erfahren, aus der Nutzung dieser ungenauen „täglichen Durchschnittswerte“ und alle anderen von ihnen abgeleiteten Zahlen?

Es gibt einige die in Frage stellen, dass es tatsächliche eine globale durchschnittliche Oberflächentemperatur gibt. (Siehe „Gibt es eine globale Temperatur?“)

Auf der anderen Seite, formulierte Steven Mosher in seinem Kommentar kürzlich so treffend:

Sind abgeleitete Temperaturen bedeutungslos?

Ich denke, dass es schlecht ist, wenn Alarmisten versuchen, die kleine Eiszeit und die Mittelalterliche Warmzeit zu löschen … WUWT wird die ganze Geschichte leugnen wollen. Die globale Temperatur ist vorhanden. Es hat eine genaue physikalische Bedeutung. Es ist diese Bedeutung, die uns erlaubt zu sagen …  Die kleine Eiszeit war kühler als heute … es ist die Bedeutung, die es uns erlaubt, zu sagen, dass die die Tagseite des Planeten wärmer ist als die Nachtseite … die gleiche Bedeutung, die uns erlaubt zu sagen, dass Pluto kühler ist als die Erde und dass Merkur wärmer ist.

Was ein solcher globaler Mittelwert, basierend auf einen fragwürdigen abgeleiteten „Tagesdurchschnitt“, uns nicht sagen kann, ist oder war es in diesem Jahr ein Bruchteil eines Grades wärmer oder kühler?

Der Berechnungsfehler – der Messfehler – der am häufigsten verwendeten Station der täglichen durchschnittlichen Durchschnittstemperatur ist in der Größe gleich (oder nahezu gleich groß) wie die langfristige globale Temperaturänderung. Die historische Temperaturaufzeichnung kann nicht für diesen Fehler korrigiert werden. Moderne digitale Aufzeichnungen würde eine Neuberechnung der Tagesmittelwerte von Grund auf neu erfordern. Selbst dann würden die beiden Datensätze quantitativ nicht vergleichbar sein – möglicherweise nicht einmal qualitativ.

 

Also, „Ja, es macht was aus“

Es ist sehr wichtig, wie und was man mittelt. Es macht was aus, den ganzen Weg nach oben und unten durch das prächtige mathematische Wunderland, was die Computerprogramme darstellen, die diese grundlegenden digitalen Aufzeichnungen von Tausenden von Wetterstationen auf der ganzen Welt lesen und sie zu einer einzigen Zahl verwandeln.

Es macht vor allem dann etwas aus, wenn diese einzelne Zahl dann später als Argument verwendet wird, um die breite Öffentlichkeit zu treffen und unsere politischen Führer zu bestimmten gewünschten politischen Lösungen zu bringen (~ zu zwingen), die große – und viele glauben negative – Auswirkungen auf die Gesellschaft haben werden.

 

Schlussfolgerung:

Es reicht nicht aus, den Durchschnitt eines Datensatzes korrekt mathematisch zu berechnen.

Es reicht nicht aus, die Methoden zu verteidigen, die Ihr Team verwendet, um die [oft-mehr-missbrauchten-als-nicht] globalen Mittelwerte von Datensätzen zu berechnen.

Auch wenn diese Mittelwerte von homogenen Daten und Objekten sind und physisch und logisch korrekt sind, ein Mittelwert ergibt eine einzelne Zahl und kann nur fälschlicherweise als summarische oder gerechte Darstellung des ganzen Satzes, der ganzen Information angenommen werden.

Durchschnittswerte, in jedem und allen Fällen, geben natürlicherweise nur einen sehr eingeschränkten Blick auf die Informationen in einem Datensatz – und wenn sie als Repräsentation des Ganzen akzeptiert werden, wird sie als Mittel der Verschleierung fungieren, die den Großteil verdecken und die Information verbergen. Daher, anstatt uns zu einem besseren Verständnis zu führen, können sie unser Verständnis des zu untersuchenden Themas reduzieren.

In der Klimatologie wurden und werden tägliche Durchschnittstemperaturen ungenau und unpräzise aus den täglichen minimalen und maximalen Temperaturen berechnet, die damit Zweifel an den veröffentlichten globalen durchschnittlichen Oberflächentemperaturen hervorrufen.

Durchschnitte sind gute Werkzeuge, aber wie Hämmer oder Sägen müssen sie korrekt verwendet werden, um wertvolle und nützliche Ergebnisse zu produzieren. Durch den Missbrauch von Durchschnittswerten verringert sich das Verständnis des Themas eher, als das es die Realität abbildet.

 

UPDATE:

Diejenigen, die mehr Informationen bekommen wollen, über die Unterschiede zwischen Tmean (das Mittel zwischen Täglichem Min und Max) und Taverage (das arithmetische Mittel aller aufgezeichneten 24 stündlichen Temperaturen – einige verwenden T24 dafür) – sowohl quantitativ als auch in jährlichen Trends beziehen sich beide auf die Spatiotemporal Divergence of the Warming Hiatus over Land Based  on Different Definitions of Mean Temperature von Chunlüe Zhou & Kaicun Wang  [Nature Scientific Reports | 6:31789 | DOI: 10.1038/srep31789].[~Räumliche und zeitliche Abweichungen der Erwärmungspause über Land auf der Grundlage verschiedener Definitionen der mittleren Temperatur] von Chunlüe Zhou & Kaicun Wang [Nature Scientific Reports | 6: 31789 | DOI: 10.1038 / srep31789]. Im Gegensatz zu Behauptungen in den Kommentaren, dass Trends dieser unterschiedlich definierten „durchschnittlichen“ Temperaturen gleich sind, zeigen Zhou und Wang diese Figur und Kation: (h / t David Fair)

Abbildung 4. Die (a, d) jährliche, (b, e) Kälte und (c, f) warme saisonale Temperaturtrends (Einheit: ° C / Jahrzehnt) aus dem Global Historical Climatology Network-Daily Version 3.2 (GHCN-D , [T2]) und die „Integrated Surface Database-Hourly“ (ISD-H, [T24]) sind für 1998-2013 gezeigt. Die GHCN-D ist eine integrierte Datenbank der täglichen Klimazusammenfassungen von Land-Oberflächenstationen auf der ganzen Welt, die Tmax und Tmin Werte von rund 10.400 Stationen von 1998 bis 2013 zur Verfügung stellt. Die ISD-H besteht aus globalen stündlichen und synoptischen Beobachtungen bei etwa 3400 Stationen aus über 100 Originaldatenquellen. Die Regionen A1, A2 und A3 (innerhalb der grünen Regionen, die in der oberen linken Teilfigur gezeigt sind) werden in dieser Studie ausgewählt.

[Klicken Sie hier für ein Bild in voller Größe]  in Nature

Erschienen auf WUWT am 24.07.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/07/24/the-laws-of-averages-part-3-the-average-average/

 




Argumente gegen den Verbotsirrsinn: Diesel-Verteufelung: Krieg gegen das eigene Volk

Seit der Erfindung des Faustkeils und der Entdeckung des Feuers hat uns die Zivilisation erhebliche Annehmlichkeiten beschert: Schutz vor Regen, Kälte und Raubtieren, ausreichende und gesunde Nahrung sowie die moderne medizinische Versorgung. Dafür mussten wir jedoch von den naturbestimmten Lebensgewohnheiten der Urmenschen zu langen Arbeitszeiten, hohen körperlichen Belastungen sowie dem Umgang mit teilweise schädlichen Substanzen übergehen. So atmet der Mensch seit der Erfindung des Feuers mit dessen Rauch gesundheitsgefährdende Gase und Stäube ein. Dies gilt auch für die kontrollierten Feuer, die Kraftwerke und Automobile antreiben und unsere Wohnungen heizen. Denn Annehmlichkeiten haben stets ihren Preis. Man kann nicht alles haben, die Luftqualität einer Südseeinsel und die uneingeschränkten Vorteile der Zivilisation. Die Frage kann daher nur sein, welche Kompromisse man einzugehen bereit ist. Da wir inzwischen dank unserer technischen Zivilisation auch Umweltprobleme immer besser in den Griff bekommen, stellt sich zudem die Frage, welche Prioritäten dabei zu setzen sind. Alles zum Nulltarif wird jedoch weiterhin nicht zu haben sein.

Unsere Luft wird immer sauberer

Es besteht kein Zweifel daran, dass z.B. die Emissionen des Verkehrs, ohne den unsere Zivilisation nicht auf dem jetzigen Niveau aufrechterhalten bleiben könnte, schädliche Bestandteile enthalten. Ebenso kann man jedoch auch feststellen, dass die seit langem dagegen ergriffenen Maßnahmen wirken und die Belastung seit Jahrzehnten ständig weiter sinkt. Dies zeigt auch eine europaweite Untersuchung der Europäischen Umweltagentur EEA, Bild 1.

Bild 1. Eine europaweite Untersuchung der Emissionen des Transportsektors zeigt, dass diese seit Jahren stetig zurückgehen. Dies gilt auch für die NOx-Emissionen (Grafik: [THAL])
Dieser stetige Rückgang der Belastung durch Abgase trifft auch für Deutschland zu. So hat das Umweltbundesamt seit 1990 einen Rückgang der Stickstoffoxid(NOx)-Emissionen des Straßenverkehrs sowohl absolut (von 1,46 auf 0,491 Mio. t) als auch prozentual (von 50,7 auf nur noch 40,1 %) dokumentiert, Bild 2.

Bild 2. Untersuchungen des Umweltbundesamtes belegen den kontinuierlichen Rückgang der verkehrsbedingten NOx-Emissionen seit 1990 (Grafik: [UBA]
Somit erhebt sich die Frage, warum sich Politik und Medien zurzeit überhaupt so intensiv mit den Emissionen der Diesel-PKW beschäftigen. Wird aktuell die Gesundheit der Bevölkerung plötzlich so stark gefährdet, dass man sich jetzt daranmachen muss, der Automobilindustrie in kürzester Zeit milliardenteure finanzielle Belastungen für die Umrüstung von Fahrzeugen aufzubürden? Liegen gerade die Emissionen der Diesel-PKW so stark über denjenigen der anderen verkehrsbedingten Luftschadstoffe, dass hier derartige Hauruckaktionen als unumgänglich eingestuft werden müssen? Werfen wir hierzu zunächst einen Blick auf die Analysen der Europäischen Umweltagentur EEA, Bild 3.

Bild 3. Prozentualer Anteil der städtischen Bevölkerung in der EU, der Schadstoffbelastungen oberhalb der Grenzwerte der EU bzw. der WHO ausgesetzt ist (Grafik: [THAL])
Diese von der EEA für den Zeitraum 2012-2104 ermittelten Daten belegen, dass NOx-Emissionen in ganz Europa im Prinzip ein Nicht-Problem darstellen. Die zusammengenommenen Überschreitungen aller NOx-Quellen betreffen sowohl nach den Kriterien der EU als auch nach denen der Weltgesundheitsorganisation der UNO (WHO) lediglich einen sehr kleinen Teil (7-9 %) der städtischen Bevölkerung, die ihrerseits einen noch wesentlich kleineren Anteil der Gesamtbevölkerung ausmacht. Nach den Kriterien der WHO sind die Überschreitungen bei allen anderen Luftschadstoffen wesentlich höher und erreichen in der Spitze bis zu 98 % Ein wirklicher Grund zur Sorge wäre statt des NO2 am ehesten das krebserregende BaP (Benzo-a-Pyren). Auch bei Zugrundelegung allein der EU-Kriterien ist nur ein einziger Luftschadstoff unkritischer als NOx, und zwar das Schwefeldioxid. Das ist nicht verwunderlich, denn bei der Erdölraffination wird der Schwefel inzwischen nahezu flächendeckend aus Kraft- und Brennstoffen wie Benzin, Diesel, Heizöl und Flugzeugkerosin entfernt. Das SO2-Problem kann man in Deutschland bereits seit 2004 als dauerhaft erledigt einstufen.

Welche Schadstoffe emittieren moderne Diesel?

Angesichts der regelrechten Hetzkampagne, die in den letzten Jahren und Monaten in der Presse und seitens der Politik gegen den Diesel losgetreten wurde, stellt sich zunächst die Frage, welche Schadstoffe denn für moderne Dieselfahrzeuge überhaupt relevant sind. In den häufig äußerst mangelhaft recherchierten Beiträgen der Medien werden die verschiedenen Aspekte immer wieder durcheinandergeworfen, beispielsweise was die angebliche Krebsgefahr durch Feinstaub angeht. Realistisch betrachtet emittieren moderne Diesel nur zwei wesentliche Schadstoffe: Sehr wenig Feinstaub – und Stickstoffoxide.

Feinstaub ist kein Problem des Diesels

Feinstaub entsteht nicht nur im Straßenverkehr, sondern aus einer Vielzahl von Quellen. In Innenräumen ist die Belastung meist viel höher als im Freien, in U-Bahn-Bahnhöfen ebenfalls. Auch beim Verkehr muss zwischen Emission aus dem Auspuff, Aufwirbelung vorhandenen Feinstaubs durch den Fahrtwind sowie Emissionen durch Abrieb von Reifen und Bremsen unterschieden werden. Bis auf die Motoremissionen treffen alle diese Faktoren übrigens auch auf rein elektrisch betriebene Fahrzeuge zu.

Das Thema Feinstaub kann man bei modernen Dieselfahrzeugen ab der Einführung des Rußpartikelfilters mit der Euro-Stufe 5 (2009) als bereits erledigt abhaken, Bild 4 [KOCH].

Bild 4: Beim Abgas moderner Dieselmotoren spielt nur noch NOx eine Rolle (DPF=Dieselpartikelfilter) (Grafik: [KOCH])
Dass dies selbst im Verkehrsmix mit älteren Dieselfahrzeugen bereits zutrifft, wird durch Erkenntnisse der EEA bestätigt, siehe Bild 5.

Bild 5. Der Anteil des Straßenverkehrs an den Gesamt-Feinstaubemissionen PM2.5 (Partikelgrößen von weniger als 2,5 µm) liegt bei lediglich 13 %. Diese Zahl umfasst Fahrzeuge aller Größenklassen, Altersstufen und Antriebsarten (Grafik: [THAL])
Die Untersuchung der EEA bei den als besonders kritisch geltenden Feinstaubemissionen PM2.5 (Partikelgrößen von weniger als 2,5 µm) zeigt, dass der gesamte Straßenverkehr hierzu nur 13 % beiträgt. Davon müsste man zudem noch die Anteile des Lastverkehrs sowie der benzinbetriebenen PKW abziehen. Die motorischen Emissionen von Diesel-PKW liegen demnach vermutlich bei weniger als 5 % und taugen deshalb in keinster Weise als Begründung für Fahrverbote ausgerechnet und selektiv nur für Diesel-PKW. Feinstaub hat viele Quellen wie Reifenabrieb, Bremsenabrieb, Fahrbahnabrieb, Feuerungsanlagen, Industrieanlagen oder auch Motorabgase. Zum Vergleich: Ein Dieselmotor emittiert aus dem Auspuff 0,2 – 0,5 mg/km Partikel, und

damit 5 bis 10 mal weniger als ein Fahrrad durch Bremsenabrieb [KOCH]. Die Hauptverursacher sitzen ganz woanders und nicht zuletzt in den Haushalten, Stichwort Kamine.

Gefährlichkeit von Feinstäuben nicht geklärt

Zudem sind die derzeit ermittelten Messdaten – Masse aller Partikel unterhalb von 10 µm – nach Ansicht von Wissenschaftlern wie Prof. Dr. Joachim Heyder vom Forschungszentrum für Umwelt und Gesundheit (GSF), dem ehemaligen Direktor des Instituts für Inhalationsbiologie, falsch angesetzt: „Wir haben die Hypothese, dass diese Partikel eine Gesundheitsgefährdung darstellen könnten. Es gibt aber noch keine abschließenden Beweise und ist nach wie vor in der Diskussion….Wissenschaftliche Studien, die einen eindeutigen Zusammenhang zwischen diesen Partikeln und Atemwegserkrankungen, Lungenkrebs oder Herz-Kreislauf-Erkrankungen belegen, gibt es (noch) nicht…. Während man lange Zeit glaubte, große Partikel seien für den Organismus gefährlicher als kleine, hat sich in den letzten Jahren herausgestellt, dass gerade ultrafeine Partikel mit weniger als 0,1 Mikrometer Größe das größte Gefährdungspotenzial besitzen könnten…. Mir ist völlig unbekannt, dass Feinstaub-Partikel – außer denen im Zigarettenrauch natürlich – Lungenkrebs verursachen. Aber dass Feinstaub-Partikel in den Konzentrationen, wie sie in der Umwelt vorliegen, karzinogen sein sollen – davon ist mir nichts bekannt…. wenn diese ultrafeinen Teilchen tatsächlich die Gefahr sein sollten, brauchen wir völlig neue Grenzwerte….Wir sind inzwischen der Meinung, dass die Partikeloberfläche der kritische Faktor ist. Es stellt sich immer mehr heraus, dass die Partikel-Oberfläche der Parameter ist, um die Qualität der Luft zu beurteilen. Wenn dem so ist, messen wir momentan das Falsche. Dann können wir messen so viel wir wollen, aber selbst wenn wir dann die EU-Grenzwerte einhalten, ist damit das Gefährdungspotenzial unserer Luft nicht kleiner geworden“, so Kernaussagen von Prof. Heyder in einem Interview aus dem Jahre 2005 [HEYD].

Für eine angebliche „Gefährdung der Gesundheit der Bevölkerung durch Feinstaub“ gibt es – auch nach Meinung weiterer Fachleute – keine hieb- und stichfesten wissenschaftlichen Beweise [KOCH]. Als Begründung für Fahrverbote ausgerechnet für Diesel-PKW kann das Feinstaub-Argument daher keinesfalls dienen, Bild 6. Dies gilt sowohl medizinisch als auch juristisch. Auf dieses Thema wird in weiteren Folgen des Berichts noch näher eingegangen.

Bild 6. Auch eine detaillierte Analyse des Feinstaubs PM10 in Deutschland belegt, wie vernachlässigbar gering der Anteil der Diesels ist (Grafik: [KOCH])
Stickoxide – NO, NO2, NOx

Bezüglich der Schadstoffemissionen ist der einzige Minuspunkt des modernen Diesels gegenüber dem Benzinmotor der höhere Ausstoß von Stickoxiden. Dies eine Folge der höheren Verbrennungstemperaturen und des prinzipbedingten Sauerstoffüberschusses des Diesels [HOEH]. Im Motor entsteht in erster Linie NO, das an der Atmosphäre später im Lauf einiger Stunden zu NO2 umgewandelt wird. Beide Gase werden häufig gemeinsam gemessen und der entsprechende Wert als NOx-Wert zusammengefasst. NO2 ist die für den Menschen schädlichere Verbindung. Beide Gase kommen bei bestimmten Berufsgruppen – z.B. Bergleute, Tunnelbauer, Schweißer, Chemische Industrie – in der Atemluft vor, ihre Wirkung wurde daher schon seit Jahrzehnten umfassend untersucht. In der entsprechenden Arbeitschutz-Gesetzgebung sind daher Grenzwerte in Form der Maximalen Arbeitsplatzkonzentration (MAK) festgelegt. Seit einigen Jahrzehnten gibt es darüber hinaus auch Bestimmungen über den zulässigen Gehalt des NO2 bzw. NOx in Büro- und Privaträumen sowie im Freien.

Sowohl NO als auch NO2 sind bei Konzentrationen unterhalb des MAK-Wertes – und nur um diesen Bereich geht es bei der Diskussion über den Diesel – nicht giftig, sie wirken höchstens reizend auf die Lunge. Eine krebsfördernde Wirkung ist nicht belegt, wird allerdings in sogenannten epidemiologischen Studien häufig behauptet. Dies ist jedoch im Prinzip Panikmache, denn solche Studien sind nur aussagefähig, wenn dies auch durch toxikologische Untersuchungen belegt werden kann. Dies ist bei NOx jedoch nicht der Fall. Auch auf diesen Aspekt wird in weiteren Folgen dieses Berichts noch näher eingegangen.

Anteil von Diesel-PKW an Stickoxiden der Luft

Wenn es, wie in der Diskussion um Fahrverbote für Diesel-PKW immer wieder behauptet, um den Schutz der Bevölkerung vor NOx-Emissionen ginge, dann sollte die logische Konsequenz ebenso wie beim Feinstaub die sein, dass man zunächst die Hauptverursacher feststellt, um sich dann Gedanken darüber zu machen, wie man deren Emissionen verringern könnte. Bei der Suche nach diesen Hauptquellen stößt man dann jedoch auf einige massive Ungereimtheiten. Zunächst ist hier das bekannte und häufig konsultierte „Wissensportal“ Wikipedia zu nennen. Dort findet sich zum Stichwort „NO2“ die Aussage: „In Europa werden mehr als 50 %, in einigen Städten bis zu 75 % der NOx-Emissionen durch den Verkehr verursacht“ [WIK1]. Das ist definitiv falsch, siehe auch Bild 2. Mit dieser „Fake-News“ beweist Wikipedia einmal mehr, dass es in entscheidenden Bereichen, nämlich da, wo es um die Falschinformation der Bevölkerung zu Umwelt-, Klima- und Energiefragen geht, von den „grünen Männchen“ in seinen Redaktionsteams manipuliert wird. Bei genauer Betrachtung gibt es bei der von Wikipedia verwendeten Formulierung allerdings eine Eigentümlichkeit, die sofort die Alarmglocken schrillen lassen sollte: Es stellt sich die Frage, was denn unter „durch den Verkehr verursacht“ zu verstehen ist?

Diese Formulierung soll offensichtlich verschleiern, dass Diesel-PKW ja nur einer von vielen Teilnehmern an diesem „Verkehr“ sind. Dazu zählen neben den Diesel-PKW ja auch die Benziner und außerdem noch Lieferwagen, Handwerkerfahrzeuge, Autobusse, LKW, Traktoren, Militär, Lokomotiven, Schiffe und Flugzeuge. Im Prinzip sollte man als steuerzahlender Bürger erwarten dürfen, dass entsprechende Aufschlüsselungen hierzu bei regierungsamtlichen Stellen wie dem Bundesumweltministerium (BMUB) oder bei dem ihm unterstellten Umweltbundesamt (UBA) verfügbar gemacht werden. Da die Umweltministerin Hendricks zu den laustärksten Rufern nach drastischen Maßnahmen gegen die deutschen PKW-Hersteller gehört, sollte man annehmen, dass sie ihre Haltung auch solide mit Zahlen untermauern kann. Leider wird man diesbezüglich jedoch auf den Webseiten sowohl des BMUB als auch des UBA enttäuscht: Dort sind Emissionen stets nur unter dem Stichwort „Verkehr“ zusammengefasst.

BMUB und UBA verschweigen wesentliche Informationen

Sind Hendricks und dem UBA tatsächlich keine detaillierteren Zahlen bekannt? Schon eine kurze Recherche im Internet bringt zutage, dass beiden Behörden sogar sehr detaillierte Zahlenwerke über die einzelnen Anteile der verschiedenen Verkehrsträger an Emissionen sowie der bisherigen und zukünftig erwarteten Trends vorliegen. Schon ein kurzer Blick genügt, um zu erkennen, warum man diese Erkenntnisse behördlicherseits verschweigt: Denn diese Zahlen belegen, dass die von beiden Behörden betriebene einseitige Prügelei gegen den Diesel-PKW völlig ungerechtfertigt ist. Werfen wir deshalb einen genaueren Blick auf etwas, das man vor uns verbergen will: Auf die Ergebnisse einer Studie [TREM], welche BMUB und UBA selbst in Auftrag gegeben hatten, und zwar beim ifeu – Institut für Energie- und Umweltforschung in Heidelberg, Bild 7 und Bild 8.

Bild 7. Gesamtheit der NOx-Gesamtemissionen des Verkehrssektors bis 2011 (Grafik: [TREM])
Bild 8. Aufschlüsselung der Anteile der einzelnen Fahrzeugarten an den NOx-Emissionen des Straßenverkehrs bis 2011 (Grafik: [TREM])
Wertet man die einzelnen Anteile zusammen mit den Zahlen der UBA-Grafik zur Entwicklung der Gesamt-NOx-Emissionen (Bild 2) aus, so stellt man fest, dass der Anteil der Diesel-PKW an den NOx-Emissionen im Jahre 2011 bei lediglich 10 % lag. Seither wurde der Bestand an Diesel-PKW durch Stilllegung alter Fahrzeuge mit schlechten Emissionswerten und Zuwachs an neuen Fahrzeugen mit besserem Emissionsverhalten kontinuierlich verjüngt. Diese Tendenz dürfte sich nach den Trendprognosen des Berichts auch in den kommenden Jahren verstärkt fortsetzen, Bild 9.

Bild 9. Entwicklung und Trendprognosen der Verbesserung des Emissionsstandards bei PKW (alle Kategorien) bis 2030 (Grafik: [TREM])
Zu einem sehr ähnlichen Wert von 8 %, was den Anteil des Diesel-PKW an den Stickoxidemissionen angeht, kommt auch eine weitere Untersuchung auf europäischer Ebene von R. Leistenschneider [LEIS, LEIS2], Bild 10. Diese sehr gute Übereinstimmung ist ein Beleg für die Stimmigkeit beider Berechnungen.

Bild 10. Anderer Ansatz, sehr ähnliches Ergebnis: Die Analyse von R. Leistenschneider zum Anteil der Stickstoffdioxidemissionen von Diesel-PKW auf europäischer Ebene (Grafik: [LEIS2])
Angesichts dieser Tatsachen ist die derzeitige Kampagne gegen den Diesel und damit gegen die gesamte deutsche KFZ-Industrie nicht zu rechtfertigen. Es gibt keinerlei Grund, dem Diesel-PKW Fahrverbote aufzuerlegen, denn er ist nicht der Hauptschuldige.

Ein klarer Fall von Betrug am Volk

Wir haben es demnach bei der ganzen Dieselverteufelung mit einer regierungsamtlich unterstützten Kampagne gegen das eigene Volk und gegen die eigene Industrie zu tun. Die Abgase von Diesel-PKW sind nicht die Hauptverursacher der Schadstoffbelastung in unserer Atemluft, und ihre Schädlichkeit ist bei weitem nicht so hoch, wie durch die in der Presse ständig wiederholten Horrormeldungen über Zigtausende Tote durch Dieselabgase behauptet wird. Regierungsstellen wie das BMUB und das UBA kennen die wahren Zahlen, verschleiern bzw. verschweigen sie jedoch offensichtlich bewusst und fahren stattdessen rüde Attacken gegen die Automobilindustrie [HEND]. Von Seiten der für das „Problem“ eigentlich verantwortlichen Politiker – auch hierauf wird in weiteren Teilen des Berichts noch eingegangen – will man dabei von den eigentlichen Ursachen ablenken: Es ist die angebliche „Klimaschutz“-Politik. Alle etablierten Parteien haben sich der praktisch vollständigen „Dekarbonisierung“ Deutschlands zum Zwecke der „Klimarettung“ verschrieben. In diesen Zukunftsplänen ist kein Platz für den Verbrennungsmotor, egal ob Benzin, Diesel oder Gas. Um dies zu erreichen, wurden sowohl auf deutscher als auch auf europäischer Ebene grotesk überzogene Emissionswerte festgeschrieben, die alle Verbrenner über kurz oder lang ins Aus treiben sollen. Dies ist der Grund für die Hartnäckigkeit und Verlogenheit, mit der die derzeitige Kampagne gefahren wird. Die abgehobenen Politiker all dieser Parteien haben kein Interesse am Rentner, der sich kein neues Auto mehr leisten kann, am Pendler, der nicht in die teure Stadt ziehen kann, oder am „Karle vom Band“, dessen Job auf dem Spiel steht. Sowohl Schulz als auch Merkel versuchen, die verunsicherten Verbraucher gegen die KFZ-Hersteller aufzuhetzen, indem sie Sammelklagen befürworten [ZDF]. Merkel beweist dabei erneut ihre besondere Wendigkeit: Am 27.8. behauptete sie im ARD/ZDF-Interview, Verbrenner hätten als „Brückentechnologie“ noch Jahrzehnte vor sich [ZDF]. Ganz anders dagegen am 9.6. in einer Rede vor Studenten in Argentinien: „Wir werden in 20 Jahren nur noch mit Sondererlaubnis selbstständig Auto fahren dürfen.“ Es werde das autonome Fahren geben [WEME].

Für den Bürger ist es egal, welche der beiden „großen“ Parteien mit welcher Koalition aus den Wahlen als Regierung hervorgehen wird: Nach der Wahl werden sie alle Versprechungen in den Wind schlagen und weiter das machen, was sie schon seit Jahren anstreben: Die Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft. Alternativlos.

Fred F. Mueller

Quellen

[HEYD] http://www.stern.de/panorama/wissen/natur/feinstaub–vielleicht-messen-wir-das-falsche–3553812.html

[HOEH] http://www.c-c-netzwerk.ch/index.php/themen/energie/ein-plaedoyer-fuer-den-dieselmotor

[KOCH] https://www.ifkm.kit.edu/downloads/Focus_Antworten_v2.0.pdf Institut für Kolbenmaschinen Prof. Dr. sc. techn. Thomas Koch Der Dieselmotor: Nüchterne Bewertung der Emissionsthematik

[LEIS] https://www.eike-klima-energie.eu/2017/08/20/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-1-stickoxide-der-grosse-anteil-natuerlichen-ursprungs/

[LEIS2] https://www.eike-klima-energie.eu/2017/08/21/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-2-stickoxide-die-fehler-des-umweltbundesamtes-der-t/

[THAL] European Environment Agency EEA Report No28/2016 Air Quality in Europe – 2016 report https://www.eea.europa.eu/publications/air-quality-in-europe2016

[TREM] Aktualisierung „Daten- und Rechenmodell: Energieverbrauch und Schadstoff-Emissionen des motorisierten Verkehrs in Deutschland 1960-2030“ (TREMOD, Version 5.3) für die Emissionsberichtserstattung 2013 (Berichtsperiode 1990-2011) ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH

[UBA] https://www.umweltbundesamt.de/daten/luftbelastung/luftschadstoff-emissionen-in-deutschland/stickstoffoxid-emissionen#textpart-1

[HEND] http://www.faz.net/aktuell/wirtschaft/diesel-affaere/umweltbundesamt-stellt-wirksame-nachruestung-von-dieselautos-infrage-15170393.html

[WEME] https://www.welt.de/politik/deutschland/article165359594/Als-Merkel-in-die-Zukunft-blicken-soll-lacht-das-Auditorium.html

[WIK1] https://de.wikipedia.org/wiki/Stickoxide

[ZDF] Interview mit Merkel und Schulz, Heute-Sendung des ZDF vom 27.8.2017, 19.00 Uhr




Merkel tadelt Trump bzgl. Klima und Energie, aber Deutsch­land wird von seiner Politik profitieren

Deutschland hat den Ruf, eine Supermacht bzgl. grüner Energie zu sein, aber in vielfacher Hinsicht ist diese Etikettierung übertrieben. Es stimmt zwar, dass Deutschland im Jahre 2016 29 Prozent seines Stromes mittels Erneuerbarer erzeugt hat, aber Wind und Solar machen nur einen sehr kleinen Anteil am Gesamtenergieverbrauch aus.

Im Jahre 2016 wurden 34 Prozent der in Deutschland verbrauchten Energie durch Öl erzeugt, 23,6 Prozent durch Kohle, 22,7 Prozent durch Erdgas, 7,3 Prozent durch Biomasse, 6,9 Prozent aus Kernkraft, 2,1 Prozent durch Wind und 1,2 Prozent durch Solar. Abfall, Geothermie und Wasserkraft rundeten das Bild auf 100 Prozent ab.

Alles in Allem erzeugte Deutschland 80,3 Prozent seiner verbrauchten Energie durch fossile Treibstoffe. Das sind schlechte Nachrichten für ein Land, das zu 97,2 Prozent von Öl-, zu 88 Prozent von Erdgas- und zu 87 Prozent von Kohle-Importen abhängig ist (hier).

Die gute Nachricht für die Deutschen lautet, dass sie gewaltig von einem US-Präsidenten profitieren werden, welcher die heimische Energieerzeugung fördert ebenso wie den Export amerikanischer Energie-Ressourcen nach Übersee.

Mit seiner Bevorzugung von Öl, Erdgas und Kohle in den USA, mit der Aufhebung von Vorschriften, die von seinem Vorgänger erlassen worden sind, und der Beschleunigung des Genehmigungsverfahren für Flüssiggas-Terminals beschleunigt, unternimmt Trump bedeutende Schritte um sicherzustellen, dass diese Energiequellen billig bleiben und auch in Zukunft verfügbar sind. Weil Deutschland so schwer von Energieimporten abhängig ist, werden niedrigere Preise eine Wohltat für die deutschen Bürger sein.

Beispielsweise gaben die Deutschen im Jahre 2013 73,5 Milliarden Dollar für Ölimporte aus, als der Preis für die Sorte Brent im Mittel bei 108 Dollar pro Barrel lag. Seitdem hat hydraulisches Brechen in den USA eine Flutwelle amerikanischen Rohöls in den Markt gespült, was die globalen Ölpreise auf 47 Dollar pro Barrel abstürzen ließ. Ein wenig Bierdeckel-Mathematik zeigt, dass die Deutschen jetzt 29,3 Milliarden Dollar pro Jahr für ihre Ölimporte zahlen müssen, was im Mittel Einsparungen von rund 1958 Dollar für jeden der 37,5 Millionen deutschen Haushalte bedeutet.

Im Gegensatz dazu hat die Klima- und Energiepolitik von Merkel dazu geführt, dass die Strompreise in Deutschland seit dem Jahr 2006 um etwa 47 Prozent gestiegen sind. Das macht pro Jahr für einen normalen deutschen Haushalt etwa 380 Dollar pro Jahr zusätzlich aus. Die höheren Preise sind weitgehend einer Zunahme der Abgaben für erneuerbare Energie um das Zehnfache geschuldet, damit den Garantien für die Profite der Wind- und Solarindustrie genügt werden kann. Diese Aufschläge machen inzwischen 22 Prozent der Stromrechnungen für deutsche Familien aus.

Obwohl die Deutschen zusätzlich zehner Milliarden Dollar durch höhere Strompreise gezahlt haben, haben sie kaum etwas dafür bekommen, weil die an sich beabsichtigte Reduktion von CO2-Emissionen praktisch Null ist (hier).

Inzwischen kam es in den USA während der Jahre 2015 und 2016 zu einen stetigen Rückgang der CO2-Emissionen, und zwar um 14 Prozent seit 2005. Ermöglicht wurde dies durch das hydraulische Brechen, allgemein „Fracking“ genannt – ein Verfahren, welches in Deutschland unter Merkel verboten worden ist. Fracking hat es der Erdgas-Industrie ermöglicht, wettbewerbsmäßig auf eine Art und Weise mit Kohle mitzuhalten, die früher nicht möglich war, was die Kosten für alle sinken ließ.

Merkel mag politisch punkten, wenn sie Trump schilt, weil dieser bei den Deutschen extrem unpopulär ist, aber Deutschlands Haushalte werden weit mehr von seiner Politik der amerikanischen Energieerzeugung und Exporte profitieren als von der teuren und ineffizienten Politik, die Merkel in Kraft gesetzt hat.

[Originally Published at the Wall Street Journal]

Link: https://www.heartland.org/news-opinion/news/merkel-chides-trump-on-climate-and-energy-but-germany-will-benefit-from-his-policies

Übersetzt von Chris Frey EIKE




Beim Kauf eines Zweitwagens ist ein elektrischer Antrieb quasi patriotische Pflicht

Bayernkurier 04.12.2015: [5] Claudia Roth auf Abwegen
Harte Kritik an Bundestagsvizepräsidentin Claudia Roth hat der CSU-Landtagsabgeordnete Florian Herrmann geäußert. Sie ist Ende November bei einer Anti-AfD-Demonstration mitmarschiert, bei der „Deutschland, Du mieses Stück Scheiße“ und „Deutschland verrecke“ skandiert wurde. Obwohl sie das auch gehört haben muss, hat sie sich bisher nicht davon distanziert – im Gegensatz zu anderen Beteiligten.
Die GRÜNE Europaabgeordnete Rebecca Harms nannte den Nationalstaat eine „gefährliche und hochriskante Idee“, die man dem Volk über die EU austreiben müsse [9].
Und Frau Göring Eckhardt will anscheinend gar nicht wissen, was unser Staatsgebiet umfasst und listet die „Ossis“ (zwischen denen sie selbst geboren wurde) immer noch nicht zu den wirklichen Bürgern, sondern nach den Migranten, wohl weil dieser Bevölkerungsanteil von Deutschland ihre Ideologie nicht überall bedingungslos mitträgt:
Frankfurter Rundschau, 11.09.2015 : Ossi-Kommentar sorgt für Aufruhr
… „30 Prozent der Kinder und Jugendlichen heute haben bereits einen Migrationshintergrund und dabei hab ich die Ossis jetzt noch nicht mitgerechnet.“ Dieser Satz von Katrin Göring-Eckardt (Grüne), in der Generaldebatte im Bundestag am Mittwoch sorgt für Aufregung im Netz …

Die GRÜNEN entdecken die Liebe zum Vaterland

Doch nun ist unser Vaterland wie selten zuvor bedroht: Dieselfahrzeuge vergiften das einheimische Volk [2]. In dieser Phase der höchsten Not erinnern sich GRÜNE an bisher in ihrem Innersten verdrängten Gefühle und appellieren an den Patriotismus der Bürger, um das Land vor der schlimmsten Gefahr zu bewahren:
Stuttgarter Zeitung: [1] Stuttgarts Oberbürgermeister Fritz Kuhn (GRÜNE) stand Rede und Antwort beim Gespräch vor dem Rathaus. Ein großes Thema: Mobilität in der Landeshauptstadt.
Redakteur: Was macht die Debatte um das Kernprodukt dieser Stadt … das Auto …
Fritz Kuhn: … Die Luft muss sauberer werden, lasst uns das Know-how für die Transformation der Automobilgesellschaft nutzen. Das kann ich nur unterstützen und sagen: Tempo, bitte! Und ich sage: Jeder kann etwas dazu beitragen. Es ist quasi eine patriotische Pflicht, dass derjenige, der einen Zweitwagen kauft, sich für ein Elektroauto entscheidet. Der Stuttgarter muss etwas für seine Stadt tun, nicht nur für sein Gärtle.

Wer diesem Appell nicht direkt folgen kann, weil vielleicht ein Zweitauto im Budget nicht vorgesehen ist, kann seinen patriotischen Rettungsanteil natürlich auch mit weniger praktizieren.
Homepage der Grünen in Bad Vilbel: [6] Verkehrswende ist Kopfsache
… Doch auch das Zweirad mit Elektroantrieb hat sich zu einer ernsthaften Alternative zum Auto entwickelt. Über die moderne Fortbewegung auf E-Bikes klärte Stefan Trauth von Biketempel auf. Sein mobiles Angebot richtet sich an Berufspendler und Studenten … Und selbst bei größeren Einkäufen muss man nicht mehr auf das Fahrrad verzichten. Klaus Grund präsentiert das Angebot der mietbaren Lastenräder, mit denen sich eine Ladung von 100 kg gut transportieren lässt.
Stefan Trauth berichtet, dass dem Verkehrschaos im Berufsverkehr und der Parkplatznot am besten mit dem Fahrrad entgangen werden kann … Der grüne Politiker nutzt statt einem Dienstwagen ein Dienstfahrrad.

Davon wäre die Idee, GRÜNEN Politikern nur noch Dienstfahrräder – auch bei Regen und im Winter – zuzugestehen, nicht schlecht. Es würde den Spuck wohl schnell beenden. So lange sich die „Einschränkungen“ angeblich klimabewusster Umweltminister*innen nur auf das Zufügen von Elektromotoren und einem Akkublock im oberen Premiumsektor beschränken [8], ist ein Überdenken ideologischer Positionen nicht zu erwarten.

Ob die GRÜNEN da nicht die Liebe zum Vaterland mit der Hörigkeit für ihre Parteiideologie verwechselt haben

Das soll in der deutschen Geschichte schon vorgekommen sein. Und auch der „GRÜNE“ Patriot*in“ macht das, was die unfehlbare Partei vorgibt, die unsere Welt mit einem Satz erklären kann.


Bildquelle: GRÜNE NRW Homepage

Wer kein patriotisches Elektroauto kauft oder alternativ mit dem Fahrrad fährt, jedoch genügend „Kreuzfahrerblut“ und Erlebnishunger in seinen Adern spürt, kann seinen Patriotismus auch anders belegen. Nicht nur in Deutschland, sogar auf der ganzen Erde.
GRÜNE JUGEND zur Aktion „Ende Gelände“(2): Riesenerfolg für Anti-Braunkohle-Protest
Am Wochenende fand im Tagebau Garzweiler die Baggerbesetzung des Bündnis „Ende Gelände“ statt. Die GRÜNE JUGEND ist Teil dieses Bündnis und hat auch selbst bei der Besetzung teilgenommen. Ziel des Bündnisses war es die größte CO2-Verursacher – das rheinische Braunkohlerevier – lahnzulegen und damit auf die Dringlichkeit des Klimawandels und der Untätigkeit der Regierenden hinzuweisen.
Theresa Kalmer, Bundessprecherin der GRÜNEN JUGEND
(3), erklärt:
„Die Baggerbesetzung war ein Riesenerfolg. Ziviler Ungehorsam war an dieser Stelle dringend nötig, um auf die globalen Folgen des Braunkohleabbaus im Rheinland aufmerksam zu machen. Durch diese Aktion haben wir es geschafft gesellschaftliche Stillschweigen über den Braunkohleabbau zu brechen und eine Debatte über die Nutzung von Braunkohle loszutreten.
Jetzt kommt es darauf an diese erfolgreiche Aktion in den nächsten Monaten und Jahren weiterzuführen – im Rheinland, in Deutschland und auf dieser Erde. Als GRÜNE JUGEND werden wir selbstverständlich an dieser Bewegung beteiligen.

Wie sich Patriotismus über dem großen Teich vom Patriotismus in Deutschland unterscheidet

Trump wird (bei uns) vorgeworfen, zu viel „Amerika first“ zu posaunen und sich aus globalen Themen eher etwas zurückzuziehen. Bei uns ist es schick, das Umgekehrte zu tun und es (wieder) die Untertanen bezahlen zu lassen.
Ein
Beitrag von Theresa Kalmer (GRÜNE) zur Aktionswoche Energie: Die Farce der schwarzen Energiepolitik
… Auch hier ist die Politik und richtige Anreize gefragt. Auch wenn wir „den Kapitalismus“ nicht von heute auf morgen abschaffen können, können wir versuchen seine Folgen minimal zu halten. Wir brauchen Politik, die nicht weiter auf den Wohlstand Deutschlands setzt, sondern global Verantwortung übernimmt.
Gibt es bei dagegen eine Opposition? Nein, den Plan einer Koalition [11].

Hinweis: Die Information kam von Achgut: [3] Patriotismus jetzt auch grün-kompatibel
(1)Person, die ihr Vaterland liebt und dafür eintritt.
(2)Hinweis: Beschrieben werden Besetzungen der vergangenen Jahre

(3)Theresa Kalmer war Bundessprecherin der GRÜNEN JUGEND von 2013 bis 2015

Quellen

[1] Stuttgarter Zeitung 16. August 2017: Oberbürgermeister Kuhn „Bei Zweitwagen ist elektrischer Antrieb patriotische Pflicht“

[2] EIKE 24. August 2017: Deutschlands Autoindustrie: Mord auf offener Straße?-Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (2)

[3] Achgut 27.08.2017: Patriotismus jetzt auch grün-kompatibel

[4] TICHYS EINBLICK 9. Dezember 2015: Deutschland: Für die Bundestagsvizepräsidentin ein „mieses Stück Scheisse“?

[5] Bayernkurier 04.12.2015: Claudia Roth auf Abwegen
Metropolico: Polizeigewerkschaft kritisiert Claudia Roth

[6] Homepage der Grünen in Bad Vilbel: Verkehrswende ist Kopfsache

[7] Höchster Kreisblatt: Stefan Trauth betreibt eine rollende Fahrrad-Werkstatt

[8] EIKE 19.08.2017: Tesla-E-Auto mangels Reichweite für Umweltministerin nicht geeignet

[9] vimeo, Video: Rebecca Harms und die transnationale Demokratie

[10] MSW: Nie wieder Deutschland- Die Doppelzüngigkeit deutscher Politiker

[11] DER TAGESSPIEGEL 23.07.2017 : Bundestagswahl : Horst Seehofer kann sich jetzt Koalition mit Grünen vorstellen




Tropen führend bei Abkühlung der Ozeane

HadSST wird allgemein als der beste globale Datensatz bzgl. SST angesehen, und darum beruht dieser Beitrag auf jener Quelle. Die jüngste Version ist HadSST3.

Die folgende Graphik zeigt die letzten beiden Jahre der monatlichen SST-Anomalien laut HadSST3 einschließlich Juli 2017:


Im Mai waren trotz eines geringen Anstiegs in den Tropen auf beiden Hemisphären und global sinkende Temperaturen zu beobachten nach einer Wärmespitze im April. Jetzt im Juli zeigt sich sowohl in den Tropen als auch auf der Südhemisphäre ein großer Rückgang während der letzten vier Monate. Inzwischen tritt auf der Nordhemisphäre die übliche Juli-Spitze auf, doch liegt diese immer noch deutlich unter der Spitze des Juli im vorigen Jahr. Insgesamt ergibt sich daraus eine etwas niedrigere globale Anomalie, aber mit einer wahrscheinlichen zusätzlichen Abkühlung angeführt durch die Tropen und auch die Südhemisphäre, wo neue Tiefstwerte für diesen Zeitraum erreicht wurden.

Man beachte, dass höhere Temperaturen während der Jahre 2015 und 2016 hauptsächlich auf einen steilen Anstieg der SST in den Tropen zurückgehen. Dieser begann im März 2015, erreichte im Januar 2016 seinen Höhepunkt, um danach stetig wieder abzusinken bis auf das Niveau zu Beginn. Zweitens, auf der Nordhemisphäre kam es zu zwei zusätzlichen Dellen auf den Schultern der tropischen Erwärmung mit dem Spitzenwert im August jedes Jahres. Man beachte auch, dass die Freisetzung von Wärme keineswegs dramatisch war, weil die Südhemisphäre die Verhältnisse auf der Nordhemisphäre ausglich. Die globale Anomalie im Juli 2017 passt eng zum April 2015. Allerdings zeigen die Südhemisphäre und die Tropen jetzt niedrigere Werte und einen Abwärtstrend im Vergleich mit einem Aufwärtstrend 2015.

Wir haben vielfach Behauptungen gehört hinsichtlich von Temperaturrekorden der Jahre 2015 und 2016, was angeblich die gefährliche, vom Menschen verursachte Erwärmung beweisen soll. Mindestens ein Senator sagte dies bei einer Anhörung aus. Und doch zeigen die HadSST3-Daten der letzten beiden Jahre, wie offensichtlich die steuernde Rolle der Ozeane bei den globalen mittleren Temperaturen ist.

Der beste Zusammenhang zum Verständnis dieser beiden Jahre kommt von den SSTs der Welt, und zwar aus mehreren Gründen:

Die Ozeane bedecken 71% des Globus‘ und steuern die globalen mittleren Temperaturen

SSTs haben einen konstanten Wassergehalt (anders als die Lufttemperatur) und sind daher ein viel besseres Maß der Variationen des Wärmegehalts

Ein starker El Nino war das dominante Phänomen während dieser Jahre.

Link: https://rclutz.wordpress.com/2017/08/10/tropics-lead-ocean-cooling/

Übersetzt von Chris Frey EIKE




Presseerklärung: Experten am Heartland Institute kommen­tieren Hurrikan Harvey

„Während sich Millionen auf die potentiell verheerenden Schäden durch Hurrikan Harvey vorbereiten, werden bereits Geschichten ersonnen, die versuchen, Harvey dem vom Menschen verursachten Klimawandel in die Schuhe zu schieben. – Bette Grande

Hurrikan Harvey soll Freitag Abend auf das Festland in Texas übertreten. Falls der Sturm dabei als Hurrikan der Kategorie 3 eingestuft wird [er war dann mit Stufe 4 eingestuft. Anm. d. Übers.], wird er eine rekordlange Zeit ohne ein solches Ereignis beenden: 11 Jahre und acht Monate. Der letzte Hurrikan der Kategorie 3 oder mehr war der Hurrikan Wilma im Oktober 2005.

Die Gedanken und Gebete der Mitarbeiter am Heartland Institute gelten all jenen, deren Leben und Eigentum durch Hurrikan Harvey gefährdet ist.

Die folgenden Statements stammen von Klima- und Umweltexperten – einer Denkfabrik des freien Marktes – und können weiter verwendet werden.

Striche

Mit der Annäherung von Hurrikan Harvey an Texas gelten unsere Gedanken und Gebete jedermann in seinem Weg. Es ist kaum zu glauben, dass es fast 12 Jahre her ist, dass Katrina die Golfküste und Wilma Ende 2005 Florida heimsuchte. Während der kommenden Tage sollten wir derer gedenken, die von diesem Sturm betroffen sind. Unabhängig von der Stärke des Sturmes beim Übertritt auf das Festland, von Wind, Regen und Flutwelle wird es vermutlich bedeutende Schäden geben, und es besteht ein erhebliches Risiko für die öffentliche Sicherheit und Ordnung.

„Unglücklicherweise lebt die Klimawandel-Kabale von der Philosophie Rahm Emanuels, die da lautet ,never let a crisis go to waste.’ Während sich Millionen auf die potentiell verheerenden Schäden durch Hurrikan Harvey vorbereiten, werden bereits Geschichten ersonnen, die versuchen, Harvey dem vom Menschen verursachten Klimawandel in die Schuhe zu schieben. In der Bizarro-Welt der Klimawandelkult-Anhänger wird Harvey kreativ als ,Beweis‘ eingespannt für die düsteren Auswirkungen in Verbindung mit dem vom Menschen verursachten Klimawandel – obwohl es fast 12 Jahre her ist, dass ein starker Hurrikan die USA heimgesucht hatte. Diese Theorie wird jedoch durch die gegenwärtige Wissenschaft nicht bewiesen.

Im Jahre 2006 kam eine Analyse des National Center for Atmospheric Research NCAR zu dem Ergebnis, dass die globale Erwärmung zur Hälfte verantwortlich ist für die ,zusätzliche, Hurrikane verstärkende Wärme in den Gewässern des Nordatlantiks seit dem Jahr 2005′, sagte Kevin Trenberth, einer der Autoren der NCAR-Analyse. ,Der Einfluss der globalen Erwärmung bildet den Hintergrund, welches das Risiko einer zukünftigen Verstärkung der Hurrikan-Aktivität zunehmen lässt‘. Dieses Zitat stand am Anfang von etwas, das zur längsten Periode jemals ohne den Übertritt eines starken Hurrikans auf das US-Festland werden sollte.

[Gegenteilige] Fakten waren nie ein Hindernis für den Klimawandel-Alarmismus, und wir werden fortfahren, während der nächsten Monate und Jahre für die Wahrheit zu kämpfen. Aber an diesem Wochenende konzentrieren wir unsere Gebete auf die Bewohner von Texas“.

Bette Grande
Ms. Grande represented the 41st District in the North Dakota Legislature from 1996 to 2014.

——————————————–

„Es ist wichtig zu verstehen, dass Hurrikane eine der vielen natürlichen Wärme-Umverteilungs-Prozesse sind, welcher sich die Atmosphäre bedient, um zu verhindern, dass Temperaturniveaus über einen bestimmten Punkt hinaus steigen in Gebieten mit großen Mengen von Wasser und Wasserdampf. Hurrikane können wie andere Prozesse auch nicht sinnvoll modelliert werden, nicht einmal mit den größten und ausgeklügeltsten Klimamodellen des IPCC.

Aber hinsichtlich der Regulierung exzessiver Wärme, welche die primären Sorgen der Klimaalarmisten sind, sind all diese Prozesse sehr wichtig und nützlich bei der Kontrolle von genau dem, über was die Klimaalarmisten sich Sorgen zu machen vorgeben. Es ist also ziemlich merkwürdig, dass die Klimaalarmisten besorgt sind hinsichtlich sich selbst regulierender Wärme-Prozesse der Erde, die tatsächlich genau das tun, was sie wollen, anders als ihre astronomisch teuren und sinnlosen Reduktionen von CO2-Emissionen“.

Weitere Informationen hier.

Alan Carlin
Environmental Economist, Scientist (ret.), Environmental Protection Agency
Policy Advisor, The Heartland Institute

——————————————–

„Der Medien-Hype wird die von dem Sturm angerichteten Schäden übertreffen. Das ist immer so. Die Medien lieben Berichte von der Art ,der Himmel fällt uns auf den Kopf‘. Sie sorgen für Quoten, verkaufen sich gut und steigern den Web-Verkehr. Harvey ist ein starker Hurrikan. Seine Flutwelle und der Wind werden extensive Schäden und Überschwemmungen mit sich bringen. Das ist bei Hurrikanen immer so. All das sind Nachrichten.

Ich habe über mehr als ein Dutzend Hurrikane für ABC [ein US-Medienkonzern] berichtet. Die Nachrichtenschreiber wollten, dass ich ,der Himmel fällt herab‘ rufe und dass ich vom Regen durchtränkt, vom Winde verweht und hinweg gespült werde – live im Fernsehen. Nichts hat sich bzgl. Medien oder Hurrikanen geändert. Und dies hat nichts zu tun mit der Klimawandel-Extase á la Al Gore. Hurrikane sind die Art der Natur zu sagen, dass es ein heißer Sommer war. Das Wasser ist wirklich warm geworden, und die Erde dreht sich immer noch. Dafür sei Gott Dank“.

John Coleman
Meteorologist
Founder, The Weather Channel
Policy Advisor, Environment
The Heartland Institute
——————————————–

„So mächtig, wie Harvey Texas und die US-Staaten am Golf betroffen hat mit massiven Schäden, fangen die Alarmisten bereits an, darüber zu schwadronieren, wie der Sturm zusammenhängt mit dem, was zuerst ,globale Erwärmung‘ und jetzt ,Klimawandel‘ heißt. Natürlich ist die Änderung dieser Nomenklatur eine Folge der zahllosen Satelliten- und Ballondaten, welche seit zwei Jahrzehnten kaum Erwärmung gemessen haben. Die Behauptung des vom Menschen via seiner CO2-Emissionen verursachten Klimawandels ist einfach nichts, was bisher wissenschaftlich bewiesen ist.

Wir hatten immer Extremwetter. Fangen wir mal mit der Eiszeit des Pleistozäns an, welche fast zwei Millionen Jahre dauerte, erst vor 11.700 Jahren zu Ende ging und während der 32 Prozent der Landmassen der Welt mit Schnee und Eis bedeckt waren. Man kann auch die Verheerungen durch die Dust Bowl-Jahre in den dreißiger Jahren* betrachten. Oder die Verheerungen in Bermuda, nachdem im 18. Jahrhundert innerhalb nur einer Woche mehrere Hurrikane hintereinander über die Insel hinweg gezogen waren. Man könnt die große und in ihrem Ausmaß bis heute unerreichte Große Flut des Mississippi im Jahre 1927 betrachten, welches 630.000 Menschen in neun US-Staaten betroffen und unermessliches Leid mit sich gebracht hatte.

[*Die ,Dust Bowl-Jahre: eine Periode in Nordamerika, in der es mehrere Jahre lang hintereinander zu einer verheerenden Hitze und Dürre gekommen war. Während dieser Zeit lagen die Temperaturen zumindest in den USA deutlich höher als heute. Teilweise wurden Hitzerekorde gemessen, die bis heute nicht wieder erreicht oder gar übertroffen worden sind. Die Alarmisten haben zwar sämtliche relevanten Statistiken derart gefälscht, dass diese Periode verschwunden ist, aber das ändert natürlich nichts an der Tatsache, dass sie aufgetreten war. {War wohl zu unbequem für Al Gore}. Anm. d. Übers.]

Das sind historische Fakten, welche unwiderlegbar die Dynamik der Erde und deren Klima belegen. Die Vergangenheit wird immer der Prolog sein, und immer wird es bei uns Hurrikane geben. Wir werden auch immer vielfältige Energie zu bezahlbaren Preisen brauchen. Diese verursacht keinen ,Klimawandel‘, sondern sorgt für das weitere Überleben und den Fortschritt der Menschheit“.

Fred Palmer
Senior Fellow, Energy Policy
The Heartland Institute
——————————————–

„Die Windgeschwindigkeit in einem Hurrikan, wenn er sich über dem Ozean bildet, wird geschätzt mittels Flügen in der entsprechenden Höhe und der Messung der Windgeschwindigkeit. Diese Daten werden in ein Computermodell eingegeben, welches den Forschern Aussagen über die Windgeschwindigkeit gibt, aufgrund derer dann die Einstufung erfolgt. Die Besessenheit der NOAA führte dazu, die Windgeschwindigkeit so hoch wie möglich anzusetzen, welche an die Medien weitergegeben wird, die immer nach sensationellen Ereignissen gieren. Sowohl die NOAA als auch die Medien wollen die Menschen glauben machen, dass das, was derzeit vor sich geht, anomal und der vom Menschen verursachten globalen Erwärmung geschuldet ist.

Das war so, als der Hurrikan Kathrina im Jahre 2005 zuschlug, und viele Alarmisten waren sehr erfreut, dass sie schließlich doch noch eine Messung erhielten, welche diesen Sturm in die höchste Kategorie 5 hob. [Man lasse sich das mal auf der Zunge zergehen: Je stärker und schlimmer ein Hurrikan, umso mehr jubeln die Alarmisten! Anm. d. Übers.]. Aber als er dann auf die Küste traf, ergaben die Messungen der Windgeschwindigkeit gerade mal die Kategorie 3. Das Problem in New Orleans war das Versäumnis, geeignete Deiche aufzuschütten und zu warten, und die meisten Opfer an Menschenleben gingen wie in Galveston im Jahre 1900 auf das Konto von Überschwemmung und Ertrinken. Natürlich besteht eine Lösung des Problems darin, den Menschen nicht zu erlauben, sich in natürlichen gefährdeten gebieten anzusiedeln. Einige sind der Ansicht, dass man ihnen das nur erlauben darf, wenn sie die eigene Verantwortung übernehmen. Das Problem dabei ist jedoch, wie ich an der Überschwemmung des Red River in Manitoba selbst miterleben durfte, dass in der Minute, in der die Überschwemmung eintritt, die Anwohner nach Maßnahmen der Regierung rufen. Dies spielt mit dem natürlichen Bedürfnis, einem Mitbürger zu helfen, ein sehr anerkennenswerter Charakterzug.

Hurrikane sind normale Ereignisse. Was wir heute erleben, liegt deutlich innerhalb jedweder natürlicher Variabilität auf der Grundlage der begrenzten Aufzeichnungen dieser Ereignisse. Die Irreführung, dass die anthropogene globale Erwärmung irgendetwas mit Hurrikan Harvey zu tun hat, wurde ausschließlich begangen, um einer politischen Agenda zu frönen.

Timothy Ball
Former Climatology Professor, University of Winnipeg
Policy Advisor, The Heartland Institute
——————————————–

„Die USA waren in der glücklichen Lage, dass es eine rekordlange Zeit keinen Übertritt starker Hurrikane auf das US-Festland gegeben hat. Wenn diese Periode jetzt aufgrund natürlicher Prozesse zu Ende geht, wollen wir hoffen, dass die Menschen in Texas und anderen betroffenen US-Staaten den Sturm mit so wenig Schäden wie möglich für Menschen und Eigentum abwettern“.

S.T. Karnick
Director of Publications
The Heartland Institute
——————————————–

„Der vorherige längste Zeitraum ohne großen Hurrikan betrug neun Jahre – von 1860 bis 1869, also vor fast 150 Jahren! Die fast 12 Jahre lange Abwesenheit von auf das Festland übertretenden Hurrikanen steht diametral im Gegensatz zu dem, was Al Gore und seine Erfüllungsgehilfen der ,gefährlichen anthropogenen Klimawandel‘-Alarmisten sowie die daraus saftige Profite schlagenden Apologeten seit Jahrzehnten von sich geben – solange wir, wie könnte es anders sein – unseren Verbrauch fossiler Treibstoffe nicht reduzieren, welche unseren Lebensstandard und die öffentliche Sicherheit garantieren.

Ich würde niemals behaupten, dass diese rekordlange Zeit mehr Pflanzen düngendem Kohlendioxid in der Erdatmosphäre geschuldet ist – obwohl dies perfekt zu der Art und Weise passen würde, mit der Alarmisten Extremwetterereignisse grundsätzlich dem steigenden CO2-Niveau in die Schuhe schieben. Aber ich sage mit Sicherheit, dass es jetzt offensichtlich sein sollte, was unser Klima treibt: die Sonne, kosmische Strahlen, ozeanische und andere starke natürliche Kräfte, über die wir Menschen niemals Kontrolle ausüben können.

Selbst falls Harvey nicht die Kategorie 3 oder höher erreicht, wird er lebensbedrohende Regenfälle und Überschwemmungen mit sich bringen, ebenso wie Flutwellen, fließende Trümmer, Stromausfälle, verschmutztes Wasser und andere Gefahren. Die Menschen auf seinem Weg sollten besonders vorsichtig sein. Wir anderen sollten für die Sicherheit der Menschen beten und hoffen, dass sich der Sturm nicht wieder verstärkt und/oder längere Zeit über Texas und Louisiana verharrt.

Paul Driessen
Senior Policy Advisor
Committee for a Constructive Tomorrow
Policy Advisor, Energy and Environment Policy
The Heartland Institute
——————————————–

„Weder die lange Periode ohne starke Hurrikane noch die sieben Übertritte von Hurrikanen auf das Festland während der Jahre 2004 und 2005 sagen uns irgendetwas darüber, ob es zu einer signifikanten globalen Erwärmung durch Verbrennung fossiler Treibstoffe seitens der Menschen kommt oder nicht. Bei jedem auftretenden Extremwetterereignis heutzutage gleich von einem ,Beweis‘ eines vom Menschen verursachten Klimawandels zu schwafeln ist zweifelhaft, und der Wille, diese Ente in die Welt zu setzen, führt zu ernsten Glaubwürdigkeits-Problemen für jedweden Befürworter drastischer Maßnahmen, um Treibhausgas-Emissionen zu reduzieren.

Übertreibungen und mutwillige Verbreitung von Schauermärchen verhindern, dass seriöse Menschen ehrlich darüber diskutieren können, was man, falls überhaupt etwas, gegen die globale Erwärmung tun könne. Globale Erwärmung kann Hurrikane verstärken – oder auch nicht.

Ich hoffe inständig, dass die Einwohner in Texas und anderen Risikogebieten den Warnungen der Behörden folgen, so dass Verluste an Menschenleben verhindert werden können.

Eine bedeutende Lektion von Harvey ist die Idiotie hinter dem Gedanken, Versicherungen gegen Überschwemmung zu subventionieren. Subventionierte Versicherungen steigern die Anzahl der Menschen, die in Gebieten leben, welche anfällig sind für lebensbedrohende Flutwellen und Überschwemmungen. Dies bedeutet Lebensgefahr und Gefährdung von Steuerzahlern“.

Daniel Sutter
Professor of Economics, Troy University
Policy Advisor, The Heartland Institute
——————————————–

„Umweltaktivisten werden vermutlich auf Hurrikan Harvey verweisen als weiteres Glied in der Kette von mehr Extremwetterereignissen infolge globaler Erwärmung, von der Alarmisten behaupten, sie sei vom Menschen verursacht. Aber globale Erwärmung scheint tropische Zyklone eher zu reduzieren in allen Zeitmaßstäben.

Historische Daten zeigen, dass das Wetter ganz allgemein während kälterer Perioden extremer war. Die chinesischen Wissenschaftler Kam-Biu Liu and D.D. Fan (Chinese Science Bulletin 53: 2907-2922, 2008) berichten: ,Die Häufigkeit von Taifunen scheint zumindest regional zugenommen zu haben während der kältesten Phasen der Kleinen Eiszeit‘. Und es war während der jüngsten globalen Abkühlungsperiode von 1945 bis 1977, dass der Hurrikan Camille die küstennahen Gebiete im Mississippi-Delta heimsuchte, was 256 Todesopfer forderte. Tatsächlich erreichten im Jahre 1969 12 tropische Zyklone Hurrikanstärke, weit mehr als normal. Im folgenden Jahr forderte ein tropischer Zyklon in der Bucht von Bengalen etwa 250.000 Todesopfer, das ist die höchste Zahl jemals aufgrund eines Einzel-Ereignisses.

Anstatt vergeblich zu versuchen, tropische Zyklone an der Entstehung zu hindern, brauchen wir diesbezüglich bessere Vorbereitungen.Man vergleiche den Kontrast, als der Taifun Hayan im Jahre 2013 die völlig unvorbereiteten Philippinen betroffen hat, während ein Zyklon gleicher Stärke im Jahre 2011 in Australien überhaupt keine Verluste an Menschenleben mit sich brachte. Dort gibt es ordentliche Schutzeinrichtungen.

Tom Harris
Executive Director, International Climate Science Coalition
Policy Advisor, Energy and Environment
The Heartland Institute
Link: https://www.heartland.org/news-opinion/news/press-release-heartland-institute-experts-comment-on-hurricane-harvey

Übersetzt von Chris Frey EIKE




Sommer­mythen zum Sommer­ausklang – einfach entzau­bert

Nach den heiligen Lehren und meist unsinnigen Apokalypsen der Klima-Alarmisten von IPCC, PIK & Co. sollen die Sommer in Deutschland ja immer trockener werden. Der 2017er Sommer spielte da aber nicht mit- wer sich auf Wanderschaft begab, brauchte eher Gummistiefel als Sandalen. (Siehe Pressemitteilung des DWD vom 31.07.2017 http://www.dwd.de/DE/presse/presseseite_node.html;jsessionid=7E831BC8E375A6DAE9208FE674595E82.live21064). Allein der Juli 2017 gehörte zu den 10 niederschlagsreichsten Monaten seit 1881. Und da die Jahresniederschläge seit 1881 laut DWD in Deutschland um 11% zugenommen haben, kann es nicht am fehlenden Regen liegen, wenn die Waldböden laut Forstämtern immer trockener werden.

Abb. 1: Riesige Pfützen statt staubiger Pfade im nassen Sommer 2017. Foto: Stefan Kämpfe

Insgesamt sind im Deutschland- Mittel in diesem Sommer etwa 300mm Regen gefallen; deutlich mehr als das Langfrist-Mittel (1881 bis 2016) von 246mm, aber keinesfalls rekordverdächtig viel. Niederschläge schwanken ohnehin langfristig stark; ein Langzeittrend zu mehr Trockenheit in den drei Sommermonaten ist nicht erkennbar, während die Winterniederschläge (hier nicht gezeigt) eindeutig zugenommen haben:

Abb. 2: Die Sommer weigern sich bislang beharrlich, den Prognosen von IPCC, PIK & Co. zu gehorchen – sie werden einfach nicht trockener.

Aber vielleicht wird es ja wenigstens in den Trockengebieten Deutschlands im Sommer trockener? Die Station Erfurt-Weimar, am Südrand des Thüringer Beckens, liegt im Lee der Mittelgebirge im Mitteldeutschen Trockengebiet. Hier wird leider erst seit 1952 gemessen; seitdem erhöhten sich die Sommerniederschläge unwesentlich:

Abb. 3: Auch im Mitteldeutschen Trockengebiet bleibt die sommerliche Austrocknung ein Märchen.

Vom Niederschlag ist es nicht weit zu den „Unwettern, die immer häufiger werden“. Eine exakte Definition, was ein „Unwetter“ ist, gibt es nicht- das hängt sehr stark von den geografischen und gesellschaftlichen Faktoren ab. Mittlerweile wird ja jede Mure, jeder Starkregen, jedes Hagelkorn und jede Gewitterböe medial als Menetekel des Klimawandels gedeutet. Einen groben Anhaltspunkt, ob es mehr Unwetter gibt; liefert die Anzahl der sommerlichen Gewittertage. Sie wird in Potsdam seit 1893 beobachtet; wobei freilich jedes harmlose Grummeln und jedes Unwetter gleichrangig erfasst werden:

Abb. 4: Seit 1893 nahm die Anzahl der sommerlichen Gewittertage in Potsdam etwas ab. 2017 (noch nicht enthalten) wies bis Ende Juli 14 Gewittertage auf, und der August war auch nicht extrem gewitterreich, so dass höchstens um die 20 Tage zu erwarten sind.

Aber wenn es schon nicht trockener und auch nicht unwetterreicher im deutschen Sommer zugeht- vielleicht ist ja mittlerweile wenigstens das sommerliche Meereis in der Arktis verschwunden? Der gut verdienende Chef- Katastrophist und Märchenerzähler Al Gore hatte sein Verschwinden schon für die Mitte des Jahres 2013 vorhergesagt http://info.kopp-verlag.de/hintergruende/enthuellungen/alex-newman/al-gore-sagte-voraus-2-13-sei-die-arktis-voellig-eisfrei-stattdessen-ist-die-eisschicht-um-die-ha.html. Ein Blick auf den Nordpol 2017 zeigt jedoch- das sommerliche Meereis ist auch Ende August 2017 noch da, und zwar mit über 5 Millionen Km² deutlich mehr, als zum bisherigen Rekord- Minimum 2012:

Abb. 5 und 6: Auch das arktische Meereis trotzt den Vorhersagen und verschwindet nicht. Am 25. August 2017 war das Seegebiet rund um den Nordpol mit Eis bedeckt (obere Abb. 5). Noch im Frühsommer sah Vieles wenigstens nach einem neuen Minimum-Rekord aus; doch im Hochsommer schmolz weniger Eisfläche ab (blaue Kurve); der Rekord von 2012 (dunkelgrün) wurde zum Stand am 25.08.2017 nicht annähernd erreicht, und das Ende der sommerlichen Schmelze steht kurz bevor (untere Abb. 6.). Bildquelle http://nsidc.org/arcticseaicenews/, ergänzt von Stefan Kämpfe

Zur kurz- und langfristigen Arktiseisentwicklung ist auch dieser aktuelle EIKE- Beitrag interessant https://www.eike-klima-energie.eu/2017/08/22/was-wissen-wir-ueber-die-trends-des-arktischen-meereises/. Um den Alarmisten aber wenigstens ein kleines Erfolgserlebnis zu gönnen, wollen wir nicht unerwähnt lassen, dass die sommerlichen Lufttemperaturen Deutschlands seit Beginn der Aufzeichnungen leicht gestiegen sind, wobei es bislang jedoch immer noch keinen wissenschaftlichen Versuchsnachweis gibt, dass dieser Temperaturanstieg durch CO2 bewirkt wurde:

Abb. 7: Im Gleichklang mit der AMO (grün) wurden die Sommer in Deutschland wärmer. Diese eher angenehme Erwärmung muss freilich nicht ewig andauern- Klimawandel ist keine Einbahnstraße. Schon einmal, nämlich zwischen den 1950er und den 1980er Jahren, wurden die Sommer kühler, obwohl auch damals schon die CO2- Konzentrationen merklich anstiegen.

Auch der Sommer 2017 war trotz seiner Unbeständigkeit mit etwa 17,9 °C (DWD- Mittel) etwas zu warm, auch gemessen am CLINO- Wert 1981 bis 2010, der 17,1°C beträgt. Doch ehe jetzt wieder vorschnell der „CO2- bedingte Klimawandel“ dafür verantwortlich gemacht wird, lohnt ein Blick auf drei weitere, wesentliche Ursachen der sommerlichen Erwärmung. Selbst der DWD gab unlängst auf seiner Startseite zu, dass die Globalstrahlung (im Wesentlichen direkte Sonnenstrahlung plus diffuse Einstrahlung) zunahm:

Abb. 8: Zunehmende Globalstrahlung seit 1983, das bedeutet mehr erwärmende Energie von Sonne und Himmel (je mehr die Farben ins Rote gehen, desto stärker war die Zunahme). Quelle: DWD

Besonders von April bis September wirkt eine Strahlungszunahme stark erwärmend. Nur die Sonnenscheindauer ist jedoch über viele Jahrzehnte an wenigen Stationen lückenlos aufgezeichnet; in Potsdam immerhin seit 1893. Das entsprechende Streudiagramm zwischen mittlerer Sonnenscheindauer je Sommertag und Sommertemperaturen zeigt eindeutig, wer im meteorologischen Sommer die meiste Wärme erzeugt- die Sonne nämlich:

Abb. 9: Mit einem Bestimmtheitsmaß von gut 60% ist der Zusammenhang zwischen Sonnenscheindauer und Lufttemperaturen im Sommer hoch signifikant. Scheint die Sonne länger als üblich, ist es wärmer.

Über die Gründe der verstärkten Insolation kann man nur spekulieren. Neben den Luftreinhaltemaßnahmen, welche ab den späten 1980er Jahren die Luft über Deutschland klarer und ärmer an tiefen Wolken machten, kommen auch weitere Ursachen wie die starke Sonnenaktivität oder die Austrocknung der Landschaft durch Melioration und Versiegelung in Betracht. Weiterhin lohnt ein Blick auf die Häufigkeitsverhältnisse der Großwetterlagen, denn kühlende West-, Nordwest- und Nordlagen wurden seit 1881 deutlich seltener; was immerhin fast 35 % der sommerlichen Temperaturvarianz erklärt:

Abb. 10: Weniger Wetter aus der „kühlen“ Ecke von West bis Nord; auch dieser Zusammenhang ist signifikant, allerdings mit negativem Korrelationskoeffizienten von -0,59 entsprechend B = 34,8%.

Und als dritter Erwärmungsfaktor sind die verschiedensten Wärmeinseleffekte (WI) zu nennen. Sie könnten auch mit zu der höheren Sonnenscheindauer beigetragen haben.

Der zunehmende sommerliche Wärmeinseleffekt dürfte mit eine der Hauptursachen für die steigenden Sommertemperaturen sein.

In den letzten 150 Jahren haben sich Deutschland und viele andere Länder wesentlich verändert, so stark wie nie zuvor in der Menschheitsgeschichte. Und alle Veränderungen führten zu Erwärmungen just dort, wo die Oberfläche der Erde durch Städteerweiterungen, Trockenlegungen und Bebauungen verändert wurde. Diese Landschaftsbetonierungen und Trockenlegungen setzen sich täglich fort, in Deutschland innerhalb und außerhalb der Gemeinden in der Summe mit etwa 100 ha täglich. Wo zuvor kühlende Vegetation und feuchter Boden die Sonnenwärme dämpften, heizen sich heute Beton, Asphalt, Mauern und Dächer tagsüber auf und geben nachts die gespeicherte Wärme wieder ab. Auch die wie Pilze aus dem Boden geschossenen Wind- und Solarparks wirken erwärmend. Zudem sind in den Großstädten die Frischluftschneisen immer mehr verbaut, die eh sich verringernde kühlende Frischluftzufuhr erreicht das Zentrum der Städte nicht mehr und verliert sich in den Außenbezirken. Siehe https://youtu.be/mox5tHQDXt8 .Der ganze Artikel dazu ist abrufbar unter: https://www.eike-klima-energie.eu/2017/08/03/waermeinsel-und-stadtklimaeffekte-als-erwaermungsverursacher-teil-1-hoehe-des-stadt-stadtrandeffektes-von-zuerich/

Da die Messstationen bevorzugt dort aufgestellt sind, wo der Mensch lebt und arbeitet, nämlich in den Wärmeinseln, hat die Zunahme der Wärmeinseleffekte natürlich einen erheblichen Anteil an den gemessenen Temperaturen.

Betrachten wir zunächst die Sommertemperaturen Deutschlands aus der Zeit der bitteren Armut nach dem Kriegsende bis heute.

Abb. 11: Die drei Sommermonate wurden in Deutschland nach Kriegsende zunächst kälter, die erneute Erwärmung setzte dann begünstigt durch den Wiederaufbau und den steigenden Wohlstand mitsamt Energieverbrauch nach 1965 wieder ein, wobei sich ein neues Plateau andeutet. Auch die Sommererwärmung ist trotz weiterer Zunahme der Wärmeinseln in den beiden letzten Jahrzehnten zu einem Ende gekommen, weil möglicherweise Sonnenscheindauer und wärmende Großwetterlagen nicht andauernd zunehmen können.

Wir stellen uns deshalb wieder die Frage: Wie sähe die Temperaturentwicklung der drei Sommermonate ohne den Wärmeinseleffekt bei den Messstationen aus?

Um diese Frage annähernd zu beantworten, gibt es zwei Näherungsmöglichkeiten.

  1. WI-Korrekturwert: Wir rechnen nach der Methode von Raimund Leistenschneider die WI- Effekt-Erwärmung aus den Daten raus. In den letzten 20 Jahren ergibt sich folgendes Bild.

Abb. 12a: WI-bereinigte Sommertemperaturen Deutschlands in der Gegenwart. Beide Trendlinien zeigen fast Stagnation, wobei die grüne WI-bereinigte bereits eine Abkühlung der Sommermonate in Deutschland andeutet.

  1. Ländliche Stationen

Es gibt in Deutschland natürlich auch Landschaften mit Messstationen, die sich in der Gegenwart weniger wärmend verändert haben. Interessant ist deren Entwicklung der Sommertemperaturen. Beispiel: Schneifelforsthaus an der belgischen Grenze, die Station liegt an der Kreuzung zweier Schnellstraßen, aber sonst in einer ländlichen Umgebung der Eifel:

Abb. 12b: Kaum steigende Sommertemperaturen auf dem Lande, hier Schneifelforsthaus, seit 20 Jahren. Der Trendlinienverlauf unterscheidet sich nicht stark vom Verlauf der WI-bereinigten Deutschlandkurve in Grafik 12a.

Längere Zeitreihen

Nur wenige deutsche Stationen gehen weit zurück. Eine davon wäre die Station Berlin-Tempelhof, die allerdings ab 1930 am rasanten Aufstieg des Teilortes mit dem Flughafenbau profitiert hat. Das sieht man auch an der Langzeitkurve. Wir beginnen mit der Reihe ab 1756, weil die 50 Jahre davor als nicht zuverlässig gelten können. Man beobachte auch, 1756 wurde Mozart geboren, Goethe kurz zuvor.

Abb. 13: Keine Sommererwärmung an der Messstation Tempelhof über die letzten 262 Jahre. Die Sommer waren zeitweise wärmer oder kälter als heute. Seit 25 Jahren werden sehr heiße und sehr kühle Sommer gleichermaßen seltener; es dominieren mäßig warme. Der kälteste Sommer in Tempelhof war 1923, der wärmste 1757. Der heißeste Sommermonat war der August 1807, dem allerdings ein kühlerer Juni vorausging.

Die beiden Autoren hoffen, dass die drei Sommermonate auch in den nächsten Jahrzehnten auf dem jetzigen angenehmen Temperatur-Niveau bleiben werden; eine Garantie dafür gibt es nicht. Jedenfalls musste in den Städten 2017 an keinem einzigen Sommertag die Heizung in Betrieb genommen werden.

Schauen wir am Ende unserer Betrachtungen über Sommer- Mythen noch nach Zentralengland, wo seit 1659 halbwegs verlässliche Temperaturaufzeichnungen vorliegen und ziemlich am Anfang der Reihe der Höhepunkt der „Kleinen Eiszeit“, die kälteste Phase der letzten gut 1.000 Jahre (vermutlich sogar die kälteste des ganzen Holozäns), mit erfasst wird. Der seitdem erfolgte sommerliche Temperaturanstieg ist mit knapp 0,4K (entspricht 0,4 °C) bescheiden und keinesfalls besorgniserregend:

Abb.14: Über dreieinhalb Jahrhunderte erwärmte sich der Sommer in Zentralengland nur geringfügig. Die gegenwärtige Warmphase scheint dort zu enden; und der absolut wärmste Sommer dieser Reihe (1976) liegt nun auch schon 40 Jahre zurück (der 2017er Sommer fehlt hier noch; er wird mit etwa 16,3°C nicht auffallend warm werden).

Der 2017er Sommer mag so manchen Urlauber, Gärtner und Landwirt wegen seiner Kapriolen genervt haben- doch er war besser als sein Ruf. Es war also ein nur etwas zu warmer, typisch deutscher, wechselhafter Sommer, welcher oft dem Landwirt die Ernte verregnete und dem Eismann die Kundschaft vergraulte, doch es gab auch sonnige Momente und schöne, warme Tage. Von Tag zu Tag, aber auch innerhalb eines Tages, wechselten Witterung und Temperaturniveau häufig abrupt. Manchmal stand man morgens bei Regen auf und suchte Schirm und Jacke- da schien schon wieder die Sonne. Viele Kurzfristprognosen waren deshalb mangelhaft. So wurde für das vierte Juli- Wochenende viel Bewölkung und häufiger Regen in Thüringen erwartet; tatsächlich schien außer kurzen Schauern bei viel Wind oft die Sonne bei warmen Temperaturen. Unangenehm war jedoch die häufige Schwüle. Trotzdem gab besonders im Juni und teilweise im August auch reichlich Sonnenschein. Und wie es momentan aussieht, könnte auch der September noch ein paar Spätsommertage bringen. Den Wildpflanzen bekam die wechselhafte, feucht- warme Witterung ausgezeichnet, so dass auch die Spätblüher auf den Steppenrasen Mitteldeutschlands teilweise reiche Aspekte bildeten:

Abb. 15: Reicher Blühaspekt der Goldhaar-Aster Ende August 2017 am Brembacher Weinberg nördlich von Weimar. In den Sommern 2015 und 2016 war der Steppenhang durch die häufigen Dürren Ende August braun; es blühten nur wenige Goldhaar- Astern. Phänologisch gehört dieser Blühaspekt bereits zum Übergang vom Früh- zum Vollherbst; Wildrosen, Weißdorne und Holunder sind nahezu vollreif. Foto: Stefan Kämpfe

Fazit: Die meisten Sommermythen gehören ins Reich der Fantasie. Weder wurden die deutschen Sommer trockener oder unwetterträchtiger; Unwetter, die nicht einmal genau definiert sind, bilden nun leider einmal die unschöne Begleitmusik eines jeden Sommers. Auch das sommerliche Arktiseis verschwand bislang nicht. Die angenehme, leichte sommerliche Erwärmung der letzten etwa 35 Jahre ist keinesfalls ungewöhnlich und ganz ohne CO2- Mythos mit mehr Sonnenschein, weniger kühlenden Wetterlagen und Wärmeinseleffekten zu erklären. Seit dem späten 17. Jahrhundert gab es schon öfters Phasen mit tendenziell wärmeren oder kälteren Sommern. Der 2017er Sommer war besser als sein Ruf; trotz häufiger Niederschläge war er weder zu kalt, noch extrem sonnenscheinarm oder extrem nass.

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, Naturbeobachter, unabhängiger Natur- und Klimaforscher




Warum verschweigt die UK-Regierung die wahren Kosten erneuer­barer Energie?

Jeder weiß, dass erneuerbare Energie inhärent unsicher ist, oder wie es Ingenieure ausdrücken: „intermittierent“. Nichtsdestotrotz folgt man derzeit einem Programm, um bzgl. unserer Stromversorgung noch abhängiger von dieser Technologie zu werden.

Dies hat die Regierung gezwungen, eine riskante Wette einzugehen über „Flexibilitäts-Maßnahmen“ in einem verzweifelten Versuch, diese gewaltige technologische Herausforderung zu meistern und zu managen.

Diese Maßnahmen werden saftige Vorlaufkosten in Höhe von 20 Milliarden Pfund mit sich bringen, aber die Vorteile sind unsicher, erstrecken sich über viele Jahre und werden um ein Vielfaches übertroffen durch die Kosten der Subventionen für Erneuerbare. Wieder einmal bringt es die Regierung nicht fertig, ehrlich zu sein hinsichtlich der erheblichen Kosten, die durch den Wechsel von fossilen Treibstoffen zu erneuerbaren Energien anfallen.

Die Maßnahmen kommen in einem Paket von 29 Einzelmaßnahmen daher, welche die Regierung ergreift. Dies haben der Energie-Manager Ofgem und die Industrie als Teil eines „Smart Systems and Flexibility Plan” im Juli veröffentlicht. Diese Maßnahmen stützen zwei grundlegende Objektiven: größere Anreize für Firmen, Einrichtungen für Energiespeicherung zu entwickeln und es Firmen leichter machen, für die Reduktion ihres Energieverbrauchs bezahlt zu werden, wenn die Kapazität nicht voll ausgeschöpft wird.

Die Verschiebung hin zu einer größeren Anzahl von mittelständischen Energieversorgern wird das Nationale Netz zwingen, weit mehr zu investieren in die Übertragungs- und Verteilungs-Netzwerke, welche den Strom vom Erzeuger zum Verbraucher leiten. Npower zufolge wird dies bis zum Jahr 2020 die durchschnittlichen heimischen Stromrechnungen um 114 Pfund steigen lassen, das ist eine Teuerung von 124 Prozent relativ zum Jahr 2007.

Ein Beispiel derartiger Investitionen ist die jüngst eingerichtete Beauly-Denny-Leitung, welche 820 Millionen Pfund kostet und einen furchtbaren Stahlstrang durch das Schottische Hochland zieht. Immer wieder geht das Vorantreiben von Erneuerbaren auf Kosten des Umweltschutzes.

Ein Report über die System-Flexibilität durch die Berater bzgl. grüner Energie bei Carbon Trust hat zu vielen Schlagzeilen geführt des Inhalts, dass derartige Maßnahmen dem Land Einsparungen in Höhe von 40 Milliarden Pfund bescheren. Das ist irreführend. Die Studie der Regierung selbst enthüllt, dass die Einsparungen lediglich 17 Milliarden Pfund betragen könnten und sich bis zum Jahr 2050 erstrecken. Dies ist gleich einer viel moderater klingenden Einsparung zwischen 500 Millionen und 1 Milliarde Pfund pro Jahr.

Aber es gibt mit diesen Berechnungen ein noch größeres Problem. Die vermeintlichen Einsparungen sind berechnet bzgl. der Kosten für drakonische Ziele hinsichtlich Klimawandel, aber ohne Investitionen in jedwede neue Ressourcen. Ein alternatives Vorgehen könnte viel billiger sein, aber es würde erfordern, von den starren Vorgaben des Klimawandel-Gesetzes [climate change act] abzurücken. Tatsächlich belaufen sich die Kosten des Befolgens dieses Gesetzes auf 10 Milliarden Pfund pro Jahr, Tendenz stark weiter steigend, bis sie sich im Jahre 2030 auf 30 Milliarden Pfund pro Jahr belaufen. Jedwede illusorische Einsparungen durch Fexibilitäts-Maßnahmen werden marginalisiert durch die Kosten der Subventionen für Erneuerbare.

Dies ist nichts weiter als eine weitere Rechnung für die ohnehin schon hart bedrängten Verbraucher, um „saubere“ Technologien zu unterstützen. Sie wurde absichtlich und irreführend als eine Einsparung hinaus posaunt mit der unterschwelligen Botschaft, dass das Befolgen des Klimawandel-Gesetzes eine Art unveränderliche Lebens-Tatsache ist. Die Wahrheit ist, dass es eine Wahl ist, und Politiker sollten anfangen, offen zu sein hinsichtlich der Kosten dieser Wahl.

Eine genaue Lektüre der ganzen Regierungs-Studie bringt ans Licht, dass die relativen Vorteile der Politik ungleichmäßig verteilt sind auf verschiedene Typen von Verbrauchern. Sie haben die Initiative verkauft als eine Maßnahme, um „den Verbrauchern die Kontrolle zu übertragen“. Die Realität ist jedoch, dass sich die Maßnahmen primär auf eine kleine Gruppe großer Unternehmen als Stromverbraucher konzentrieren. Sie werden die größten Einsparungen einfahren, indem sie ihren Energieverbrauch regulieren: zum Beispiel durch das Abschalten großer Geräte, wenn deren Kapazität gar nicht ausgeschöpft wird.

Trotz der bedeutenden Kosten wird Britannien immer noch gezwungen sein, sich auf einen harten Kern von Gaskraftwerken zu verlassen, welche auch dann Strom liefern, wenn der Wind nicht weht und die Sonne nicht scheint. Diese Kraftwerke werden selten herangezogen und werden so im Unterhalt immer teurer. Einem in der Studie von Carbon Trust beschriebenen Szenario zufolge werden diese Kraftwerke im Jahre 2020 immer noch eine kombinierte Kapazität von 16 GW haben, aber sie werden nur während 6% der Zeit gebraucht, weil subventionierte Erneuerbare bevorzugt in das Nationale Netz eingespeist werden müssen.

Die Regierung hat folglich konspiriert, um alle bestehenden Technologien unökonomisch zu machen. Andererseits können neue Technologien gut wettbewerbsfähig werden vor dem Jahr 2050. Alle Eier werden in den Korb der schon jetzt scheiternden Erneuerbaren gepackt.

Fossile Treibstoffe haben die Wirtschaft seit der industriellen Revolution mit Strom versorgt, was es uns allen besser gehen lässt und was uns von der Tyrannei befreite, an das Land gebunden zu sein. Jetzt werden diese Errungenschaften graduell abgebaut durch Politiker, welche Unternehmens-Interessen und Lobbyisten erneuerbarer Energie über das Allgemeinwohl stellen.

Aber sie lehnen es ab, ehrlich in dieser Hinsicht zu sein. Wieder einmal haben die Regierung und verschiedene Interessengruppen bedeutende Kosten als „Einsparungen“ verkauft, und sie fordern uns auf, dafür dankbar zu sein.

Diese Politik kann durchaus Einsparungen mit sich bringen im Vergleich zur Politik der Errichtung weiterer Erneuerbarer ohne Flexibilitäts-Maßnahmen, aber das heißt nicht, dass sie nicht einhergehen mit Kosten für die Ökonomie als Ganzes. Dies ist die unvermeidliche Folge der versuchten Regulierung von Kohlendioxid vor allem anderen, koste es, was es wolle. Ein ausgewogeneres Vorgehen war niemals notwendiger als heute.

Link: https://capx.co/why-wont-the-government-admit-the-true-cost-of-renewable-energy/

Übersetzt von Chris Frey EIKE




Hurrikan HARVEY: Verheerend – nicht beispiellos

Die Praxis, Hurrikane mit Namen zu versehen, war noch nicht in Mode, aber dieser Hurrikan der Stärke 4 brauchte keinen Namen, um zu einer wirklichen humanen Tragödie zu werden. Der Sturm brachte Windgeschwindigkeiten bis 145 mph [ca. 230 km/h] mit sich und eine Flutwelle in Höhe von 15 Fuß [ca. 4,5 m]*, welche die Stadt überflutete.

[*Die Flutwelle tritt immer im Zentrum eines Wirbelsturmes auf, wo der Luftdruck bis zu 100 hPa tiefer sein kann als in der unmittelbaren Umgebung. Aus hydrostatischen Gründen liegt der Meeresspiegel dort einfach höher. Mit der Windgeschwindigkeit selbst hat die Flutwelle nichts zu tun. Am. d. Übers.]

Die Schätzungen reichen von 6000 bis 12.000 Todesopfern. Dieser Verlust an Menschenleben war so extrem, dass die Texaner mit der schieren Masse von Leichen nicht fertig wurden. Sie waren gezwungen, Massengräber auszuheben, Lastkähne für Massenbegräbnisse auf See zu beschaffen und Massenverbrennungen von Leichen am Strand zu organisieren. Der Verlust an Häusern, Leben und Eigentum war erschütternd. Die Stadt Galveston wurde wieder aufgebaut, erreichte aber nie wieder den vorherigen Glanz.

Wie zu erwarten war, hatten manche Klima-Campaigner nichts Eiligeres zu tun als Hurrikan Harvey der globalen Erwärmung in die Schuhe zu schieben.

Das ist Unsinn!

Die Ausbeutung des Leidens in Texas zu Propagandazwecken ist sowohl schamlos als auch taktlos, genau wie es mit der Ausbeutung der Verluste durch die Hurrikane KATRINA und SANDY in der Vergangenheit war.

In Wirklichkeit genoss Amerika eine ausgedehnte Periode, in der kein einziger Hurrikan der Kategorie 3 oder höher auf das Festland übergetreten war. Zuletzt war das bei dem Hurrikan WILMA der Fall, welcher am 24. Oktober 2005 Florida heimsuchte – also vor 12 Jahren. Dieser Umstand war sehr unbequem für Al Gore und seine Kumpane im Geiste, die hysterisch darauf bedacht waren, jedwede natürliche Wettertragödie als die Folge der vom Menschen verursachten globalen Erwärmung zu verkaufen.

Die Klima-Simulationen des Teams Erwärmung sind nicht nur mit der Prophezeiung der ausgedehnten Hurrikan-Dürreperiode grandios gescheitert, sondern allgemein mit der ganzen Bandbreite von Extremwetterereignissen, welche insgesamt im Vergleich zur Historie sehr spärlich aufgetreten waren. Sie hätten bessere Ergebnisse mit dem Werfen von Münzen erzielt.

Die gute Nachricht lautet, dass obwohl es herzzerbrechendes Leid und Härten in Texas geben wird, wir darauf vertrauen können, dass wir nicht die Art Leid sehen werden, welche der Große Galveston-Hurrikan vor 117 Jahren mit sich gebracht hatte.

Die ökonomische Kraft und fortgeschrittene Technologien, die uns dank unserer freien Märkte zur Verfügung stehen (welche die Grünen verachten), ermöglichen rechtzeitige Warnungen, damit die Menschen sich vorbereiten und Evakuierungen vorgenommen werden können. Heute sind wir in der Lage, rasch zu Hilfe zu eilen und es den Menschen zu ermöglichen, mit den Folgen des Sturmes fertig zu werden.

Auch die Meteorologie hat gewaltige Fortschritte gemacht, solide Wissenschaft anstatt fadenscheiniger Klimawissenschaft. Wenn Meteorologen ihre Kurzfristmodelle nutzen, sind sie tatsächlich in der Lage, die Zugbahn von Hurrikanen genau vorherzusagen, womit sie viele Menschenleben retten.

Jeder, der Ihnen sagt, dass Hurrikan HARVEY deutlich weniger heftig ausgefallen wäre, hätte es nicht die industrielle Revolution gegeben, oder ausreichend Energie zum Dienste der Menschheit, will Ihnen etwas verkaufen – etwas, das Sie nicht kaufen wollen.

Tatsächlich ist das Gegenteil der Fall. Hurrikan HARVEY ist natürlich. Die Fähigkeit, ihm zu begegnen, ist dem Menschen geschuldet.

Die Fähigkeit des Kapitalismus‘ der freien Märkte, bedürftigen Menschen zu dienen, ist unübertroffen.

Die finanziellen Verluste durch Hurrikan HARVEY mögen heute größer denn je sein. Aber dafür gibt es einen einfachen Grund. Es ist NICHT die Stärke oder die Größe des Sturmes. Der Grund ist vielmehr, dass die Stärke unserer Wirtschaft die Werte von Eigentum auf dem Weg von HARVEY dramatisch hat steigen lassen. Da sehen wir wieder die Macht des freien Marktes. Es gibt keine gleichwertige ökonomische Kraft.

Heute gelten unsere Gedanken, Gebete und unser Beistand all denen, die von Hurrikan HARVEY betroffen sind.

Und jedem, der die von HARVEY angerichteten Schäden ausbeutet, um das Narrativ der globalen Erwärmung voranzutreiben, den Sozialismus oder die ihren Reichtum durch Subventionen der Regierung steigern wollen, sagen wir:

SPIELEN SIE NICHT MIT TEXAS!

Link: http://www.cfact.org/2017/08/26/hurricane-harvey-devastating-not-unprecedented/

Übersetzt durch Chris Frey EIKE




Reichweiten­hunger als Kollateral­schaden im Klima­kampf

Und so unterstützten – ja fordern – GRÜNE und NGOs, dass mit dem EEG auch zwingend die Elektromobilität erzwungen werden muss.

Scheitert die Elektromobilität an fehlenden Rohstoffen?

Nachdem vieles, was unsere alternativlose Kanzlerin anpackt aus reinem Machtkalkül geschieht, und außer horrenden Kosten ein Nutzen fehlt, zeigt sich inzwischen immer mehr, dass es bei der Elektromobilität ebenfalls so kommen kann [2].
Es ist inzwischen so offensichtlich, dass sich selbst die (Des-)Informationsseite der Regierungsberaterin veranlasst sah, darüber zu berichten. Wobei es um zwei Problemstellungen geht:
-Die Verfügbarkeit der wichtigen Rohstoffe und
-parallel deren Preisexplosion.
-Die in [2] beschriebene Giftproblematik der modernen Akkus wird – wohl um die Bürger nicht zu sehr zu verunsichern, aktuell nicht angesprochen.

KLIMARETTER.INFO, 22. August 2017: [3] Der Kobold im Elektroauto
Der kommende Boom in der Batterie-Produktion für E-Mobilität steigert die Nachfrage nach zwei Metallen, die sonst nur wenige Verwendungszwecke kennen: Kobalt und Lithium. Ob die Förderung schnell genug ausgeweitet werden kann, ist noch nicht sicher.
Wer vor einem Jahr sein Geld in „Kobolderz“ investiert hat, kann sich über einen Kursgewinn von über 100 Prozent freuen. Das nach den frechen Hausgeistern benannte Metall Kobalt hat sich innerhalb eines Jahres von 25.000 US-Dollar pro Tonne auf 57.500 Dollar verteuert. Das schwächste Glied in der Rohstoffkette ist dabei Kobalt. Mit einem Marktanteil von knapp 60 Prozent ist die Demokratische Republik Kongo, das frühere Zaire, der wichtigste Lieferant von Kobalterz. Dieses wird dann in China verhüttet. China bestreitet knapp die Hälfte der globalen Produktion von 100.000 Tonnen an verhüttetem Kobalt pro Jahr.
Ein weiteres Problem ist Kinderarbeit im informellen Kleinbergbau, aus dem rund ein Fünftel der kongolesischen Kobaltproduktion stammt. Mark Dummett von der Menschenrechtsorganisation Amnesty International
sagte zur Situation im Kongo: „Die glanzvolle Werbung für die neueste Technik steht im scharfen Kontrast zu Kindern, die Säcke voller Steine schleppen, und zu Bergleuten, die in engen Tunneln schwere Lungenschäden riskieren.“
Im Gegensatz dazu ist die Lithiumproduktion auf mehrere Länder verteilt, die politisch stabiler sind als der Kongo. Australien, Chile und Argentinien sind die wichtigsten Produzenten des Leichtmetalls. Doch auch dieses wird teurer: In den letzten zwei Jahren hat sich
der Preis für eine Tonne Lithiumkarbonat auf rund 20.000 Dollar mehr als verdreifacht.

Kann der neue „Weltretter-Guru“ E. Musk, das richten?

Solche Vorbilder haben dem Globus bisher gefehlt: [4] Musks Antrieb: „Für mich geht es nicht darum, Geld zu verdienen, sondern die Probleme der Menschheit zu lösen“ …
Das glauben vielleicht GRÜNE. Wenn man nachsieht, wie die Verluste seiner E-Autofabrikation vom US Steuerzahler (und irgendwann von den Aktionären) bezahlt werden, für ihn aber trotzdem immer etwas übrig bleibt [6], kann man das kritischer sehen. Und Experten sehen für seine selbstlosen Rettungspläne Gefahren aufziehen:

[3] Der Marktexperte Joe Lowry befürchtet aber, dass das auf längere Sicht nicht reicht und ein „mangelndes Lithiumangebot deutliche Probleme für die Batterie-Lieferkette im Jahr 2023 verursacht“. Lowry spottet denn auch über Elon Musk, den Chef des Elektroautoherstellers Tesla: „Elon Musk scheint zu denken, wenn er Autos baut, dann kommt auch das Lithium. Seine chaotische Lieferkette für Batterien sollte ihn aber davon überzeugen, sein kreatives Denken auf die banale Frage zu verwenden, wo die gigantischen Mengen an Lithium herkommen sollen, die er braucht.“ Musk lässt derzeit die größte Batteriefabrik der Welt, die „Gigafactory“, bauen.

Was passiert, wenn in Deutschland als Neuwagen nur noch Elektroautos zugelassen werden, die Rohstoffe dafür aber fehlen?

Ab dem Jahr 2030 (mit dem laut GRÜNEM Parteitagsbeschluss als Neuwagen nur noch Elektroautos zugelassen werden dürfen) sind praktisch alle Fabriken, welche bisher konventionelle Autos bauten stillgelegt. Die neuen für Elektroautos sollen mit 100 % Produktion beginnen, jedoch: Das Material für die Akkus fehlt.
Ein Szenario wie es im (aufgelösten) Heimatland unserer alternativlosen Kanzlerin nicht unbekannt war. Vielleicht kommen dann auch Liefertermine, wie man sie dort für Autos kannte: Mit dem 1. Schultag schon einmal vorsichtshalber das Auto bestellen und hoffen, dass es im Führerscheinalter lieferbar ist. Und gleichzeitig auch einen “Autosparvertrag“ abschließen, um die stetig steigenden Kosten durch die Rohstoffverteuerungen aufzufangen.
Zudem besteht die reale Gefahr, dass unsere fürsorgliche Regierung bis dahin auch erkennt, wie giftig wichtige Akku-Bestandteile sind [2] und diese nachträglich (wie Fassaden-Dämmstoff) zu teurem Sondermüll erklärt, der immense Zuatzkosten (für die Autobesitzer) verursacht.

Auch Strom ist so etwas wie Rohstoff

Ob man für sein E-Auto den Strom dann wie benötigt bekommt, wenn es Nacht oder neblig ist und auch kein Wind weht, weiß man dann natürlich immer noch nicht. Doch im Gegensatz zur ehemaligen DDR sind wir moderner und verteilen den Mangel dann „intelligent“ und mit mehr Aufwand.

An Lösungen wird gearbeitet

Wenn es bis dahin gelingt, die Fahrradautobahnen fertigzustellen und die Carsharingverfahren (Fahrzeug- und Strom-Mangelverwaltung mittels App) zur Reife zu bringen, ist das nachhaltige Paralleluniversum funktionsbereit und kann endlich getestet werden. Dazu noch ein Gesetz, dass der örtliche Versorger, oder lokale „Bürgerenergieverein“ in jeder Straße mindestens ein Elektroauto pro Nacht sicher vollladen muss und die Mobilität der kleinen Untertanen bleibt gesichert, beziehungsweise ist auf die nachhaltig zulässige reduziert.
Wer eine eigene Solaranlage mit Speicher sein Eigen nennt, hat es zumindest zeitweise, wenn das Wetter mitspielt, besser, da sich diese Anlagen als Mobilitätsgewinn endlich wieder lohnen. War schließlich auch Zeit, dass generöse Weltretter für ihre guten Taten belohnt werden.

Fachleute – Zum Klima und Energie in beliebiger Menge zu finden – können jedoch auch zu diesem Problem Lösungen vorweisen:
[7] „… zum einen muss unser Reichweitenhunger womöglich bescheidener ausfallen, damit es mit kleineren Batterien getan ist …“.
Wenn man solche Fachgenies nicht hätte, käme man wohl nie darauf. Auch bereichern solche Lösungen zumindest die deutsche Sprache: EIKE: Reichweitenangst, die neue Volkskrankheit.
Während die gemeinen Untertanen noch darüber lachen, bereitet sich unsere Wissenselite schon darauf vor und übt:

EIKE, 22.03.2017: Klimamönche*, alternativ: die Klimaelite unserer Behörden

Deutschland wird heimelig

Sarkastisch sei bemerkt, dass es damit eine wichtige Person der Weltgeschichte schaffen wird, Deutschland zu ihrer Pensionierung zurück in die kuscheligen Zustände ihres (inzwischen pleite gegangenen) Heimatlandes zu drehen.
Endlich gibt es dann: Energiemangel, Automangel, Mobilitätsmangel, und wegen der hohen Transportkosten auch Mangel an nicht einheimischen Lebensmitteln bei uns. Sogar die ausgeuferte, staatlich garantierte Sozialversorgung von damals fehlt nicht: Zumindest für noch nicht so lange bei uns wohnende Neubürger.

CO2-Wahnsinn, doch nicht aufzuhalten

Da es keinen eigenen Artikel wert ist, sei es hier ergänzend erzählt.
In einer Lokalausgabe der Nordbayerischen Nachrichten vom 25.08.2017 erschien ein Bericht über die letzte Stadtratssitzung eines Landkreisstädtchens: Die Sanierung der Mittelschule kostet (erste – von sicher noch vielen kommenden – Beichten) 100.000 EUR mehr. Tut weh, muss aber keiner der Honoratioren selbst bezahlen. War bei öffentlichen Bauvorhaben noch nie anders und deshalb: abgehakt.
Stadt und Stadträte wollen jedoch viel lieber gelobt werden. Mit welchem Thema kann das besser gelingen als dem der Rettung vor dem Klima. Jeder (EIKE-Leser) weiß: Sobald der Zauberbegriff „CO2“ fällt, setzt in Deutschland bei Behörden und unseren Medien mindestens der Verstand aus. Nachfrage nach dem wirklichen Nutzen [9]? Immer Fehlanzeige. Das wusste auch der Berichter der Kostenüberschreitung und argumentierte so vor dem Stadtrat.
NN: Eine Erfolgsmeldung hatte der Experte bei der Schulsanierung dann doch parat – zumindest für die Umwelt: „Die LED-Beleuchtung spart in 20 Jahren 675 Tonnen Kohlendioxyd“.
Was grämen Kosten (welche die Untertanen zahlen müssen), wenn die Rettung der Welt dafür umso erfolgreicher gelingt.

Quellen

[1] EIKE: Kinder-Bergarbeiter im Alter von vier Jahren erleben die Hölle auf Erden, damit SIE ein Elektroauto fahren können

[2] EIKE: Gefährliche Ladung – Die E-Auto sind Energieverschwender, die Batterien giftige Umweltsünder erster Klasse

[3] KLIMARETTER.INFO, 22. August 2017: Der Kobold im Elektroauto

[4] Wirtschafts Woche, 15. Dezember 2014: Lithium könnte ab 2020 knapp werden

[5] EIKE 24.08.2017: Deutschlands Autoindustrie: Mord auf offener Straße?-Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (2)

[6] THE EUROPEAN, 16.06.2017: Wann platzt die Tesla-Blase?

[7] Nordbayerische Nachrichten, Lokalausgabe, 26.08.2017: Wie „grün“ sind E-Autos wirklich?

[8] EIKE 26.07.2016: Reichweitenangst, die neue Volkskrankheit

[9] EIKE 16.09.2015: Nachgefragt: CO2 Minderungsprogramm der bayerischen Landesregierung – ohne den geringsten Klimanutzen, aber mit extremen Kosten

EIKE 11.06.2015: Mit CO2-Reduzierung retten wir die Welt – Einige Rechenspiele (nicht nur) für regnerische Nachmittage




Umfragen: Die einen sagen so – die anderen so!

Zugegeben, den größten Teil dieser schönen Schlagzeile habe ich von Henryk M. Broder auf ACHGUT geklaut. Und der entnahm sie vermutlich einem uralten, etwas delikatem Witz[1]. Doch uns beiden fiel wohl gleichzeitig einige Berichte über Umfragen auf, die zum Nachdenken Anlass geben.

Bei Broder liest sich das so:

Von Henryk.M. Broder.

Eine Emnid-Umfrage im Auftrag der BamS ergab, dass nur 29% der Bundesbürger das Thema „Zuwanderung“ als „äußerst oder sehr wichtig“ für ihre Wahlentscheidung halten. Eine Woche später ergab eine Umfrage der Gesellschaft für Konsumforschung, dass kein anderes Thema die Deutschen so sehr umtreibt „wie die Zuwanderung und Integration von Ausländern“. Seltsam, nicht wahr? Der Unterschied könnte mit der Methodik der Umfragen zu tun haben. Während Emnid einer wie immer „repräsentativen Auswahl“ von Bügern die Frage stellte „Wie wichtig sind Ihnen für Ihre Stimmabgabe bei der Bundestagswahl die folgenden Aufgabenbereiche?“ und die Bereiche auflistete, waren bei der GfK-Umfrage keine Antworten vorgegeben. Die Teilnehmer der Umfrage konnten „frei antworten, in Worte fassen, was sie am meisten besorgt“. – So einfach kann eine Erklärung für das Unerklärliche sein. Und wie einfach es ist, das Ergebnis einer Umfrage durch die Art der Fragestellung zu manipulieren.  / Link zum Fundstück

Bei mir war die Ausgangslage etwas anders. Es ging – natürlich- um die vermeintliche Klimaangst der Deutschen. Da behauptete z.B. die Berliner Morgenpost – eine Zeitung der Funke-Mediengruppe- dass, …die Mehrheit der Deutschen denkt laut einer jüngsten Umfrage des Kantar Emnid Instituts, dass Klimawandel das dringendste Problem der Gegenwart ist.“

Diese Erkenntnis des jetzt Kantar Emnid Institutes wurde recht breit auch in anderen Medien und nicht nur von Funke verbreitet.

Im Einzelnen findet man im Beitrag der Morgenpost:

Danach sagen 71 Prozent der Befragten, die Veränderung des Weltklimas bereite ihnen persönlich besonders große Sorgen. 65 Prozent führen neue Kriege als beherrschende Furcht an. Bei 63 Prozent sind es Terroranschläge, 62 Prozent nennen Kriminalität, und 59 Prozent ängstigen sich vor Altersarmut. Mit einigem Abstand folgt die Zuwanderung von Flüchtlingen (45 Prozent). Arbeitslosigkeit ist mit 33 Prozent die geringste der genannten Sorgen.

Weil mir diese Reihenfolge angesichts der täglichen Berichte in allen Medien komisch vorkam, nicht nur in Bezug auf das Klima, rief ich bei Kantar Emnid an, und bat um die Nennung der Fragestellung, die dieser Umfrage zugrunde lägen.

Man beschied mich abschlägig, da diese Eigentum der Funke Mediengruppe seien, und sie nicht darüber verfügen dürften. Und auch aus mehreren Artikeln anderer Medien konnte man nirgends entnehmen, wie und was gefragt wurde. Da gab ich auf.

Aber fast zeitgleich wurde eine Studie des PEW Centers mit 1000 Befragten in Deutschland (z.B. hier) veröffentlicht, die transparenter ist, und bei welcher der Klimawandel nur auf Pos. 3 der Besorgnisse landete. Aber immerhin noch von 63 % der Befragten angegeben wurde.

Und nun die Umfrage der Gesellschaft für Konsumforschung (GFK)!

Überraschung: Darin taucht die Angst vor Klimawandel überhaupt nicht auf.

Stattdessen steht die Furcht vor Zuwanderung/Migration deren Belastung und Kosten ja gerade erst beginnen sich in unserem Alltag zu verfestigen, an prominent erster Stelle.

Warum?

Weil die Befragten – oder soll man besser sagen- die beeinflussten Probanden diesmal- „frei antworten konnte, in Worte fassen, was sie am meisten besorgt“.

Die zu beantwortende Frage lautet: „Was sind Ihrer Meinung nach die dringendsten Aufgaben, die heute in Deutschland zu lösen sind?“

Und da liegt das Thema Zuwanderung/Migration mit ca. 63 %, also Riesenabstand, weit, weit vorn.

Die Angst vor Klimawandel kommt einfach nicht vor.

Die einen sagen eben so, die anderen so.

Wobei man zu Annahme kommen könnte, dass die einen die Meinungsmacher – genannt Umfrage-Institute- sind, während die anderen, die Leute von der Straße sind, also wir!

Und es drängt sich die Frage auf: Ist die Beeinflussung der Befragten nicht auch bei anderen Umfragen gängige Praxis?

Seufz! Fragen über Fragen.

Die weise Aussage eines Staatmannes „glaube keiner Statistik die Du nicht selber gefälscht hast“ bestätigt sich eben immer wieder.

 

[1] Der Witz geht so: Fragt ein Freund den anderen: „Na, wie ist denn Deine Frau so im Bett?“ Darauf der Andere: „Die einen sagen so, die andern so!“




Der größte Teil der jüngsten Erwärmung könnte natürlichen Ursprungs sein

Der Mainstream-Klimawissenschaft zufolge ist der größte Teil der jüngsten globalen Erwärmung unsere Schuld – verursacht durch menschliche CO2-Emissionen. Diese Prämisse ist eine spekulative Theorie über die Absorption und Emission infraroter Strahlung durch Kohlendioxid, welche auf das Jahr 1896 zurückgeht. Es wird nicht bestritten, dass CO2 infrarote Strahlung absorbiert. Unsicher ist lediglich die Sensitivität des Klimas hinsichtlich steigender atmosphärischer Konzentrationen.

Diese Sensitivität wurde vor über 120 Jahren von Svante Arrhenius erheblich überschätzt. Dennoch bestehen diese Übertreibungen in den Computer-Simulationsmodellen fort, welche die moderne Klimawissenschaft unterstreichen [2]. Wir wissen es einfach nicht, teilweise weil die entscheidenden Experimente niemals durchgeführt worden sind [2].

Was ich tatsächlich habe sind Spiele-Computer, auf denen künstliche neuronale Netzwerke laufen können. Diese sind eine Form des Lernens seitens der Maschine: man denke an Big Data und künstliche Intelligenz.

Mein Kollege Dr. John Abbot hat dieses Verfahren seit über einem Jahrzehnt angewendet, um die wahrscheinliche Richtung einer bestimmten Aktie an der Börse vorherzusagen – für morgen.

Seit dem Jahr 2011 habe ich mit ihm zusammen seine gleiche Technologie zur Vorhersage von Regenmengen angewendet – für jeweils den nächsten Monat und die nächste Jahreszeit [5, 6, 7]. Und es gibt jetzt eine Reihe von Studien in internationalen Klimawissenschafts-Journalen zur Anwendung dieses Verfahrens, wobei sich zeigte, dass dieses Verfahren bessere Ergebnisse liefert als die General Circulation Models des Australian Bureau of Meteorology bzgl. der Vorhersage der monatlichen Regenmenge.

Während des vergangenen Jahres haben wir diese Arbeiten erweitert, um Modelle zu konstruieren für die Vorhersage, welche Temperaturen herrschen würden beim Fehlen menschlicher CO2-Emissionen – für mindestens 100 Jahre.

Wir dachten uns: Falls wir die jüngsten Datengewinnungs-Verfahren anwenden, um natürliche Zyklen von Erwärmung und Abkühlung nachzustellen – im Einzelnen, um die Temperaturen des 20. Jahrhunderts beim Fehlen einer industriellen Revolution vorherzusagen – dann würde die Differenz zwischen den von den Modellen vorhergesagten Temperaturprofilen und den tatsächlichen Temperaturen eine Abschätzung erlauben, welcher menschliche Beitrag durch die Industrialisierung geleistet wurde.

Zuerst analysieren wir einige der längeren Temperaturreihen: Proxy-Reihen, welche bereits in der Mainstream-Literatur der Klimawissenschaft veröffentlicht worden waren.

Diese Aufzeichnungen basieren auf Dingen wie Baumringe und Korallen-Bohrkerne, welche eine indirekte Messung von Temperaturen der Vergangenheit zulassen. Die meisten dieser Aufzeichnungen zeigen Zyklen von Erwärmung und Abkühlung mit einer Fluktuation in einer Bandbreite von etwa 2°C.

Beispielsweise gibt es viele Beweislinien, die zeigen, dass es während eines unter der Bezeichnung Mittelalterliche Warmzeit bekannten Zeitraumes in Westeuropa etwa 1 Grad wärmer war. Tatsächlich gibt es Unmengen von veröffentlichen Verfahren auf der Grundlage von Proxy-Aufzeichnungen. Sie zeigen ein relativ warmes Temperaturprofil für diesen Zeitraum [7]. Er korrespondiert mit dem Bau von Kathedralen in ganz England, und vor der Kleinen Eiszeit, als es zu kalt für die Besiedlung von Grönland war.

Ich datiere die MWP von 986, als die Wikinger sich in Südgrönland ansiedelten, bis 1234, als ein besonders kalter Winter den letzten in Deutschland wachsenden Olivenbäumen den Garaus machte. Ich datiere das Ende der Kleinen Eiszeit auf das Jahr 1826, wenn Upernavik in Nordwest-Grönland wieder unbewohnbar war – nach einem Zeitraum von 592 Jahren.

Die derzeitige Bewohnbarkeit von Upernavik korrespondiert auch mit dem Beginn des Industriezeitalters. Zum Beispiel war es am 15. September 1830, als der erste Kohle-Zug aus Manchester in Liverpool ankam: manche machen dies als den Beginn der Modernen Ära aus, gekennzeichnet durch schnelle, fossil betriebene Transporte für Massen in kurzer Zeit.

Das Ende der Kleinen Eiszeit korrespondiert also mit dem Beginn der Industrialisierung. Aber verursachte die Industrialisierung globale Erwärmung?

In unserer im GeoResJ veröffentlichten Studie stellen wir die Hypothese auf, dass ein künstliches neurales Netzwerk (ANN), angepasst an Proxy-Temperaturdaten bis zum Jahr 1830, in der Lage wären, die kombinierten Auswirkungen natürlicher Klimazyklen während des 20. Jahrhunderts vorherzusagen.

Wir analysierten sechs Proxy-Reihen aus verschiedenen Regionen, wobei hier das Komposit der Nordhemisphäre diskutiert wird. Die Temperaturreihe beginnt im Jahre 50 und endet im Jahr 2000. Abgeleitet ist sie aus Pollen, See-Sedimenten, Stalagmiten und Bohrlöchern. Typisch für derartige Proxy-Temperaturreihen ist der Zick-Zack-Verlauf innerhalb einer Bandbreite von vielleicht 0,4°C über einen kurzen Zeitraum von vielleicht 60 Jahren. Über den längeren, fast 2000 Jahre langen Zeitraum zeigt sich ein Erwärmungstrend bis etwa zum Jahr 1200, wonach es bis zum Jahr 1650 abwärts geht, um danach bis zum Jahr 1980 wieder zu steigen – um dann bis zum Jahr 2000 wieder zu sinken. Siehe in Abbildung 12 unserer neuen Studie in GeoResJ.

Abbildung 1: Proxy-Temperaturreihe (blau) und ANN-Projektion (orange) auf der Grundlage des Inputs aus der Spektralanalyse für dieses Multiproxy der Nordhemisphäre. Das ANN wurde für den Zeitraum für den Zeitraum 50 bis 1830 ausgerichtet, der Test-Zeitraum lief von 1830 bis 2000.

Die Abnahme am Ende der Aufzeichnung ist typisch für viele derartige Temperatur-Rekonstruktionen und in der technischen Literatur bekannt unter der Bezeichnung „Divergenz-Problem“. Um es klar zu sagen: während Temperaturaufzeichnungen auf der Grundlage von Thermometern und Satellitenbeobachtungen allgemein im Verlauf des 20. Jahrhunderts eine Erwärmung zeigen, zeigt die Proxy-Aufzeichnung, welche herangezogen wird, um die Temperaturänderungen der letzten 2000 Jahre zu beschreiben – ein Zeitraum, der Thermometern und Satelliten vorausgegangen war – allgemein ein Absinken ab dem Jahr 1980, zumindest für die Messpunkte auf der Nordhemisphäre, wie die Abbildung zeigt. Dies ist besonders bei Baumringen der Fall. Anstatt diesen Umstand anzusprechen sind die relevanten Klimawissenschaftler dafür bekannt, instrumentelle Temperaturreihen den Proxy-Reihen von 1980 aufzupfropfen, um buchstäblich den ;Rückgang zu verschleiern‘ [8].

Unter Verwendung der Proxy-Aufzeichnung des Komposits der Nordhemisphäre erzeugten wir eine Vorhersage für den Zeitraum von 1830 bis 2000, nachdem wir sie mittels einer Signal-Analyse zerlegt haben und dann die resultierenden Sinuswellen als Input in ein ANN verwendet hatten.

Abbildung 13 aus unserer neuen Studie im GeoResJ zeigt, wie gut die Proxy-Temperaturaufzeichnung (blaue Linie) und unsere ANN-Vorhersage (orange gestrichelte Linie) von 1880 bis 2000 zusammenpassen. Beide Linien zeigen eine allgemeine Zunahme der Temperaturen bis etwa 1980 gefolgt von einer Abnahme.

Abbildung 2: Proxy-Temperaturreihe (blau) und ANN-Projektion (orange) für eine Komponente des Testzeitraumes 1880 bis 2000.

Die mittlere Divergenz zwischen der Proxy-Temperaturaufzeichnung aus diesem Nordhemisphären-Komposit und der ANN-Projektion für diesen Zeitraum 1880 bis 2000 beträgt lediglich 0,09°C. Dies zeigt: selbst wenn es keine industrielle Revolution und die Verbrennung fossiler Treibstoffe gegeben hätte, wäre es immer noch zu einer gewissen Erwärmung im 20. Jahrhundert gekommen – mindestens bis 1980.

[Hervorhebung vom Übersetzer]

Betrachtet man die Ergebnisse aller sechs geographischen Gebiete wie in unserer Studie besprochen, zeigt der Output der ANN-Modelle, dass die Erwärmung durch natürliche Klimazyklen im Verlauf des 20. Jahrhunderts in der Größenordnung von 0,6°C bis 1°C gewesen wäre., abhängig von der geographischen Lage. Die Differenz zwischen dem Output der ANN-Modelle und der Proxy-Aufzeichnungen beträgt höchstens 0,2°C; dies war die Lage für die Studien von der Schweiz und Neuseeland. Folglich zeigen wir hiermit, dass der Beitrag der Industrialisierung zur Erwärmung während des 20. Jahrhunderts in der Größenordnung von 0,2°C gelegen hätte.

[Hervorhebung vom Übersetzer].

Die Schätzungen des IPCC schätzen die Erwärmung mit etwa 1°C, ordnen diese aber ausschließlich der Industrialisierung zu.

Das IPCC kommt mit einer sehr viel anderen Abschätzung daher, weil es im Wesentlichen die Proxy-Temperaturreihen neu modelliert, bevor sie sie vergleichen mit dem Output der General Circulation Models. Beispielsweise folgerte das IPCC im letzten Zustandsbericht:

„Auf der Nordhemisphäre war der Zeitraum von 1983 bis 2012 wahrscheinlich der wärmste 30-Jahre-Zeitraum der letzten 1400 Jahre“.

Falls wir 1400 Jahre zurückgehen, sind wir in der Periode, welche unmittelbar auf den Zerfall des Römischen Imperiums folgte und der Mittelalterlichen Warmzeit vorangegangen war. Damit leugnet das IPCC schlicht und ergreifend, dass es während der Mittelalterlichen Warmzeit mindestens so warm war wie derzeit.

Die offizielle Konsens-Wissenschaft lautet: Temperaturen der letzten 1300 Jahre sind flach verlaufen und dann nach dem Jahr 1830 und mit Sicherheit nach 1880 rasant zu steigen – ohne Abnahme im Jahr 1980.

Klar gesagt: Während die Mainstream-Klimawissenschaft angefüllt ist mit veröffentlichten Studien zu Proxy-Temperaturen, die zeigen, dass die Temperaturen zyklisch gestiegen und gefallen sind während der letzten 2000 Jahre – mit Wärmespitzen zur Mittelalterlichen Warmzeit und dann um das Jahr 1980 (Abbildung 12) – leugnen die offiziellen IPCC-Konstruktionen (welche dem Paris-Abkommen zugrunde liegen) derartige Zyklen. Auf der Grundlage dieses Leugnens können Führer innerhalb dieses ach so verehrten Gremiums behaupten, dass es etwas Ungewöhnliches hinsichtlich der gegenwärtigen Temperaturen gebe: dass wir durch die Industrialisierung eine katastrophale globale Erwärmung haben.

Link: https://wattsupwiththat.com/2017/08/23/most-of-the-recent-warming-could-be-natural/

——————————————–

Eine Studie zum gleichen Thema gibt es von H.J. Luedecke, C.O.Weiss; The Open Atmospheric Science Journal 2017, 11, 44-53. Eine Zusammenfassung davon zeigt Anhang 1. Die ausführliche Studie zeigt das PDF in Anhang 2. Die Autoren dieser Studie sind damit auch an die Autorin des obigen Beitrags herangetreten, und zwar mit dem folgenden Begleitbrief [Rückübersetzung]:

Dear Jenny

Our last paper ( attached with a summary ) comes to exactly your result. Different from your work we Fourier-analysed the 2000 year proxy data and obtain 3 dominant cycles ( known before from local studies ). The Proxy Data smoothed by 30 year running average ( definition of „climate“ ) yields the climate . This climate curve shows all historically known temperature extrema. The 3 dominant cycles alone yield the temperature increas from 1850 to 1995, as well as the present temperature plateau.

Thus there is little doubt that the influence of CO2 is minor.

Carl

Dear Jenny,

in unserer jüngsten Studie (beigefügt mit einer Summary) sind wir genau zu dem gleichen Ergebnis gekommen. Anders als Sie es gemacht haben, haben wir die 2000 Jahre alten Proxy-Daten einer Fourier-Analyse unterzogen und 3 dominante Zyklen gefunden (die durch lokale Studien schon zuvor bekannt waren). Die über 30 Jahre gleitend gemittelten Proxy-Daten (Definition von „Klima“) ergeben das Klima. Diese Klimakurve zeigt alle historisch bekannten Temperaturextreme. Die drei dominanten Zyklen allein ergeben den Temperaturanstieg von 1850 bis 1995 ebenso wie das gegenwärtige Temperaturplateau.

Folglich gibt es kaum Zweifel daran, dass der CO2-Einfluss sehr gering ist.

Anhang_1                                  Anhang_2

Übersetzt von Chris Frey EIKE




WAHLKAMPFPANIK! Stickoxide und die Daten des Umweltbundesamtes

Der Kampf gegen das Auto geht weiter. Bundesumweltministerin Hendricks mit dem sagenhaften Absturz der SPD im Nacken, legte mit einer Untersuchung des Umweltbundesamtes nach. Neue Steuerprogramme allein seien nicht genug, um den Stickoxid-Ausstoß der Fahrzeuge ausreichend zu verringern.

Am 2. August beschlossen Autohersteller und Politik beim Diesel-Gipfel bekanntlich eine Reihe von Maßnahmen, damit die Messwerte auch an den Stellen in der Stadt niedriger werden, an denen die Messstellen an einigen Tagen höhere Werte anzeigen. Drei Wochen später wissen die Fachleute im Umweltbundesamt bereits, dass diese Maßnahmen nicht ausreichen.

 

Abgasskandal durch Grenzwertwillkür?

Austauschprämie für neue Autos und ein Update der Steuersoftware nützten nichts. Hendricks fordert jetzt mit Panik vor der Bundestagswahl vor der Türe eine Nachrüstung der Fahrzeuge. Sie hat wohlweislich nicht dazu gesagt, ob zusätzliche Filter mit ihren tiefen Eingriffen in die komplizierten Motorverhältnisse technisch und finanziell möglich sind. Das dürfte vor allem in den meisten mit Technik eng vollgestopften Kleinwagen ein Ding der Unmöglichkeit sein.

Der Händlerverband klatscht freudig und plädiert vehement für eine Nachrüstung. An der verdient er am meisten. Ob die Autos später einwandfrei laufen, kann egal sein, im Zweifel verdienen die Werkstätten auch mit Nacharbeiten.

Zusätzlich schlagen die Kampftruppen der Abmahnorganisation Deutsche Umwelthilfe (DUH) in dieselbe Kerbe. Nach den PR-trächtigen Klagen unter anderem in Stuttgart will sie gegen 45 weitere Städte klagen.

»Wir fordern saubere Luft bereits im Jahr 2018 für alle 62 Städte, die aktuell die NO2-Grenzwerte um 10 Prozent oder mehr überschreiten“, sagte der DUH-Geschäftsführer Resch. Noch ist er gnädig: Die DUH gebe den zuständigen Städten und Landesbehörden die Möglichkeit, der Organisation mitzuteilen, ob sie geeignete Maßnahmen ergreifen wollen, damit 2018 in den betroffenen Städten die Stickoxid-Grenzwerte unterschritten werden. Aber wehe, droht in markigen Worten die durch nichts außer dem Willen zum Geldabzocken legitimierte NGO, »wenn die Antworten nicht zufriedenstellend ausfallen, werden wir weitere Rechtsverfahren prüfen und gegebenenfalls kurzfristig einleiten«.

 

Der vorzeitige Todesfall als Herrschaftsinstrument unserer Zeit

Diese Auseinandersetzung hat mit den wirklichen Verhältnissen in den Städten nicht mehr viel zu tun. Stickoxide in den Städten sein zu hoch, sagt zwar die Bundesumweltministerin gerne immer wieder laut. Doch mit dieser Aussage steht sie im Widerspruch zu den Fakten, die das ihr unterstellte Umweltbundesamt veröffentlicht. Dessen Daten sprechen eine andere Sprache.

Sie bestätigen, was jeder auch wahrnehmen kann: Die Werte für Luftschadstoffe sind in den vergangenen knapp 30 Jahren in den Städten dramatisch gesunken. Das zeigen die Ergebnisse der Messungen, wie sie das Umweltbundesamt veröffentlicht. Das listet für jedermann gut sichtbar in nationalen Trendtabellen die Entwicklung der Emissionen seit 1990 auf, sauber nach den einzelnen Schadstoffen unterteilt. In der Tabelle für Stickstoffoxide finden wir für das Jahr 1990 bundesweit hochgerechnet noch einen Gesamtwert von 2,887 Mio Tonnen Ausstoß.

Die Kurve in der Tabelle geht nach unten, die Werte sinken seit 27 Jahren kontinuierlich. Für das Jahr 2015 liest man in der Tabelle den Wert von 1,186 Mio Tonnen pro Jahr ab. Das bedeutet: fast 40 % weniger Stickoxide in der Luft als 1990.

 

Deutsche Umwelthilfe (DUH) – Klage gegen Stuttgart

Interessant ist die Aufschlüsselung nach den einzelnen Quellen: Das verarbeitende Gewerbe nimmt einen sehr geringen Anteil ein, ebenso die Energiewirtschaft, also im wesentlichen die Kraftwerke. Hier haben sich die mit Millionaufwand eingebauten Filteranlagen bezahlt gemacht. Den größten Anteil hat naturgemäß der Verkehr. Dessen Anteil an den Stickoxiden geht am stärksten kontinuierlich zurück. Ein Ergebnis der Verbesserungen der Motorforschung und verbesserten Antriebstechnik im Automobilbau.

Halten wir fest: Die Luft in den Städten ist nach den Angaben des Umweltbundesamtes in den vergangenen 30 Jahren deutlich sauberer geworden.

Nimmt man jetzt noch die Aussagen von Fachärzten, nach denen die Stickoxid-Belastung kein Problem darstellt, bleibt die die Frage: Worüber reden wir eigentlich?

Die Frage stellt sich, was mit der aktuellen Diskussion bezweckt werden soll. Vor allem muss die Bundesumweltministerin die Frage beantworten, warum sie wieder besseres Wissen vor die Kameras tritt und falsche Behauptungen aufstellt. Die Daten, die ihr eigenes Haus veröffentlicht, sprechen eine andere Sprache als Hendricks im Wahlkampf und eine DUH, die das Geld der kleinen Leute abzockt, die den Spaß bezahlen müssen.

Es gibt nur eine Lösung: Grenzwerte wieder rauf, damit die unselige Auseinandersetzung beendet ist. Mit Fragen der Gesundheit hat sie nämlich nicht das Geringste zu tun. Die dürften einem wie Resch sonstwo vorbeigehen.

Quelle: Daten des Umweltbundesamts




Berlin – einmal fahrradfrei gedacht

Walter Fett

Weit und breit hemmen nun in Berlin Baustellen den Verkehrsfluß. Das muß nun eben sein, es muß ja (nun endlich!) überall rapariert werden. Dies hat zur Folge, daß über große Strecken hinweg der Straßenbelag ein einschränkendes Linienraster aufbemalt bekam, sortiert für fahrende wie parkende Autos, für Busse, Radfahrer und die verbleibenden Fußgänger.

Das machte offensichtlich Appetit. Denn bei dieser Gelegenheit wurde die jeweilige Nutzungskapazität neu verteilt. Wo früher zwei Autos nebeneinander herfahren und sich überholen konnten, reicht es nur noch für ein Auto. Von den mehrspurigen Fahrstraßen abgesehen ist der Verkehr streng genommen nurmehr noch einspurig möglich. Also bestimmt das langsamste Fahrzeug die nachfolgende Verkehrsgeschwindigkeit; ein stocken­des Auto – weshalb auch immer – stoppt die ganze Reihe, zumindest solange Radfahrer, (und es sollen ja so viel wie möglich werden), wenn schon nicht am Überholen, sie dann doch am Rechtsabbiegen hindern. Auch dürfen Radfahrer die Straße benutzen, selbst wenn ihnen ein eigener Radweg zur Verfügung gestellt ist. Lediglich wenn an jeder einzelnen Straßenecke auf den Radweg verwiesen ist, müßten sie ihn auch benutzen. Diese Situation ist aber selten der Fall. Und wollte man mit dem Auto den seitlichen Abstand von einem Meter einhalten, ist auch bei mittlerer Straßenbreite kein Überholen des Radfahrers möglich. Radfahrer diktieren dann den Verkehrsfluß, besser gesagt das Verkehrs-Rinnsal. Das verradfahrte Berlin – überholungs(be)frei(t)?

Das in der Berliner Zeitung (7. August 2017, S. 9) angekündigte, zunächst nur geplante Mobilitätsgesetz ist dahingehend schon ziemlich ambitioniert: Radschnellverbindungen mit eigenen Grünen Wellen werden verheißen; Radbahnen statt Autobahnen, stets breit genug zum Überholen. Fahren auch gegen den Einbahnverkehr wird gewünscht: Hat man den Sinn einer solchen Verkehrsart vergessen, weil die Enge der Straße gerademal einem Auto die Durchfahrt erlaubt? Die soll nun durch entgegenkommende Radfahrer gesperrt werden? Und schließlich sollen alle Hauptverkehrsstraßen Radverkehrsanlagen bekommen; und für den Standverkehr seien 100 000 Radstellplätze zu schaffen.

Ist das vielleicht eine unauffälligere Methode der zwangsweisen Verkehrsberuhigung? Kommt darauf an, wie man es sieht. Wenn man dann noch eine möglichst stadtweite Ausweitung der 30 km/h-Geschwindigkeitsbegrenzung draufsetzt, so besteht die „Beruhigung“ aus einer Reihe folgender Konse­quenzen, sofern kein Kraftfahrer auf seine Fahrt verzichtet (der Einfachheit halber wird ange­nommen, daß man jetzt „30“ – oder „25“ – fährt, wo man zuvor „60“ – oder „50“ – fuhr) :

* Jede Fahrt dauert doppelt so lang.

* Es sind doppelt so viele Autos gleichzeitig auf der Straße.

* Der Verkehr ist doppelt so dicht.

* Der Abstand zwischen den Autos ist nur noch halb so groß, während die Zeit für Fußgänger,    zwischen den Autos die Straße zu überqueren, aller­dings gleichbleibt.

* Die Brems- und Wiederbeschleunigungsphasen eingerechnet (be­dingt durch die Rot-Ampelphasen oder Vorfahrteinschränkungen) steigt der durch­schnittliche Ver­brauch an Benzin und insbesonders an Dieselkraftstoff.

* Die Aufwands­kosten für Fahr­personal verdoppeln sich; die Preissteigerung würde jedoch an die Kundschaft durchgereicht.

* Bis dahin ausgelastete Fuhrbetriebe müssen ihren Fuhrpark verdoppeln: Will man das – oder weiß man das nur nicht, hat also nicht zu Ende gedacht?

Es käme hoffentlich erstmal nur auf ein Experiment an. Vielleicht retten uns die dann gemachten Erfahrungen vor einer dauerhaften Durchführung. Die Strategie eines derartigen Vorgehens wurde ja bereits mit der kurzfristigen Einführung des Abbauplans der nun wirklich tsunamifernen Kernkraftwerke vorgeführt. Dafür kam das Kernkraftunglück im fernen Fokushima höchst gelegen, obwohl dort dadurch nicht ein einziges direktes Todesopfer zu beklagen war: Bei einer – lediglich! – Landtagswahl (Baden-Württemberg 2016) galt es, die Argumente der konkurierenden Partei (GRÜNE) mit einem Male zu den eigenen zu machen und dieser Partei dadurch die GRÜNE-sympathisierenden Wähler abzuluchsen; zwar nicht durch Diktatur, aber doch durch Ethikratur. Wir wissen, dass das erhoffte Übertrumpfen – oder gar Ausschalten – der GRÜNEN nicht geklappt hat; diese wurden sogar die stärkste Partei! Aber nun war ein Zurück in der Kernkraftfrage nicht mehr möglich. Man kann sich schließlich nicht zweimal hintereinander einen analogen Opportunismus leisten! Stattdessen müssen wir nun mit unermeßlich viel Geld für die Stromkosten eines jeden von uns schlichtweg nur noch durchhalten! Solch Opfern hat ja bei den Deutschen schon früher stets gewirkt. Sie lassen sich von Mißstimmungswalzen erst einmal überrollen – und bleiben dann aber in ihrem Mitläufertum verschlimmbessernd konsequent, was bei ihnen dann Treue heißt – was auch nur besser klingt als Herdentrieb.

Die von unserer Bundeskanzlerin vorgeführte Weise, mal kurzerhand die Lahmlegung der Kernkraft in Deutschland in Gang zu setzen, sollte auch im Verkehrswesen praktiziert werden dürfen. Ein Versuch (wenn auch eventuell nur so vorübergehend wie hoffentlich der mit der Kernkraftstilllegung) bestände in der Erprobung, den städtischen Radverkehr stillzulegen! Im Gegensatz zum Atomausstieg wäre das gesamtwirtschaftlich nur eine eventuell reversible Notwehrmaßnahme.

Vorschlag für solch eine Gegenwelt:

Innerhalb des städtischen Personenverkehrssystems ist jedwedes Radfahren durchgehend verboten. Um die Entwöhnung zu fördern, wäre auch die sichtbare Zurschaustellung von Fahrrädern – außer in Museen – strafbar. Da Radfahrer auch bisher bereits durch keinerlei Fahrzeugsteuer belastet waren, entstände dem Fiskus dennoch keinerlei Einnahmeverlust.

Die potentiellen Folgen sähen fast vollständig positiv aus:

Sämtliche durch die Existenz von Radfahrern bedingten Unfälle würden absolut vermieden. Dadurch würde das Gesundheitssystem entlastet. Beträchtliche Zusatzeinnahmen kämen dem öffentlichen Personenverkehr zugute. Es gäbe keine störenden und stets gefährlichen Hindernisse mehr durch Fahrradständer. Außerdem profitierte man mittels Schrottgewinnung durch die aufgegebenen Fahrräder; gefördert eventuell mit öffentlichem Prämienangebot. Auch führte es zur Platzgewinnung im bisherigen Aufbewahrungsbereich. Kein umweltstörendes Fahrradklingeln nervte mehr, kein zuvor nötiges Warnen durch die Autohupen belästigte uns mehr. Ein gesundheitsfördernder Gewinn ergibt sich durch den gesteigerten Fußgeherbetrieb. An Endstationen des Berliner Verkehrssystem wäre eine Fahrradausleihe eventuell anzudenken. Ab dort gilt dann generell eine Kennzeichnungspflicht durch Nummernbeschilderung zwecks Haftungsverfolgung: Dieses Vorgehen entspricht einer Gleichstellung mit dem Autofahrer und steigert das Verantwortungsgefühl ebenso wie die Verfolgbarkeit. Durch Entfernung der Fahrradspuren würde an Straßenbreite gewonnen, womit wieder ein allgemein zweispuriger Autoverkehr mit Überholungsmöglichkeit erzielt würde. Das führte weiterhin zu einem zügigeren Verkehrsfluß mit entsprechender Schadstoffminderung. Nicht zuletzt wäre die Einsparung an der Straßenbeschilderung und der Belagbemalung vorteilhaft. Also: lieber radfrei als ratlos!

       Unterscheidet sich ein derartiges Vorhaben denn grundsätzlich vom volkswirtschaftlich schwerwiegenden Maßnahmenkatalog der CO2-Minderung und deren angeblichen Folgen? Denn auch für eine solche CO2-verarmte Gegenwelt konnte sich noch kein Faktenscheck auf einen hinreichend positiven Erfolg berufen!

Zugegeben: Wer beim Lesen dieses Textes gewisse sokratisch-ironische Tendenzen aufzuspüren meint, liegt nicht völlig falsch. Die Möglichkeit zum Aufkommen von Ironie weist stets auf die Gegebenheit eines iritierenden Anlasses hin. Zu solchen gehört auch, dass wir gegenwärtig in einer schon zwei jahrzehntelangen Klimakonstanz gestrandet zu sein scheinen! Auch wenn derlei Wahrnehmung den Ökofanatikern in ihrer Klimawahnwelt wie Gestank im Ohr wirkte: Angesichts eines angestrebten, zumindest gern gesehenen Diskussionsverbotes sollte man wenigstens schnell noch einmal achselzuckend entgegen schmunzeln dürfen – und beim Ausspruch des Philosophen Friedrich Nietzsche – bereits aus dem Jahre 1886 – mit dem Kopfe nicken:

„Der Irrsinn ist bei Einzelnen etwas Seltenes – aber bei Gruppen, Parteien, Völkern, Zeiten die Regel“.




Sonnenkönig Asbeck: Bankrotteur und Schloßbesitzer

 Einen solchen „Geschäftsmann“ beschreibt dieser Beitrag. Ich würde dieses Individuum gerne einen „Gauner“ nennen, aber aus Angst vor dessen Rechtsabteilung und aus Furcht durch eine Klage meine bescheidene Rente zu verkürzen, unterlasse ich diese Bezeichnung.

Frank H. Asbeck – von dem hier die Rede ist – war schon seit früher Jugend ein gewitztes Kerlchen. 1959 in Hagen (NRW) geboren, gründete er als erst Zwanzigjähriger (zusammen mit Petra Kelly) den ersten Landesverband der Partei der „Grünen“ in Hersel und studierte dann im nahen Bonn passenderweise Landwirtschaft. Als 1998 der Sozialdemokrat Gerhard Schröder die Wahlen gewann, die erste rot-grüne Bundesregierung bildete und die „Energiewende“ einläutete, gründete Asbeck die Firma Solarworld AG zum Bau von Solarkollektoren. Innerhalb kürzester Zeit stieg der junge Asbeck zum „Darling“ der Bonner Ökofraktion auf.

Der subventionierte Aufstieg

Die ersten Jahre des Unternehmens Solarworld sind durchaus mit dem Goldrausch in den USA im 19. Jahrhundert zu vergleichen. Innerhalb von acht Jahren (1999 – 2007) stieg der Börsenkurs dieser Firma von Null auf  7.192 an und hatte damit den gigantischen Börsenwert von 4,7 Milliarden Euro. Frank Asbeck schwang sich zum Vorstandsvorsitzenden auf, ihm gehörten 26 Prozent, der Rest waren Kleinaktionäre, welche sich eine Aufstockung ihrer Rente erhofften, sowie einige Finanzinvestoren in Katar. Der Unternehmensberater Roland Berger prophezeite, dass die Ökoenergiebranche im Jahr 2030 so viele Beschäftigte ernähren würde, wie die deutsche Autoindustrie. Offensichtlich konnte man mit der Ökoenergie das ersehnte wirtschaftliche „Triple“ erreichen, nämlich atomfreien Strom, Arbeitsplätze und Wachstum.

In Wirklichkeit war der solare Aufstieg erkauft durch das „Erneuerbare- Energien-Gesetz“ (EEG) aus dem Jahr 2000, an den Asbeck fleißig mitgebastelt hatte. Mittels Milliarden an Subventionen beschloss die Regierung Schröder/Trittin vor allem  Sonnen- und Windenergie aufzupäppeln. Im Zentrum dieses Gesetzes stand die „Einspeisevergütung bzw. EEG-Umlage“, ein unübertrefflich schönfärberischer Begriff, den nur die deutsche Bürokratie erfinden konnte. Bis zu 50 Cent pro Kilowattstunde und darüber wurden vom Staat – auf Kosten der Stromverbraucher – ausgelobt. Kein Wunder, dass sich viele Menschen diese Bonanza nicht entgehen lassen wollten und dem Unternehmen einige Jahre lang all ihre Solarkollektoren förmlich aus den Händen rissen.

Die erste (nahezu) Pleite

 
Aber die hohen staatlichen Subventionen offenbarten bald ihre Risiken. Die Chinesen, selbst Staatskapitalisten, traten als Wettbewerber auf. Sie boten ihre – technisch gleichwertigen – Solarmodule zum halben Preis und darunter an und bauten gigantische Fabriken zur Massenfertigung auf. De facto hatte Deutschland den Aufstieg der Kollektorindustrie in China finanziert. Und es kam noch schlimmer für Asbecks Sonnenreich: graduell senkte (die nun schwarz-gelbe) Bundesregierung die EEG-Umlage auf unter 20 Cent/kWh. Solarworld konnte aufgrund seiner üppigen Kostenstruktur nicht mit halten und musste nach 2007 für volle sieben Jahre die Dividende ausfallen lassen. Die Zahl der Beschäftigten in der deutschen Solarindustrie schrumpfte von 115.000 (in 2012) auf 50.000 (2014).
 
Anfang des Jahres 2013 kam es fast zum Zusammenbruch von Solarworld. Jahrelange Verluste bei gleichzeitig hohen Kosten hatten die Ressourcen des Unternehmens aufgezehrt. Eigentlich hätte Asbeck schon damals Konkurs anmelden müssen, aber die grüngläubigen Aktionäre waren mit einem drastischen Kapitalschnitt (150 alte Aktien für 1 neue) einverstanden und ließen ihren Vorstandschef weiter machen. Allerdings sollte Asbecks Anteil an der Firma von 26 Prozent auf 1 Prozent sinken.
 

Asbeck wird Schlossbesitzer

 
Wie ein Wunder erscheint es vor diesem tristen wirtschaftlichen Hintergrund, dass es Frank – ausgerechnet in der Phase des Niedergangs seiner Firma – gelang, zum zweifachen Schlossbesitzer aufzusteigen. Im Dezember 2008 kaufte er das Landschloss Calmuth in der Nähe von Remagen. Es hatte eine bewegte Vergangenheit: im sog. Dritten Reich diente es der Reichsjugendführung als repräsentativer Landsitz. Als passionierter Jäger erwarb unser Sonnenkönig gleich 20 Hektar Waldfläche dazu und schloss einen Kaufvertrag für weitere 100 Hektar ab.
 
Aber das war erst der Anfang. Im Jahr 2013, als sein Unternehmer schon am Boden lag, erwarb der Maserati-Fahrer Frank das Rheinschloss Marienfels, womit er seinen Immobilienbesitz abrundete, denn beide Schlösser lagen nahe beieinander. Marienfels war vorher acht Jahre lang von dem Entertainer Thomas Gottschalk bewohnt worden. Seine Frau Thea hatte die Inneneinrichtung weitgehend selbst gestaltet und dafür Objekte aus der ganzen Welt angeschleppt. Das Schloss verfügte über 14 Zimmer und 800 Quadratmeter Wohnfläche sowie einen freskenverzierten Pool mit angrenzenden Wellness-Bereich. Sechs Mansardenzimmer hatte Thea zudem zu einem Groß-Schlafzimmer im Stil eines Beduinenzelts vereinigt. Zu dem Schloss gehörten 100.000 Quadratmeter Waldgelände und ein privater Badesee. Verkauft wurde die Immobilie – samt Theas Inneneinrichtung – für ca. 5 Millionen Euro. Das Ehepaar hat sich anschließend nach Berlin verändert, wo es im Stadtteil Prenzlauer Berg eine Wohnung bezog.
 
Wie konnte der Vorstandsvorsitzende einer nahezu pleite gegangenen Firma diese pompösen Immobilien finanzieren? Nun, in überregionalen Zeitungen wird darüber berichtet, dass Asbeck (rechtzeitig vor dem Niedergang) einen Großteil seiner Aktien zu einem noch recht guten Preis verkaufte und dadurch um ca. hundert Millionen Euro reicher wurde. Ob dies mit der Ethik des Aktiengesetzes vereinbar ist, darüber darf spekuliert werden. In jedem Fall braucht man dafür einen gnädig gestimmten Aufsichtsrat. Asbeck findet seine verdeckten Verkäufe jedenfalls in Ordnung, denn er habe in seiner  Zeit als CEO  ohnehin „nur“ neun Millionen Euro an Gehalt bezogen

 

Die zweite (wirkliche) Pleite

Aber der Abstieg der Firma Solarworld ging weiter. Regelmäßig überstiegen die Kosten (für Mitarbeiter und Material) die Erträge und im Frühjahr 2017 war die Kasse endgültig leer. Am 11. Mai 2017 musste Asbeck den Insolvenzantrag stellen. Seitdem herrscht bei Solarworld der Konkursverwalter Horst Piepenburg, ein erfahrener Sanierer. Rund 2.600 Beschäftigte im sächsischen Freiberg und im thüringischen Arnstadt fürchten um ihren Lohn, zuzüglich einiger Hundertschaften in Hillboro, Oregon.
 
Die Gründe für den Niedergang sind eindeutig: Solarworld hat zu lange am Massenprodukt der multikristallinen Zellen festgehalten. Die staatlichen Subventionen waren zu verlockend. Aber inzwischen werden diese Art von Zellen nicht nur massenhaft in China gefertigt, sondern sogar im Low-Tec-Land Vietnam. Und zwar zu unschlagbar niedrigen Preisen! Die PERC-Technologie, welche mit verspiegelten Zellenrückwänden höhere Energieausbeuten ermöglicht, hat man in Deutschland nie auf den Markt bringen können.
 
 

Phönix aus der Asche

 
Aber damit ist die Story von Frank Asbeck und seiner Solarworld noch nicht zu Ende. Am vergangenen Freitag (11. August) hatte Konkursverwalter Piepenburg die Gläubiger ins Bonner Landgericht geladen. Es ging um Resteverwertung. Eine erst kürzlich gegründete Firma, die Solarworld Industries GmbH hatte Interesse bezeugt an den beiden Kollektorfabriken in Freiberg und Arnstadt. Tatsächlich erhielt sie den Zuschlag für ca. 96 Millionen Euro, wie man danach aus Teilnehmerkreisen hörte.
 
Und nun kommt der Knaller. Hinter der genannten neuen Firma steckt niemand anderer als Frank Asbeck, der damit Teile seines insolventen Konzerns relativ preiswert zurückgekauft hat. Direkt und indirekt soll er mit 51 Prozent an diesem Unternehmen beteiligt sein. Mit im Boot ist die Katar-Foundation, mit deren Hilfe der schillernde Unternehmer Solarworld schon 2013 vor der Pleite bewahrt hat. Auf diese Weise werden angeblich 475 Arbeitsplätze „gerettet“, die übrigen Mitarbeiter sollen in eine Transfergesellschaft verfrachtet werden. Die Gläubiger haben dem Ganzen zugstimmt; die Aktionäre können ihren Besitz in den Wind schreiben.
 
Frank bleibt, wie ein Fettauge, immer oben.
Übernommen von Willy Marth´s Rentnerblog hier