Parteitags­beschluss der GRÜNEN: Die gleich­geschlecht­liche Ehe ist Bedingung für den Kohle­ausstieg

Unter ihrem Wahlslogan, der zu wirklich allem und nichts so nichtssagend passt, aber gerade dadurch die fehlende, durch reinste Ideologie und Ökoschwafelei ersetzte Substanz treffend beschreibt, verkündeten sie:
ZDF: [1] … Die Grünen wollen bis 2030 raus aus der Kohleenergie: Angetrieben von US-Präsident Trumps „America First“ setzen sie den Klimaschutz ganz oben auf ihre Parteitagsagenda. „Climate First“ heißt ihre Devise.
… Dieser Kompromiss sei zugleich radikal, realistisch und verantwortungsbewusst, sagte Spitzenkandidat Cem Özdemir. Im November hatten die Delegierten in Münster noch den kompletten Kohleausstieg bis 2025 beschlossen.
… In einem Rundumschlag kritisierte Fraktionschef Anton Hofreiter die Umweltpolitik der Bundesregierung. „Es geht um uns und unsere Lebensgrundlagen, und diesen Kampf müssen wir gewinnen“, sagte er. Der angekündigte Ausstieg der USA aus dem Pariser Klimaschutzabkommen sei ein „Verbrechen an der Zukunft der gesamten Menschheit“.
„Um das international zugesagte deutsche Klimaziel für das Jahr 2020 überhaupt noch schaffen zu können, werden wir unverzüglich die 20 dreckigsten Kohlekraftwerke vom Netz nehmen und den CO2-Ausstoß der verbleibenden Kohlekraftwerke analog zu den Klimazielen deckeln. Wir werden den Kohleausstieg in Einklang zu unseren Zielen 100 Prozent Erneuerbaren Energien im Strombereich bis 2030 gestalten.
Die Grünen haben die Ehe für Schwule und Lesben zur Bedingung für eine Koalition im Bund gemacht. „Mit uns wird es keinen Koalitionsvertrag ohne die Ehe für alle geben“…

Was haben gleichgeschlechtliche Ehe und Kohleausstieg miteinander gemein?

Wahrscheinlich nichts. Außer man betrachtet es soziologisch und hat damit ein Beispiel, wie hochgradig verrückt und abgehoben Parteien inzwischen auch in Deutschland geworden sind. Man vermisst nur noch die Korruption und Vetternwirtschaft wie in anderen Ländern. Allerdings hat da das EEG mit seiner Klientelpolitik schon den Einstieg gewiesen. Zum Beispiel konnte der (ehemals) viel bewunderte Gründer von Solarworld (inzwischen im wohl abschließenden Konkurs) als führender Grüner Politiker gleichzeitig die EEG-Gesetzte mit festlegen und eine Firma gründen, die diese gleich umsetzte (und ihn mehr als reich machte).

Was man nur noch resigniert feststellt, ist diese absolute Gläubigkeit, das Spurengas CO2 würde den Untergang der Welt verursachen (was natürlich nicht auf die GRÜNEN beschränkt ist) und die vollkommene Ignoranz, sich mit der physikalisch viel einfacheren Stromversorgung zu beschäftigen und die Problematik der Grundlast und Speicherung erkennen zu wollen. Dies erscheint allerdings weniger als Wunder, sondern als bewusst herbeigeführte Unfähigkeit. Einmal müssen sich die Delegierten auf Parteitagen zur Vorbereitung als Gehirnwäsche hanebüchene Klima-Propaganda-Vorträge anhören:
EIKE: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann
und wesentliche Fachperson*innen der GRÜNEN haben keinerlei Ausbildung (und man darf ruhig annehmen, auch kein tiefer gehendes Wissen) zu ihrem Fachgebiet, trauen sich aber wichtige Aussagen zu.

GRÜNES Fachpersonal

Die Fachfrau der Grünen, die Klimaexpertin Annalena Baerbock forderte:
[2] „Wir müssen radikaler werden!“ Es sei die „historische Aufgabe“ der Grünen, dafür zu sorgen, dass das Pariser Klimaabkommen umgesetzt werde. Das Jahr 2037 als Kohleausstiegsdatum anzupeilen, heiße, dass „die vollständige Dekarbonisierung rausgestrichen wird“.
Diese Fachfrau studierte laut ihrer Homepage: Politikwissenschaft sowie Öffentliches Recht+,
hat also alle Voraussetzungen, um kein technisches Wissen über Elektroenergie zu haben und so unbelastet jede Parteiideologie ohne Gewissensbisse voll und ganz vertreten zu können.

Nichts wäre schlimmer gewesen als wenn im Jubel über die Eingebungen der Parteitagsdelegierten zu wenig zu fordern. Deshalb kam auch aus Berlin, der Stadt der Finanz- und sonstiger Katastrophen, aber Vorbild im Radwegbau und CO2-Minderung zu Sensationskosten [3] die Ergänzung:
Frau Regine Günther: [2] Das nun beschlossene Ausstiegsjahr 2030 soll nach dem Willen der Grünen auch für den Verbrennungsmotor gelten. Dann „sollen nur noch abgasfreie Autos vom Band rollen“ …
Diese Frau sitzt als Parteilose für die Grünen im Berliner Senat für Umwelt, Verkehr und Klimaschutz. An Fachkenntnis kann sie vorweisen: Studium der Politischen Wissenschaft sowie Mittlere- und Neuere Geschichte, vor allem aber:
Ehemals Generaldirektorin Politik und Klima bei der Umweltstiftung WWF.

Wo Wissen fehlt, haben Gurus und Weltretter leichtes Spiel

Leider muss man feststellen, dass Energie und Klima eine Beschäftigungsdomäne für Politik- und ähnliche, nicht-technisch ausgerichtete Fächer Studierte geworden sind. Dass solche (in der Menge kaum sinnvoll zu beschäftigenden) Absolvent*innen inzwischen von den Unis wie am Fließband ausgespuckt werden, dürfte ein wesentlicher Grund sein, warum das Thema nicht mehr in vernünftige Bahnen zurückkommt. Wer würde schon freiwillig seinen Arbeitsplatz für überflüssig erklären.

Man nehme beispielhaft das (für die magere Klickrate gegenüber EIKE) geradezu aufgeblähte Redaktionsteam von klimaretter.info: Von den sieben Redakteur*innen hat keiner eine technisch orientierte Ausbildung oder Studium, welches die Themen Klima und EEG in der benötigten Tiefe verstehbar machen würde. Dafür aber in Politik, Geisteswissenschaften, Journalismus und vor allem Erfahrung in Umwelt-Aktivismus.

Das gilt auch allgemein und lässt sich anhand der bisherigen Bundes-Umweltminister*innen und ihren Fachausbildungen deutlich machen.
– Barbara Hendricks: Geschichte und Sozialwissenschaften
– Peter Altmaier: Jurist
– Norbert Röttgen: Jurist
– Sigmar Gabriel: Politik/Soziologie/Germanistik
– Jürgen Trittin: Diplom-Sozialwirt
– Angela Merkel: Physik mit Zusatzausbildung Agitation
– Klaus Töpfer: Diplom-Volkswirt
– Walter Wallmann: Rechts- und Staatswissenschaften sowie Politik

International sieht es nicht eine Spur besser aus. Kein Wunder, dass clevere Agitatoren leichtes Spiel haben und geglaubt wird, Computerspiele – neudeutsch Klima-Simulationen – könnten das Klima vorhersagen:
Blue Planet Prize für Schellnhuber: Schellnhuber erhält den Preis unter anderem dafür, dass er mitgeholfen hat, das Zwei-Grad-Ziel zu etablieren … Auch Schellnhubers Beitrag bei der Entwicklung des Konzepts der Kippelemente nennt die Stiftung als Grund für die Ehrung,
und mit Gott und esoterischem Gedankengut könnte es der Mensch lenken:
Frau Merkel: Scheitert Paris, dann scheitert die Schöpfung
Al Gore Says God Told Him to Fight Global Warming

Wenn es um die Fleischtöpfe geht, ist das für die anderen Parteien kein Hindernis

Den GRÜNEN muss man leider zugutehalten, dass, mögen ihre Ideen und Beschlüsse auch noch so abstrus sein, die Vorgabe von Frau Merkel gilt: Was GRÜN kann, können auch wir. Dass etablierte, kleine Parteien dagegen kein Hindernis bilden wenn gute Posten rufen, sei nur am Rande festgestellt.
klimaretter.info: [4] „Jamaika“ will Kohleausstieg komplettieren
Schleswig-Holsteins neue Regierung aus CDU, FDP und Grünen will den Kohleausstieg schaffen. Das geht aus ihrem Koalitionsvertrag hervor, dem am heutigen Freitag alle Verhandler zugestimmt haben.

Der Deutsche Staatsfunk weiß noch mehr

Der Deutsche Staatsfunk ergänzte seine „Berichterstattung“ um zusätzliche Information. Wohl um zu zeigen, wie recht die GRÜNEN doch haben, informiert er die Bürger im Report zusätzlich über die großen Kostenvorteile des EEG.
ZDF, 17.06.2017, Quelle:dpa, afp: [1] Erneuerbare oft günstiger
Es wurden mehr Ökostrom-Kraftwerke gebaut als fossile. Hauptgrund ist, dass in den meisten Teilen der Erde inzwischen Strom aus Wind, Wasser oder Sonne günstiger erzeugt werden kann als mit neuen Kohle-, Öl- oder Gaskraftwerken. Dies gilt im Kern auch für Deutschland. Windparks auf hoher See sollen beispielsweise ganz ohne staatliche Förderung gebaut werden.

Unterschlagen hat es dabei, dass dies nur gelten würde, wenn konventionelle Kraftwerke massiv mit CO2-Zusatzkosten belegt werden und alle Infrastruktur-Maßnahmen, Backupsysteme und Speicher, welche das EEG zusätzlich enötigt, bei den Kosten keine Berücksichtigung finden. Dass man die erforderlichen Speicher noch nicht entfernt hat, wurde ebenfalls „vergessen“.

Wie die wirklichen Kosten beispielhaft liegen, wurde erst kürzlich gezeigt:
EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht
Dass in Ausschreibungen teils noch nicht einmal genehmigte Windanlagen mit dem Strom-Nettopreis in die Größenordnung konventioneller Kraftwerks-Abgabekosten kamen, ist noch lange kein Preisdurchbruch. Diese Anlagen werden einmal von vielen Kosten entlastet, können keine Grundlast und ob sie mangels Rendite nicht vielleicht bald nach dem Betrieb pleite gehen [6], wagt auch noch niemand vorherzusagen. Aber bewusste Desinformation hat beim EEG immer noch Methode [5].

Am einfachen Preisvergleich mit den anderen EU-Staaten und dem Kostenverlauf seit Einführung des EEG kann man den deutschen EEG-(Hochpreis-)„Erfolg“ jedenfalls nicht nur sehen, sondern bezahlen.


Quellen

[1] ZDF 17.06.2017: Bundesparteitag in Berlin Grüne wollen „Climate First“

[2] klimaretter.info: Grüne wollen Kohleausstieg bis 2030

[3] EIKE 25.04.2017: Wo Klimaschutzprogramme bestimmen, spielen Sinn und Geld überhaupt keine Rolle mehr

[4] klimaretter.info, 16. Juni 2017: „Jamaika“ will Kohleausstieg komplettieren

[5] EIKE 15.06.2017: Fake News: Diesmal Klimaretter und Stadtwerke: Die Stromspeicherung kostet vielleicht ein oder zwei Cent

[6] EIKE 18. Juni 2017: Negative Preise – Planillusion und bizarrer Markt




20 weitere neue Studien weisen einen solaren Antrieb bzgl. Klima­wandel nach – macht für das Jahr 2017 bereits 80 derartige Studien

Die 20 jüngsten Studien zu Sonne vs. Klima

Wir bestätigen das Auftreten eines bevorstehenden Modernen Großen Minimums von 2020 bis 2053 … und dass die prophezeite Erwärmung im nächsten Jahrhundert extrem falsch ist“ – Zharkova et al. 2017

Gray et al., 2017: Es gibt viele vorgestellte Prozesse, mittels welcher der 11-Jahre-Sonnenzyklus (SC) das Klima der Erde beeinflussen könnte, wie in Abbildung 1 zusammengefasst. Darunter sind: a) der direkte Einfluss der Variabilität der solaren Einstrahlung auf die Temperaturen an der Erdoberfläche, charakterisiert durch Variationen der Gesamt-Einstrahlung TSI; b) die indirekte Auswirkung von Variationen durch die Absorption von UV-Strahlung in der oberen Stratosphäre in Verbindung mit der Gegenwart von Ozon; c) die indirekte Auswirkung von Variationen des Flusses energetischer Partikel in die Thermosphäre, Mesosphäre und obere Stratosphäre in höheren Breiten; und d) die Auswirkung von Variationen bei der Entstehung von Ionen durch kosmische Strahlung (GCR), welche in die Troposphäre eindringt. Obwohl alle diese Prozesse ihrer Natur nach unterschiedlich sind, dürften diese vier Prozesse nicht isoliert voneinander ablaufen, aber ihr Einfluss könnte synergetisch sein.

—————————————-

Zharkova et al., 2017: Unter Verwendung einer Summenkurve von zwei Eigenvektoren [eigen vectors ?] von Oszillationen des solaren Magnetfeldes, abgeleitet mittels einer Principal Components Analysis (PCA) aus synoptischen Karten für die Sonnenzyklen 21 bis 24 als Proxy der Sonnenaktivität, extrapolieren wir diese Kurve zeitlich um 3 Jahrtausende zurück. Dabei zeigen sich 9 Große Zyklen [Grand Cycles] mit einer Dauer von jeweils 350 bis 400 Jahren. Die Summenkurve zeigt eine bemerkenswerte Ähnlichkeit mit der Sonnenflecken- und terrestrischen Aktivität in der Vergangenheit: Große Minima – Maunder Minimum (1645 bis 1715), Wolf-Minimum (1280 bis 1350), Oort Minimum (1010 bis 1050) und Homer Minimum (900 bis 800 v. Chr.). Aber auch die Großen Maxima tauchen auf: Moderne Warmzeit (1990 bis 2015), Mittelalterliche Warmzeit (900 bis 1200), Römische Warmzeit (400 bis 10 v. Chr.) und andere. Wir verifizieren den extrapolierten Aktivitätsverlauf durch Beobachtungen von großen Sonnenflecken vor der Erfindung von Teleskopen mit bloßem Auge und dem Vergleich mit den beobachteten und den simulierten Schmetterlings-Diagrammen für das Maunder-Minimum mittels eines Maximums der terrestrischen Temperatur und extremer Himmelsfärbung (auroras), welche im 14. bis 16. Jahrhundert im vergangenen Großen Zyklus beobachtet worden waren.

Wir bestätigen das Auftreten eines Modernen Großen Minimums von 2020 bis 2053, welches aber nicht so lange dauern wird (3 Zyklen) und folglich einer höheren Sonnenaktivität im Vergleich zum Maunder-Minimum. … Ein Beispiel, wie man fälschlich die Oszillations-Funktion mit einer linearen Regression ermittelt, wird von Akasofu (2010) gezeigt (siehe darin die Abbildung 9). Damit wollte er die Erholung der Erde aus der Kleinen Eiszeit erklären sowie den fehlerhaften Gebrauch eines linearen Teils der Temperatur-Variationen für die extrem falsche Vorhersage des terrestrischen Temperaturanstiegs im nächsten Jahrhundert.

—————————————-

Harde, 2017: Eine natürlich erzeugte CO2-Emission trägt zu über 95% zur Gesamt-Emission bei, und dessen Entstehungsrate sowie die jeweilige Absorptionsrate reagieren empfindlich auf globale Temperaturvariationen. … Die bekannte verzögerte Reaktion von CO2 und Methan auf Temperaturänderungen von Land und Wasser (see, e.g., Petit et al. [2]; Monnin et al. [3]; Caillon et al. [4]; Torn and Harte [5]; Humlum et al. [6]; Salby [7]) werden vom AR 5 des IPCC nicht berücksichtigt. … Solange jedwede natürliche Variationen der CO2-Konzentrationen nicht bekannt sind, kann die Gleichgewichts-Klimasensitivität bei einer Verdoppelung des CO2-Gehaltes nicht allein als zuverlässiger Indikator einer anthropogen verursachten Erwärmung herangezogen werden.

Das IPCC leugnet jeden merklichen solaren Einfluss auf das tatsächliche Klima, obwohl es starke Beweise für die zugenommen habende Sonnenaktivität während des vorigen Jahrhunderts gibt (Hoyt & Schatten [8]; Willson & Mordvinov [9]; Shapiro et al. [10]; Ziskin & Shaviv [11]; Scafetta & Willson [12]; Usoskin et al. [13]; Zhao & Feng [14]; Soon et al. [15]). … Aus diesen Studien schließen wir, dass die gemessene Erwärmung von 0,74°C im Zeitraum 1880 bis 2000 am besten mit einem Wolken-Rückkopplungs-Prozess erklärt werden kann, welcher vom solaren Einfluss dominiert ist. Daher scheint es sehr vernünftig, einen Modellmittelwert von 0,7°C als Klimasensitivität bei einer CO2-Verdoppelung anzusetzen. Daraus ergäbe sich eine CO2-induzierte Erwärmung von 0,3°C (von 1880 bis 2000) und einen Solaren Beitrag von 0,44°C (von 1880 bis 2000).

—————————————-

Pande et al., 2017: Ozon ist eine hoch reaktionsfreudige, natürliche Zutat der Stratosphäre, welches mittels Sonnenlicht aus Sauerstoff entsteht. Es ist eine der bedeutendsten Chemikalien sowohl in der Stratosphäre als auch in der Troposphäre. Neben der Absorption der schädlichen solaren UV-Strahlung spielt Ozon auch eine bedeutende Rolle hinsichtlich des Klimas der Erde. Die solare Variabilität beeinflusst das Ozon mittels Strahlungs-Aufheizung in der Atmosphäre. Solare-UV-Strahlung wird von atmosphärischem Ozon absorbiert. Sie ist ursächlich sowohl für die Entstehung als auch den Zerfall von Ozon. … Es zeigte sich, dass das Gesamt-Ozon während magnetisch gestörter Bedingungen verstärkt war, was zusammenhing mit Perioden stärkster Sonnenaktivität. Angell und Korshover (1976) zeigten, dass es eine nahezu In-Phase-Beziehung gibt zwischen Sonnenfleckenzahl und Gesamtozon.

—————————————-

Le Mouël et al., 2017: Die Sonnenaktivität enthält eine wichtige Komponente, welche während der letzten drei Jahrhunderte klare Oszillationen von ~90 Jahren durchlaufen hat mit einigen kleinen, aber systematischen längerzeitlichen Entwicklungen „augenblicklicher“ Periode und Amplitude. Die Hälfte der Varianz der Sonnenaktivität in diesen Zeitmaßstäben kann befriedigend reproduziert werden als Summe einer monotonen, multi-säkularen Zunahme, eines ~90-jährigen Gleissberg-Zyklus‘ und eines Schwabe-Zyklus‘ (mit einer Doppelspitze von ~10,0 und ~11,0 Jahren). Die Summe addiert sich zu 46% der Gesamtvarianz des Signals. Die Komponente des Gleissberg-Zyklus‘ muss definitiv betrachtet werden, wenn man versucht, Dynamo-Modelle der Sonnenaktivität zu konstruieren. Die erste SSA-Komponente ist ein klarer Beweis für einen langfristigen Trend der Sonnenfleckenzahlen, welche kompatibel ist mit der Existenz eines modernen Grand Maximum.

—————————————-

Wen et al., 2017: „Ein wärmeres und nasseres Klima herrscht seit ~4800 Jahren. Es war unterbrochen von einer scharfen kalten Phase vor etwa 3300 Jahren, vermutlich ausgelöst durch den solaren Strahlungsantrieb. Dies führte zu einer globalen Klimaabkühlung und vorstoßenden Gletschern.

—————————————-

Munz et al., 2017 : Die dekadische Auflösung der Aufzeichnung des Oman upwelling deutet auf den solaren Antrieb des Indischen Sommermonsuns (9-6 ka) … Wir zogen geochemische Parameter heran, Transfer-Funktionen von Plankton-Gemeinschaften [planktic foraminiferal assemblages] und Mg/Ca-Paläo-Thermometrie. Dabei fanden wir Beweise, welche die Ergebnisse früherer Studien bestätigen, denen zufolge die Intensität des Upwelling signifikant variiert in Kohärenz mit solaren Sonnenflecken-Zyklen. Der dominante, rund 80 bis 90 Jahre lange Gleissberg-Zyklus beeinflusste offenbar auch die Sauerstoff-Bedingungen am Meeresgrund.

—————————————-

Allan et al., 2017: Höhlen werden mittlerweile als wertvolles Archiv von Klimabedingungen auf den Kontinenten angesehen, bieten sie doch eine Anzahl von Vorteilen relativ zu anderen kontinentalen Klima-Proxies wie Sedimenten und Bohrkernen aus dem Schlamm. … Spurenelemente in Höhlen haben das Potential, eine hohe Auflösung der paläoklimatischen Variabilität während des Holozäns zu zeigen. Eine genauere Analyse enthüllt viele Perioden mit rapiden Klimaänderungen während des Holozäns (vor 10,7 bis 9,2; 8,2 bis 7,9; 7,2 bis 6,2; 4,8 bis 4,5 und 3 bis 2,4 Jahren [alle Zahlen multipliziert mit tausend]). Sie sind gleichlaufend mit den Kaltereignissen, welche aus verschiedenen natürlichen Paläoklima-Archiven hervor traten. Ein Vergleich zwischen der geochemischen Analyse [der Bedingungen in der] Père Noël-Höhle und der Sonnenaktivität (Sonnenfleckenzahl) zeigt eine signifikante Korrelation. Spektrale Analyse-Verfahren enthüllen gemeinsame solare Periodizitäten (Gleissberg-Zyklus, de Vries-Zyklus, einen nicht benannten 500-Jahre-Zyklus, Eddy-Zyklen und Hallstatt-Zyklus). Die geochemischen Analysen haben das Potential zu beweisen, dass Bedingungen in Höhlen empfindlich auf Änderungen der Sonnenaktivität reagieren im Zeitmaßstab von Jahrhunderten und Jahrtausenden während des Holozäns.

—————————————-

Woodson et al., 2017: Während der letzten ca. 1000 Jahre wurden die wärmsten Wassertemperaturen (SST) aufgezeichnet mit einem Mittel von 28,5°C. Wir zeigen zum ersten Mal für dieses Gebiet ein etwa 1000 Jahre langes kühles Intervall mit seinem Höhepunkt vor etwa 5000 Jahren, was einherging mit einer nassen Periode in Borneo. Die Aufzeichnung reflektiert auch ein warmes Intervall von vor 1000 bis 500 Jahren, welches die Mittelalterliche Klima-Anomalie repräsentieren könnte. Variationen des ostasiatischen Monsuns (EAM) und der Sonnenaktivität werden als potentielle Treiber von SST-Trends betrachtet. Allerdings dürften hydrologische Änderungen der ENSO-Variabilität, Verschiebungen des westpazifischen Warm-Pools und Migration der Innertropischen Konvergenzzone eher unseren zeitlichen SST-Trend beeinflusst haben … Die Trends der Sonnenaktivität (Steinhilber et al. 2012) stimmen allgemein überein mit der regionalen Abkühlung der SST (Linsley et al. 2010), und Oszillationen der Sonnenaktivität sind grob koinzident mit den wesentlichen Abweichungen unserer SST-Daten.

—————————————-

Li et al., 2017: „Die Hauptantriebe hinter Klimaänderungen im Holozän in der Lower Yangtze Region, East China (LYR) sind wahrscheinlich sommerliche Einstrahlung in Assoziation mit tropischen oder subtropischen Klimazirkulationen im Makro-Scale wie etwa der Innertropischen Konvergenzzone (ITCZ), des Westpazifischen Subtropenhochs (WPSH) und der ENSO.

—————————————-

Chang et al., 2017: Die auf Mücken basierende Aufzeichnung am Heihai-See zeigt eine sommerliche Temperatur-Fluktuation innerhalb von 2,4°C während der letzten 5000 Jahre im Ostteil des Qinghai–Tibetan Plateau (QTP). … Die sommerlichen Temperaturänderungen in diesem Gebiet reagieren primär auf die Variation des Asiatischen Sommermonsuns. Die Variabilität der Sonnenaktivität ist wahrscheinlich ein bedeutender Treiber der sommerlichen Temperaturen, entweder direkt oder durch Modifizierung der Stärke und Intensität des Indischen Ozeanischen Sommermonsuns.. … Wir fanden eine relativ lang dauernde sommerliche Abkühlungs-Episode (ca. 0,8°C niedriger als das 5000-Jahre-Mittel) von vor c. 270 cal. BP and AD c. 1956. … Die Aufzeichnung zeigt Abkühlungsperioden, welche vor 3100, 2600, 2100 und 1600 cal. auftraten. Dies spiegelt wahrscheinlich die Periode, welche allgemein als die Kleine Eiszeit der Nordhemisphäre von 1350 bis 1850 bezeichnet wird. Diese stehen möglicherweise im Zusammenhang mit mit dem solaren, quasi-periodischen 500-Jahre-Zyklus. Abkühlungsphasen von vor 270 bis 100 cal wurden ebenfalls beobachtet und sind möglicherweise verbunden mit der Kleinen Eiszeit. Dies zeigt einen Hemisphären-weiten Antriebsprozess für dieses Ereignis.

[Die Zeitangaben „c.“ und „cal“ sowie Andere bereiten mir Schwierigkeiten, denn nirgendwo finde ich eine Erklärung. Darum lasse ich sie immer wieder stehen, kursiv gesetzt. Anm. d. Übers.]

—————————————-

Lei et al., 2017: Die Niederschlags-Variabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten reflektiert allgemein immer Änderungen der Sonnenaktivität und der großräumigen Zirkulationen, z. B ENSO und Asiatischer Sommermonsun EASM (Chen et al. 2011, Vleeschouwer et al., 2012; Feng et al., 2014). Während der Mittelalterlichen Warmzeit war das nassere Klima in diesem Gebiet konsistent mit häufigeren ENSO-Ereignissen, stärkerem EASM und höherer Sonnenaktivität, während bei der Kleinen Eiszeit das Gegenteil gefunden wurde. Im Einzelnen sind die d13Cac-Fluktuationen im Zeitmaßstab von mehreren Jahrzehnten bis Jahrhunderten konsistent mit den Änderungen der Sonnenaktivität, wobei wenige Trocken-Intervalle mit Perioden geringer Sonnenaktivität korrespondieren innerhalb von Datierungsfehlern [Dating Errors ?]. Diese werden bezeichnet als das Oort Minimum (AD 1010-1050), Wolf Minimum (AD 1280-1340), Sporer Minimum (AD 1420-1530), Maunder Minimum (AD 1645-1715) and Dalton Minimum (AD 1795-1820). Diese Ergebnisse zeigen, dass Klimaänderungen in Südostchina auf die ENSO und den EASM reagieren, welche wiederum von der Sonnenaktivität getrieben werden.

—————————————-

Zhang et al., 2017: Die Aufzeichnungen zeigen, dass die Sommertemperatur im gesamten Zeitraum um ~2,5°C variiert. Zu einer allgemein wärmeren Periode war es gekommen zwischen c.8500 und c.6000 cal yr BP, und ein Abkühlungstrend wurde initiiert von c.5500 cal yr BP. Die Gesamt-Verteilung passt umfassend zur sommerlichen Einstrahlung bei 30°N und dem Verhalten des Asiatischen Sommermonsuns aus umliegenden Regionen. Dies zeigt, dass Sommertemperaturen im südöstlichen QTP auf Strahlungsantriebe reagieren und auf die vom Monsun getriebene Variabilität im Zeitmaßstab von Jahrtausenden. Modifizierungen dieses allgemeinen Trends treten bei feinerer zeitlicher Auflösung hervor, und wir zeigen, dass die Sonnenaktivität ein bedeutender Prozess sein kann, welcher die Variabilität im Zeitmaßstab von Jahrhunderten treibt. Sie kann einen verstärkten Effekt zum Ende des Holozäns gehabt haben, als sich der Einfluss des Monsuns abschwächte.

—————————————-

Luoto and Nevalainen, 2017: Hier verwenden wir vollständig synchronisierte paläo-limnologische und auf Proxies basierende Aufzeichnungen der Lufttemperatur und des effektiven Niederschlags [?] von zwei Seen in Skandinavien mit Sedimentprofilen, die etwa 2000 Jahre abdecken. Wir zeigen, dass die Relation zwischen Lufttemperatur und Niederschlag (T/P-Ratio) an beiden untersuchten Stellen während der gesamten Zeitreihe synchron ist. Es zeigen sich warme und trockene Bedingungen vom Jahr 300 bis 1100 sowie kalte und nasse Bedingungen von 1200 bis 1900. Aufgrund der signifikant gestiegenen Lufttemperatur ist die jüngste T/P-Ratio wieder positiv geworden. Während des ersten Jahrtausends folgt T/P den Schwankungen des Southern Oscillation Index, während T/P im zweiten Jahrtausend Reaktionen zeigt in Abhängigkeit vom NAO-Index. Aber die Ratio ist auch übereinstimmend mit Veränderungen der solaren Einstrahlung. Die Gründe für die Kleine Eiszeit LIA von 1200 bis 1900 sind nicht klar definiert infolge ihrer hoch variablen Natur (Wanner et al. 2011; Luoto and Nevalainen 2016; Zawiska et al. 2017). Und doch, zusätzlich zu einer persistent stark negativen Phase des NAO-Index‘ während der LIA wurde diese höchstwahrscheinlich getrieben von verringerter solarer Einstrahlung (darunter die Spörer-, Maunder- und Dalton-Minima), gesteigerter vulkanischer Aktivität (Aerosole) sowie Änderungen der Zirkulation im Atlantischen Ozean (Grove 2001; Goosse et al. 2005; Wanner et al. 2011).

—————————————-

Li et al., 2017: Korrelationen zwischen Aufzeichnungen der Paläo-Temperatur im Nordatlantik und Sonnenaktivität zeigen, dass Änderungen des solaren Outputs bedeutende Klimaverschiebungen im nordatlantischen Gebiet bewirken können. Um die Rolle der Sonnenaktivität bzgl. der Wassertemperatur an unserem Untersuchungsgebiet in Westgrönland zu testen, führten wir eine cross-correlation-Analyse durch zwischen unserem rekonstruierten Verlauf der sommerlichen Wassertemperatur SST und der Gesamt-Solarstrahlung TSI. Die Ergebnisse zeigen, dass der maximale Korrelations-Koeffizient (0,284) der sommerlichen SST und TSI erreicht wird bei einer Zeitverzögerung von fast Null (-6 time-lag). Dies bedeutet, dass Variationen der Sonnenaktivität die Variabilität der sommerlichen SST im untersuchten Gebiet beeinflusst. … Eine signifikant positive Relation zwischen sommerlichen SSTs auf dem Eisschild in Nordisland und der solaren Einstrahlung wurde auch von Jiang et al. gezeigt. Sie rekonstruierten diese Relation aus 10Be und 14C-Aufzeichnungen während des Holozäns. Dieses Ergebnis wird auch gestützt durch jüngste Klimamodell-Simulationen der Community Climate System Model Version 4 (CCSM4). Die Modellergebnisse zeigen eine starke positive Korrelation zwischen SST und TSI in der IC [innertropische Konvergenz?]. Dies zeigt, dass eine reduzierte Häufigkeit atlantischer Blockierungs-Lagen während Perioden mit hoher Sonneneinstrahlung für wärmere und salzigere Bedingungen im Bereich der IC sorgt wegen der stärkeren Zirkulation im Bereich der subpolaren Frontalzone. … Spektralanalysen zeigen, dass bedeutende Variationen im Zeitmaßstab von Jahrhunderten dem langzeitlichen Orbitaltrend überlagert sind. Die dominanten Periodizitäten sind 529, 410 und 191 Jahre. Diese würden sehr gut passen zu den bekannten Sonnenzyklen über 512 bzw. 206 Jahre. Cross correlation-Analysen zwischen sommerlichen SSTs und der Sonneneinstrahlung während der letzten 5000 Jahre zeigen, dass die Aufzeichnungen in Phase sind. Dies beweist, dass Variationen der Sonnenaktivität die regionale Variabilität der Sommer-SST beeinflusst. Insgesamt ist die starke Beziehung zwischen solarer Variabilität und Sommer-SSTs nicht nur regional von Bedeutung, sondern sie ist auch konsistent im gesamten Gebiet des Nordatlantiks.

—————————————-

Orme et al., 2017: Der Nord-Süd-Index zeigt, dass sich Zugbahnen von Tiefdruckgebieten aus einer südlichen Lage während der letzten 4000 Jahre in höheren Breiten verlagert haben, vermutlich gesteuert durch eine Änderung von einer meridionalen zu einer zonalen atmosphärischen Zirkulation, assoziiert mit einem Wechsel der NAO von negativ zu positiv. Wir zeigen, dass eine graduelle polare Abkühlung (verursacht durch abnehmende Sonneneinstrahlung im Sommer und verstärkt durch Meereis-Rückkopplungen) sowie eine Erwärmung der mittleren Breiten (verursacht durch eine zunehmende Einstrahlung im Winter) einen sich verstärkenden winterlichen Temperaturgradienten zum Ende des Holozäns zur Folge hat. Dies würde die beobachteten, weiter nördlich liegenden Zugbahnen von Tiefdruckwirbeln erklären.

—————————————-

Serykh and Sonechkin, 2017: Das globale Klima ist ein quasi-periodisch getriebenes dynamisches System. Zusätzlich zum jährlichen Zyklus des Wärmetransports von der Sonne und dem täglichen Zyklus der Erdrotation existieren andere externe periodische Faktoren, welche potentiell in der Lage sind, Klimafluktuationen zu verursachen. Die lunaren und solaren Tiden sind derartige Ursachen im Zeitmaßstab von einem Tag. Im Zeitmaßstab von Jahrzehnten sind diese Ursachen 11-jährige Variationen der Sonnenflecken (Wolff-Zyklus), und deren Doppelperiode manifestiert sich in den Änderungen der heliosphärischen Feld-Polarität (der Hale-Zyklus). Die Existenz säkularer solarer Zyklen ist auch möglich (Gleissberg- und Suess-Zyklus, gefunden in einer Anzahl von Sonnenflecken). Berechnungen zeigen, dass es einen etwa 180 Jahre langen Zyklus hinsichtlich der Rotation der Sonne um das Zentrum der Masse des Sonnensystems gibt. Die Autoren von (3) zeigen, dass dies in Relation steht zur Abfolge von bedeutenden Abnahmen der Sonnenaktivität während des vorigen Jahrtausends. Diese Perioden sind bekannt unter den Bezeichnungen Oort-, Wolff-, Spörer-, Maunder- und Dalton-Perioden. Es gibt paläoklimatische Beweise der Klimaabkühlung während dieser Perioden. Auf dieser Grundlage können wir folgern, dass die Dynamik des ONI (ENSO-Index) vorherrschend gesteuert wird durch zwei periodische externe Kräfte (der jährliche Wärmetransport in das Klimasystem von der Sonne und die Chandler Wobble [Präzession?] der Pole der Erde), und dass das System nicht chaotisch ist. Diese Tatsache zeigt, dass es eine prinzipielle Möglichkeit gibt für langfristige ENSO-Vorhersagen (viele Jahre im Voraus).

—————————————-

Kitaba et al., 2017: Die Abschwächung des geomagnetischen Feldes verursacht eine Zunahme der kosmischen Strahlung (GCR). Einige Forscher argumentieren, dass ein verstärkter GCR-Fluss zu einer Klimaabkühlung führen könnte infolge einer Zunahme der Bildung tiefer Wolken. Studien aus jüngerer Zeit haben Beweise für eine Verbindung gezeigt zwischen einem schwachen geomagnetischen Feld einerseits und Klimaabkühlung andererseits. … Eine stärkere terrestrische Abkühlung zeigt, dass eine Reduktion der Einstrahlung eine Schlüsselrolle spielt bei der Verbindung zwischen diesen beiden. Der wahrscheinlichste Kandidat für diesen Prozess scheint die verstärkte Albedo durch die tiefen Wolken zu sein.

—————————————-

Perșoiu et al., 2017: Während des gesamten Holozäns reagierte der unterirdische Eisblock der Scărișoara-Eishöhle empfindlich auf Änderungen sowohl der Wintertemperatur als auch der Quelle der Feuchtigkeit. Während dieses Zeitraumes wurde die Wintertemperatur im östlichen Mitteleuropa hauptsächlich kontrolliert durch Änderungen der solaren Einstrahlung. Das Wechselspiel zwischen Einstrahlungs-Variabilität, SST-Änderungen im Nordatlantik und der Einfluss des nachwirkenden [lingering] Laurentide-Eisschildes modulierte die Dynamik der großräumigen atmosphärischen Zirkluation.

—————————————-

Luthardt and Rößler: Der 11-jährige solare Zyklus, bekannt als der Schwabe-Zyklus, repräsentiert die kleinste zeitliche solare Zyklizität und kann anhand der Sonnenflecken-Aktivität zurückverfolgt werden (Douglass 1928, Lean 2000). Er hat eine messbare Auswirkung auf das Klima der Erde, wie das Maunder-Minimum belegt (Usoskin et al. 2015). Globale Klimarückkopplungs-Reaktionen auf Variationen der Sonneneinstrahlung aufgrund der Sonnenflecken sind komplex, und es wird hypothetisiert, dass sie ausgelöst werden durch 1) Variation des Gesamt-Energie-Inputs (Cubasch und Voss 2000), 2) den Einfluss der Intensität ultravioletten Lichtes auf die Zusammensetzung der Stratosphäre Lean und Rind 2001), 3) die Auswirkung kosmischer Strahlen auf die Wolkenbildung (Marsh und Svensmark 2000, Sun and Bradley 2002) und/oder 4) die Auswirkung hoch energetischer Partikel auf die Strato- und Mesosphäre (Jackman et al. 2005). … Wie auch heute verursachte die Sonnenflecken-Aktivität Fluktuationen der in die Erdatmosphäre eindringenden kosmischen Strahlung, was wiederum Auswirkung auf die Wolkenbildung und jährliche Niederschlagsraten hat.

Link: http://notrickszone.com/2017/06/12/20-more-new-papers-link-solar-forcing-to-climate-change-now-80-sun-climate-papers-for-2017/

Übersetzt von Chris Frey EIKE




Negative Preise – Planillusion und bizarrer Markt

Dem alten Gemüsehändler traten immer mehr Schweißperlen auf die Stirn, die in der Abendsonne glänzten. Aber was sollte ich tun? Ihm am Ende des Tages die letzten Tomaten aus Mitleid abkaufen? Er wollte für das Kilo wirklich nur einen Spottpreis haben, aber es lagen noch genügend Tomaten daheim. Sollte ich meine wegwerfen, statt er seine? Schließlich kam er um den Tisch herum und verbesserte sein Angebot, indem er mir die Tomaten samt Tüte schenken wollte. Aber was hätte ich davon, für ihn die Entsorgung zu übernehmen? So betrachtete ich das Gespräch als beendet und wandte mich zum Gehen. Nach wenigen Schritten hatte er mich eingeholt. Einen Euro wolle er mir zahlen, wenn ich die Tüte und Inhalt mitnehme.

Abbildung 1 oben
Am 1. Mai wurde ab Mitternacht bis 17 Uhr in deutschen Kraftwerken für negative Strompreise produ- ziert! Der Produktionsertrag von rd. 619 Millionen kWh wurde mit rd. 27 Millionen Euro (rd. 4,3 ct/kWh) an die vergütet, die bereit sind den überschüssig erzeugten Strom als Geschenk zu über- nehmen. Auf dieser Basis sind keine gerechten Löhne der erbrachten „Arbeit“ zu erwarten, für die der 1. Mai steht. Auszug aus Ausgewählte Kapitel der Energiewirtschaft von Prof. Dr. Helmut Alt
 

Während ich noch sinnierte, was ihn wohl dazu bewogen haben könnte, hatte er schon auf zwei Euro erhöht.

Auf dem Heimweg entsorgte ich die roten Früchte im Straßengraben und freute mich über drei Euro mehr in der Tasche, die ich am nächsten Bierstand zum Einsatz brachte. So war der Händler die Tomaten los und ich hatte anstelle der nicht benötigten Tomaten auch einen Vorteil.

Dunkelflaute von Frank Hennig; zu bestellen zB. hier

 

Tomaten und Elektrizität

Total unglaubwürdig, die Geschichte? Nein, nicht wenn es sich bei dem Produkt anstelle der Tomaten um elektrische Energie handelt. Bei diesem Wirtschaftsgut gibt es die Besonderheit, dass es zeitsynchron erzeugt und verbraucht oder, korrekt ausgedrückt, umgewandelt werden muss. Der Unterschied im Handel besteht nun darin, dass der Gemüsehändler die nicht mehr verwertbaren Früchte kompostiert oder verfüttert, niemals aber einem Kunden für die Abnahme noch Geld gezahlt hätte.

Anders beim Strom im weltweit einmaligen Energiewendewunderland. An 19 Tagen im Jahr 2016 taten für 97 Stunden die Stromhändler das, was der oben beschriebene Gemüsehändler in seinem Leben nie getan hätte – Ware verschenken und Geld dazugeben. Ein Zeichen erschöpfter Regelfähigkeit des Systems und Folge von Planwirtschaft, die Technologien bevorzugt (Einspeisevorrang), überwiegend fest vergütet und auf Marktsignale nicht gesamtwirtschaftlich sinnvoll reagieren kann.

Als erste Reaktion auf solche Ereignisse kommt von Seiten der Wendebewegten der Vorwurf des „verstopfenden“ Kohle- und Atomstroms. Warum fahren die Konventionellen nicht weiter zurück oder gehen außer Betrieb, wenn zum Zeitpunkt niedriger Last die Regenerativen powern? Dafür gibt es mehrere Gründe:

  • Zur Netzstabilität sind zwingend Systemdienstleistungen erforderlich (Wirk-  und Blindleistungsregelung, also Frequenz- und Spannungshaltung). Die Massenträgheit der Turbogeneratoren glättet die Mikroschwankungen im Netz. Die Netzreserve zum kurzfristigen bedarfsgerechten Hochregeln muss erhalten bleiben. Man spricht hier auch vom „Must-Run-Sockel“. Ohne Einbettung in ein stabiles und regelfähiges Netz würden die volatilen Einspeiser das Netz innerhalb von Sekunden kollabieren lassen.
  • Konventionelle Kraftwerksblöcke haben in der Regel Anfahrzeiten im Stundenbereich. Wenn man alle Blöcke an einem Standort abschalten würde, lägen die Anfahrzeiten im Bereich eines Tages. Dann könnte schon längst wieder Flaute sein.
  • Weitere Restriktionen ergeben sich durch die technisch fahrbaren Mindestlasten und die teils nötige Bereitstellung von Fern- oder Prozesswärme für Haushalte und Industrie (wärmegeführte KWK-Anlagen).
  • Für die Betreiber ist es eine wirtschaftliche Abwägung, einige Stunden Verluste in der Hoffnung auf nur kurzfristige negative Strompreise durchzuschwitzen und damit die erheblichen Außer- und Inbetriebnahmekosten zu sparen. Auch die Teilnahme am Regelleistungsmarkt fließt in die Betrachtung der Opportunitätskosten ein. Im Grunde ein betriebswirtschaftliches Problem, das neben den ohnehin niedrigen Strompreisen die wirtschaftliche Situation der konventionellen Kraftwerksbetreiber weiter verschlechtert, erkennbar an den Bilanzen von Stadtwerken und Großversorgern.

Im Jahr 2011 traten an sechs Tagen stundenweise negative Strompreise auf, 2015 an 25 Tagen, Tendenz weiter steigend. Starkwind zu Weihnachten und viel Sonne zu Pfingsten sind bei entsprechend niedrigem Bedarf die besten Voraussetzungen für negative Strompreise.

 

Bezahlte Geschenke

Am 8. Mai 2016 drückte so viel Wind- und Sonnenstrom ins Netz, dass 352 Millionen Kilowattstunden Strom und 21,3 Millionen Euro den benachbarten Energieunternehmen geschenkt wurden. Mit dieser Strommenge hätte man etwa 117.000 Dreipersonenhaushalte ein Jahr lang versorgen können. Für die deutschen Kunden wurde es teuer, denn der überschüssige Strom kostete sie per EEG 70 Millionen Euro, macht in Summe also 91,3 Millionen. Am 1. Mai 2017 waren es sogar 40 Millionen Euro Geldgeschenk ans Ausland. Für die Strombörse EEX in Leipzig ein „natürliches Phänomen des kurzfristigen Stromhandels“. Die Börse verdient bei jedem Handel mit – auch beim schlechten.

Die Unionsfraktion im Bundestag forderte, man dürfe neu gebauten Wind- und Solaranlagen bei negativen Strompreisen keine Vergütung mehr zahlen. Angesichts der zunehmenden Marktverzerrung kam die Regierung nicht umhin, die bisher für sakrosankt erklärte Einspeisevergütung tatsächlich anzutasten – wenigstens ein klein wenig. Seit 2016 gilt nun für Neuanlagen der Paragraf 24 des EEG, der festlegt, dass Windkraftanlagen größer als drei Megawatt und andere EE-Anlagen größer als 500 Kilowatt installierter Leistung bei negativen Preisen für mehr als sechs Stunden keine Vergütung mehr erhalten. Freiwillig änderte die Bundesregierung das EEG 2016 allerdings nicht. Der zeitweise Stopp der Vergütungszahlung geht im Kern auf Vorgaben der Europäischen Union zum Beihilferecht zurück. Die Umwelt- und Energie-Beihilfe-Leitlinie der EU (UEBLL) untersagt eine Förderung der Stromerzeugung bei negativen Preisen. Ausnahmen sind grundsätzlich zugelassen.

 

Sanfte Korrektur

Die Windbranche war zunächst bezüglich der Auswirkungen des Paragrafen 24 verunsichert. Erstmalig durchwehte ein leichter Hauch unternehmerischen Risikos die Branche. Befürchtungen zu den Auswirkungen reichten bis zu einer kompletten Unwirtschaftlichkeit zukünftiger Windprojekte. Die Thinktanks der Branche stellten Wirtschaftlichkeitsrechnungen auf, in denen befürchtet wird, dass neue Windkraftanlagen bis 2040 dadurch die Hälfte ihres Profits einbüßen könnten. Schon der betrachtete Zeithorizont lässt erkennen, dass man überhaupt nicht daran denkt, die Stromeinspeisung grund- und regellastfähig, mithin systemkompatibel zu machen. Die rückwirkende Betrachtung ergibt jedenfalls, dass sich Paragraf 24 bisher kaum ausgewirkt hätte. Dennoch grübelt man gegen den Paragrafen an und forderte zunächst seine Abschaffung. Da dies erfolglos war, zieht man Möglichkeiten der Gestaltung in Erwägung, indem man beispielsweise die hohe Einspeisung mit der Folge negativer Preise ab der fünften Stunde durch gezielte Abschaltungen und somit die Wirkung des Paragrafen verhindert. Nach einer Stunde eines Null- oder Positivstrompreises kann man wieder zuschalten und die Uhr läuft wieder los.

Die Tendenz ist deutlich, die Zeiten negativer Strompreise werden zunehmen. Maßgeblichen Einfluss haben auch die Austauschkapazitäten mit den Nachbarländern. Da die Übertragungskapazitäten zwischen Deutschland und Südeuropa nicht ausreichen, sucht sich der Strom oft den Weg über Polen und Tschechien. Diese Länder intervenierten darauf hin beim europäischen Regulierungsverband ACER, der nun die Aufhebung der gemeinsamen Preiszone Deutschland/Österreich durchsetzen will. Sollte diese heute einheitliche Zone aufgeteilt werden, ergeben sich in Deutschland längere Zeiten negativer Preise und für die Endkunden in der Alpenrepublik, die bisher vom niedrigen deutschen Börsenpreis profitierten, höhere Preise.

Energiepolitik bizarr: Während in Brüssel Europa-Politiker von einem baldigen Binnenmarkt für Elektrizität oder sogar einer Energie-Union reden, passiert in der Realität das Gegenteil: Re-Nationalisierung und Fragmentierung des europäischen Marktes, die Errichtung von Grenzen und der Aufbau neuer Handelshemmnisse auf Grund eines deutschnationalen Sonderwegs. Dabei besteht der Engpass nicht in fehlenden Leitungen zwischen Deutschland und Österreich, sondern an mangelnden Trassenkapazitäten zwischen Nord- und Süddeutschland. Verschiedene Strompreiszonen in Deutschland sind politisch allerdings (noch) nicht durchsetzbar.

Es bleibt die spannende Frage, ab wann auf dem Weg zu „100-Prozent-Erneuerbar“ die Regenerativen endlich Verantwortung am System Netz übernehmen werden. Dies wird mit dem Ziel der Gewinnmaximierung der Branche kollidieren, so dass neue Subventionstatbestände oder Umlagen zu erwarten sind.

 

Was tun?

Wie sähe eine pragmatische Lösung aus? Negative Preise dürften an der Börse nicht mehr zugelassen werden, was bedeuten würde, alle Einspeiser oberhalb des Must-Run-Sockels ohne Entschädigung abzuschalten, aus Kostengründen die mit den höchsten Einspeisevergütungen zuerst. Dies würde den bloßen und der Versorgungssicherheit abträglichen massenhaften Zubau volatiler Einspeisung begrenzen und vor allem den Druck erzeugen, Systemdienstleistungen bereitzustellen und, noch wichtiger, Speicherkapazitäten zu schaffen. Die mächtige Wind- und Solarlobby wird dies aber nicht zulassen. Eher gehen die Konventionellen in die Insolvenz, um dann vom Staat gerettet und wegen ihrer systemsichernden Rolle auch subventioniert zu werden.

Wirtschaftsgüter, Strom wie auch Tomaten, haben grundsätzlich einen Preis von größer Null, wenn der Markt funktionieren soll. Negative Preise sind die Perversion von Markt, ein Schritt zu seiner Zerstörung und hier eine Folge staatlicher Regulierung, die in eine Planwirtschaft führt.

Der Mörder ist nicht immer der Gärtner, aber in Deutschland ist am Ende immer der Stromkunde der Dumme.

 




Teil 2: Feinstaub – Die Pest des 21. Jahrhunderts, oder nicht!

Das Geschäft mit der Angst basiert beim Feinstaub auf folgender WHO-Aussage:

Im Jahr 2012 (Anmerkung: Das Jahr ist beliebig austauschbar) sind laut einer Schätzung rund sieben Millionen Menschen weltweit an Erkrankungen gestorben, die mit verschmutzter Luft in Zusammenhang stehen.“

Diese Aussage ist aus zweierlei Gründen nicht zu beanstanden:

  • Und da ist von „In Zusammenhang stehen“ die Rede. Wieder so eine Konjunktiv-Aussage, die nichts wert ist: Unser Leben steht auch mit unserem Tod im Zusammenhang…

Solche Konjunktiv-Aussagen sind ähnlich zutreffend, wie, die Erde kann von einem übergroßen Meteoriten getroffen werden, wobei letzteres indes wahrscheinlicher ist, als durch Feinstaub zu sterben.

Der Spiegel macht denn aus solch einer Nullmeldung (Dass sie eine Lachnummer ist, wird der Autor gleich zeigen):

WHO Luftverschmutzung offiziell als Krebsursache eingestuft“

Was ist aus diesem Magazin geworden, welches der Autor seit 1973 regelmäßig, über 30 Jahre lang, las? Der dortige Redakteur hat in seiner Aussage den Satzfüller „offiziell“ benutzt. Solche Attribute werden üblicherweise dann verwendet, will man eine Nullnummer, der nichts zu entnehmen ist, aufwerten und ihr dadurch einen fundierten Charakter verleihen möchte!

Aus „Luftverschmutzung“ wurde dann die Ableitung erstellt, das „Feinstaub“ Krebs verursacht, was nun völliger Unsinn ist, wie der Autor gleich zeigen wird. Wogegen man „Luftverschmutzung“ in Verbindung mit dem Konjunktiv, also “kann“, gerade so durchgehen lassen kann – immerhin ist die stärkste bekannte Luftverschmutzung, das Rauchen, als entsprechend schädlich bekannt, obwohl auch dieses kein Garant für Krebs ist, wie das Beispiel unseres Altbundeskanzlers Helmut Schmidt zeigt – so einfach ist Krebs nun auch wieder nicht zu verstehen, sonst wäre er längstens heilbar. So ist die Feinstaubbelastung für eine mögliche Krebserkrankung schlichtweg auszuschließen. Doch begeben wir uns nun in die molekularen Ebenen, in denen die o.g. Krankheiten ihren Ursprung und damit ihre Ursache haben.

Oben wurde das Beispiel unseres Altbundeskanzlers genannt, der trotz intensivem Rauchen, weit über 90 Jahre alt wurde und damit fast 20 Jahre länger, als die mittlere Lebenserwartung lebte, trotz Rauchen. Demnach sollte es Faktoren geben, die langes Leben unterstützen und den Ausbruch der Krankheit verhindern. Die gibt es auch und dies sind:

  • Unsere genetische Ausstattung (wobei die durch die entsprechenden Gene produzierten Proteine und der mit ihnen verbundenen Steuerungssequenzen das entscheidende Kriterium darstellen). Die Wissenschaft spricht vom individuellen Phänotyp.
  • Unser menschliches Immunsystem, wobei es ein Immunsystem gar nicht gibt, sondern den Verbund zwischen dem angeborenen Immunsystem, dem adaptiven Immunsystem, dem zelleigenen Immunsystem, dem Zellkernimmunsystem, dem „Wächterrat“ (z.B.: Peyersche Plaques), den „Verbindungsgliedern“, sowie dem genetischen Immunsystem. Wobei beim letzteren nicht von einen Immunsystem gesprochen wird, weil keine Antigene im Fokus stehen, sondern komplexe Reparaturprozesse vorgenommen werden.

Krebs ist eine Gen-/Chromosomenkrankheit, die ausschließlich in dieser molekularen Ebene ausgelöst werden kann. Sog.Krebsgene können durch äußere Einflüsse entstehen, wie z.B. hochenergetische Strahlung, Giftstoffe (einige chemische Stoffe, man spricht von karzinogenen Stoffen) oder durch Viren. In den meisten Fällen entstehen Krebsgene jedoch durch innere Einflüsse (Eigenmutationen durch den Austausch von Basenpaaren im jeweiligen Gen oder falsch ablaufende Reparaturprozesse in der Doppelhelix des Genoms, z.B. Brustkrebs bei Frauen) der Zelle selbst, die keine(!) Beeinflussung von außen benötigen. Hierzu muss hinzukommen, dass unser adaptives Immunsystem, solche Zellen nicht erkennt und ausschaltet.

Diese Mutationen sind jedoch nicht selbst die Ursache von Krebszellen, sondern größtenteils ist Krebs das Ergebnis der dadurch veränderten Aktivität vieler andere Gene, die für wichtige zelluläre Regelmechanismen verantwortlich sind. So schalten einige Mutationen, Regel- und Überwachungsgene aus, andere erhöhen die Aktivität von Genen, die wiederum die Aktivität der Zelle erhöhen. Da meist (eine Ausnahme z.B. vererbte Krebsdisposition) mehrere Mutationen notwendig sind, um die vorgenannten Regelkreise anzustoßen, ist Krebs denn auch meist eine „Alterskrankheit“. Je früher sie im Alter auftritt, umso weniger ist unser Immunsystem in der Lage, sie in Schach zu halten. Von gut erforschten Krebsarten, wie dem Mammakarzinom, weiß man, dass etwa 1.000 Gene an der Entstehung eines Krebstumors beteiligt sind. Folgende sieben Grundeigenschaften muss eine Zelle aufweisen, damit aus ihr eine Krebszelle werden kann:

  • Autonomie der Zellteilungssignale (Krebszellen erzeugen ihre eigenen Wachstumssubstanzen oder verstärken externe Wachstumssubstanzen)
  • Unempfindlichkeit gegen wachstumshemmende Signale (das umliegende gesunde Gewebe sendet wachstumshemmende Signale aus, gegen die die Krebszellen unempfindlich sind)
  • Deaktivierung des programmierten Zelltods = Apoptose (Mechanismen in der Zelle, gesteuert von zelleigenen Proteinen, werden unterdrückt)
  • Unbegrenzte Teilungsfähigkeit (Krebszellen können die normalerweise – läuft über „mathematische“ Logik – begrenzte Anzahl von Zellteilungen umgehen)
  • Neubildung von Blutgefäßen (Krebszellen senden Signale für die Bildung neuer Gefäße aus, mit denen sie mit Sauerstoff und Nährstoffen versorgt werden)
  • Invasivität und Beweglichkeit (zellinterne Regelmechanismen hindern Zellen meist daran, zu wandern und in fremdes Gewebe einzudringen, Krebszellen sind unempfänglich für solche Signale, die diese Regelkreise steuern)
  • Manipulation des Immunsystems (Krebszellen spannen z.B. Zellen des angeborenenImmunsystems für ihre Zwecke ein – zweckentfremdet). Makrophagen können Krebszellen entweder selbst abtöten oder Signale an die T-Zellen des adaptiven Immunsystems senden, welche dann die Zerstörung einleiten. Krebszellen können die Makrophagen jedoch regelrecht umerziehen, so dass sie sich regelrecht in Fabriken für Cytokine und Wachstumsfaktoren wandeln, die den Krebstumor wachsen lassen.

Zur Steuerung aller vorgenannten Eigenschaften dienen aus Aminosäuren, den chemischen Grundbausteinen des Lebens, bestehende Proteine / Enzyme. Feinstaub, als tote Materie, ist nie in der Lage, solche Signale zu steuern oder gar solche Stoffe herzustellen.

Um eine Krebsentstehung zu initiieren, müssen sich demnach sog. Schlüsselgene einer Zelle zu onkogenen Veränderungen anhäufen. Diese Zellen werden dadurch zu ungehemmtem Wachstum angeregt, wodurch dann eine Krebstumorzelle entstehen kann. Wie bereits gesagt, kann dies z.B. durch Genmutationen (durch die Evolution = springende Gene), durch hochenergetische Strahlung (Brüche in der Helix) entstehen oder durch aggressive chemische Substanzen, die direkt in die Zelle und deren Zellkern gelangen und dort das Erbgut direkt schädigen. Nun, das Feinstaub zu den Genen gelangt und dort sowohl Gene, wie Chromosomen schädigt ist der Wissenschaft bisher wohl entgangen.

Krebs ist weiter eine Krankheit von vielzelligen Lebewesen, worin die Erkenntnis verborgen ist, was Krebs eigentlich ist. Deshalb gibt es in der Krebsforschung Ansätze, ihn mit der Evolution zu erklären. Sozusagen als ein Nebenprodukt der Evolution, dass mit ihr entstanden ist. Nun wird niemand ernsthaft behaupten wollen, tote Materie wie Feinstaub, wäre ein Produkt der Evolution.

Gene und deren Proteine überwachen grundsätzlich jede Zellteilung und passen sozusagen darauf auf, wie sich eine Zelle vermehrt. Tut sie dies außerhalb vorgesetzter Regeln, so lösen diese Suppressorproteine entweder die Zellapoptose aus oder veranlassen das adaptive Immunsystem, die Zelle zu töten. Bei Krebs ist diese Kaskade, deren biologische Signalgebung, gestört.

Krebs kann weiter durch Viren, wie dem HPV-Virus (verursacht bei Frauen Gebärmutterkrebs, nicht zu verwechseln, mit HIV-Virus) verursacht werden. Nun, Viren und deren RNA können als lebende Organismen die Zelle „überlisten“, diese entern und ihre RNA zu den Genen/Chromosomen im Zellkern gelangen und dort aggressive Veränderungen vornehmen, wenn sie z.B. ihre Viren-RNA in das menschliche Genom einbauen oder Reparaturprozesse in den Chromosomen verhindern. Unser Genom besitzt übrigens eine Vielzahl von Virensequenzen, die sich im Laufe der Evolutionsgeschichte dort angehäuft haben. Die meisten davon sind unkritisch.

Abb.9, Quelle (https://www.dermatologie-am-dom.de/dermatologie/allgemeine-dermatologie/hpv-viren/): Papillomviren infizieren die Schleimhaut der Gebärmutter, was zu bösartigen Veränderungen in der Gebärmutter führen kann.

Damit eine Krebszelle überhaupt entstehen kann, müssen zuvor falsche Gene abgelesen werden. Gene, sowohl die zellspezifischen, als auch sog. falsche, bzw. entartete Gene werden durch einen komplizierten Proteinkomplex, die (RNA-)Polymerase II abgelesen. Dieser besteht aus über einem Dutzend verschiedener Funktionseinheiten, die mittels Transkriptionsfaktoren (Proteine, deren geometrische Figur wie ein Schlüssel an die jeweils entsprechende Andockstelle passt und die für die Katalyse notwendig sind) gesteuert werden. So funktioniert z.B. das Gift des Knollenblätterpilzes dahingehend, dass seine biologische Struktur sich an eine solche Andockstelle in der Polymerase II der Leberzellen festsetzt, an die eigentlich ein Transkriptionsfaktor andockt, der die Polymerase II steuert. Da der Platz aber vom biologischen Gift besetzt ist, kann er nicht mehr andocken und die Polymerase II funktioniert nicht mehr und die Zelle wird nicht mehr mit dem notwendigen Nachschub (Proteine) versorgt und stirbt ab. Sie „verhungert“ sozusagen. Nicht gleich, sondern 1 Tag später. Deshalb ist dieses Gift so heimtückisch: Wird es bemerkt, ist es meist zu spät und die Zellen sind bereits abgestorben.

Die Verfechter der Feinstaub-Hype können dem Autor sicherlich sofort sagen, wie Feinstaub die Polymerase II steuert.

Abb.10, Quelle (http://www.biochem.umd.edu/biochem/kahn/molmachines/newpolII/home.html) zeigt vereinfacht den Ablesevorgang an einem Gen durch die RNA-Polymerase II.Dazu wird die Doppelhelix aufgetrennt und der entsprechende Abschnitt mit Hilfe dutzender Hilfs- und Steuerungsproteinen kopiert. Die Boten-RNA wandert dann, wiederum mit Hilfsstoffe aus dem Zellkern zu den Ribosomen, an denen dann das jeweilige Protein entsteht. Feinstaub hat keinerlei Möglichkeit (ist ausgeschlossen) die Polymerase II irgendwie zu beeinflussen.

So tragen Proteine am Anfang ihrer Aminosäurekette einen Code, der ihren Bestimmungsort signalisiert, sozusagen, eine „Postleitzahl“. In den Ribosomen wird anhand der o.g. genetischen Boten RNA (DNA-Kopie = Bauplan), der Genabschrift im Zellkern durch die Polymerase II, mittels Transfer RNAs, die mit Hilfe von Enzymen (ohne deren Hilfe kann die genetische Bauanleitung nicht richtig ausgeführt werden), jeweils an eine „ihrer“ Dreierabfolge der Nukleotide andocken, die Lebensbausteine des Körpers erzeugt. Hier ist ein evolutorisch sehr alter Schutzmechanismus der Zelle vor Vireninfektionen eingefügt und zum Schutz einer korrekten Übersetzung: Nicht die Boten-RNA direkt wird übersetzt, sondern mit Hilfe zelleigener Transfer RNAs, die erkennen sollen, ob es sich um eine falsche Dreierabfolge von Nukleotiden und damit um Fremdgene handelt.

Diese Transfer-RNAs veranlassen das Ribosom, die jeweilige Aminosäure zu erzeugen, mit denen das Protein hergestellt wird. In einer Untereinheit des Ribosoms, dem Signal Recocnition Particle, wird den Proteinen die Zieladressen in der Zelle oder außerhalb der Zelle angefügt. Anschließend verlässt das Protein das Ribosom und beginnt sich in einem komplizierten Prozess zu falten. Falsche Faltungen sind z.B. die Ursache von Krankheiten wie BSE. Bevor jetzt jemand auf die Schnapsidee kommt, Feinstaub würde diese Faltungen behindern und wäre (auch) für BSE verantwortlich: Der Faltungsprozess läuft mittels biologischer Elemente (Cofaktoren wie Chaparone) und nutzt dabei physikalische Grundgesetze. Abgesehen davon, dass Feinstaub gar nicht erst dorthin gelangt, wo diese Prozesse ablaufen.

Die in den Ribosomen hergestellten Proteine dienen der Zelle für ihren „Betrieb“. Wie bereits erwähnt, werden bei Krebszellen falsche Gene abgelesen, die wiederum die Zelle zu abnormen Verhalten veranlassen. Feinstaub kann hier nichts beeinflussen oder eingreifen, da biologische Stoffe aus Aminosäuren notwendig sind.

Bei solchen Genen, die eine hohe Bedeutung für die Entstehung von Krebs haben (Proto-Onkogen), bzw. deren Veränderung Krebs entstehen lässt, spricht die Wissenschaft von Krebsgenen oder Onkogenen. Zu ihnen gehören die z.B. BRCA-Gene (dienen für Reparaturprozesse an der Genom-Helix) oder die FAS-Gene, die für die Fettsäuresynthese verantwortlich sind und somit Schlüsselfunktionen im Gewebe und der Energieversorgung (Energiespeicher) innehaben. Wobei, wie bereits gesagt, mehrere Gene mutiert sein müssen, um eine normale Zelle, in eine Krebszelle zu verwandeln. Ein Grund, warum Krebs meist eine Alterskrankheit ist.

Abb.11, (Quelle Max Planck Gesellschaft) zeigt einen kleinen Ausschnitt der zelleigenen Proteine und ihre komplexen Wechselwirkungen. Insgesamt konnten bei Krebs ca. 10.000 Proteine identifiziert werden, die sich in Verbindung mit der Krankheit wandeln und die Zelle abnorm werden lassen. Alle Proteine und alle ihre Wechselwirkungen laufen über biologische Signalstoffe, die jeweils ihr Rezeptorprotein erkennen müssen, um etwas auslösen zu können.

Um diesen Proteinverbund, wie auch den „normalen“ aufrecht zu halten, benötigt es Kommunikationen. Dazu besitzt eine Zelle Rezeptoren, an die ihr ganz bestimmter Bindungsfaktor andocken muss, damit ein Wirkstoff in eine Zelle gelangt oder in ihr etwas auslöst. Dies kann man sich bildhaft so vorstellen wie eine Fahrberechtigung beim Auto. Nur, wer den richtigen und passenden Schlüssel hat, der kommt in das Fahrzeug, hier, in die Zelle. Der passende Schlüssel ist dabei die räumliche Ausgestaltung der Aminosäuren an einer anderen Zelle, z.B. des Immunsystems oder ein Botenstoff, wie z.B. ein Cytokin. Viren müssen übrigens genau den passenden Rezeptor (Schlüssel) tragen, wollen sie in eine Zelle gelangen. Ohne diesen „Schlüssel“ kommen sie nicht in eine Zelle, um diese zu infizieren und sich anschließend darin zu vermehren. Feinstaub ist aber ein toter Stoff, der keine Bausteine des Lebens (Aminosäuren) hat und damit auch nicht den jeweils passenden Schlüssel, um an einem jeweils ganz bestimmten Oberflächenmolekül an oder in einer Zelle etwas auszurichten. Folglich kann Feinstaub hier grundsätzlich keine Rolle spielen: Weder bei der Entstehung von Krebs, noch bei Erkrankungen wie einer Grippe.

Ein entscheidendes Kriterium bei Krebs ist sein (Zell)Wachstum. Hierfür benutzt er die zelleigenen, sonst „üblichen“ Prozesse, die die Zelle einschlägt zu wachsen, bzw. sich zu vermehren oder zu erneuern. Mit dem Unterschied, dass Regelproteine (wieder biologische Stoffe), die ansonsten ein ungebremstes Zellwachstum verhindern, gehemmt sind und die Proteine, die das Zellwachstum ankurbeln, stark erhöht, also hyperaktiv sind.

Zellwachstum beginnt mit einer Familie von Rezeptoren (EGFR) in der Zellmembran. Werden diese durch externe Wachstumsfaktoren (biologische Proteine wie Sonic hedgehog oder Nough) stimuliert, die die richtige Form in ihren Verbindungsstellen aufweisen, um an diese Rezeptoren anzudocken, wird in den Zellen eine entsprechende Signalkaskade angestoßen, die die Gene in der Zelle adressiert, die für Wachstum und Teilung zuständig sind. Die Aktivierung dieser Rezeptoren bewirkt über eine komplexe Signalkaskade mit dutzenden biologischen Hilfs- und Regelstoffen in der Zelle, an der ausschließlich biologische Stoffe beteiligt sind, weitere Proteine zu erzeugen, die schließlich die notwendigen Gene im Zellkern für die Zellteilung anstoßen. Als totes Material hat Feinstaub hier keinerlei Einflussmöglichkeiten.

Abb.12(http://physiologie.cc/II.1.htm) links zeigt anhand einer Fettzelle anschaulich und vereinfacht die Kommunikation zwischen den Zellen und rechts das Andocken eines jeweils entsprechenden Bindungspartners an Zellrezeptoren und ebenfalls stark vereinfacht, die Zellprozesse, die daraufhin angestoßen werden.

Dockt an die Zelle außen am Rezeptor ein Wachstumsfaktor an, so verbindet sich der Rezeptor mit seinem Nachbarn. Die Paarung zweier Rezeptormoleküle aktiviert ihre sog. Tyrosinkinase (Enzym). Durch anschließende Phosphorylierung (Anhängen einer Phosphatgruppe) an die Innenseite der Rezeptoren, wird eine Signalkaskade in Richtung Zellkern in Gang gesetzt, der entsprechende Wachstumsgene aktiviert. Andere Rezeptorpaare können dagegen direkt in den Zellkern wandern und dort Gene anschalten, die die Zellteilung ankurbeln und die Apoptose verhindern (z.B. Östrogenrezeptor). Solche Rezeptoren lösen, wenn ihr Bindungspartner (immer ein biologischer Stoff = Protein) an ihr andockt, im Zellinnern ein Vermehrungssignal aus, indem sie eine molekulare Kaskade in Gang setzen. In deren Verlauf weitere Gene aktiviert, deren Proteinprodukte wiederum die Aktivität andere Gene regulieren (zur Komplexität siehe Abb.11). Ein Zuviel solcher Wachstumsfaktoren (EGFR), kann denn eine Zelle in eine Krebszelle verwandeln. Mit Feinstaub hat dies alles nichts zu tun.

Um ihr Wachstum zu fördern, senden Krebszellen ihrerseits Wachstumsfaktoren aus (z.B. VEGF = vaskuläre endotheliale Wachstumsfaktur) aus, die Zellen der inneren Blutgefäßwand anlocken. Diese Endothelzellen bilden dann neu aussprossende Blutgefäße, die den Krebstumor versorgen. Der Autor wüsste gern, wie Feinstaub auf diese sog. Angiogenese Einfluss nehmen soll. Die Antwort: Da es sich ausnahmslos um biologisch gesteuerte Prozesse, mit biologischen Stoffen handelt, kann Feinstaub hier als totes Material niemals irgendeinen Einfluss ausüben. Wer nicht den Schlüssel zu einem Fahrzeug hat, der kommt auch niemals hinein. Es sei denn, er schlägt die Fenster ein. Bei Zellen müsste dieser eine zelltoxische Stoff sein. Derartige Stoffe, sog. Karzinogene, sind bekannt. Zu ihnen gehören z.B. Dioxine und in größeren Dosen Aromatische Kohlenwasserstoffe.

Feinstaub, also zu Deutsch feiner Steinist jedoch nicht zelltoxisch (Anmerkung: Es sei denn, man stoßt sich den Kopf an einem größeren Stein – der Autor möchte jetzt niemandem etwas unterstellen) wie z.B. Dioxin und kann daher auch keine „Fenster“ in der Zelle einschlagen und sie dadurch zerstören – biologische Prozesse, die für Krebs notwendig sind, kann er nie anstoßen – er kann seine Wirkung auf äußere Zellen „nur“ mechanisch ausüben. Daher schreibt auch Prof. Dr. Joachim Heyder (über die beobachteten Auswirkungen des ultrafeinen Feinstaubes um 0,1µm): „Aber nach wenigen Tagen sind diese Entzündungen (Anmerkung: In der Lunge) abgeklungen.“ Diese mechanisch verursachten Entzündungen werden durch das angeborene Immunsystem ausgelöst (dazu später mehr), die Fremdstoffe werden identifiziert, gebunden, zerstört und dann abtransportiert. Die Entzündungen klingen wieder ab und bleiben nicht bestehen. Gleiches geschieht auch beim Schnupfen und dort sind die Entzündungserscheinungen weit größer. Kein Mensch würde nun behaupten, das Schnupfen Krebs verursacht.

Weiter benutzen Krebszelle das angeborene Immunsystem, besonders die Makrophagen, um zu wachsen und zu metastieren. Sie programmieren die Makrophagen sozusagen um, so dass diese falsche Signalstoffe an die B-Zellen des adaptiven Immunsystems senden, die dann ihrerseits das angeborene Immunsystem aktivieren, die Krebstumorzellen beim Überleben und beim Wachstum unterstützen, indem sie z.B. den entzündungsfördernden Faktor KappaB produzieren, der Makrophagen anlockt und der sie veranlasst, in den inneren, sauerstoffarmen Bereich den Krebstumors zu wandern, womit sie bewirken, das Blutgefäße hineinwachsen. Ansonsten könnte ein Krebstumor nicht wachsen, da ihm die Sauerstoffversorgung fehlt.

Der Autor wüsste nun gern, wie Feinstaub die biologischen Signale sendet, damit das angeborene Immunsystem umprogrammiert wird? Er wird natürlich keine Antwort erhalten (können), da Feinstaub dieses nicht auszulösen vermag und als tote Materie keine Signale an biologische Proteine, die letztendlich für die obigen Kaskaden verantwortlich sind, abgeben kann.

Abb.13, Quelle: Cancer Immnology Research, „NF-κB, an Active Player in Human Cancers“, zeigt, wie Krebszellen das angeborene Immunsystem für sich ‚einspannen‘. In Abb.13 ist der NF-KappaB dargestellt. Dieses Signalprotein wird vom angeborenen Immunsystem dazu benutzt, um Entzündungsreaktionen (dazu später mehr) hervorzurufen. Chronische Entzündungen können eine wichtige Rolle bei der Entstehung von Krebstumoren, nicht von einzelnen Zellen, spielen. Chronische Entzündungen allein bewirken grundsätzlich keine Mutationen und lösen auch keinen Krebs aus. Sie können ihn indes unterstützen, zu wachsen.

So produzieren Makrophagen entzündungsfördernde Stoffe, wie den Tumornekrosefaktor (TNF), der in der Zelle einen genetischen Schalter, den nuclear factor-kappa B umlegt. In aktivierter Form wandert er in den Zellkern und kurbelt dort die Produktion von Proteinen an, die die Apoptose verhindern, die Entzündung verstärken und die Zellteilung anregen.

Damit Gene abgelesen werden können, bedarf es nicht nur einer entsprechenden biologischen Signalgebung, um der RNA-Polymerase II zu übermitteln, welches Gen abgelesen werden soll, sondern der entsprechende Abschnitt im Chromosom muss für den vergleichsweise großen Ablesekomplex (RNA-Polymerase II) zugänglich sein. Anmerkung: Der Autor dringt deshalb so tief in die Molekularbiologie und die Zellabläufe ein, um zu zeigen, dass für Feinstaub hier nichts zu beeinflussen ist.

Das menschliche Genom besteht aus ca. 21.000 Genen. Von den drei Milliarden Buchstaben (Nukleotide) sind dies gerade einmal knapp 2%, die für Aminosäuren (das Leben ist aus 20 Standardaminosäuren aufgebaut), den Grundbausteinen der Proteine, codieren. Unser Genom besitzt weiter, 19.000 Pseudogene (an ihren Sequenzveränderungen wird die genetische Uhr abgelesen) und der große Anteil von Introns (etwa 30%, Steuerungssequenzen in den Genen, die nicht codieren) und der ganz große Rest aus Sequenzen außerhalb der Gene und Pseudogene. Die genetischen Buchstaben sind dabei in der DNA-Helix, an einem doppelsträngigen Grundgerüst von Zucker und Phosphateinheiten aufgereiht.

Abb.14, Quelle (http://www.wissensschau.de/genom/rna_genom.php) links zeigt die Doppelhelix unseres Genoms (Ausschnitt), mit den vier Basen, Adenin, Cytosin, Guanin und Tymidin (wobei im Doppelstrang stets A mit T und G mit C gepaart sind und die sog. Leiter bilden) und die entsprechende Boten-RNA, wie sie von der RNA-Polymerase II abgelesen wird und als „Blaupause“ für die Ribosomen in der Zelle dient, anhand derer, das Ribosom die durch Aneinanderreihung von Aminosäuren, das jeweilige Protein bildet. Jeweils drei Buchstaben codieren dabei für eine Aminosäure.

Abb.14 rechts zeigt die zwei Hauptaufgaben der RNA: Blaupause für Proteine und Regulator für Genaktivitäten. Auch hier gibt es für Feinstaub nichts zu beeinflussen – ist für Feinstaub unmöglich.

Chromosome sind wiederum um „Verpackungseinheiten“, die Histone, gewickelt. An denen sich Steuerungseinheiten, Acetyl- und/oder Methylgruppen, befinden. Werden diese entfernt (sog. Langlebigkeitsgene* vermögen dies), so ändert sich deren Komplexität / Räumlichkeit und bei der Zellteilung entsteht weniger sog. ribosomale DNA, die eine der Ursachen für die Begrenzung von Zellteilungen ist, weil sich diese Elemente im Zellkern ansammeln und mit jeder Teilung dort häufen. Weil repetitive Sequenzen dazu neigen, zu rekombinieren und dadurch sog. Stottersequenzen in der Abschrift des Chromosoms entstehen, die die Zellteilung letztendlich verhindern oder zu entarteten Funktionen führen, wodurch dann Krankheiten ausgelöst werden, bzw. keine Zellteilungen mehr erfolgen – zu Deutsch: Alterungsprozesse werden eingeleitet, bis hin zur Apoptose, dem zellprogrammierten Zelltod.

* Zu den sog. Langlebigkeitsgenen gehören Sirtuine. Indem Sirtuine in diese komplexe Genregulierungen eingreifen, können sie Alterungsprozesse hinauszögern. Sirtuine greifen weiter in die Prozesse ein, die Diabetes vom Typ 2 auslösen (können ihn hinauszögern) und hemmen Entzündungsreaktionen, indem sie den nekrose Faktor Kappa B bremsen. So regelt das Sirt 1 Enzym die Insulin Produktion und den insolinähnlichen Wachstumsfaktor IGF-1. Kalorienarme Kost (Ernährung) regelt über die dortigen Stoffe den Zellstoffwechsel, der wiederum Stoffe produziert, die die Langlebigkeitsgene ein oder ausschalten, sofern diese vorhanden sind. Darauf beruht übrigens die statistische Erkenntnis, dass gesunde Ernährung der Gesundheit zu Gute kommt. Wogegen die pseudowissenschaftlichen Studien der WHO, Feinstaub würde Millionen Tote verursachen, auf keiner wissenschaftlichen Erkenntnis beruhen, sondern, wieder einmal, auf reinen, subjektiven Modellberechnungen, ohne jegliche wissenschaftliche Grundlage. So etwas wird üblicherweise als Pseudowissenschaft bezeichnet. Prof. Dr. Joachim Heyder vom Forschungszentrum für Umwelt und Gesundheit zu diesen WHO-Studien: „Ich halte das für unseriös.“ Wie anhand der biologischen Abläufe gezeigt, ist dem nichts hinzuzufügen.

Feinstaub hat als totes Material, gar nicht die Möglichkeit, Aminosäuren, die Bausteine des Lebens zu erzeugen und daraus die jeweils entsprechenden Steuerungselemente zu bilden, um in irgendwelche Regelkreisläufe der Zelle einzugreifen um diese entarten zu lassen. Ganz abgesehen davon, dass er gar nicht in den Hochsicherheitstrakt der Zelle, ihren Zellkern, hineinkommt.

Abb.15 (https://www.boundless.com/biology) zeigt anschaulich, wie auf den Chromosomen durch Methylierung durch biologische Steuerungssequenzen, sog. Genregulatoren, sich die Verpackungsdichte der Histone ändert und dadurch das Gen zugänglich wird. Unnötig zu erwähnen, dass auch hier Feinstaub keine Einflussmöglichkeiten hat.

Bei dicht gepackten Genomabschnitten spricht man von Heterochromatin. Wogegen das locker gewickelte und ablesbare Euchromatin heißt. Ribonecleinsäuren aus dem Genom-Bereich IGS (nicht codierende Steuerungssequenz) und ein spezieller Enzymcomplex (NoRC) sind für die Verpackung und Stilllegung auf den Chromosomen zuständig. Durch zu wenig ribosomale RNA (siehe Abb.14) wird die Verpackungsdichte reduziert und somit Bereiche des Genoms abgelesen, die sonst still liegen. Nun weisen Krebszellen eine veränderte DNA-Methylierung an den Histonen auf. Verursacht durch fehlgeleitete zellgenetische Steuerungen. Auch hier würde der Autor gerne wissen, wie Feinstaub in diese biologisch / genetische Regelung, die mit für die Auslösung einer Krebserkrankung verantwortlich sein kann (wenn falsche Stellen angefahren werden), eingreift?

Weiter fehlt Feinstaub die Energie, wie z.B. ionisierende Strahlung, um im Genom Veränderungen vorzunehmen (abgesehen davon, dass Feinstaub gar nicht dorthin kommt), indem z.B. ein Nukleotid (genetischer Buchstabe) verändert wird. Da immer jeweils drei Nukleotide für eine Aminosäure codieren, kann ein Fehler unter Umständen fatale Auswirkungen auf das anschießende Protein haben, sofern dies nicht vorher erkannt wird.

Anmerkung: Der Autor weiß, es ist sehr fachspezifisch, er will aber zeigen, dass Feinstaub da nichts regeln oder beeinflussen kann.

Genmutationen entstehen auch dadurch, dass eine skriptierte RNA (nachdem die Introns entfernt wurden) wieder in DNA zurückgeschrieben und in unser Genom eingebaut wird. Auch hieraus kann theoretisch eine Krebserkrankung werden. Oder ein sonstiger, körpereigener Mangel, der zu einer spezifischen Krankheit führt. So kann z.B. der Mensch, im Gegensatz zu anderen Säugetieren, kein Vitamin C selbst herstellen, weil das notwendige Gen (Gulo) im Chromosom 8 entartet ist (vor mehr als 50 Mio. Jahren) und nur noch als Pseudogen vorliegt. Der Mensch und seine Vorfahren haben dennoch überlebt, weil wir diese Stoffe mit der Nahrung zu uns nehmen. Mangelerscheinungen sind denn auch die Folge solch fehlender Stoffe, die der Körper braucht, aber nicht (mehr) selbst erzeugen kann.

Weiter besitzen wir Menschen bestimmte Gene (deren Proteine), um Beschädigungen der Doppel- oder Einzelstrangbrüche der Helix im Genom zu reparieren. Ohne ein solches funktionsfähiges Gen, haben wir ein viel höheres Risiko, an bestimmten Krebsarten zu erkranken – das Chromosom zerfällt dann in zwei Teile oder reißt an einer Stelle auf, was drastische Folgen haben kann, denn Krebs ist eine Gen-/Chromosomenkrankheit, die auf dieser Ebene entsteht. Gut erforscht ist dabei ihr Einfluss auf Brustkrebserkrankungen bei Frauen, bei der BRCA-Gene mutiert sind, die für solche Reparaturprozesse notwendig sind. Vielleicht können auch hier die Feinstaub-Aktivisten dem Autor sagen, wie Feinstaub in den Hochsicherheitstrakt der Zelle, ihren Zellkern gelangt, dort zu den Chromosomen und dann auch noch, ohne eigene Energie, Chromosomenbrüche verursacht. Der Autor beantwortet die Frage: Schlicht und ergreifend unmöglich.

Ein weiteres wichtiges Feld im Verständnis von Krebs sind sog. Krebsstammzellen. Sie sind meist der Grund, wenn sich ein Tumor wieder bildet. Stammzellen sind Zellen, an denen durch eine Kaskade von Aktivitäten (z.B. Sonic hedgehog = Wachstum), die jeweiligen Vorläuferzellen eines Zelltyps entstehen und schließlich, nach zig-Einzelschritten und Differenzierungen, die fertige, funktionale Zelle oder, die entartete Zelle. Ein Versagen der biologischen Stammzellenregulation (deren Kontrolle) liegt vielen Krebsarten zu Grunde. Nun meine lieben „Freunde“ von der Feinstaub-Hype, erklärt doch mal dem Autor, wie Feinstaub dies anstellen soll? Doch da gibt’s jedoch nichts zu erklären, weil zwischen toter und lebender Materie keine Signale und damit Steuerungen ausgetauscht / initiiert werden können. Da Feinstaub auch kein Energieträger ist, können auch auf physikalischer Basis keine Wechselwirkungen in diese Regelkreise erfolgen.

Abb.16, Quelle (http://www.scienceinschool.org/de/2011/issue21/cscs): Zwei Modelle, die zu erklären versuchen, warum innerhalb eines Krebstumors dessen Zellen so unterschiedlich sein können und, dass eine kleine Untergruppe von Zellen (Krebsstammzellen) für die Auslösung und den Bestand des Krebses verantwortlich ist. Die Funktion und das Verhalten von Stammzellen wird von ihrem eigenen, genetischen Programm und einer Vielzahl von (biologischen) Signalen aus dem Gewebe gesteuert (entscheidet auch darüber, ob und wo sich Metastasen bilden). Stammzellen, mit sog. onkogenen Veränderungen in ihrem Programm und die Änderung der vorgenannten Signalketten können dazu führen, dass Krebsstammzellen entstehen. Weder kann Feinstaub als tote Materie die Signalkette manipulieren, noch genetische Veränderungen hervorrufen. Demzufolge, kann Feinstaub auch keinen Krebs auslösen. Immunzellen sind übrigens dazu in der Lage, Krebsstammzellen aufzuspüren und sie zu zerstören.

Krebs kann jedoch nicht allein mit dem Gen-Modell erklärt werden, sondern die Betrachtung muss auf die Chromosomen ausgeweitet werden. So ist Krebs eine Gen-/Chromosomenkrankheit. Auffällig ist, dass in Krebszellen gleich ganze Chromosomenbereiche entartet sind und nicht nur einige Gene. So sind in einer Krebszelle zwar einzelne Gene verändert, aber gleichzeitig sind die Chromosome, die tausende Gene tragen, gravierend verändert. Manche sind zerbrochen, tragen Stücke von anderen, andere sind zu viel und andere wiederum fehlen ganz. Dieses direkte Chaos ist nicht die Folge von genetischen Einzelveränderungen, sondern die eigentliche Ursache von Krebs. So sind denn die Abweichungen in der Anzahl und der Struktur der Chromosomen in einer Zelle die Ursache für deren Entartung.

Wir Menschen besitzen zwar weitgehend identische Grundgene. Diese unterscheiden sich jedoch durch Variationen, in denen einzelne Nukleotide verändert sind. Jeder Mensch trägt über sein Genom eine Vielzahl solcher Mutationen und vererbt diese weiter, was die menschliche Vielfalt ausmacht. Man spricht vom Phänotyp.

Der Chromosomensatz in einer Zelle ist hingegen immer gleich und er kommt immer paarweise (diploid) vor. Die Zelle besitzt jeweils ein gleiches Chromosom vom Vater und der Mutter (einzige Ausnahme das männliche Geschlechtschromosom). Diese chromosomale Regel ist eine unverrückbare Stabilitätsregel bei der Zellentwicklung und im Gegensatz zu Genen, gibt es hierzu keine Abweichungen. Bei Krebs jedoch sind die Chromosomen nicht diploid, sondern immer (!) aneuploid.

Abb.17, Quelle P. Duesberg / Univ. Berkeley: Der menschliche Chromosomensatz besteht aus 23 Chromosomenpaaren, die immer jeweils gleiche Paarbildung aufweisen. Nur beim Mann ist ein ungleiches Paar zu finden (X und Y-Chromosom, bei der Frau jeweils X zu X-Chromosom). Bei Krebszellen herrscht immer chromosomale Unordnung: Einige Chromosomen liegen in Überzahl vor, einige fehlen, andere haben Bruchstücke ausgetauscht,… Unnötig zu erwähnen, dass Feinstaub ein solches Chromosomenchaos nicht anrichten kann, da es erst gar nicht dorthin gelangt, geschweige in die komplizierten biologischen Steuermechanismen eingreifen kann, die normalerweise für Ordnung sorgen. Der Grund ist vielmehr in der Struktur der Chromosomen selbst zu finden. Neben einigen äußeren Einflüssen, die oben beschrieben wurden (z.B. Viren oder hochenergetische Strahlung), kommt der Anstoß zur Entartung einer Zelle meist (!) aus ihrer inneren Struktur selbst, auf die Feinstaub nun erst recht keinen Einfluss hat.

Die chromosomale Betrachtung erklärt denn auch, warum Krebs meist erst im hohen Alter entsteht: Wegen dem sich immer mehr anhäufenden Aneuploidgrad in den Zellen. Ist der Gang der Euploid-Entwicklung erst einmal in Gang gesetzt, erzeugt jede neue Zelle weitere und mehr euploidie, bis diese schließlich entartet. Die Wissenschaft weiß z.B., dass die Chromosomenenden, die Telomere, eine wichtige Rolle bei der Stabilität des Chromosoms spielen. Diese Telomere werden aber mit jeder Zellteilung (mit dem Alter) weniger, was auf die Polymerase I zurückzuführen ist.

Abb.18 Quelle (https://physics.aps.org/articles/v6/129) zeigt bildhaft, wie sich die Telomere mit jeder Zellteilung verkürzen.

Eine wichtige Funktion, dass sich bei der Zellteilung die Chromosomenpaare richtig ausrichten und paaren, hat zu Beginn der Zellteilung der sog. Spindelapparat der Zelle. Ist er gestört, ordnen sich die Chromosomenpaare falsch an, was wiederum Krebszellen entstehen lassen kann, wenn dies nicht vorher vom Immunsystem erkannt wird. So haben die o.g. Aromatische Kohlenwasserstoffe, die unter die Karzinogene fallen, die Eigenschaft, dass sie die Microtubuli („Kraftseile“ der Zelle) depolymerisieren und dadurch zerstören. Diese Proteine braucht jedoch der Spindelapparat, bei der Zellteilung. Dioxine wirken dadurch karzinogen, indem sie durch ihre hohe Toxizität, die Chromosomen direkt angreifen. Der Autor wüsste nun gerne, wie Feinstaub dies fertigbringen soll? Er weiß, dass er keine Antwort erhalten wird.

Die inhärente Instabilität des Krebses ist auch die Ursache, warum Krebs so leicht neue individuelle Merkmale erreicht und dadurch für Medikamente nicht mehr erreichbar ist, die vorher noch halfen. Krebszellen unterscheiden sich damit grundlegend von ihren natürlichen „Vettern“, die alle artspezifische Eigenschaften aufweisen.

Zuweilen fällt bei Feinstaubbelastung und seiner postulierten Wirkung der Begriff Oxidativer Stress und damit verbunden: Freie Sauerstoffradikale. Nun, diese Radikale entstehen grundsätzlich bei unseren Stoffwechselprozessen und sind, da sie sehr reaktionsfreudig sind, kurzlebig. Sie sind deshalb sehr reaktionsfreudig, weil ihnen ein ungepaartes Elektron fehlt und sie versuchen anderen Stoffen, wie den Mitochondrien, dieses Elektron zu entreißen, wodurch sich deren chemische Eigenschaften ändern und sie dadurch instabil, beschädigt werden. Die deutschen Qualitätsjournalisten, die mit diesen Begriffen jonglieren wissen natürlich sofort, warum Freie Radikale so „scharf“ darauf sind, ihr ungepaartes Elektron zu paaren. Daher eigentlich unnötig, dass der Autor den Grund nennt: Ihre Energiegewinn ist dadurch sehr groß. Nach diesem Ausflug in ferne und fremde Welten, nein, die Rede ist nicht vom Raumschiff Enterprise, sondern von der Physik, obwohl der Autor so manchmal den Eindruck hat, dass für unsere deutschen Qualitätsjournalisten das eine dasselbe wie das andere ist, zurück zum oxidativen Stress.

In der Zellen gibt es zum einen biologische Stoffe, die freie Radikale unschädlich machen und zum anderen, Reparaturprozesse, die es ermöglichen, solche Schäden durch freie Radikale zu beheben. Mit dem Alter werden diese weniger, weil, so die gängige Meinung, die Zellen erschlaffen. Jedoch hat die Zelle Möglichkeiten, Alterungsprozesse hinauszuzögern. Dazu gehören die bereits erwähnten Langlebigkeitsgene (z.B. Sirtuine), aber auch Gene, die den Stoffwechsel oder das Wachstum steuern. Sirtuine sind auch bei der Zellabwehr aktiv und unterstützen diese, weiter steuern sie die Apoptose – bei Krebs maßgeblich. Wer eine entsprechende genetische Ausstattung (siehe Helmut Schmidt), vor allem die, die solche Gene aktiviert, hat, der lebt länger, auch wenn er raucht. Durch bestimmte Stoffe, wie Resveratrol (in roten Weitrauben) lassen sich übrigens Zellen dazu anregen, solche Langlebigkeitsgene über chemische Prozesse in der Zelle zu aktivieren. Daher kommt auch die Aussage, wer täglich ein Glas Rotwein trinkt, der lebt länger – die gleiche Substanz ist indes auch im roten (alkoholfreien) Traubensaft.

Besonders vom Rauchen ist bekannt, dass dadurch in unseren Zellen eine mehr als 1.000-fache Erhöhung solcher freien Radikale auftreten können. Ansonsten sind sie normaler Bestandteil unsers Zellstoffwechsels.

Die „Schwadronauten“, inklusive der politischen Organisation WHO, die behaupten, Feinstaub würde Krebs verursachen, können dem Autor sicherlich sofort erklären, wie Feinstaub dies in den vorher beschriebenen, molekularen Zellprozesses, anstellen soll.

Krebs und Virenerkrankungen haben auf molekularer Ebene eine grundlegende Gemeinsamkeit: In beiden Fällen werden in der Zelle falsche Gene abgelesen. Im letzteren durch Manipulation der Viren (indem sie den Enzymapparat der Zelle übernimmt), also der lebenden Fremdkörper und im anderen Fall, durch die (lebenden) Zellprozesse selbst (indem Gene aktiv werden – durch den Krebs aktiv gemacht werden, die eigentlich stumm bleiben müssen, z.B. Gene, die die Zellteilung anregen). In der Wissenschaft besteht hier ein Ansatz (über small interferring RNAs), die über genetisch* erzeugte Antikörper in die Zelle eingeschleust werden. Diese Antikörper fangen die falsch abgelesene RNA in der Zelle auf, indem sie sich auf ihre jeweiligen, konträren RNA-Nucleotide heften. Hierdurch können gezielt Gene stumm geschaltet werden, oder falsche Boten-RNA (z.B. Viren) abgefangen werden. Der Vorgang ist recht komplex und nutzt die zelleigene Interfrenzmachinerie. Der Vorgang gehört übrigens zum zelleigenen Immunsystem. Feinstaub hat als tote Materie, auch nicht im Geringsten die Möglichkeit, in die o.g. Regulation der Zellgene einzugreifen.

*Ohne Genmanipulation ließen sich viele heute verwendete Heilmittel und auch zukünftige, nie herstellen. Sie stellen zudem sicher, dass nur ihr eigentliches Ziel und nicht auch gesundes Gewebe angegriffen wird.

Der Autor hat detailliert beschrieben, dass Feinstaub nicht in der Lage ist, in die biologischen Systeme / Prozesse einzugreifen, die mit Krankheiten wie Krebs in Verbindung stehen, die Feinstaub angeblich auslösen soll. Haben denn „Umwelteinflüsse“ keinen Einfluss auf genetische Prozesse?

Doch, natürlich! Wir sind Kinder der Evolution und wie Charles Darwin so brillant nachwies, passen wir / das Leben sich an seine Umwelt und deren Veränderungen an. So beträgt die Zeitspanne, in der sich ein Gen ändern kann, ca. 10.000 Jahre. Für die Menschheitsgeschichte und noch mehr, die Geschichte des Lebens auf der Erde ist dies nur ein Wimpernschlag. Dennoch wird jetzt hoffentlich niemand um die Ecke kommen und behaupten, seine Gene hätten sich geändert, weil er 10.000 Jahre einer zu hohen Feinstaubbelastung ausgesetzt war. Jeder wüsste sofort, dass dies nur blanker Unsinn sein kann.

Nun können sich Steuerungssequenzen in unserem Genom (Chromosomen) schneller ändern als proteincodierende Gene. Z.B. über Ablesefehler (in die Chromosomen kommt Feinstaub aber gar nicht hin) oder über springende Gene (transposable elements = TEs), die den Ort ihres Erbgutes ändern können und neben der genetischen Vielfalt, zu genetisch bedingten Krankheiten beitragen können. Ausgelöst werden solche Prozesse durch das Genom selbst. Das Genom / Chromosomen ist nämlich keine Datenbank, wie meist behauptet wird, sondern ein komplexes Betriebssystem, in das wie beim Computer auch Viren eindringen können. Als tote Materie kann Feinstaub dieses Betriebssystem nicht beeinflussen. Der Autor hat auch noch nie gehört, dass Feinstaub irgendein Computersystem, dessen Betriebssystem lahmgelegt hätte.

Allerdings können TEs auch epigenetisch kontrolliert werden. Hierbei wird keine DNA verändert, sondern die DNA markiert. Wie weiter oben bereits angerissen, können die Verpackungseinheiten der Chromosome, die Histone, über chemische Stoffe methyliert oder acethyliert werden. Dies entscheidet darüber, ob die Polymerase II den Genabschnitt ablesen kann. Also Stoffe produziert werden oder ob nicht. Über die Zelleigenschaften nehmen Umwelteinflüsse darauf Einfluss, das Grundprinzip der Evolution auf Genomebene.

Nur“, diese „Umwelteinflüsse“ müssen Tag ein, Tag aus, über Jahre anliegen, sonst verändert sich gar nichts. Beim Rauchen, das bekanntlich Krebs verursachen kann (wenn das Immunsystem, bzw. die genetische Ausstattung – der individuelle Phänotyp – dies nicht unterbindet) liegt dieses Tag ein Tag aus vor. Beim Feinstaub nicht! Selbst in Stuttgart wurde der Grenzwert nur an 63 Tagen in 2016 überschritten. Dies sind nicht einmal 10% eines Jahres und der gemessene Wert basiert hauptsächlich auf der Gewichtsklasse um 10µm und diese Gewichtsklasse beeinflusst rein gar nichts, weil sie nicht in der Lage ist, in den menschlichen Körper einzudringen. Zitat Prof. Ulrich Walter „PM 10 dringt nur bis in den Nasen-Rachenraum vor und ist daher gesundheitlich kaum bedenklich.“

Selbst das grüne Umweltamt in Stuttgart sagt zu dem kleinen Feinstaub von <2,5µm „seit Jahren keine Überschreitungen der Werte registriert“. Erschwerend kommt hinzu, dass der entzündungsauslösende Feinstaub in der Lunge, in Größenordnungen von <0,1µm liegt. Also nochmals der Faktor 25-mal kleiner als der angeblich gefährliche um 2,5µm.

Nein, bei den Feinstaubalarmen und Dieselfahrverboten geht es nicht um unsere Gesundheit, hier geht es um politische Mache zu Lasten eines ganzen Industriezweiges und auf dem Rücken der vielen, dortigen Beschäftigten. Aber dies ist den grünen Männchen und ihren Hilfstruppen gleichgültig. Durch die verbreitete Panik und Angstmache wird denn ausschließlich deren eigener Profit gestärkt. Sei es, um Wähler zu ihren Gunsten zu manipulieren, Macht auszuüben oder Gelder anzuhäufen. Alles zu Lasten unseres Landes und seiner Bürgerinnen und Bürger.

Teil 3: Scharlatane in Zeiten der Feinstaub-Hype, in kürze.

Raimund Leistenschneider – EIKE

Abb.19: Sebastiaen Vrancx, zugeschrieben, Affen mit Quacksalber auf einem Marktplatz. Der Autor vermag nun nicht zu sagen, ob der Affe symbolisch für die deutsche Qualitätspresse steht.

 




Grundlagen der Treibhaustheorie werden angefochten durch neue Analyse der Beobachtungen im Sonnensystem

Link zur ‘Unified Theory of Climate’

Ned Nikolov and Karl Zeller, Studie

Es war ein langer und verräterischer Weg mit vielen Revisionen und Verfeinerungen der ursprünglichen Studie. Bei mehreren Gelegenheiten wurde das Manuskript bereits ungelesen abgelehnt, aber Ned und Karl haben endlich ihr stark verbessertes und erweitertes Papier veröffentlicht. Diese letzte Version ist eine „Tour de Force“, die durch die Strenge der Kritik von einer Armee von Peer-Rezensenten in mehreren Zeitschriften gestärkt wurde.

Mit der Dimensionsanalyse (eine klassische Technik zur Ableitung von körperlich sinnvollen Beziehungen aus Messdaten) zeigen sie, dass die langfristige globale Gleichgewichtstemperatur von Oberflächen der PLaneten im Sonnensystem mit nur zwei Prädiktoren genau beschrieben werden können, so vielfältig sie auch sind, wie die Venus, der Mond, die Erde, der Mars, der Titan und Triton: Der mittlere Abstand von der Sonne und des absoluten atmosphärischen Oberflächendrucks. Diese Art von Cross-Planetary-Analyse mit überprüften NASA Beobachtungen wurde nicht von anderen Autoren durchgeführt. Es stellt den ersten und einzigen Versuch in der Geschichte der Klimaforschung dar, die Oberflächentemperatur der Erde im Zusammenhang mit einem kosmischen physikalischen Kontinuum zu bestimmen, das durch tatsächliche planetarische Beobachtungen definiert ist. Das Ergebnis ist die neue Erkenntnis, dass die Planetenklima unabhängig von der infraroten optischen Tiefe ihrer Atmosphären sind, die sich aus ihrer Zusammensetzung ergeben und dass die langwellige „Rückstrahlung“ tatsächlich ein Produkt der atmosphärischen thermischen Wirkung ist und nicht eine Ursache dafür.

Die Implikationen dieser Entdeckung sind fundamental und tiefgreifend! Es stellt sich heraus, dass die Schwerkraft und die Masse einer planetaren Atmosphäre, anstatt ihrer Zusammensetzung, die entscheidenden Faktoren bei der Bestimmung der Erhöhung der Temperatur sind, die die Oberfläche hat, im Vergleich zu der Temperatur, die die Oberfläche haben würde, wenn es keine Atmosphäre darüber gäbe. Das bedeutet, dass die menschliche industrielle Tätigkeit das globale Klima grundsätzlich nicht beeinflussen kann, da wir keinen Einfluss auf die atmosphärische Masse haben.

Eine weitere Konsequenz ist, dass die planetare Albedo weitgehend eine auftretende Eigenschaft des Klimasystems ist und nicht ein unabhängiger Treiber der Oberflächentemperatur. Ein weiterer wichtiger Schluss ist, dass das Klima der Erde in hundertjährigen Zeiträumen ziemlich stabil ist, da sich die Masse der Atmosphäre unter dem Einfluss des Sonnenwindes und der allmählichen, emittierenden und absorptiven Gasprozesse auf der Erde sich relativ nur sehr langsam ändert. Ein weiterer Schlüsselfaktor sind die hundertjährigen Variationen der Wolken-Albedo der Erde, die durch Schwankungen der Solar-magnetischen Aktivität induziert werden, sind auf Änderungen der Oberflächentemperatur in der Größenordnung von ± 0,65 K begrenzt. Dies ist wegen der Stabilisierung von negativen Rückkopplungen innerhalb des Systems (z. B. eine Verringerung der Wolkendecke verursacht Oberflächenwärme, die wiederum dazu neigt, die Verdunstung zu erhöhen und so die Wolkenbildung zu fördern).

Ned und Karl’s veröffentlichte Studie lenkt die Aufmerksamkeit der Forscher auf die Rolle des atmosphärischen Drucks als direkte Steuerung der planetaren Oberflächentemperatur. Der Druck wurde in der Klimaforschung seit über einem Jahrhundert missverstanden. Die aktuelle Treibhaustheorie erlaubt nur eine indirekte Wirkung des Drucks auf die Bodentemperatur durch die atmosphärische Infrarot-Opazität durch Absorptionslinienverbreiterung. Dies ist trotz der Tatsache, dass in der klassischen Thermodynamik die Gastemperatur bekanntermaßen eng vom Gasdruck abhängig ist. Zum Beispiel nutzt der Dieselmotor diese Abhängigkeit (alias das Prinzip der Kompressionsheizung) in eine praktische Technologie, die wir seit 120 Jahren genossen haben. Diese Punkte sind in dieser letzten Version des Papiers gut erklärt.

Um ihr neues Modell weiter zu validieren, haben Ned und Karl Vorhersagen für die Oberflächentemperaturen von Himmelskörpern gemacht, die noch nicht durch Sonden im Nahbereich untersucht wurden, aber in den kommenden zwei Jahrzehnten besucht werden sollen. Theorien leben und sterben auf dem Erfolg und Misserfolg der Vorhersagen, die von ihnen gemacht werden, also „Respekt und Anerkennung“ geht an Ned und Karl, die Rückgrat und Durchhaltevermögen gezeigt haben!

Diese erweiterte und überarbeitete Version von Ned und Karl’s Theorie ist hervorragend in ihrer umfassenden Behandlung des Themas und zitiert über 130 vorherige Beiträge aus der wissenschaftlichen Literatur. Ich empfehle Ihnen das Herunterladen und lesen Sie es in Ihrer Freizeit, um die tiefen Auswirkungen, die es für unser Verständnis der Physik der planetaren Atmosphären und der oberflächennahen thermischen Verstärkung, die bisher als „Treibhauseffekt“ bekannt ist, zu schätzen.

Erschienen am 1. June 2017 auf tallbloke

 

Auch der Autor kommentierte seinen Blogbeitrag zusätzlich

Ned Nikolov sagt:

  1. Juni 2017 um 14:19 Uhr

Vielen Dank, Roger für die freundliche Einleitung!

Wir haben jetzt eine umfassende alternative Theorie zur aktuellen Greenhouse (GH) Hypothese. Anders als das GH-Konzept basiert unsere Theorie jedoch auf geprüften Planetenbeobachtungen, die eine enorme Bandbreite an physikalischen Umgebungen im Sonnensystem umfassen. Die GH-Hypothese begann sein Leben als theoretische Vermutung im Jahre 1827, dass die Atmosphäre wie „das Glas eines Treibhauses“ (siehe die Schriften von Fourier) gearbeitet hat. Natürlich wissen wir jetzt, dass dies völlig falsch ist … Doch die Kernannahme der GH-Hypothese, nämlich dass eine freie konvektive Atmosphäre „Strahlungswärme“ fangen könnte, wurde niemals experimentell validiert oder demonstriert. Eine solche Validierung fehlt seit 190 Jahren, weil das „Einfangen von Hitze“ durch freie Gase in Wirklichkeit physisch unmöglich ist!

 

  1. Juni 2017 um 15:08 Uhr

Wir glauben an die Unabhängigkeit der Wissenschaft von der Politik! Leider ist ein rein physikalisches Problem, wie das Klima der Erde unangemessen in eine „moralische“ und „politische“ Frage von Politikern und extremen Umweltschützern mit tragischen Konsequenzen umgewandelt worden, wie man es aus den Milliarden von Dollars sehen kann, die bis jetzt den Planeten „retten“. Basierend auf einer mehr als missverstandenen Wissenschaftshypothese aus dem 19. Jahrhundert!

Um die Wurzeln des physikalischen Missverständnisses in der aktuellen Treibhaustheorie zu verstehen, empfehle ich Ihnen, diese 3 klassischen Papiere (jetzt im PDF-Format) zu lesen:

  1. Arrhenius S (1896)On the Influence of Carbonic Acid in the Air upon the Temperature of the Ground
    [über den Einfluss von Kohlensäure in der Luft auf die Temperatur des Bodens] http://www.rsc.org/images/Arrhenius1896_tcm18-173546.pdf
  2. Callendar GS (1938)THE ARTIFICIAL PRODUCTION OF CARBON DIOXIDE AND ITS INFLUENCE ON TEMPERATURE
    Die Künstliche Produktion von Kohlenstoff und seinen Einfluss auf die Temperatur
    http://www.met.reading.ac.uk/~ed/callendar_1938.pdf)
  3. Fourier JBJ (1827)On the Temperatures of the Terrestrial Sphere and Interplanetary Space. A translation of Jean-Baptiste Joseph Fourier’s ”M´emoire sur les Temp´eratures du Globe Terrestre et des Espaces Plan´etaires,” , which originally appeared in M´emoires d l’Acad´emie Royale des Sciences de l’Institute de France VII 570-604 1827.
    [Über die Temperaturen der terrestrischen Kugel und des interplanetaren Raumes. Eine Übersetzung von Jean-Baptiste Joseph Fouriers…] Https://geosci.uchicago.edu/~rtp1/papers/Fourier1827Trans.pdf

Keiner dieser Studien hätte die modernen Standards der Peer-Reviews und der wissenschaftlichen Strenge bestanden, wenn sie heute als neue Manuskripte eingereicht würden. Dennoch werden diese Publikationen als Grundlage für das aktuelle GH-Konzept und die vermeintlichen menschlichen Auswirkungen auf das globale Klima zitiert …

 

Übersetzt durch Andreas Demmig

https://tallbloke.wordpress.com/2017/06/01/foundations-of-greenhouse-theory-challenged-by-new-analysis-of-solar-system-observations/

Anmerkung der EIKE-Redaktion

Immer wieder machen sich Naturwissenschaftler daran, die bis heute unzufriedend gelöste Problematik des atmosphärischen Treibhauseffekts zu verbessern oder gar gänzlich neu zufassen. Wir veröffentlichen diesen Beitrag, weil wir der Auffassung sind, dass er zur Diskussion beitragen könnte. Wir weisen aber darauf hin, dass zu einer ernsthaften Beschäftigung mit neuen Hypothesen die Veröffentlichung in einem referierten Fachjournal unabdingbare Voraussetzung ist. Dies ist hier der Fall.




Wir sind hier mal unter uns: Klimalarmisten klären die Klimalage im ndr

Am 4. Mai 2017 hatte Klima-Altmeister Hartmut Graßl wieder einen Auftritt. Auf NDR Info durfte er im Radio mit zwei weiteren Klimaalarm-Vertretern über die Klimaskeptiker herziehen. Letztere waren natürlich nicht zur Sendung “Spüren wir den Klimawandel bereits?” eingeladen. Man wollte lieber unter sich bleiben. Scheute man sich vor Kritik, der man vielleicht nichts entgegenzusetzen hätte? Die Sendung beginnt mit Straßeninterviews unter Passanten. Highlight der Anworten: Die Pole schrumpfen!

Dann Auftritt Prof. Dr. Ortwin Renn (Direktor am IASS Potsdam). Er wird gefragt, wie sich das Phänomen Klimakseptiker erklären ließe. Renn zögert nicht lange und erläutert, dass es sich höchstwahrscheinlich um eine Gruppe am rechten Rand der Gesellschaft handelt, die sich die Fakten so biegt wie sie sie braucht. Aha. Als nächstes ist Graßl dran. Er freut sich über den kürzlichen heißen März und erklärt den kalten April als nicht signifikant. Dritte im Bunde ist Dr. Gerrit Hansen von der Klimaaktivistengruppe Germanwatch.

Es ruft ein Skeptiker an, der darauf hinweist, dass es den Klimawandel stets gegeben habe. Unangenehm. Die Moderatorin würgt ihn schnell ab. Die Telefonverbindung wäre zu schlecht. Graßl fabuliert in der Folge über die letzte Eiszeit. Zudem tappt er wieder in dieselbe Falle wie üblich, behauptet dass die Geschwindigkeit des aktuellen Klimawandels alles Bisherige übertrifft. Das ist falsch. Fake News. Siehe: “Neue Studie der Universität Erlangen-Nürnberg entzaubert Klimawandel-Mythos: Erderwärmung schritt in der Vergangenheit genauso schnell voran wie heute“. Graßl erzählt von Vulkanen, verfehlt das Thema.

Der Skeptiker wird zurückgerufen, immerhin. Darf der Regenwald für Biotreibstoffe abgeholzt werden? Gerrit Hansen soll es beantworten, weicht aber mit einer Wikipedia-Rede “Was ist der Klimawandel” plump aus. Hansen sagt, dass das Abholzen ja nur lokale Effekte hätte, aber keine globalen. Blabla. Graßl hilft: Die Abholzung des Regenwaldes hätte doch in letzter Zeit abgenommen. Wieder liegt Graßl falsch. Siehe “Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen lag falsch: Regenwaldzerstörung hat sich in den letzten 20 Jahren beschleunigt, nicht verlangsamt“.

Nächster Anrufer. Er macht sich Sorgen, hat ein Computergedächtnis, kann sich an das Wetter von jedem einzelnen Tag bis zurück in die 1970er Jahre erinnern. Er spricht mit doppelter Geschwindigkeit, um alle Wetter-Erinnerungen in der Sendung loszuwerden. Es wird immer heißer und heißer und heißer. Absolut hörenswert. Super-Gedächnis? Naja, die harten Fakten sehen leider anders aus, sorry:

Die restlichen 30 Minuten der 55-minütigen Sendung schenken wir uns. Hier wollen Klimaalarmisten unter sich bleiben und die Ätherhoheit des NDR ausnutzen, um die Bevölkerung mit ihrer persönlichen Überzeugung exklusiv zu beglücken. Ab und zu wird ein Laien-Zuhörer aus dem Volk zugeschaltet, der von den Profis gerade noch in Schach gehalten werden kann. Die Germanwatch-Dame hat dabei ihre eigene Strategie. Sie antwortet einfach nicht auf die Frage. Armselig. Mit Pluralität hat das Ganze natürlich nichts zu tun. Die Verantwortlichen der Sendung vom NDR sollten sich einmal überlegen, wie es zu dieser Einseitigkeit kommen konnte. Der Kontakt zum Kalte-Sonne-Team oder auch zu EIKE ist einfach herzustellen, daran kann es nicht gelegen haben.




Brand im Londoner Grenfell Tower – Opfer des Dämm­wahns

Nach mehreren solchen Bränden im Ausland ist es nun mit einem Hochhaus in London passiert – siehe Bilder oben.

Während ein Teil unserer Medien sich wand, dem deutschen Leser die wirkliche Brandursache zuzumuten und stattdessen die üblichen, rhetorischen Fragen stellte:
Quelle: FAZ 15. Juni 2017: 17 Tote nach Hochhausbrand in London
Nach der Brandkatastrophe mit mindestens 17 Toten in einem Londoner Hochhaus mehren sich Anschuldigungen über mangelnden Brandschutz.
Es gebe viele offene Fragen auch zu Sprinkleranlagen und der möglicherweise leicht brennbaren Fassadenverkleidung. Viele Hochhausbewohner im Land stellten sich jetzt die Frage, ob sie überhaupt sicher seien, sagte er.
-Ist die Ursache klar: Die Toten sind Opfer des vorwiegend der Klimaschutz-Hysterie entsprungenen Dämmwahns der Behörden.

SPIEGEL ONLINE 15.06.2017: Brand im Grenfell Tower Eine Feuerwalze, unaufhaltbar
Wie konnten sich die Flammen im Grenfell Tower so schnell nach oben fressen? Bis das komplette Gebäude brannte, vergingen offenbar nur Minuten. Experten zufolge spielte die Fassade eine fatale Rolle.
Bis dahin sei es wohl ein ganz normaler Wohnungsbrand gewesen, vermutet der Frankfurter Feuerwehrchef Reinhard Ries. Dann seien die Flammen aus dem Fenster einer Wohnung geschlagen und das Feuer „gnadenlos die Fassade hochgelaufen“, so der Brandschutzexperte.
Reinhard Ries vermutet aufgrund des Bildmaterials, dass die Fassade mit Platten aus Polyurethan oder einem ähnlichen Material verkleidet waren

WIKIPEDIA Grenfell Tower
In der öffentlichen Diskussion über die Ursache der raschen Ausbreitung des Brandes über viele Stockwerke hinweg wird die
Fassadenverkleidung thematisiert. In Medien wird vermutet, dass das Dämmmaterial in der Fassade offenbar zur schnellen Ausbreitung des Feuers beigetragen hat. Der Leiter der Frankfurter Feuerwehr nimmt an, dass die brennbare Fassade ein wesentlicher Grund der Katastrophe war.

In Deutschland kann ein Hochhaus wohl nicht so brennen – die anderen, gedämmten Häuser dagegen schon

Achgut: [2] Ist London das Ende des Dämmwahns?
… Live und beklemmend konnte man so ein Feuerwerk schon zu Silvester 2015 an einer Hochhausfassade in Dubai beobachten, einen weiteren als Video dokumentierten Vorfall gab es in Frankreich. Die Zahl solcher gefährlicher Fassaden-Brände dürften mittlerweile alleine in Deutschland in die Hunderte gehen, eine Statistik zu den Vorfällen gibt es aber nicht, auch keine Zahl über die dabei schwer Verletzten oder umgekommenen Menschen.
Wenn es nicht um das ideologische Steckenpferd und Klimaschutz ginge, den unsere Kanzlerin zum heiligen Gral erklärt hat, hätten die Behörden diesem Spuk mit Sicherheit längst ein Ende gesetzt.
Die Feuerwehren wissen bescheid, hängten es bisher aber nicht an die große Glocke – die üblich politisch korrekte Beißhemmung. Auch viele Medien weisen in der Berichterstattung über solche Vorfälle deutliche Lücken auf. In einem Land, in dem Bauvorschriften selbst die Neigung der Dachziegel festlegen, ist diese offensichtliche Ignoranz gegenüber einem lebensbedrohenden Risiko kaum zu glauben.

Joachim Herrmann wählte daher seine Worte sorgfältig als er sagte: „Ein vergleichbarer Fassadenbrand an einem Hochhaus ist in diesem Ausmaß bei uns so gut wie ausgeschlossen.“ Man beachte die Wortwahl: Die Betonung liegt auf „Hochhaus“. Das fängt laut der Dämmvorschriften in Deutschland aber erst bei 22 Metern Höhe an, darunter dürfen Materialien wie Polystrol angebracht werden. Das Gros der Bevölkerung wohnt in Deutschland aber nunmal in Gebäuden unter 22 Metern – und diesen Menschen wird so eine falsche Sicherheit vorgegaukelt.

Nur zur Information: Im Jahre 2015 wurden in Deutschland 36,3 Millionen Quadratmeter Dämmsysteme an die Fassaden geklebt. Bei einem vorsichtig geschätzten Preis von 120 Euro pro Quadratmeter ergibt dies einen Umsatz von über 4 Milliarden Euro. Klima-Ideologen und Industrie-Lobbyisten reichen sich bei den immer strengeren Wärmedämmvorschriften die Hand. Man sagt nicht umsonst, dass beispielsweise die Dämmvorschriften der deutschen Energiesparverordnung (EnEV), die Polystrol-Produzenten wie der BASF zu Milliardengeschäften verholfen haben, in Helmut Kohls Wahlkreis Ludwigshafen ersonnen worden seien …

So haben sich unsere Politiker einen deutschen EEG-Exportschlager wohl nicht vorgestellt

BAUFÜSIK Blog Gegen Dummheit und Habgier im Bauwesen: Deutscher Exportschlager: brennende WDVS
von E. Müller am 02.01.2016: „Noch ein wenig erfolgreiches Beispiel ein deutsches WDVS als Hitzeschutz zu verwenden:
In Dubai gab es zu Sylvester neben dem Burj Khalifa ein riesiges Feuer in einem Luxushotel-Hochhaus.
Immerhin 64 Stockwerke hat das Haus, und das Feuer scheint einmal komplett von oben nach unten zu gehen.
Was da brennt ist deutsches Wärmedämmverbundsystem aus Styropor (ESP). Die Saudis haben vor einigen Jahren damit angefangen, ihre Wände als Hitzeschutz mit Styropor zu dämmen. Seitdem gab es da einige spektakulären Fassadenbrände. Kennzeichen sind rasant schnelle Ausbreitung nach oben, selten seitlich, Flammen nur außen, selten Übergreifen auf Innenraum, und beißend schwarzer Rauch. Wenn es Verletzte gibt dann meistens auf Grund von Rauchvergiftung.
Die Brandgefahren von WDVS aus Polysterol (Styropor) sind schon lange bekannt.
Im Video (NDR) hier einige Schadensbilder nach Fassadenbränden in Deutschland und ein Brandtest, durchgeführt von der Materialprüfanstalt Braunschweig, der abgebrochen wurde, nachdem der Versuchsaufbau außer Kontrolle geriet.
Die erwähnten Brandriegel haben sich in der Praxis als wirkungslos erwiesen. Die werden von den hochschlagenden Flammen einfach übersprungen.“

Fazit

Man kann Achgut nur zustimmen. Um ein vielleicht vorhandenes, kleines Problem Klimawandel zu lösen (was über Zusatz-Dämmung sowieso nicht einmal anteilig gelingen kann), werden sichere, große Probleme erzeugt.

Quellen

[1] EIKE 20.05.2016: Wieder Menschenopfer für den Klimaschutz Brandgefahr von Wärmedämmfassaden

[2] Achgut: Ist London das Ende des Dämmwahns?




Teil 1: Die Hexen­jagd auf die Grund­festen unserer Gesell­schaft, oder was an der Feinstaub-Hype und dem Diesel­gate dran ist

In den vier Teilen erfahren Sie, dass:

  • Die sog. Qualitätsmedien einmal mehr einer unsachgemäßen Berichterstattung verfallen sind und Fake-News verbreiten
  • Die EU-Feinstaubgrenzwerte beliebig falsch sind und keine Aussagekraft für Belastungen jeglicher Art haben und folglich abzuschaffen sind
  • Die Feinstaubbelastungen in Deutschland seit Jahren deutlich fallend sind und keine Grundlage für Dieselfahrverbote irgendeiner Art bestehen
  • Feinstaub genau so wenig Krebs verursacht, wie ein Schnupfen
  • Die Stuttgarter Bürger die gesündesten Städter in ganz Deutschland sind – mit der längsten Lebenserwartung
  • Der Diesel zu den umweltfreundlichsten Mobilitätsmitteln gehört
  • Politik, Verbände und Industrie einmal mehr, sich in Wohlgefallen und Feigheit üben

„Alle Diesel raus – auch Euro 6“, „Grüne wollen Möglichkeiten für bundesweites Diesel-Verbot“ oder „Köln kündigt Diesel-Verbot und City-Maut an“ Focus, 28.03.2017

Der Focus wartet mit der Fake-News auf „Die hohe Belastung der innerstädtischen Atemluft mit Feinstaub und Stickstoffdioxid ist auch unmittelbares Ergebnis eines besonders hohen Anteils vermeintlich moderner Euro 6 Diesel-Pkw südwestdeutscher Autokonzerne“, so die DUH (Anmerkung: DUH = (dubiose, dazu mehr im Teil 4 des Autors) „Deutsche Umwelthilfe“). Dazu kündigt der Focus die Lachnummer an „Die Verbände wollen am kommenden Donnerstag eine Studie vorstellen, die „den Zusammenhang zwischen Feinstaub und der Grippewelle 2016 /2017“ belegen soll.“ (Anmerkung: Der Autor geht auf molekularbiologischer, immunologischer sowie virologischer Ebene noch darauf ein). Auch hier wieder, die (dubiose) „Deutsche Umwelthilfe“.

„Ab 2018 Stuttgart verhängt Fahrverbot für ältere Diesel“, Spiegel 21.02.2017. Hier ist die Fake-News zu entnehmen „Ministerpräsident Winfried Kretschmann (Grüne) erneuerte im Zuge der Fahrverbot-Ankündigung seine Forderung zur Einführung der sogenannten blauen Plakette auf Bundesebene, um Dieselfahrzeuge aus den mit Stickoxiden und Feinstaub belasteten Innenstädten auszusperren. Dies wäre „das wirksamste Instrument der Luftreinhaltung““. Gleich darauf die Nächste Fake-News „Jährlich sterben allein hierzulande laut Studien mehr als 10.000 Menschen an den Folgen des überhöhten Stickoxidaustoßes.“

Da darf natürlich einer nicht fehlen: Das ZDF, zu (neu)Deutsch „Zentrales Desinformation Fernsehen“. Die legen gleich eine große „Schippe“ auf. Da wird über Feinstaub geschrieben (Heute 21.02.2017) „…auf lange Sicht kann Feinstaub etwa auch chronische Atemwegserkrankungen, Lungenkrebs,…auslösen“ „Lungenkrebs“, wir merken und das!

Noch sind dies alles „Statements“ oder Behauptungen. Dass es sich dabei tatsächlich um Fake-News handelt, wird gleich ersichtlich. Beginnen möchte der Autor mit der Grundlage allen Übels: Den willkürlichen EU-Grenzwerten, die sowohl die Grundlage sind:

– Für Scharlatane, die auf der Diesel-und Feinstaub Hype zu Macht und Einfluss und natürlich Geld gelangen.

– Für Rattenfänger in der Politik und NGOs, die nur unser Bestes wollen. Bitte jetzt nicht an Geld denken. Sowie, die Wähler manipulieren möchten, ihnen ihre Stimme zu geben und, die den Verbot von seriösen und umweltfreundlichen Produkten, wie dem Diesel fordern.

– Für konservative Industrieführer (VW), die dadurch zu Tricksern und Betrügern wurden.

– Kommunistische Bevormundung ganzer Industriezweige, Kommunen und Bevölkerungsschichten.

– Kurzum, die eine Diktatur einführen wollen. Die Diktatur der Grenzwerte. Grenzwerte, ohne jegliche wissenschaftliche Basis, wie sich bei näherer Betrachtung zeigt.

EU-Feinstaub-Grenzwert, die Wurzel allen Übels

Der EU-Tages-Grenzwert liegt bei 50 Mikrogramm (µg) Feinstaub pro Kubikmeter Luft, der an max. 35 Tagen überschritten werden darf. Dieser Wert von 50 Mikrogramm bezieht sich auf alle Teilchen von bis zu zehn Mikrometern Größe! Wird der Wert öfters überschritten, drohen den Kommunen von der EU Strafen, so dass die Kommunen zum Handeln gezwungen werden, bzw. die Gerichte entsprechend urteilen. Wird dabei nicht binnen zwei Monaten reagiert, kann die Kommission Klage vor dem Gerichtshof der Europäischen Union erheben. In Stuttgart gab es im Jahr 2016, 63 Überschreitungen. Soviel zu den nackten Zahlen. Betrachten wir den EU-Grenzwert genauer.

Was wird denn eigentlich gemessen? Gemessen wird die Masse aller Teilchen, kleiner als zehn Mikrometer, unabhängig von ihrer chemischen Zusammensetzung und Größenverteilung. Damit wird vorrangig der Feinstaub PM10, also der mit der überwiegend größten Masse und einer Größe von 10µm gemessen. Dieser hat zwar die größte Masse und bildet damit das Schwergewicht der Messergebnisse, ist aber gesundheitlich weitgehend ungefährlich. Prof. Ulrich Walter hierzu: „Am liebsten messen die Deutschen den Feinstaub PM 10, weil er am einfachsten zu messen ist. … PM 10 dringt nur bis in den Nasen-Rachenraum vor und ist daher gesundheitlich kaum bedenklich.“ (https://www.welt.de/wissenschaft/article160311280/Was-Fahrverbote-gegen-Feinstaub-wirklich-bringen.html)

Nun ist Feinstaub, nicht gleich Feinstaub, wie Abb. 2 zeigt.

Abb.2, Quelle: Institut für Angewandte Umweltforschung e.V. Deutlich wird sichtbar, dass bei den Feinstaubmessungen alles bis zur Partikelgröße von 10µm gemessen wird. Da dies die mit Abstand massereichsten Partikel sind, ist in den Messungen fast ausschließlich der von ihnen gebildete Massenwert enthalten. Zu Deutsch: Die Messungen geben praktisch den Massenwert der Partikelgröße um 10µm wieder.

Die gegenwärtigen Feinstaubwerte, die z.B. in Stuttgart für Fahrverbote herhalten sollen, stehen demnach im Widerspruch zur gängigen Wissenschaft, dass nicht die größten der Teilchen die potentiell, also mögliche höchste Gesundheitsgefährdung darstellen, sondern die kleinsten, die aber nur einen Bruchteil der Massenkonzentration* (von 50µg/m³) ausmachen. Die veröffentlichten Messwerte bilden aber weitgehend die größten Teilchen ab, die, die weitgehend gesundheitlich unbedenklich sind.

* Der Autor möchte als anschaulichen Vergleich in die Astronomie, speziell, die Planetenforschung gehen. Jupiter und Saturn, als die größten Planeten im Sonnensystem, besitzen etwa 90% der Masse aller Planeten. Projiziert auf unseren Feinstaub, dass die Belastung mit dem potentiell gesundheitsbeeinträchtigten Feinstaub von deutlich kleiner 2,5 µm (erwiesen ist auch das nicht, nur, dass diese im Körper Reaktionen hervorrufen) bei maximal einem Zehntel der ausgewiesenen Messwerte liegt, weil dort vorrangig PM10 gemessen wird.

Der wissenschaftlich in den Bereich des Möglichen, hinsichtlich einer postulierten Gesundheitsgefährdung betrachtete Feinstaub von kleiner 2,5 µm, eignet sich indes nicht als auszuweisendes Schreckgespenst zur Verunsicherung der Menschen und zur Erreichung eigener politischer und/oder finanzieller Ziele, denn seine Konzentration ist seit Jahren deutlich fallend. Die Zeit schreibt dazu: Diesen besonders winzigen Feinstaub (Anmerkung: Gemeint ist die Partikelgröße bis 2,5 µm) misst die LUBW (Anmerkung: Landesumweltamt Baden Württemberg) an 22 Messstationen in Baden-Württemberg, sie hat dort aber laut Pressesprecherin Tatjana Erkert „seit Jahren keine Überschreitungen der Werte“ registriert. Die Benzin- und Dieselmotoren sind also in puncto Feinstaub offenbar umweltfreundlicher als ihr Ruf.“

Sie haben richtig gelesen: Seit Jahren wurden keine Überschreitungen der Werte registriert und die grünen Männchen wollen (wieder einmal) einen ganzen Industrie- und Wirtschaftszweig, mit tausenden von Arbeitsplätzen und zigtausenden Familienschicksalen vernichten.

Dass es nicht um die Menschen, deren Gesundheit, sondern um politische Mache und eigene wirtschaftliche / politische Ziele, zur Zerstörung unserer Wettbewerbsfähigkeit, am Beispiel eines unserer volkswirtschaftlich erfolgreichsten Produkte, den Diesel, geht, macht die folgende wissenschaftliche Studie der Max Planck Gesellschaft deutlich.

Forscher-Teams des Max-Planck-Instituts für Chemie in Mainz haben sich näher mit den Ursachen der Feinstaubemissionen befasst und dabei für die Fraktion der ideologischen Dieselverteufler unerhörliches herausgefunden: Die Hauptquellen für schlechte Luft sind nicht Industrie und Verkehr, sondern häusliche Kleinfeuer und die Landwirtschaft. (https://www.mpg.de/9404032/sterberate-luftverschmutzung-todesfaelle)

Die Max Planck Gesellschaft schreibt: „Als Lelieveld und seine Kollegen die einzelnen Quellen der Luftverschmutzung untersuchten, erlebten sie eine Überraschung. „Meist wird ja angenommen, dass Industrie und Verkehr die schlimmsten Luftverschmutzer sind, aber weltweit ist das offenbar nicht der Fall“, berichtet der Atmosphärenchemiker. In Indien und China verursachen die häuslichen Kleinfeuer einen Großteil des Smogs.“

Und weiter „In Europa, Russland, der Türkei, Japan und im Osten der USA ist dagegen überraschenderweise die Landwirtschaft eine führende Ursache für schlechte Luft. Ammoniak, der durch die übermäßige Verwendung von Düngemitteln und die Massentierhaltung in die Atmosphäre gelangt, wandelt sich über verschiedene Reaktionen in Ammoniumsulfat und Nitrat um. Diese Stoffe wiederum tragen maßgeblich dazu bei, dass sich überhaupt Feinstaubpartikel bilden können. Die Landwirtschaft ist damit global gesehen die Ursache von einem Fünftel aller Todesfälle durch Luftverschmutzung. In manchen Ländern, zum Beispiel in der Ukraine, Russland und Deutschland, liegt der Anteil sogar bei über 40 Prozent.“

Die Forscher des Max Planck Institutes hielten sich bei ihren Betrachtungen an mögliche Todesraten, wie sie durch die Medien geistern und die laut WHO durch Feinstaub angeblich verursacht werden. Dazu gleich mehr. Die Forscher schreiben weiter: „Bislang ist unklar, inwieweit verschiedene Sorten von Feinstaubpartikeln – etwa Ruß, Sulfate, organische Stoffe oder mineralische Staubteilchen – unterschiedlich giftig sind.“

Donnerwetter, die grünen Männchen in Stuttgart sind schon Trolle:

  • Man weiß nichts („Bislang ist unklar…“)
  • Verwendet sinnlose Messwerte

An völlig ungeeigneten und nicht repräsentativen Orten (siehe Artikel des Autors unter https://www.eike-klima-energie.eu/2017/03/10/die-gruenen-maennchen-von-heute-oder-was-der-feinstaubalarm-in-stuttgart-wert-ist/)

… haben aber eine „Große Klappe“ und wollen einen ganzen hochtechnologischen Industriezweig, nämlich den Diesel, kaputt machen. Einer der tragenden Säulen unseres Wohlstandes, unserer Mobilität, unserer Freuden und unserer Gesellschaft und die Qualitätsmedien, aber nicht nur die (siehe Porsche Chef später im Artikel) machen munter mit. Aber wie nannte doch noch gleich Lenin Journalisten: „Nützliche Idioten“. Irgendwie scheint Deutschland aus seiner leidvollen Geschichte nichts lernen zu wollen. Und irgendwie sind es auch hier wieder die Medien, die Wegbereiter für Unheil, für Bösmenschen spielen. Und auch hier, ist aus der Industrie nicht wirklich Widerstand zu spüren.

Als überzeugter Gewerkschafter kennt der Autor unsere Geschichte nur zu genau. Nur zu präzise weiß er, was passiert, wird dem Bösen (den Bösmenschen) das Spielfeld überlassen. Denn das Böse ist nicht Böse, weil es böse ist, sondern, weil man es lässt. Über diese Erkenntnis sollten sich mal ein paar Qualitätsmedien Gedanken machen. Sofern diese aus ideologischer Verblendung, bzw. aus Gleichschaltung überhaupt dazu noch in der Lage sind: Zu denken.

Oben wurde auf vermeintliche Feinstaubtote hingewiesen. Was solche Zahlen wert sind, hatte der Autor in seinem o.g. Artikel bereits geschrieben: Jeder legt seine eigene Statistik auf den Tisch, mit jeweils stark abweichenden Zahlen. Solche Statistiken sind schlicht und ergreifend nicht das Papier wert, auf denen sie gedruckt sind. Sie sind rein willkürlich erstellte Machenschaften (wieder einmal dem vermeintlichen Mainstream geschuldet), ohne wissenschaftliche Grundlage und schon gar nicht für Realitätsschlüsse geeignet. Wie kommen nun überhaupt solche Statistiken zu Stande? Der Autor möchte hier Prof. Dr. Joachim Heyder vomForschungszentrum für Umweltund Gesundheitzu Wort kommen lassen. Prof. Dr. Joachim Heyder ist der ehemalige Direktor des Instituts für Inhalationsbiologie. Das Institut befasst sich mit der Gesundheitsrelevanz von Umweltaerosolen.

Zum EU Grenzwert von 50 µg/m3 :

„Die keinen Teilchen tragen so wenig Masse, dass sie zur Gesamtmasse aller Teilchen fast nichts beitragen. Wenn unsere Hypothese (Anmerkung: Die kleinen Teilchen von kleiner 2,5 µm eine mögliche Gesundheitsgefährdung haben und die großen weitgehend keine) richtig ist, dann messen wir das Falsche.“

Zu den Untersuchungen zu angeblichen Gesundheitsgefahren:

„In Experimenten, bei denen kleine Nager über einen Tag lang ultrafeinen Teilchen (unter 0,1 Mikrometer, Anmerkung: Diese ultrafeinen Partikel, die um den Faktor 100 kleiner sind, als die gemessenen, tragen überhaupt nichts zu den Messergebnissen bei, die zu Fahrverboten herangezogen werden sollen und liegen auch noch um ein Vielfaches unter der Größe von 2,5 µm, sind also überhaupt nicht aussagefähig für die angebliche Gefährdung der Partikelgröße um 2,5 µm) ausgesetzt wurden, kommt es zu entzündlichen Reaktionen in der Lunge. Aber nach wenigen Tagen sind diese Entzündungen abgeklungen. Und jetzt taucht die Frage auf: Wie bewertet man das in Bezug auf die Gesundheit des Menschen? Man kann nicht einfach sagen: Jeder Effekt, den wir sehen, ist schädigend. Diese Schlussfolgerung ist nicht richtig, geistert aber munter durch die Literatur und die Medien. So werden Ängste und Unsicherheit geschürt.Feinstaub ist kein neues Phänomen. Wer heute lebt, ist diesen Partikeln bereits Zeit seines Lebens ausgesetzt.“

Zu den angeblichen Todesraten durch Feinstaub:

Ich halte das für unseriös. Diese Zahlen beruhen auf dem statistischen Zusammenhang zwischen der täglichen Sterblichkeit und der Teilchenmasse in der Luft, der in epidemiologischen Studien festgestellt wurde. Aber dieser Zusammenhang bedeutet nicht, dass es sich um einen ursächlichen Zusammenhang handelt. Wenn die Luftverschmutzung zunimmt und gleichzeitig mehr Personen sterben, heißt das noch lange nicht, dass sie am Feinstaub gestorben sind. Man kann solche Zahlen unter Wissenschaftlern diskutieren, aber man darf sie nicht einfach der Öffentlichkeit mitteilen und damit Ängste schüren. Die Leute glauben jetzt wirklich, sie sterben an dem, was sie einatmen. Ich finde das schlimm.

Zu vermeintlichen Herz-Kreislaufbelastungen:

Damit beschäftigen sich auch Forscher an der GSF. In epidemiologischen Studien werden biologische Parameter am Herz-Kreislaufsystem gemessen und mit der Teilchenbelastung der Außenluft verglichen. Aber wie bereits gesagt, beweist das nicht, dass der Feinstaub die körperlichen Veränderungen auslöst. Ein statistischer Zusammenhang ist eben kein Kausaleffekt.

Zu der Panik durch Feinstaub:

Es gibt keinen Grund zur Angst. Die Grenzwerte wurden herabgesetzt (Anmerkung: Auf 50 µg/m3) und plötzlich werden sie überschritten – das ist kein Wunder und jeder konnte es kommen sehen. Für die Bevölkerung hat sich überhaupt nichts geändert. Ich glaube, es ist inzwischen ziemlich sicher, dass gesunde Personen, bei den Feinstaubwerten hier in Mitteleuropa, überhaupt nichts zu befürchten haben. Zwar kann es auch bei ihnen zu Entzündungen in der Lunge kommen, aber das sind normale Abwehrmechanismen.“ Anmerkung: Dazu später mehr.

Ja, Sie haben richtig gelesen, die Grenzwerte wurden willkürlich vor ca. 15 Jahren herabgesetzt, die Politik hat einmal mehr nichts verstanden und plötzlich redet jeder, der glaubt, was zu wissen, oder Profit daraus schlagen will, von erhöhter Feinstaubbelastung und der Diesel soll verboten werden. Zusätzlich werden unsere Verwaltungsgerichte unnötig mit überflüssigen, weil gegenstandslosen (nicht juristisch, sondern fachlich) Klagen überschüttet. Die Kommunen werden stranguliert, …, die grünen Männchen haben ein weiteres Instrument, die Wähler zu manipulieren und kommunistische Verbote auszusprechen. Offensichtlich leben wir in Deutschland in einem Tollhaus.

Nach diesen vielen Informationen, in Worte verpackt, noch ein paar fürs Auge. Wie sieht es denn mit den vermeintlichen Schadstoffbelastungen in Deutschland aus? Haben wir aufgrund dessen „wenigstens“ einen Grund zur Hysterie, Panik und Angst? Der Autor möchten Ihnen ein paar Charts aus dem Hause des Umweltbundesministeriums zeigen, wie sich die Luftqualität in Deutschland in den letzten 20 Jahren entwickelt hat.

Abb. 3 zeigt die Feinstaubbelastung PM10 bis 10µm Partikelgröße, aufgesplittert nach Verursacher. Der Verkehr nimmt nur eine untergeordnete Rolle ein und die Autoabgase noch mehr (siehe Abb.6). Deutlich zu sehen, das die Feinstaubbelastung stark zurück ging.

Abb.4 zeigt die Feinstaubbelastung PM2,5 bis 2,5µm Partikelgröße, aufgesplittert nach Verursacher. Auch hier spielt der Verkehr nur eine untergeordnete Rolle und auch hier, ging die Belastung deutlich zurück.

Abb.5 zeigt, wieoft in Deutschland der herabgesetzte EU-Grenzwert überschritten wurde: Nur an 3% der städtischen Messstellen! Und die grünen Männchen wollen Fahrverbote.

Da von den grünen Männchen die Rede ist, möchte der Autor unseren Lesern Abb.6 zeigen.

Abb.6, Quelle: Stuttgarter Nachrichten, zeigt die Aufteilung des Feinstaubaufkommens an der Messstation am berüchtigten Stuttgarter Neckartor. Aus dem Abgas aller Fahrzeuge stammen gerade einmal 6% der Feinstäube und deswegen gibt es Dieselfahrverbote. Nein, mit der Gesundheitsvorsorge hat dies nichts zu tun, einzig mit politischer Mache, um Wähler zu fangen. So gehen Rattenfänger vor.

Da Feinstaub sich so gar nicht als Schreckgespenst und zur Vernichtung der Autoindustrie (eine der tragenden Säulen unseres Wohlstandes und damit unserer Gesundheit, sowie der Stabilität unseres Landes) eignet, wird mittlerweile eine weitere „Sau durchs Dorf gejagt“. Die Rede ist von Stickoxiden, Abb.6 rechts. Diese lassen sich nun, welch Freude für die Industrievernichter bei den grünen Männchen und ihrer Hilfstruppen, zu über 50% dem Straßenverkehr zuordnen und dort, den Verbrennungsprozessen. Doch, wie sieht es nun in unserem Land aus, mit dieser Belastung?

Abb.7, Quelle: UBA, zeigt die Entwicklung der NOx-Belastung der Luft in Deutschland über die letzten 20 Jahre. Auch hier ist die Tendenz fallend. Der EU-Grenzwert liegt übrigens bei 40µg/m3. Deutlich zu sehen, dass der EU-Grenzwert unterschritten ist.

Nicht einmal nach den EU-Richtlinien, die, wie am Beispiel Feinstaub gezeigt, alles andere als sinnig, nämlich unsinnig sind, besteht hier Handlungsbedarf!

Auf die Gefahr hin, dass der Autor sich wiederholt:

Den grünen Männchen und ihr Schlepptau, wie die dubiose sog. Deutschen Umwelthilfe (dazu im Teil 4 mehr),geht es nicht um unsere Gesundheit.

Bedroht ist nicht unsere Gesundheit. Bedroht ist nur deren Profit.

Teil 2: Feinstaub – Die Pest des 21. Jahrhunderts, oder nicht!

Wie bedrohlich ist Feinstaub für unsere Gesundheit? In Kürze.

Raimund Leistenschneider – EIKE

Abb.8

 Ende Teil 1




Bringt London das Ende des Dämmwahns?

Der sogenannte Klimaschutz nimmt immer unverantwortlichere Formen an. Gestern hat ein Brand in einem Londoner Hochhaus 17 Tote gekostet, viele weitere Bewohner gelten zur Stunde noch als vermisst. Die Achse des Guten berichtete gestern als erstes Medium überhaupt darüber, dass die jüngst an dem Hochhaus angebrachten Wärmedämm-Platten möglicherweise als Brandbeschleuniger wirkten und für die rasend schnelle Ausbreitung des Feuers verantwortlich sein könnten. Inzwischen ist das keine Vermutung mehr. Der Verdacht hat sich leider bestätigt.

Dies war eine Katastrophe mit Ansage. Die Achse des Guten berichtete bereits vor einem Jahr über spektakuläre Brände von mit Polystyrol (landläufig Styropor genannt) gedämmten Fassaden. Das Problem war lange bekannt, die Feuerwehren warnten – nur wollte keiner zuhören. Politiker, die bislang Augen und Ohren fest verschlossen, kündigen jetzt plötzlich „gewissenhafte Untersuchungen“ an (Theresa May). Der bayrische Innenminister Joachim Herrmann, als Spitzenkandidat der CSU bereits im Wahlkampfmodus, ließ verlauten: „Wir nehmen das zum Anlass um zu überprüfen, ob die aus energetischen Gründen geforderte Außendämmung eine zusätzliche Brandgefahr auslöst“.

SRF 1 Ausschnitt zur Brandursache beim Londoner Hochausbrand

Das ist eine erstaunliche Aussage. Ganz einfach, weil das richtige Leben die Antwort längst gegeben hat, was auch Herrn Hermann und seinem Fachreferat bekannt sein sollte. Denn schon am Dienstag den 17.5.2016 starben im Duisburger Stadtteil Meiderich bei einem Wohnungsbrand eine 33-jährige Mutter und ihre beiden Söhne (8 und 14 Jahre). 27 Menschen haben bei dem Brand Verletzungen erlitten. Der Brand hatte sich vom Erdgeschoss ausgehend über die Außenfassade bis ins Dach des viergeschossigen Hauses ausgebreitet, „wie an einer Zündschnur„, sagt Feuerwehr-Chef Oliver Tittmann: „Es war ein dramatischer Einsatz.“ Mit den genau gleichen Worten schilderten Augenzeugen die Brand-Explosion in London. Die Flammen breiten sich nicht nur rasend schnell aus, es entstehen dabei auch besonders giftige Dämpfe.

Eine Statistik zu den Vorfällen gibt es nicht

Live und beklemmend konnte man so ein Feuerwerk schon zu Silvester 2015 an einer Hochhausfassade in Dubai beobachten, einen weiteren als Video dokumentierten Vorfall gab es in Frankreich. Die Zahl solcher gefährlicher Fassaden-Brände dürften mittlerweile alleine in Deutschland in die Hunderte gehen, eine Statistik zu den Vorfällen gibt es aber nicht, auch keine Zahl über die dabei schwer Verletzten oder umgekommenen Menschen.

Wenn es nicht um das ideologische Steckenpferd und Klimaschutz ginge, den unsere Kanzlerin zum heiligen Gral erklärt hat, hätten die Behörden diesem Spuk mit Sicherheit längst ein Ende gesetzt. Die Feuerwehren wissen bescheid, hängten es bisher aber nicht an die große Glocke – die üblich politisch korrekte Beißhemmung. Auch viele Medien weisen in der Berichterstattung über solche Vorfälle deutliche Lücken auf. In einem Land, in dem Bauvorschriften selbst die Neigung der Dachziegel festlegen, ist diese offensichtliche Ignoranz gegenüber einem lebensbedrohenden Risiko kaum zu glauben.

Joachim Herrmann wählte daher seine Worte sorgfältig als er sagte: „Ein vergleichbarer Fassadenbrand an einem Hochhaus ist in diesem Ausmaß bei uns so gut wie ausgeschlossen.“ Man beachte die Wortwahl: Die Betonung liegt auf „Hochhaus“. Das fängt laut der Dämmvorschriften in Deutschland aber erst bei 22 Metern Höhe an, darunter dürfen Materialien wie Polystrol angebracht werden. Das Gros der Bevölkerung wohnt in Deutschland aber nunmal in Gebäuden unter 22 Metern – und diesen Menschen wird so eine falsche Sicherheit vorgegaukelt.

Nur zur Information: Im Jahre 2015 wurden in Deutschland 36,3 Millionen Quadratmeter solcher Dämmsysteme an die Fassaden geklebt. Bei einem vorsichtig geschätzten Preis von 120 Euro pro Quadratmeter ergibt dies einen Umsatz von über 4 Milliarden Euro. Klima-Ideologen und Industrie-Lobbyisten reichen sich bei den immer strengeren Wärmedämmvorschriften die Hand. Man sagt nicht umsonst, dass beispielsweise die Dämmvorschriften der deutschen Energiesparverordnung (EnEV), die Polystrol-Produzenten wie der BASF zu Milliardengeschäften verholfen haben, in Helmut Kohls Wahlkreis Ludwigshafen ersonnen worden seien.

Eine kurze Geschichte des Wahnsinns

Es lohnt sich, die Geschichte dieses Wahnsinns noch einmal zu rekapitulieren: Die Wirksamkeit der zur Weltrettung verordneten Dämm-Maßnahmen weicht in der Praxis häufig von den auf dem Papier prognostizierten Ersparnissen ab – und zwar nach unten. Mieter berichten häufig von nicht eingetretenen Einsparungen. Zuverlässig treffen lediglich die Mieterhöhungen ein. Eine nunmehr schon mehrere Jahre alte Prognos-Studie zeigte, dass die Energieeinspar-Auflagen bar jeglicher ökonomischer Vernunft sind. Das Ergebnis bestätigt auch Kritiker, die seit Jahren warnen, die Dämmung von Fassaden führe nicht zu der von Bauwirtschaft und Regierung versprochenen Senkung der Heizenergiekosten. Dafür lässt die teure Massnahme die Mieten und Baukosten explodieren. Auch müsste man einmal die schlichte Frage stellen: Warum sollen unsere Häuser eigentlich für sibirische Verhältnisse gedämmt werden, wenn das Klima doch angeblich immer wärmer wird, laut einschlägiger Prognosen vor allem im Norden und im Winter?

Aber vorläufig gibt’s jetzt nochmal ordentlich Schotter für die Entsorger-Betriebe, denn seit der Novellierung der Abfallverzeichnisverordnung (AVV) Anfang März 2016 sind die Vorgaben für die Entsorgung der Polystyrol-Dämmstoffe, die das Flammschutzmittel HBCD enthalten, neu geregelt. Seitdem heißt es: Zweimal die Hand aufhalten, denn Polysterol ist Sondermüll. Weil es aber gar nicht genug Abnahmestellen für diese Sondermüll-Lawine gibt, haben die ersten Dachdecker- und Fassaden-Sanierer bereits ihren Betrieb geschlossen, weil sie am Altmaterial förmlich ersticken und nicht wissen wohin damit. Bevor die Betriebe reihenweise pleite machen, soll jetzt eine Ausnahmeregelung her.

Die Lage noch einmal kurz durchbuchstabiert:

  • Erst wurden Häuslebauer per Energiesparverordnung genötigt, teure Wärmeverbundsysteme an die Wand zu kleben. Plastiktüten im Supermarkt werden ausgemustert, statt dessen soll der Deutsche jetzt seine Wohnung darin einschweißen. Das ganze ist in vielen Fällen – besonders bei Altbauten – ögologisch wirkunslos bis kontraproduktiv und ökonomisch Geldverschwendung
  • Wenn das Zeug schließlich von den schimmelnden Wänden herunterfällt, wird es erst richtig teuer, weil es sich, wie gesagt, um Sondermüll handelt. Und hier tritt erneut unser Staat in Gestalt der neuen Abfallverzeichnisverordnung (AVV) auf den Plan, die den Bürger noch einmal abkassiert. So etwas nennt man Kreislaufwirtschaft.
  • Es ist sogar ein doppelter Kreislauf: Polystyrol ist ein Erdölprodukt, das von unserem Staat zunächst auf eine Umlaufbahn an unsere Hauswände geschickt wird, um anschließend in einer Sondermüll-Verbrennungsanlage verfeuert zu werden. Das hätte man mit dem Erdöl auf dem kleinen Dienstweg auch sofort tun können. Hätte eine Menge Energie und Geld gespart.
  • Nach der Londoner Katastrophe wird nun endlich in aller Öffentlichkeit klar, um was für einen gefährlichen und mörderischen Wahnsinn es sich dabei handelt.
  • Besonders heiß ist übrigens die Kombination eines dick mit Styropor gedämmten Hauses mit Solarzellen auf dem Dach. Diese Stromerzeuger haben nämlich einen kleinen Nachteil: Die Feuerwehr kann sie im Brandfall nicht löschen. Sie produzieren Gleichstrom und das nicht zu knapp – selbst kleinere Anlagen auf Einfamilienhäusern. Und das auch bei bedecktem Himmel, es braucht keine Sonne sondern nur Licht. In der Nacht reicht sogar die Einsatzbeleuchtung der Feuerwehr um die Stromproduktion einzuleiten. Löscht die Feuerwehr die Solaranlage mit Wasser, leitet es, und setzt alles unter Strom – die Retter und die Bewohner eingeschlossen. Der Einsatz von Schaum bringt nicht unbedingt viel, ist eine Schmutz abweisenden Beschichtung vorhanden, rutscht er einfach ab. Und die noch schlechtere Nachricht: Die Anlagen sind nicht abschaltbar. Auch die Leitung zwischen den Modulen und dem Wechselrichter steht – selbst bei gezogener Hauptsicherung – weiter unter Strom. Ein Ratgeber für Feuerwehren empfiehlt daher ein Vorgehen wie bei „Hochbrand“ und „Hochspannung“. Das heißt in der Regel ein „kontrolliertes“ abbrennen lassen,  denn „Stand heute gibt es keine sinnvolle Methode um im Ernstfall eine Photovoltaikanlage auszuschalten“. Inzwischen wird das Risiko auf die Feuerwehrleute abgewälzt, sie sollen trotzdem irgendwie löschen.

Was bleibt, sind Kreisläufe von Irrsin und Beschiss. Das in Europa verankerte Vorsorge-Prinzip heißt laut „grüner“ Auslegung übrigens: Man muss Dinge schon dann verbieten, wenn ein Riskio nicht ausgeschlossen werden kann. Die Realität heißt: Wenn es um die „gute Sache“ geht, wird ein Risiko auch dann ignoriert, wenn es Tote gibt.

Appropos Risiko – Kleiner Tipp für Kapitalanleger, die Aktien der großen Polystrol-Produzenten im Portfolio haben: Verkaufen.

Übernommen von ACHGUT hier




Klimakirche: Kühler ist das neue wärmer!

Glauben Sie noch an den Weihnachtsmann? Oder den Osterhasen? Oder an beide zusammen? Nun, dann wären Sie in der Kirche der globalen Erwärmung gut aufgehoben. Nur heißen die dortigen Weihnachtsmänner oder Osterhasen nicht Weihnachtsmänner oder Osterhasen sondern „wärmste Jahre seit Beginn der Aufzeichnungen“ und ihre Verkünder. Die Rechercheure des Klimamanifestes von Heiligenroth sind der Frage nach dem absoluten Wert (in °C) der sogenannten Mitteltemperatur nachgegangen.  Und fanden Erstaunliches.

2016 das angeblich  „wärmste Jahr seit Beginn der Aufzeichnung “ ist um satte 0,6 °C kühler als der Mittelwert der Jahre bis 1995.

Das sich selbst so einschätzende Leitmedium im deutschen Blätterwald Der Spiegel, hat sich bei der Suche nach der „Wahrheit“seit je her besonders hervorgetan. Auch dessen derzeitiger Chefredakteur Klaus Brinkbäumer fühlt sich nämlich nach wie vor der Maxime des Gründers Rudolf Augstein verpflichtet, nur zu schreiben „was ist“.

So sagte er es jedenfalls, ohne rot zu werden, in die Kamera.

Video vom Klimamanifest von Heiligenroth über die Entwicklung der globalen Mitteltemperatur „aus Messungen“ von „heißen“ 15,4 ° C zu noch heißeren heutigen 14,8 °C.  

Immer wieder trieb besonders DER SPIEGEL die Erderwärmung als gefährliche Sau durchs mediale Dorf. Und alle Folgemedien – voran die Öffentlich Rechtlichen- taten, was sie vollerBewunderung schon immer taten, sie folgten.

Doch Ihr heutiges Problem, vom Klimamanifest von Heiligenroth sauber dokumentiert, lautet:

Bis 1995 lag der Mittelwert der globalen Temperatur schon bei 15,4 °C.  Und seitdem soll es immer wärmer geworden sein. Merkwürdigerweise indem die Temperatur von 15,4 auf 14,8 ° fiel.

Wer in der Schule das kleine 1 x 1 gelernt hat, wird mir zustimmen, dass 14,8 ° um 0,6 °C kühler sind als 15,4 °C.

Und 0,6 °C sind 3/4 (!!) der gesamten Erwärmung des vorigen Jahrhunderts!!

Also ist der „Spitzenwert“ von 2016 ( „wärmsten Jahres seit Aufzeichnung!“) in den letzten 21 Jahren um satte 0,6 ° kälter geworden.

Haben Sie darüber von irgend einem Medium – voran der ÖR Medien – irgendetwas vernommen? Nein? Nun, dann wissen Sie es jetzt.




Fake News: Diesmal Klimaretter und Stadtwerke: Die Stromspeicherung kostet vielleicht ein oder zwei Cent

„Klimaretter“, die Seite für zuverlässige und konsequente Desinformation hat dazu gerade wieder ein prägnantes Beispiel geliefert:
klimaretter.info, 10. Juni 2017: [1] „Stadtwerk – verlängerter Arm der Bürger
Ein Herr Martin Rühl, Ende März gewählter Vorstandsvorsitzender des Bündnisses Bürgerenergie (BBEn) und Geschäftsführer der Stadtwerke Union Nordhessen bekam darin die Gelegenheit, seine Philosophie zum EEG und Zahlen zur Solaren Eigenversorgung zu fabulieren.

Auf der Homepage dieser Stadtwerke-Union lässt sich die Philosophie nachlesen. Danach wundert man sich nicht mehr, dass ein Versorger-Geschäftsführer gleichzeitig auch Vorstandsvorsitzender eines Bürgerenergie-Lobbyvereins sein darf.
SUN Homepage:Die Stadtwerke Union Nordhessen (SUN) ist ein Zusammenschluss aus sechs Stadtwerken in der Region mit dem Ziel, die Energiewende in Nordhessen voranzutreiben. Mitglieder sind die Stadtwerke aus Bad Sooden-Allendorf, Eschwege, Homberg (Efze), Kassel, Witzenhausen und Wolfhagen.
… Gemeinsam treiben wir die Energiewende in der Region voran mit dem Ziel einer sicheren Energieversorgung auf Basis der erneuerbaren Energien …

Bild 1 Klimaretter: Alle gesellschaftlichen Gruppen für die dezentrale Energiewende begeistern: Stadtwerke können dafür der Schlüssel sein. (Foto: Stadtwerke Bochum)

Lassen wir die im Interview verkündete Philosophie beiseite, welche erschütternd zeigt, wie die Politik Chefs von Stadtwerken ermuntert, die vorhandenen Energiestrukturen zu zerstören und durch unerprobte (wie es im Interview beim Speicherproblem anklingt, auch nicht funktionierende), ausschließlich ideologie-getriebene Projekte und Strukturen abzulösen beiseite (siehe dazu auch [3]), und kommen zu den im Interview angegebenen Zahlen für Solare Eigenstromerzeugung:

Die Solarstromspeicherung kostet beim Eigenverbrauch ein oder zwei Cent

Herr Martin Rühl: [1] … Auch bei unserer Studie „Bürgerenergie heute und morgen“ kam heraus, dass die Attraktivität des eigenen Stroms über den Preis hinausgeht. Die Energie vom Hausdach ist ökologisch sauber und mit dem Speicher ergibt das ein Gefühl von Autarkie und Sicherheit ... Wenn man eigenen Strom vom Hausdach für zehn bis zwölf Cent bekommen kann und für die Speicherung vielleicht noch ein oder zwei Cent an Kosten drauflegen muss, dann ist das attraktiv.

Die Bammentaler Prosumer sind es eigentlich gewohnt, dass Strom praktisch kostenlos zur Verfügung steht

Im klimaretter-Artikel wird als Beleg auf eine Studie „Bürgerenergie heute und morgen“ verweisen. Alleine, so etwas als „Studie“ zu bezeichnen, ist ein Affront an alle mit der Technik Vertrauten. Es werden darin lediglich „Bürgerenergie-Zukunftsgeschichten“ fabuliert. Im gesamten Dokument finden sich dazu jedoch keinerlei Kostendarstellungen, wie man es von einer Energie-Studie erwarten muss. Diese werden ersetzt durch tief-schürfende Betrachtungen wie:
BBEn: SZENEN EINER VON PROSUMING GEPRÄGTEN ENERGIEZUKUNFT
„Meine Energie mache ich selbst“: was vor mehr als drei Jahrzehnten das Motto der Solar- und Windkraft- Pioniere war, wird mehr denn je auch die Energieversorgung der Zukunft prägen. Die selbst erzeugte, direkt genutzte oder in der Community gehandelte Energie von sogenannten „Prosumern“ – also Produzenten und Konsumenten in einer Person – wird Kernelement des künftigen dezentralen Energiesystems sein. Diese Überzeugung eint uns beim Bündnis Bürgerenergie. Und wir sind längst nicht mehr alleine …
„ … Die Bammentaler Prosumer sind es eigentlich gewohnt, dass Strom praktisch kostenlos zur Verfügung steht …“ . „Damals setzte sowohl bei den Photovoltaikmodulen als auch bei den Speicher-Batterien ein r radikaler Preisverfall ein … „,
und erinnert damit fatal an das (nicht-)Wissen von Frau Hendricks im Interview mit einem „modernen“ Jung-Redakteur:
EIKE 27.03.2017: Nee, bei uns gibt´s keine Klimaleugner
Redakteur: … Warum überzeugt man die Bevölkerung nicht damit, dass man ihnen sagt: Hey .. wenn wir das jetzt, wenn wir einmal bei 100 % sein sollten, dann braucht man für Strom gar nichts mehr zu bezahlen, weil sich das dann irgendwie selbst ergibt durch die Erneuerbaren und das Einzige was dann irgendwie kostet sind die Instandsetzung. Warum wird das Argument nie gebracht. Eh Leute, irgendwann braucht man für Strom nie mehr bezahlen …

Wo liegen die wahren Kosten

Der Autor hat einmal in einer umfassenden Artikelreihe Probleme und Kosten der Stromspeicherung anhand offizieller Daten einer Landesbehörde publiziert:
EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss), und vor Kurzem anhand eines Solar-Angebotes von innogy eine konkrete Investkostenabchätzung durchgeführt, um zu ermitteln, was das Speichern von Solarstrom zum Eigenverbrauch aktuell wirklich kostet:
EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern

Tabellierte Rechenwerte des Autors zur innogy Basiskonfiguration für eine Laufzeit von 20 Jahren

Die Tabelle mit der Kostenabschätzung aus diesem Artikel zeigt, dass selbst bei einem aktuellen Privatbezugspreis von 30 ct / kWh sich das Invest in 20 Jahren gerade einmal zur Hälfte amortisiert hat – das aber nur infolge der sehr gutwillig gerechneten Kostenschätzung. Umgedreht ausgedrückt: Der selbst erzeugte Solarstrom kostet mindestens 60 ct / kWh und lehnt sich damit gut an das in einer früheren Artikelreihe [3] vermittelte an.

Damit ist aber auch klar, wer alleine von dem Deal wirklich profitiert.

Wissen das der Fachmann und die Energieberaterin nicht?

Die wirklichen, jederzeit nachrechenbaren Kosten liegen also erkennbar meilenweit über denen von dieser Führungskraft zur Energie (und deren Zerstörung) genannten. Dazu muss man sich fragen:
Wissen das der Geschäftsführer eines Stadtwerkeverbundes und die Energieberaterin unserer Regierung nicht?
Doch egal, ob diese es nicht wissen oder wissentlich publiziert haben. Es zeigt, wie vollständig und unterwürfig sich die „technische Intelligenz“ flächendeckend dem Diktat der Politik unterwirft [4], wenn sie darin ihren Vorteil findet. Wie der Autor schon einmal schrieb: Nordkoreas Führung hat mit Deutschland ein Beispiel, wie eine politische Meinungs-Diktatur auch in einer Demokratie möglich ist.

Zur „Ehrenrettung“ dieses Geschäftsführers darf noch darauf verwiesen werden, dass es auch andere Versorger so machen:
EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten

Auf jeden Fall wissen sie eine Lösung

Wenn die Kosten dank der ungebremsten Versorgungsstruktur-Zerstörungswut der Stadtwerke den Kunden dann doch zu hoch werden und verstärkt Beschwerden kommen, ist der Lösungsvorschlag der Versorger geradezu genial:
Weil der Strom aufgrund der von den Versorgern selbst gegen die Kunden durchgeführten EEG-Maßnahmen so teuer geworden ist, mögen sich die Kunden bitte (mit Unterstützung der Versorger!) bei der Regierung in Berlin beschweren. Schließlich hat deren Politik ihnen die Erlaubnis und den Anreiz dazu gegeben.
EIKE 22.11.2016: Energieversorger helfen ihren Kunden gegen teuren EEG-Strom! Aktion lokaler Versorger in Bayern: Energiewende bezahlbar

Zufügung

klimaretter.info sollte den von ihr unterstützten und auf der Homepage verlinkten „Der Klima-Lügendetektor“ auch auf ihre eigenen Artikel anwenden. Er würde in kürzester Zeit hoffnungslos überlaufen.

Quellen

[1] klimaretter.info, 10. Juni 2017: „Stadtwerk – verlängerter Arm der Bürger

[2] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern

[3] EIKE 06.06.2016: Wie Politiker ihre Kuh schlachten und sich danach beklagen, dass diese keine Milch mehr gibt
[4] EIKE 27.10.2016: Klimaschutz und Freiheit passen nicht zusammen: Auf Wiedersehen VW, Daimler und BMW, ihr hattet eure Zeit. Ihr habt euch nie wirklich gewehrt und jetzt ist es zu spät




Fake News: Diesmal Harald Lesch im Magazin GEO, 11.Mai 2017

In seinem im Magazin GEO gegebenen Interview (siehe auch die GEO-Aktion) sind gleich vier amüsante Fakes aufzufinden, zwei davon vielleicht schon rechtlich grenzwertig:

Fake 1

Harald Lesch (im Folgenden HL) behauptet „Die populistischen Strömungen machen allesamt diesen Fehler. Dass sie aus auf den ersten Blick unerfindlichen Gründen meinen, einen Klimawandel könne es nicht geben.“ Wo mag er wohl diesen Unsinn herhaben? Da sich das Klima wandelt, seit die Erde besteht, gibt es niemanden mit einigermaßen klarer Birne, der den Klimawandel abstreitet – nicht einmal D. Trump oder eine „populistische Strömung“. Anmerkung: populistisch stammt von populus, lateinisch das Volk. Was hat HL gegen das Volk? Wir wissen es nicht, vielleicht erfahren wir es im nächsten moma (Morgenmagazin ARD) mit HL.

Fake 2

HL behauptet „Es ist ja erschütternd, dass die Menschheit nicht hinreichend wahrgenommen hat, dass 34.000 referierte Publikationen auf der einen Seite 34 auf der anderen gegenüberstehen.“ Erschütternd ist nur der sachliche Unsinn dieses Satzes. Zunächst einmal ist ein Zahlenvergleich von Publikationen unwissenschaftlich. HL weiß als Wissenschaftler sehr gut, dass Wissenschaft nicht auf Konsens beruht, sondern auf dem genauen Gegenteil. Wissenschaft lebt von Abweichlern, Revolutionären und Ketzern. Nobelpreise werden nicht für das Nachplappern einer Mainstream-Meinung vergeben sondern für Neues, das dem Mainstream zuwiderläuft.

Aber auch die von HL angegebenen Zahlen sind falsch. Ein maßgebender Klimaeinfluss des Menschen ist bis dato noch von keiner begutachteten Fachpublikation auch nur annähernd beweiskräftig nachgewiesen worden. Falls ja, wären wir für einen entsprechenden Hinweis dankbar. Kein Wunder, denn die rezente Wärmephase ist nicht unnatürlich, sie liegt weit innerhalb des natürlichen Klima-Schwankungsbereichs – in Stärke und in Schnelligkeit. Ein Klimasignal des Menschen kann man infolgedessen nicht erkennen. Vergessen hat HL die mehr als 1000 referierten Fachpublikationen sowie weltbekannte Fachkollegen, die den jüngsten Klimawandel aus natürlichen Ursachen herleiten (hier, hier).

Und nun zu den etwas härteren, rechtlich bereits grenzwertigen Fakes von HL:

Fake 3

HL’s Bemühungen mit EIKE in Kontakt zu kommen lassen in unserem gem.e.V. EIKE bereits die Tränen des Bedauerns fließen. HL sagt in GEO „Ich bin dann mal nach Jena gefahren, zum Sitz des Instituts. Aber da steht kein Institut. Da ist nur ein Briefkasten.“  HL persönlich nach Jena gefahren, nur um bei EIKE anzuklopfen – ehrlich?. Donnerwetter und Respekt, wer’s glaubt, wird selig. Und weiter fragt GEO „Haben Sie mit jemandem sprechen können?„. Antwort HL: „Ich habe es versucht, habe jemandem auf den Anrufbeantworter gesprochen. Aber der hat sich dann nicht mehr gemeldet.“ Wir sind tief erschüttert und teilen daher HL höflich an dieser Stelle zuerst erst einmal mit, dass der Sitz von EIKE mit genauer Postanschrift auf der Hauptseite unter „Über uns“ + „Impressum“ zu finden ist. Auf Mails an EIKE wird geantwortet, zumindest, wenn solch ein großer Medien-Star und eminenter Welterklärer Kontakt mit uns wünscht. Briefe werden geöffnet und gelesen. Da er diese Unwahrheit schon einmal im letzten August in der Süddeutschen Zeitung von sich gab, hatte EIKE Vizepräsident Michael Limburg versucht ihn telefonisch zu kontaktieren und eine Richtigstellung zu verlangen. Ergebnis: Weder im ZDF Studio Unterföhrung noch an seinem Lehrstuhl ließ er sich sprechen. Auch ein erbetener Rückruf blieb aus. Von HL bislang keine Spur. Logischerweise muss einer die Unwahrheit sagen, HL oder EIKE.

Fake 4

Vielleicht mag diese letzte Frage folgender Gang der Dinge erhellen. Wir verstanden HL’s Interview-Aussage dahingehend, dass er mit EIKE ins Gespräch kommen wolle. Aber gerne doch! Auch wir wollen es. Es wird Zeit miteinander und nicht übereinander zu reden. Immerhin hatten sowohl HL als auch wir von EIKE mehrfach Gesprächswünsche ausgedrückt und publiziert. HL insbesondere bereits früher schon einmal – gleichlautend wie in GEO – in der Süddeutschen Zeitung. Dort las man

Es seien meist die gleichen Leute, die „den Auftrag haben, Moderatoren, die Glaubwürdigkeit genießen, als unglaubwürdig hinzustellen“. Vertreter des Eike-Vereins seien dies vor allem, selbsternannte Kämpfer gegen den Klimaschutz, die sich einer sachlichen Diskussion verweigerten. „Ich habe denen hinterhertelefoniert und gesagt: Reden Sie mit mir! Aber da kommt nichts.“

Nun wäre eine solche Gesprächsverweigerung ja wirklich schlimm. Unglücklich über den Misserfolg des so geschätzten Kollegen HL mit EIKE ins Gespräch zu kommen, sah sich der Verfasser dieser Zeilen zu einer eigenen Initiative veranlasst. Um ganz sicher zu gehen, dass nicht wieder ein postalischer Fehler oder sonstiges den Informationsweg versperrt (die Postboten sind vielleicht  heute auch nicht mehr das, was sie mal waren, man weiß ja nie), griff er zum sicheren Mittel des Einschreibens, welches zusätzlich als Kopie auch noch als normaler Brief an HL abging – sicher ist sicher. Eine Kopie dieses Einschreibens mit Beleg der Post zeigt die folgende Abbildung (der Postbeleg verdeckt die private Anschrift des Verfassers, der Empfänger HL bekam diese persönlichen Daten natürlich zu sehen)

Bild: Einschreiben des Autors an Harald Lesch

Da wieder keine Antwort von HL kam, darf der Leser dieser Zeilen sich nun seinen eigenen Reim über die Affaire Lesch vs. EIKE machen. „Swap the real for the false, and vice versa“? Selbstredend stehen wir für das von HL gewünschte Gespräch bzw. für eine Fach-Diskussion immer noch unverrückbar zur Verfügung. Wie wär’s, wenn die Süddeutsche Zeitung oder GEO diese Fachdiskussion vermitteln und durch ihre Journalisten begleiten würde, wir werden sie von dieser Fake-News hier in Kenntnis setzen. Würde der Glaubwürdigkeit dieser beiden Presseorgane auf die Sprünge helfen.




Fake News: Diesmal Pfingstunwetter um Hildesheim – neue Einschläge des Klimawandels?

Nun wüteten am Pfingstwochenende (vor allem am Pfingstsamstag, den 03.06.2017) im Landkreis Hildesheim (bei Hannover) schlimme Unwetter, welche der Umweltminister von Niedersachsen zum Anlass nahm, ähnliches zu behaupten.
Hannoversche Allgemeine: Gewitter im Kreis Hildesheim Unwetter lässt Autos durch Ort schwimmen
… Ein schweres Gewitter hat den Landkreis Hildesheim am Sonnabendabend (3.6.) heimgesucht: Etwa 40 Liter Wasser pro Quadratmeter gingen dort in kurzer Zeit nieder. Straßen wurden überschwemmt. Besonders betroffen waren Bad Salzdetfurth und der Ort Sottrum, wo sogar Autos durch den Ort schwammen.

Bild vom Unwetter. Quelle: Julian Stratenschulte/dpa

… Nach Angaben des Deutschen Wetterdiensts (DWD) sind in der Region innerhalb einer Stunde 30 bis 40 Liter Regen pro Quadratmeter gefallen – normalerweise regnet es dort im ganzen Juni rund 75 Liter. Nach einer halben Stunde liefen bereits die kleinsten Kanäle über. … „In einem Fall wie diesem können wir Meteorologen nicht einmal eine halbe Stunde im Voraus sagen, wo die Unwetterwolken genau abregnen“, sagte Robert Scholz vom DWD.
… Niedersachsens Umweltminister Stefan Wenzel (Grüne) machte sich am Sonntag ein Bild von der Lage vor Ort und sprach mit Betroffenen.
Er mahnte, dass durch den fortschreitenden Klimawandel extreme Unwetter häufiger würden

Unabhängig davon, dass solche Unwetter für die Betroffenen ein Desaster sind, muss man trotzdem die Frage stellen, ob die Ursache wirklich alleine der Standard-Übeltäter Klimawandel ist, oder ob diese schnelle und einfache Zuweisung nur von Versäumnissen und Fehlern an anderen Stellen ablenken soll.

Nachschau: Kann der Klimawandel die Ursache sein

Globale Daten

Was sagt das Umweltbundesamt in seiner umfangreichen Recherche über Unwetter? Eigentlich nichts. Anhand der Daten lässt sich keine sichere Aussage tätigen, weshalb es Indikatoren von Versicherungsschäden zu Rate zieht und sich dann auf die typischen Vermutungen beschränkt.
Umweltbundesamt Klimamonitoringbericht 2015: Der Zusammenhang zwischen Klimawandel und steigenden Schäden durch Unwetter gilt noch nicht als gesichert, allerdings sprechen viele Indizien dafür. So wird für die Zukunft von häufigeren und extremeren Starkniederschlagsereignissen ausgegangen, die Überschwemmungen zur Folge haben können.

Bild 2 Quelle: Schadensquotenverlauf Umwelt. Quelle: UBA Klimamonitoringbericht 2015

Bild 3 Quelle: Schadensquotenverlauf Hagelschäden Landwirtschaft. Quelle: UbA Klimamonitoringbericht 2015

Nun fragen wir den DWD Klimaatlas. Dieser löst auf Bundesländer und Monat auf. Doch weder der Mai, noch der Juni zeigen deutlichen Klimawandeleinfluss, auch nicht in der Projektion bis zum Jahr 2100. Beim Niederschlag überhaupt nicht, bei der Temperatur sind beide Monate etwas warm, aber nicht über Temperaturen, welche schon vor 100 Jahren und oft auch zwischendurch erreicht wurden. Was auffällt ist nur, dass die Zukunftsprojektionen die Hilflosigkeit der Klimasimulations-Programme beim Suchen nach den zukünftigen Werten zeigen.

Warum der DWD in seinen Bildern dazu demonstriert, dass die Projektionen schon aktuell hoffnungslos daneben liegen und man deshalb deren Vorhersagen besser nicht glauben sollte, entzieht sich der Kenntnis des Autors. Vielleicht deshalb wurde in der deutschlandweiten, kleinflächigen Auflösung für die lokalen Klimamanager*innen der Städte und Gemeinden auf Kurven verzichtet und die Farbfelder eingeführt, anhand deren man „Gefahrfarben“ sieht, ein Nachkontrollieren des Datenverlaufs aber völlig unmöglich ist.

Bild 4 Niedersachsen, Niederschlag Monatsauflösung Juni (bis 2016). Quelle: DWD Klimaatlas Deutschland

Bild 5 Niedersachsen, Temperatur Monatsauflösung Juni (bis 2016). Quelle: DWD Klimaatlas Deutschland

Bild 6 Niedersachsen, Niederschlag Monatsauflösung Mai (bis 2017). Quelle: DWD Klimaatlas Deutschland

Bild 7 Niedersachsen, Temperatur Monatsauflösung Mai (bis 2017). Quelle: DWD Klimaatlas Deutschland

 

Lokale Daten

Das folgende Bild zeigt die betroffene Umgebung im Landkreis Hildesheim.

Bild 8 Die am meisten vom Unwetter betroffenen Gegenden

Leider gibt es direkt an den betroffenen Orten keine DWD-Wetterstationen. Deshalb wurden drei aus der Umgebung abgefragt:

DWD-Station Lichtenberg, ID: 4362
DWD-Station Ottbergen, ID: 3839
DWD-Station Sibbesse, ID: 4686

Wie man an deren Tageswerten sieht, ist keinerlei Klimawandeleinfluss erkennbar, der zu höheren Niederschlägen führt. Und ausgerechnet im Zeitraum des aktuellen Unwetters, also am rechten Ende der Verläufe, sind die Tages-Niederschlagswerte im Vergleich eher gering. Auch die Station Salzdetfurth, welche wetter.com verwendet (beim DWD nicht gelistet), zeigt nichts Auffälliges. Der Temperaturverlauf über ein Jahr von Salzdetfurth gibt auch keinen Hinweis auf eine extreme Temperaturkonstellation.

Bild 9 Lichtenberg DWD Tageswerte Niederschlag (mm) 1946 – 05.06.2017

Bild 10 Ottbergen DWD Tageswerte Niederschlag 1946 – 05.06.2017

Bild 11 Sibbesse DWD Tageswerte Niederschlag 1946 – 05.06.2017

Bild 12 Niederschlag Salzdetfurth um das Pfingstwochenende. Quelle: wetter.com

Bild 13 Temperaturverlauf eines Jahres von Salzdetfurth. Quelle: wetter.com

Leider ist für alle drei Stationen beim DWD kein Stundenniederschlag verfügbar (oder der Autor hat die Daten nicht gefunden). Deshalb der Stunden-Niederschlagsverlauf einer DWD-Station bei Hannover.

Bild 14 Stundenwerte Niederschlagshöhe (mm) Hannover-Herrenhausen Dez. 2015 -08.06.2017

 

Was tut Hildesheim dagegen

Selbstverständlich alles, was man in solchen Fällen für die Bürger, vor allem aber die Welt tun kann. Auf der Informationsseite der Stadt lässt es sich detailliert nachlesen. Und ein Klimaschutzmanager sorgt dafür, dass dabei nichts schief geht.

Bild 15 Screenshot (Auszug) Homepage der Stadt Hildesheim

10.01.2017: Der neue Heizspiegel ist da!,

12.09.2016: ‚Solar-Check‘ das kostenlose Angebot der Klimaschutzagentur Hildesheim-Peine gGmbH
13.06.2016: Der Landkreis Hildesheim wird für sein Engagement im Klimaschutz ausgezeichnet
26.01.2016: Thermografiewanderung im Landkreis Hildesheim
04.01.2016: ‚clever heizen!‘ in den Landkreisen Hildesheim und Peine mit der neuen Klimaschutzagentur Hildesheim-Peine gGmbH

Für so viel hoch-effektiven Klimaschutz hat die Stadt Hildesheim selbstverständlich auch einen Preis bekommen

13.06.2016 Der Landkreis Hildesheim wird für sein Engagement im Klimaschutz ausgezeichnet
Der Landkreis Hildesheim ist eine von 20 Kommunen, Städten und Landkreisen, die über ein Jahr lang intensiv mit einem Partner im Klimaschutz zusammengearbeitet haben. Die Partner haben sich ausgetauscht, voneinander gelernt und gemeinsam Projekte umgesetzt.
Auf der Woche der Umwelt, im Park von Schloss Bellevue, wurde der Landkreis jetzt mit einer Urkunde ausgezeichnet. Die Urkunden sind von Jochen Flasbarth, Staatssekretär im Bundesministerium für Umwelt, Natur-schutz, Bau und Reaktorsicherheit und Dr. Peter Moser, dem RegioTwin-Projektleiter, unterzeichnet.
Der Landkreis Hildesheim hat als Partner mit der
Aktiv-Region-Nordfriesland Nord kooperiert. Dabei wurden Projekte in den jeweiligen Regionen besucht und Erfahrungen ausgetauscht. Für die Zukunft sind weitere Workshopthemen mit der Aktiv-Region geplant. „Durch „RegioTwin“ können wir uns sehr gut über Themen wie Elektromobilität oder Kleinstwindkraft-anlagen informieren“, so Klimaschutzmanager Martin Komander.

Um noch das absolute i-Tüpfelchen darauf zu setzen, ist selbst die Information zum Klimaschutz klimaschützend, da klimaneutral gehostet!

Bild 16 Screenshot (Auszug) Homepage der Stadt Hildesheim

Soll nur noch jemand sagen, die zuständigen Behörden würden sich dort nicht konsequent allumfassend und effektiv um Lösungen bemühen.

Gegen die kleineren, aktuellen Probleme ist Eigenengagement gefragt – schließlich war der Klimawandel nicht vorhersehbar

Wirklich kann das Klima nur durch Windräder, Solar und Wärmedämmung, selbstverständlich auch Elektroautos, geschützt werden. Bürger, welche dabei engagiert mit machen, bekommen deshalb auch kleine Belohnungen. Wie es diese Bürger vorbildhaft zeigen, ist Klimaschutz eine (lösbare) Aufgabe jedes (betuchten) Einzelnen. Und so, wie diese engagierten Bürger mithelfen, die ganze Welt vor dem Klima zu schützen, muss natürlich auch jeder direkt betroffene Bürger selbst mithelfen, sich vor direkten Klimawandelschäden zu schützen.
HildesheimerAllgemeineZeitung, 22. Mai 2017: Ochtersum überschwemmt – wer ist Schuld?
Hildesheim – Wieder steht Heinz Vahldieck in seinen Gummistiefeln und dem grauen Regenanzug knietief im Wasser vor seinem Haus. 15 Minuten Starkregen haben ausgereicht, um den Bereich an der Ecke St.-Godehard-Straße und Konrad-Adenauer-Straße vor der Bäckerei „Godi’s Backstube“ zu überfluten. Routiniert reißt der 80-Jährige die Gullys aus dem Boden – dafür hat er sich eigens eine Kralle anfertigen lassen. Mit der stochert er so lange abwechselnd in den drei Gullys herum, bis sich in der Mitte des Sees auf der Straße endlich ein Strudel bildet und die Regenmassen langsam abfließen können. „Zum Glück war Herr Vahldieck zu Hause, er hat uns wieder einmal gerettet“, sagt eine Anwohnerin.

Was aber, wenn der Rentner nicht zur Stelle gewesen wäre? Darüber will die Frau gar nicht nachdenken. Denn was passieren kann, wenn Heinz Vahldieck nicht zugegen ist, daran erinnert sie sich nur zu gut. Es ist noch nicht ganz ein Jahr her, als am 12. Juni 2016 die gesamte Straße in Ochtersum unter Wasser stand, mehr als 70 Keller überflutet waren und die Feuerwehr stundenlang damit beschäftigt war, diese auszupumpen. Das Wasser verschwand zwar wieder, aber die Schäden blieben. Und auch die Ursache bleibt. Denn obwohl das Thema im Ochtersumer Ortsrat und in der Öffentlichkeit heiß diskutiert wurde, ist alles beim Alten geblieben. Nichts ist passiert: Die Anwohner sind weiterhin auf sich allein gestellt, wenn der Himmel seine Schleusen öffnet. Sobald es stark regnet, sammelt sich das Wasser in einer Senke (zu sehen auf der Karte). Der Regen fließt vom Steinberg hinunter, 2016 trat sogar das Überlaufbecken in direkter Nachbarschaft über die Ufer. Im Bereich St.-Godehard-Straße und Konrad-Adenauer-Straße ist eine große Fläche betoniert, das Wasser kann nur durch wenige Gullys in die Kanalisation gelangen.

... , Leiter des Bauhofs der Stadt, klärt über die Zuständigkeiten auf: „Die Stadt ist bis 50 Zentimeter Tiefe zuständig.“ Also für die Gullydeckel und das Stück im Boden, in dem ein mit Schlitzen versehener Eimer den Schmutz von der Kanalisation fernhält. Die Stadt muss also die Abflüsse reinigen. Und das regelmäßig. Für den „unterirdischen Teil“– die Kanalisation – ist die Stadtentwässerung SEHI zuständig. „Und da liegt das eigentliche Problem“, sagt Habenicht. „Die Querschnitte der Rohre sind zu klein.“
Sowohl der SEHI-Chef als auch Habenicht
verweisen bezüglich der Regenmassen auf den Klimawandel

Wer das nicht kann, kann sich ja dagegen versichern – eine Lösung gibt es also immer. Das Bundesland Bayern zeigt, wie einfach und schnell so etwas geht:
Süddeutsche Zeitung, 30. März 2017: Finanzministerium Bayern will Hochwasseropfer nicht mehr unterstützen
… Vom 1. Juli 2019 an will Bayern Hochwasseropfern keine Soforthilfe mehr zahlen, falls die Schäden versicherbar gewesen wären … Das hat die bayerische Staatsregierung beschlossen.

Anmerkung: Der Klimaschutzpreis und die Zeitungsepisode erinnern sehr an die letztes Jahr so schwer von einem Dammbruch getroffene Stadt Simbach. Auch diese hat einen Klimaschutzpreis, aber versäumt, die baulichen Probleme beim Hochwasserschutz zu analysieren und zu lösen [4].

Was könnte man aus den Daten ableiten

Zuerst: Beim Niederschlag ist in Niedersachsen und in der vom Unwetter betroffenen Gegend – wie in ganz Deutschland [2] – , abgesehen von einer unkritischen (und aufgrund der vielen städtischen Wärmeinseln höchst bezweifelbaren) Erwärmung) überhaupt kein Klimawandel-Einfluss messbar. Lediglich der Temperaturverlauf in Niedersachsen zeigt höher werdende Mitteltemperaturen, aber bei den Maximas keines, welches die üblichen während der letzten 100 Jahre überschreitet.

Ganz unbekannt scheinen Starkregen-Ereignisse und Überschwemmungen auch nicht zu sein. Wie so oft, gab es so etwas auch schon vor dem „schlimmen Klimawandel“:
NDR.de. 06.06.2017: Schlammlawine hinterlässt überall Spuren
… „Ein solches Hochwasser hatten wir hier seit 70 Jahren nicht mehr“, sagte Kfz-Meister …
und vor genau zehn Jahren war es ähnlich, betraf die gleichen Orte und hatte nur durch viel Glück nicht solche Auswirkungen:
WELT N24, 01.10.2007: Talsperre rettet Hildesheim vor der großen Katastrophe
… Sinkende Wasserstände haben in den niedersächsischen Überflutungsgebieten eine erste Entspannung gebracht. Eine Entwarnung gab es zunächst aber nicht. Tagelanger Regen hatte in den Kreisen Hildesheim und Wolfenbüttel zu Überschwemmungen geführt, und schon sagten Meteorologen neuen Regen voraus. Helfer waren weiter an zerstörten Deichen im Einsatz. Feuerwehren pumpten zahlreiche Keller leer. Der Umfang der Schäden – vor allem in der Landwirtschaft – ließ sich noch nicht beziffern. Menschen kamen nicht zu Schaden. Der Krisenstab im Kreis Hildesheim wollte noch vor dem Montagabend entscheiden, ob der Katastrophenalarm aufgehoben werden sollte.
In den besonders betroffenen Gemeinden Holle und Bad Salzdetfurth entspannte sich die Lage weiter.
… Bei den Überschwemmungen nach den extremen Regenfällen am Wochenende waren in beiden Orten insgesamt rund 100 Häuser voll Wasser gelaufen. Entlang der Oker, die bei Wolfenbüttel Äcker und Wiesen überflutet und in Baddeckenstedt Straßen unter Wasser gesetzt hatte,
Wobei kleinere Überschwemmungen – auch mitten in Ortschaften – fast schon alltäglich zu sein scheinen.
unserort.hildesheim, 19.06.2012: Überschwemmungen in Overath
Nach extremen Regenfällen gibt es im Stadtgebiet Overath zahlreiche Überflutungen … In Overath ist die Hauptstraße überschwemmt. .. Steinenbrück, Untereschbach und Immekeppel haben ebenfalls mit dem Starkregen des Gewitters zu kämpfen.

Bild 17 Überschwemmungen im Jahr 2012

 

Glaube keinem Umweltminister*in, wenn sie über den Klimawandel fabulieren

Starke Überschwemmungen sind in dieser Gegen alleine aufgrund der Geländetopologie also nicht ungewöhnlich und selten.

Daraus ergibt sich die Vermutung: Bei den Ereignissen an Pfingsten handelte es sich um räumlich begrenzte Starkregen-Ereignisse, wie sie immer wieder vorkommen, mit der derzeitigen, weit verstreuten Messstationsverteilung des DWD datenmäßig jedoch selten erfasst werden und sich deshalb in den Aufzeichnungen selten finden. Und es ist auch stark zu vermuten, dass lokale Gegebenheiten zu einer Verstärkung der Auswirkungen geführt haben.

Wenn dazu der Umweltminister von Niedersachsen, Stefan Wenzel (Grüne) den betroffenen Bürgern nun erklärt:Er mahnte, dass durch den fortschreitenden Klimawandel extreme Unwetter häufiger würden …,
zeigt er damit, dass er die Daten dazu nicht kennt und lediglich nach seiner Ideologie fabuliert, in welcher der Klimawandel generell und auch im Zweifelsfall an allem Schuld ist, im Wissen, dass die meisten Bürger die Fakten ebenfalls nicht kennen.
Leider ist es nicht so, dass dies auf GRÜN beschränkt wäre. Die Umweltministerin von Bayern ist nicht eine minimale Spur klüger, wenn es um Fachwissen zu ihrem Aufgabengebiet geht, wie sie mehrmals aus einem ähnlichen Anlass belegt hat:
EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels,
und über die SPD-Umweltministerin im Bund wollen wir erst gar nicht reden.

Warum der DWD, welcher mit riesigem Aufwand Deutschland mit Unwetterradarstationen bestückt und für seine Vorhersagen wirbt, auch dort wieder (wie letztes Jahr in Bayern) vollkommen versagt hat:
… „In einem Fall wie diesem können wir Meteorologen nicht einmal eine halbe Stunde im Voraus sagen, wo die Unwetterwolken genau abregnen“, sagte Robert Scholz vom DW …,.
ist ein anderes Blatt, das die Umweltminister*innen klären müssten. Es scheint so, dass vor lauter Klimawandel-Vorbereitungen zum Jahr 2100 für die aktuellen Wettergeschehnisse keine Zeit mehr übrig bleibt. Nichts vorhersagen konnte man früher auch schon, aber wenigstens billiger.

Bild 18 DWD Werbung für sein flächendeckendes Wetterradar

Nun waren die Daten vom Pfingstwochenende beim DWD wegen eines DV-Problems erst mehrere Tage verspätet verfügbar. Vielleicht gelangen die Unwetter-Vorhersagen nur wegen DV-Problemen nicht und das Wetter war gar nicht schuld. Und wenn die Brühe erst einmal die Hauptstraßen entlang durch einen Ort rast, und Autos mitschwimmen, merken es die örtlichen Hilfsdienste ja schließlich auch so. Wer kann schließlich etwas dafür, wenn sich das Wetter nicht nach der DV-Verfügbarkeit richtet.

Vielleicht können EIKE-Leser aus den betroffenen Gegenden im Blog etwas zu den Ursachen der schlimmen Auswirkungen berichten.

Nachtrag

Beim Googeln fand sich ein Bild der Pegelstände der Lahn seit dem Jahr 1342. Ausgerechnet das jüngste Hochwasserereignis ist das niedrigste einer langen Historie (Details zu Hochwassern in Deutschland siehe: [3] [2]). Man darf nur hoffen, dass die damaligen – in der angeblich „idealen Klimazeit“ vor der Industrialisierung – erreichten Pegelstände und die verursachenden Unwetter nicht mehr wiederkommen.

Bild 19 Historische Hochwassermarken der Lahn bei Limburg. Quelle: Regierungspräsidium Gießen Hochwasserrisikomanagementplan 2014

Quellen

[1] kaltesonne: Beitrag des Klimawandels überschätzt: Zika-Virus breitet sich bei niedrigeren Temperaturen aus als gedacht

[2] EIKE 29.10.2015: Kann man den Klimawandel in Deutschland wirklich täglich spüren? Eine Suche mit überraschendem Ergebnis

[3] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[4] EIKE 24.01.2017: Jahrtausendhochwasser am 01.06.2016 in Simbach – so entstehen Menetekel des Klimawandels
EIKE 09.06.2016: An den Unwettern ist der Mensch eher nicht schuld – aber ganz sicher an deren Folgen




Ehrliche Klima-Debatte bedeutet: Weg mit der Hysterie!

Zu Beginn wollen wir feststellen, dass es keine „settled Science“ gibt, welche zeigt, dass menschliche Aktivitäten den Planeten gefährlich aufheizen; dass es keine auch nur halbwegs glaubhafte Umfrage gibt, die einen Konsens unter Wissenschaftlern zeigt; und dass keine vernünftige Person, die derartige falsche Repräsentationen anzweifeln, den Klimawandel leugnet oder dass es in jüngerer Zeit Erwärmung – und Abkühlung – gegeben hat. Derartige, von Agenden getriebene Behauptungen widersprechen diametral fundamentalen Prinzipien wissenschaftlicher Forschung und ehrlicher Diskussionen.

Die mittleren Temperaturen der Erde sind gestiegen, seit die Letzte einer ganzen, 90.000 Jahre langen Serie von Eiszeiten vor 12.000 bis 15.000 Jahren zu Ende ging. Außerdem war es vor etwa 2000 Jahren und dann wieder vor 1000 Jahren zumindest genauso warm wie heute; und seit dem Ende der Kleinen Eiszeit Mitte des 19. Jahrhunderts ist es nach dem Prinzip „drei Schritte vor, zwei zurück“ wieder wärmer geworden. Diese Erwärmung begann kurz nachdem General George Washington in Valley Forge im Jahre 1977 einen bitterkalten Winter überstehen und Napoleon seinen eisigen Rückzug von Moskau im Jahre 1812 antreten musste.

Seit Anfang des 20. Jahrhunderts bis zu den vierziger Jahren ist es dann merklich wärmer geworden bis zu einem dem heutigen sehr ähnlichen Temperaturniveau. Dem folgte eine drei Jahrzehnte lange Phase der Abkühlung, was führende wissenschaftliche Organisationen veranlasste, eine Schlagzeilen-trächtige unmittelbar bevorstehende neue große Eiszeit zu prophezeien, verursacht durch Abgase aus der Verbrennung fossiler Treibstoffe.

Ein Jahrzehnt später wurden die gleichen Abgase verantwortlich gemacht für die entgegengesetzte Krise – dass sie nämlich die Welt unmittelbar an einen „Tipping Point“ der Überhitzung geführt hätten. Die einzige Möglichkeit zur Lösung dieses Problems soll es sein, dass entwickelte Länder dem Kohlenstoff reduzierenden Kyoto-Protokoll beitreten, Kohlenstoff-Zertifikate von Al Gores Hedge Fund zu kaufen und sehr viel Geld an die UN zu zahlen zur Umverteilung als Buße für unfaires kapitalistisches Aufblühen.

Ja – genauso wie die jüngsten Pariser Klima-Vereinbarungen.

Augenblicklich wurde für diese klimatologische Katastrophe die Pflanzen düngenden CO2-Emissionen verantwortlich gemacht (jetzt umetikettiert als „Klima-Verschmutzung“), und ein International Panel on Climate Change (IPCC) wurde zusammen getrommelt, um diese Theorie zu sanktionieren, zu predigen – und den Völkern zu verkaufen. Genau das hat das IPCC getan, und mit dessen Ausblendung natürlicher Änderungen und Einflüsse oder der Verteidigung nachweislich völlig falscher Modell-Projektionen, mit politisch gefärbten alarmistischen Summary-Berichten und von den Medien aufgebauschten aktivistischen Anti-Fossile-Klima-Besprechungen waren sie enorm erfolgreich damit.

Ottmar Edenhofer, Leitautor des AR 4 des IPCC (2007) hat die Priorität in aller Offenheit benannt. In einer Rede im Jahre 2010 führte er aus: „Man muss sich von der Illusion befreien, dass internationale Klimapolitik Umweltpolitik ist. Stattdessen geht es bei der Klimapolitik darum, wie wir de facto das Weltvermögen umverteilen“.

Die UN-Klimachefin Christiana Figueires bemerkte zugespitzt, dass es das wirkliche Ziel der UN-Klimakonferenz in Paris 2014 war, „das (kapitalistische) ökonomische Entwicklungsmodell zu ändern, welches seit mindestens 150 Jahren bestimmend war, seit der Industriellen Revolution“.

Jene Pariser Konferenz-Agenda erhielt einen sehr nützlichen Schub seitens Wissenschaftlern an den Regierungsagenturen NASA und NOAA, die sehr zupass kommend wiederholt Behauptungen mit „den wärmsten Jahren jemals“ hinaus posaunt hatten. Beide haben Historien, in welchen sie in Kochtöpfen einer überhitzten globalen Erwärmung herum gerührt haben mit alarmierenden und statistisch unangreifbaren Behauptungen jüngster „rekordhoher“ Temperaturen.

Während das Goddard Institute for Space Studies (GISS) der NASA, eine kleine Klimamodellierungs-Agentur in einem Bürogebäude in Manhattan, berichtete, dass das Jahr 2014, ein El-Nino-Jahr, das „wärmste Jahr jemals“ war, war es statistisch ununterscheidbar von den Jahren 2005, 2010 und 2016.

Folgerichtig proklamierte das GISS nun das Jahr 2016 als das neue wärmste Jahr „seit Beginn moderner Aufzeichnungen“, während der Unterschied zum Jahr 2015 innerhalb eines Viertels der statistischen Fehlerbandbreite lag.

Ein Whistleblower, dem einst die Abteilung Klimadaten bei der NOAA unterstand, hat jüngst offengelegt, dass die Agentur eiligst nicht verifizierte und betrügerische Daten zur globalen Temperatur aufbereitet und veröffentlicht hat mit der Absicht, von den UN und der Obama-Regierung favorisierte Agenden bzgl. der Pariser Klimakonferenz voranzutreiben. Das Ziel war es, fortschrittliche Nationen dazu zu bewegen, ihren Verbrauch fossiler Treibstoffe zu reduzieren und gewaltige Ausgaben zugunsten von Hilfsprojekten mit Klima-Bezug zu tätigen.

In der von der NOAA politisch sensationalisierten Studie von Thomas R. Karl (2015) wurden historische Klimadaten rückwirkend geändert, um den wohlbekannten „Klimawandel-Stillstand“ zu eliminieren … also eine Periode zwischen 1998 und 2013, in welcher sich die globalen Temperaturen nicht verändert haben trotz der viel beschworenen atmosphärischen CO2-Konzentrationen. Stattdessen wurde in dem Report behauptet, dass der „Stillstand“ oder die „Verlangsamung“ der globalen Erwärmung niemals existierte und dass die Temperaturen der Welt sogar noch stärker gestiegen seien als erwartet.

Obwohl Satellitenmessungen seit dem Jahr 1979 praktisch keinerlei über die normale Fehlerbandbreite hinaus gehende Änderungen feststellen konnten, ließen die manipulierten Daten jetzt das Jahr 2010 ausreichend warm erscheinen, um die Medien zu Schlagzeilen von einem Aufwärtstrend zu veranlassen. Außerdem zeigen Ballon-Aufstiege keine Erwärmung seit Ende der fünfziger Jahre, während Aufzeichnungen auf dem US-Festland seitens der zuverlässigsten Thermometer-Messpunkte – also solche, die nicht durch „Wärmeinsel“-Einflüsse oder falsche Aufstellungsorte kontaminiert sind – während der letzten 80 Jahre keine signifikante Erwärmung zeigten. Tatsächlich gab es seit den vierziger Jahren mehr Allzeit-Kälterekorde in den USA als Hitzerekorde.

Man gewöhne sich an natürliche Klimaänderungen; es gibt keine vernünftige Grundlage, diese zu leugnen. In der Zwischenzeit sollten wir nach politischen Klimaänderungen verlangen.

Link: https://www.cfact.org/2017/05/22/honest-climate-debate-means-taking-hysteria-out/

Übersetzt von Chris Frey EIKE




Fake News: Diesmal Al Gores Film, nach 10 Jahren noch immer abstrus falsch

[Einen Link zu diesem Beitrag fanden unsere Leser vor kurzem in der Übersetzung von Fox News konfrontiert Al Gore mit seinen falschen Prophezeiungen. Hier die Übersetzung des ausführlicheren Faktenchecks; der Übersetzer:

Gore warnte, zunehmende Kohlendioxid-Emissionen würden eine katastrophale globale Erwärmung hervorrufen, mehr extreme Wetter verursachen, Städte auslöschen und überhaupt den ökologischen Zusammenbruch verursachen. Um die globale Erwärmung zu stoppen, müssten die Menschen auf fossile Treibstoffe verzichten und im Grunde jeden Aspekt ihres Lebens verändern.

Das Anschauen von „Eine unbequeme Wahrheit“ ist irgendwie zurück in der Zeit zu gehen. Zurück zu einer Welt, in der Klapp-Telefone cool waren und „Futurama“ immer noch neue Episoden drehte. Eine Welt, in der ein verbitterter Präsidentschaftskandidat versuchte, sich als Kreuzzügler der Umwelt zu darzustellen.

Aber, sind die Warnungen von Gore, die im Jahr 2006 für viele alarmierend waren, wahr geworden?

Zu Ehren des bevorstehenden 10-jährigen Jubiläums hat sich die Daily Caller News Foundation „Eine unbequeme Wahrheit“ angeschaut, um zu sehen, wie gut Gores Warnungen vor der künftigen Klimakatastrophe von der Realität bestätigt wurden.

Bereits seit den späten 1980er Jahren reitet Al Gore auf der globalen Erwärmung herum, aber erst 2006 entdeckte er den Weg, um darüber Filme zu machen und in staatlich subventionierte grüne Energie zu investieren, und damit massiv wohlhabend zu werden.

Gore beginnt den Film über die Natur und springt dann zu einer Präsentation, die er hält, wo er das erste Bild zeigt, das jemals von der Erde aus dem Weltraum aufgenommen wurde. Von diesem Bild springt er direkt in alarmierende Behauptungen über die globale Erwärmung.

 

Kilimanjaro hat noch immer Schnee

Einer der ersten grellen Behauptungen, ist die über den Kilimandscharo in Afrika. Gore behauptet, dass Afrikas höchster Gipfel im Laufe des Jahrzehnts schneefrei sein wird. „Gore zeigt Dias aus den 1970er Jahren von Kilimanjaros Gipfel und den Gegensatz dazu, dass bis heute der Schnee verschwunden sein wird.

Nun, es ist schon ein Jahrzehnt her und ja, es gibt immer noch das ganze Jahr Schnee auf dem Kilimanjaro. Man muss kein Wissenschaftler sein, um dies herauszufinden. Es reicht, die neuesten Fotos auf Reise-Webseiten zu schauen.

Im Jahr 2014, untersuchten Ökologen Kilimanjaros Schneedecke und befanden sie noch nicht einmal nahe dran, weg zu schmelzen. Sie könnte ein wenig geschrumpft sein, aber die Ökologen waren zuversichtlich, dass es für die absehbare Zukunft so bleibt.

„Es gibt mehrere laufende Studien, aber vorläufige Ergebnisse zeigen, dass das Eis nirgendwo dabei ist zu schmelzen“, sagte Imani Kikoti, ein Ökologe am Mount Kilimanjaro National Park, wie er eturbonews.com erzählt.

„So wie wir uns einig sind, dass der Schnee über die Jahrhunderte zurückgegangen ist, so sehr sind wir sicher, dass das totale Abschmelzen nicht in der nahen Zukunft stattfindet.

Gore erwähnte den [damals bereits] 15-jährigen „Hiatus“ in der Erwärmung nicht

Gore behauptet auch, dass der Temperaturanstieg von der Zunahme der künstlichen Kohlendioxid-Emissionen „kontinuierlich intensiviert“ werde. Er behauptet, dass Hitzewellen häufiger werden, wie die, die im Jahr 2003 35.000 Menschen in Europa getötet haben.

Klingt schrecklich – bis man sich genau ansieht, wie sich die globale Temperatur entwickelt hat, nachdem Gores Film veröffentlicht wurde. Die globalen Temperaturen zeigten wenig bis keinen wärmenden Trend. Die Oberflächentemperaturdaten zeigen keine signifikante globale Erwärmung für einen Periode von etwa 15 Jahren, beginnend in den frühen 2000er Jahren.

Aus Satellitenaufzeichnungen abgeleitete Temperatur-Daten zeigen – bis auf die jüngsten El Niño Daten – keinen statistisch signifikanten Erwärmungstrend seit mehr als 21 Jahren.

Gores Film wurde in der Mitte der bislang noch andauernden, sogenannten Erwärmungspause veröffentlich.

Das Wetter ist nicht schlimmer geworden

Gore prognostizierte auch, dass die Stürme häufiger und intensiver werden, wenn die von Menschen verursachten Emissionen die Ozeane erwärmten.

„Und natürlich, wenn die Ozeane wärmer werden, verursacht das stärkere Stürme“, sagte Gore in seinem Film. „Im selben Jahr, dass wir diese Reihe von großen Hurrikans hatten, haben wir auch einen Allzeitrekord für Tornados gesetzt.“

Gores Film kam heraus, kurz nachdem Hurrikan Katrina die Golfküste verwüstete. Die Zerstörungen durch diesen Sturm zeigte der Film sehr ausführlich. Er erwähnt, wie die USA in den frühen 2000er Jahren mit Ausbrüchen von heftigen Stürmen getroffen wurden und wie Japan eine Rekordanzahl von Taifunen erlebte.

„Die Versicherungsbranche hat das tatsächlich bemerkt“, sagte Gore. „Ihre überwundenen Verluste steigen wieder.“

Aber Gores Behauptung ist mehr Hype als eigentliche Wissenschaft, da die Stürme seit 2006 nicht mehr extrem ausgefallen sind. Tatsächlich unterstützen nicht einmal die Erkenntnisse des IPCC Al Gores Behauptungen.

Das IPCC befand im Jahr 2013, das es nur einen „limitierten Beweis für Veränderungen zu Extremen gibt, die mit anderen Klimavariablen seit Mitte des 20. Jahrhunderts verbunden sind.“ Das IPCC fand auch „keine signifikanten beobachteten Trends in der globalen tropischen Wirbelsturmfrequenz im vergangenen Jahrhundert“ und „keine robusten Trends der jährlichen Anzahlen von tropischen Stürmen, Hurrikans und großen Hurrikans, die in den letzten 100 Jahren im Nord-Atlantik-Becken beobachtet wurden.“

Gore sollte diese Erkenntnisse vermutlich ernster nehmen, da er sich 2007 den Nobelpreis mit dem IPCC für seine Arbeit zur globalen Erwärmung teilte.

 

Der Nordpol hat noch immer Eis

Gore behauptete auch, dass die Arktis in den kommenden Jahrzehnten eisfrei sein könnte. Er sagte „innerhalb der nächsten 50 bis 70 Jahre, könnte es ganz weg sein.“

Ohne arktisches Meereis wurden Eisbären und alle möglichen arktischen Tiere bedroht, warnte Gore und zeigte eine animierte Szene eines Eisbären, der ertrinkt.

Dies ist eigentlich eine von Gores vorsichtigeren Vorhersagen – er hat im Jahr 2008 falsch vorausgesagt, dass es bis 2013 keine Arktis mehr geben würde. Aber auch in diesem Fall liegt Gore wahrscheinlich wegen der geographischen Lage der Arktis falsch.

Die Arktis ist fast vollständig von Land umgeben, so dass das dort entstehende Eis dazu neigt, dort zu bleiben. Die arktische Eisbedeckung ist in den letzten Jahrzehnten geschrumpft, aber es ist nicht wahrscheinlich, dass wir einen Sommer sehen werden, wo der Nordpol völlig eisfrei ist.

„Ich bezweifle, dass die Arktis in irgendeinem Sommer frei von Eis sein wird, obwohl die Gesamtfläche in Zukunft stark reduziert werden kann, wenn sich der Wärmetrend weiter fortsetzt“, sagte Chip Knappenberger, ein Klimaforscher am libertären Cato-Institut.

„Solch eine Situation sollte nicht übermäßig besorgniserregend sein, denn es gibt genügend Beweise dafür, dass es in der Vergangenheit bereits aufgetreten ist, und klar, Eisbären und alles andere dort oben gelang es zu überleben“, sagte Knappenberger.

Und bevor ich es vergesse, die neuesten Daten zeigen, dass die Anzahl der Eisbären aktuell zunimmt, trotz schrumpfender Eisbedeckung.

Antwort der Leser des Daily Caller

Eine Eiszeit im Style von “Day After Tomorrow”- ist noch immer einen Tag entfernt.

Erinnern Sie sich an den 2004 Blockbuster Film “ The Day After Tomorrow“? In dem Film, versiegt der Golfstrom und verursacht einen weitere Eiszeit. Der Golfstrom, sagen die Wissenschaftler, ist wichtig für die Regulierung des Klimas.

Nun, Gore weist darauf hin, dass dies geschehen könnte, wenn Grönlands Eisschild schmilzt und mehr kaltes Wasser in den Nordatlantik strömt.

„Am Ende der letzten Eiszeit, als der letzte Gletscher aus Nordamerika zurückging, schmolz das Eis und ein riesiger Pool von frischem Wasser bildete sich“, sagte Gore. “ An der östlichen Grenze bildete sich ein Eisdamm und eines Tages brach er.“

Gore sagte frisches, kaltes Wasser floss in den Nordatlantik und brachte den Golfstrom zum Versiegen, was Europa in eine weitere Eiszeit brachte. Gore schlägt dann den Bogen zum Eis in Grönland, dessen Schmelze eine ähnliche Bedrohung darstellen könnte.

Australische Wissenschaftler jedoch, entlarvten die Behauptungen, das der Golfstrom oder AMOC [atlantische, meridionale Umwälz-Zirkulation] sich abschwächen würden. „Behauptungen von Stärkung oder Abschwächung der AMOC sind daher reine Spekulationen“, schrieben sie in ihrer im März veröffentlichten Studie.

Gefunden auf The Daily Caller am 03.05.2017

Übersetzt durch Andreas Demmig

http://dailycaller.com/2016/05/03/an-inconvenient-review-after-10-years-al-gores-film-is-still-alarmingly-inaccurate/

 

Nachspann:

Al Gores Film ist wegen seiner Fehler übrigens vom High Court in England und Wales für den Schulunterricht verboten, wenn er ohne Berichtigungen gezeigt wird. In Deutschland ist er immer noch Unterrichtsstoff – Stand 2011 – und wurde m.e. vom UBA kostenlos an Schulen verteilt; der Übersetzer.

Auf Eike berichtet u.a. Günter Ederer:

https://www.eike-klima-energie.eu/2011/07/10/die-grosse-luftnummer/

 

Es gibt aber übrigens auch einen Film auf YouTube, in dem Al Gores Behauptung kindgerecht als Comic aufbereitet ist.

[Bilder wegen Copyright vorsichtshalber nicht übernommen]

Auf Amazon sind vor allem die Kritiken zu Al Gores Film das lesenswerte (oder erschreckende).