Luftmess­stationen: Aktivisten entlarven Tricksereien

Vorab sei noch kurz angemerkt, dass das Umweltbundesamt (UBA) im Rahmen seiner neuesten Veröffentlichung über angeblich 6.000 NO2-Tote und über 400.000 angebliche Diabetesfälle durch NO2 im Jahre 2014 so freundlich war, eine Grafik zu veröffentlichen, die seine eigene ständige Panikmache als Fake-News entlarvt, Bild 2.

Bild 2. Diese Grafik beweist, dass die erdrückende Mehrheit der Bevölkerung an ihren Wohnorten nur geringen NO2-Immissionen ausgesetzt ist (Grafik: UBA)

Diese vom UBA selbst in Auftrag gegebene Untersuchung dokumentiert, dass nur ein verschwindend kleiner Teil der deutschen Bevölkerung überhaupt an Orten wohnt, wo die Immissionsmesswerte den Jahresgrenzwert von 40 µg/m3 überschreiten. Schon seit 2010 gibt es selbst in der Kategorie zwischen 35 und 40 µg/m3 gar keinen Farbbalken mehr, und die Kategorie über 40 µg/m3 wird gar nicht mehr aufgeführt.

Wie das UBA aus Mücken Elefanten macht

Die in den Medien immer wieder kursierenden Behauptungen des UBA über die viel zu hohen NO2-Wert2 in Städten beruht auf einem recht simplem, aber sehr wirksamem Trick: Man platziert seit vielen Jahren einen erheblichen Teil der Messstationen nicht etwa da, wo sie für den größten Teil des Stadtgebiets repräsentativ wären, sondern gezielt dort, wo man in eng begrenzten „Hot-Spot-Bereichen“ die höchsten überhaupt aufzufindenden Messwerte finden kann. So findet sich in einer Pressemeldung des Landesumweltamtes Baden-Württemberg der Hinweis, dass schon 2006 alle Gemeinden in Baden-Württemberg gebeten wurden, sogenannte straßennahe Belastungsschwerpunkte zu melden, an denen dann sogenannte Spotmessstellen eingerichtet wurden [SPOT]. Hiervon gibt es allein in Stuttgart vier Stück, das sind 50 % aller städtischen Messstellen. Die „Belastung“ der Stuttgarter Bürger wird demnach zu einem geradezu grotesk überproportionalen Anteil aus Daten hergeleitet, die an vier räumlich eng begrenzen „Hot-Spots erfasst werden. Zudem wurden diese Messstationen immer mal wieder anders platziert: Wenn die Belastungssituation an einer Messstelle unter den Grenzwert gefallen war, wurde ein anderer Ort gesucht und gefunden, wo man noch die gewünscht hohen NO2-Werte auftreiben konnte. Vor diesem Hintergrund bekommen die jeweiligen oberen Kurven in den Teilbildern von Bild 3 und Bild 4 eine ganz neue Bedeutung.

Bild 3. So manipuliert das UBA die Öffentlichkeit mit „kreativ“ neu selektierten Informationen seiner eigenen Messstationen. Das untere Bild wurde zwischenzeitlich von der Webseite entfernt (Grafik oben: [UBAHGP], Grafik unten [UBANO2])
Das Bild 3 dokumentiert eine gleich doppelte Manipulation durch das UBA. Einerseits sind im Prinzip nur die grünen und gelben Kurven der beiden Teilbilder maßgeblich für die tatsächliche Luftqualität für vermutlich mehr als 99,98 % der deutschen Bevölkerung. Die obersten Kurven gelten nur für die „Hot-Spot“-Messstellen, die nur für einen verschwindend kleinen Bruchteil der Bevölkerung relevant sind. Obwohl beide Bilder aus dem gleichen Kalenderjahr stammen, unterscheiden sich die jeweils oberen Kurven drastisch. Grund hierfür ist die Tatsache, dass man 2016 eine „Hintergrund“-Broschüre mit dem Titel „Luftqualität 2015 Vorläufige Auswertung“ [UBAHGP] herausbrachte, deren Stoßrichtung betont alarmistisch war. Die Botschaft im Kapitel über NO2 war: „Stickstoffdioxid: Kaum Besserung gegenüber dem Vorjahr“. Da den Autoren die vorhandenen Daten wohl nicht dramatisch genug waren, wurden die Daten sowohl der mittleren als auch der oberen Kurve durch kreative Auswahl der Datensätze nach oben frisiert, damit sie besser zur Botschaft passten (man beachte hierbei auch die Farbwahl der oberen Kurve). Das untere Bild wurde mittlerweile von der UBA-Webseite entfernt, es ist jedoch nahezu deckungsgleich mit einer Fassung aus dem Jahr 2017.

Abgesehen von den oben dokumentierten Manipulationen wird insbesondere bei den „Hot-Spot“-Messstationen auch durch diverse Tricks dafür gesorgt, dass diese höhere Messwerte liefern als nach EU-Richtlinien eigentlich vorgesehen, wie von unseren ehrenamtlichen Helfern nachfolgend dokumentiert wird.

Messtationen in absteigender Reihenfolge

Die jetzt vorgestellten Meldungen wurden nach der Höhe des im Jahre 2017 ermittelten NO2-Jahresmittelwerts in absteigender Reihenfolge ausgewählt. Da einige besonders fleißige Helfer uns gleich mehrere Stationen gemeldet hatten, werden diese dementsprechend öfter genannt.

DEHH068, Hamburg-Habichtstrasse, 58 µg NO2/m3, Rangfolge 6, gemeldet von Uli W., Hamburg

Bild 4. Die Messtation in Hamburg-Habichtstrasse (Bild: Institut für Hygiene und Umwelt)

Die Habichtstrasse ist eine Hauptverkehrsader und befindet sich östlich des Hafens. Bei den vorherrschenden südwestlichen Winden wird die Gegend durch die Emissionen der Schiffe beaufschlagt. Wie bei vielen anderen Hot-Spot-Stationen mit überhöhten Werten ist die Messanlage direkt unter Alleebäumen aufgestellt, was die Durchlüftung erschwert und den Abtransport von Abgasen behindert. Zudem ist sie direkt am Straßenrand aufgestellt, wo die Abgase noch ziemlich konzentriert sind.

DEBW117 Ludwigsburg Friedrichstraße, 51 µg NO2/m3, Rangfolge 13, gemeldet von Martin S, Ludwigsburg

Bilder 5 und 6. Die Messstation Ludwigsburg-Friedrichstrasse (Bilder: Martin S.)

Die Messstelle ist in eine Nische gequetscht, weder der Freiwinkel von 270° noch der erforderliche Gebäudeabstand von mehreren Metern wurden eingehalten. Noch im letzten Jahr lag der städtische NO2-Hintergrund bei 26 μg/m³, dem Verkehr bleiben als nur 16 μg/m³. Ergänzend ist noch anzumerken, dass man bei der Messstelle auch hinterfragen kann, ob sie für 100 m Straße repräsentativ ist, denn sie liegt in einer Steigung nahe einer „Mulde“. Nimmt man an, dass NO2 eher absinkt, dann ist der Messort auch diesbezüglich ungünstig.

DEHE112 Wiesbaden Schiersteiner Straße, 50 µg NO2/m3, Rangfolge 14, gemeldet von Franz N. M.

Bild 7. Die Messstation Wiesbaden Schiersteiner Straße (Bild: Hessisches Landesamt für Umwelt und Geologie)

Angaben der HLNUG: „Die Luftmessstation Wiesbaden-Schiersteiner-Straße ist eine „Verkehrsbezogene Messstelle“. Diese Messstellen zeichnen sich durch ihre Nähe zu Straßen mit hohem Verkehrsaufkommen sowie durch ihre Platzierung in Straßenschluchten aus, wodurch die Verteilung von Schadstoffen eingeschränkt ist und in der Regel hohe Konzentrationen erreicht werden“.

Ergänzend schreibt uns Franz N. M.: „Die Messstation steht direkt an der sechsspurigen Schiersteiner Str. Hier wird die 270 Grad Regel der EU verletzt. Außerdem ist die Messstation mit ihrem Fahrbahnabstand von 20 cm nicht repräsentativ für einen größeren Luftbereich“.

DEBE064 Berlin Neukölln Karl-Marx-Str. 49 µg NO2/m3, Rangfolge 17, gemeldet von Christian F.

Bilder 8 und 9. Die Messstation Karl-Marx-Str. in Berlin-Neukölln (Bilder: Christian F.)

Die Messstation befindet sich in unmittelbarer Nähe der Einmündung Karl-Marx-Str./ Flughafenstr. Beide Straßen sind sehr stark befahren.

Zusätzliche Recherchen zeigten, dass die Station direkt am Fahrbahnrand steht und vermutlich auch nicht 25 m von der Kreuzung entfernt stehen dürfte.

DEHE037 Wiesbaden Ringkirche, 49 µg NO2/m3, Rangfolge 17, gemeldet von Franz N.M.

Bild 10. Die Messstation Wiesbaden Ringkirche (Bild: Hessisches Landesamt für Umwelt und Geologie)

Angaben der HLNUG: „Die Luftmessstation Wiesbaden-Ringkirche ist eine „Verkehrsbezogene Messstelle“. Diese Messstellen zeichnen sich durch ihre Nähe zu Straßen mit hohem Verkehrsaufkommen sowie durch ihre Platzierung in Straßenschluchten aus, wodurch die Verteilung von Schadstoffen eingeschränkt ist und in der Regel hohe Konzentrationen erreicht werden“.

Franz N. M. schreibt uns: „Die Messstation steht direkt an der Kreuzung von der fünfspurigen Rheinstraße und dem 6 spurigen Kaiser-Friedrich-Ring. Abstand zum Kaiser-Friedrich-Ring 20 Zentimeter. Sie verstößt eindeutig gegen die 25 m EU-Abstandsregelung zu Kreuzungen“.

Wie man auf dem Bild außerdem sieht, steht die Station auf dem Mittelstreifen einer Allee mit einer Doppelreihe von großen alten Bäumen mit dichten Kronen, die vor allem im Sommer den Luftaustausch sehr stark behindern. Auch bei der kreuzenden Straße handelt es sich um eine Allee mit einer Doppelreihe großer, dicht belaubter Bäume.

DENW189 Wuppertal Gathe, 49 µg NO2/m3, Rangfolge 21, gemeldet von Arnd B.

Bilder 11 und 12. Die Messstation in Wuppertal-Gathe. Während vorne gerade ein Bus abfährt, kommt hinten schon der nächste (Bilder: Google Maps mit eingefügten Markierungen)

Zur Beschreibung verweist Arnd B. auf eine Dokumentation der Messstelle durch die Deutsche Autofahrerhilfe bei Facebook: „Die Messstation befindet sich neben einer Busspur und in unmittelbarere Nähe einer Haltestelle; sie ist so positioniert, dass sie quasi im “Abgasstrahl” der dort haltenden Busse liegt. Die Bus-Frequenz ist offenbar so hoch, dass das bei Google Maps verfügbare Bildmaterial gleich 2 ankommende bzw. abfahrende Busse zeigt….In der 39. BImSchV sind u.a. folgende Kriterien für Messstationen definiert: Der Messeinlass darf nicht in nächster Nähe von Emissionsquellen angebracht werden, um die unmittelbare Einleitung von Emissionen, die nicht mit der Umgebungsluft vermischt sind, zu vermeiden. Der Ort von Probenahmestellen ist im Allgemeinen so zu wählen, dass die Messung von Umweltzuständen, die einen sehr kleinen Raum in ihrer unmittelbaren Nähe betreffen, vermieden wird. Für die gemessene Verschmutzung sollte nicht eine einzelne Quelle vorherrschend sein, es sei denn, dies ist für eine größere städtische Fläche typisch. Die Probenahmestellen müssen grundsätzlich für eine Fläche von mehreren Quadratkilometern repräsentativ sein. Die Messstation Wuppertal Gathe (VWEL) verstößt gegen diese Kriterien [der 39. BImSchgV], denn sie ist unmittelbar neben einer bedeutenden NOx-Quelle positioniert – nämlich an einer Bushaltestelle, an der im Stand (Ein- und Aussteigen der Passagiere) sowie unter Last (Wiederanfahren/ Beschleunigen der Busse) laufende schwere Dieselmotoren für erhebliche Verschmutzungen sorgen. Die dortige Überschreitung der Grenzwerte ist also ein konstruiertes Ergebnis“ [DEAFH].

DEBE063 Berlin Neukölln, Silbersteinstraße, 48 µg NO2/m3, Rangfolge 23, gemeldet von Christian F.

Bilder 13 und 14. Die Messstation Silbersteinstrasse in Berlin Neukölln (Fotos: Christian F.)

Zur Messstelle gibt Christian F. folgende Hinweise: „Die Messstation befindet sich etwa 50 cm von der Fahrbahn entfernt. Die Silbersteinstr ist eine sehr stark befahrene Straße. Die Messstation befindet sich fast an der Kreuzung Silbersteinstr./ Karl-Marx-Str. Auch die Karl-Marx-Str. ist eine sehr stark befahrene Straße“.

Auch wurde der 25-m-Abstand zur Kreuzung augenscheinlich nicht eingehalten, dafür steht die Station in einem Bereich, wo Balkone den vertikalen Luftaustausch beeinträchtigen.

Berichterstattung wird fortgesetzt

Noch nicht aufgeführte Stationen werden noch in weiteren Folgen vorgestellt, wobei die Reihenfolge vom Jahresmittelwert für 2017 abhängt.

Allen Unterstützern und Helfern sei hiermit an dieser Stelle nochmals ausdrücklich gedankt.

Fred F. Mueller

Quellen

[DEAFH] https://www.facebook.com/notes/deutsche-autofahrerhilfe/wie-überschreitungen-des-nox-grenzwertes-durch-positionierung-der-messstationen-/234007083828775/

[SPOT] https://www.lubw.baden-wuerttemberg.de/presseservice/faq

[UBAHGP] https://www.umweltbundesamt.de/publikationen/luftqualitaet-2015

[UBANO2] https://www.umweltbundesamt.de/daten/luft/stickstoffdioxid-belastung#textpart-1

[UBASTU] https://www.umweltbundesamt.de/publikationen/quantifizierung-von-umweltbedingten




Der ökologische Suizid der Osterinseln – Mythos und Realität

Kristof wiederholt den archäologischen Mythos, dass die Einheimischen der Osterinsel „ökologischen Selbstmord“ begingen, indem sie alle ihre Palmen fällten. Sie sollen die Stämme als Rollen benutzt haben, um ihre berühmten riesigen Statuen zu bewegen. Danach konnten sie keine Kanus mehr bauen, um die Fische zu fangen, die ihre wichtigste Proteinquelle waren. Schlimmer noch, er sagt, das Abholzen der Bäume führte zu so viel Bodenerosion, dass sich die meisten der Bevölkerung verhungerten oder aus Verzweiflung gegenseitig töteten.

Ein Gleichnis von Selbstzerstörung

… „Die Isolation von Ostern macht es zum deutlichsten Beispiel einer Gesellschaft, die sich selbst zerstörte, indem sie ihre eigenen Ressourcen überbeutete“, schrieb Jared Diamond in seinem Buch “ Collapse “ von 2005. „Die Parallelen zwischen der Osterinsel und der ganzen modernen Welt sind erschreckend offensichtlich.

Das bringt uns zum Klimawandel, zu den chemischen Prozessen, die wir jetzt auslösen, deren Ergebnisse wir nicht vollständig vorhersagen können. Die Folgen könnten ein transformierter Planet mit steigenden Wassern und heißem Wetter sein, sterbende Korallenriffe und saurere Ozeane. Wir fürchten um die Nahrungskette des Ozeans und sorgen uns um Rückkopplungsschleifen, die diesen Prozess irreversibel beschleunigen werden. Dennoch verhalten wir uns wie Osterinselbewohner, die ihre Bäume hacken.

Gemeinsam könnte unsere Generation auf der Erde jetzt die Geographie unseres Planeten für Tausende von Jahren neu gestalten.

Dieser Mythos verschleiert die Auswirkungen der Kleinen Eiszeit auf die Osterinseln und ignoriert die unvermeidliche Realität, dass unsere kommenden Generationen relativ bald mit einem weiteren eisigen Zeitalter konfrontiert sein könnten, das unsere Technologien auf eine harte Probe stellen wird. Die kalten Jahrhunderte können sogar die vom Menschen verursachte globale Erwärmung attraktiv erscheinen lassen!

[Einschub:

Eine differenzierte Meinung wird auch in der  „Welt“ gebracht. Ratten hätten die Pflanzensamen gefressen.

Woher haben die Osterinseln ihren Namen?
Ihren Namen bekam die Insel vom niederländischen Seefahrer Jakob Roggeveen, der sie am Ostersonntag des Jahres 1722 entdeckt hat.]]

Die Bewohner der Osterinseln schneiden nie ihre Palmen! Nach ihren kulturellen Legenden, als die Kanus der Polynesier um 1000 n. Chr. Ostern erreichten, war die Insel mit Gräsern bedeckt. Es gab nur wenige Palmen. Moderne Pollenstudien bestätigen dies und zeigen, dass die Insel in der Antike Palmen hatte – aber die meisten starben in den kalten Dürren des Mittelalters (600-950 n. Chr.). Die wenigen überlebenden Palmen starben während der Kleinen Eiszeit, nachdem die Polynesier die Insel besiedelt hatten. Die letzte Palme ging ein um 1650.

Kristof scheint die tödliche Kraft des kalten, chaotischen, kohlendioxidarmen Klimas in diesen „kleinen Eiszeiten“ nicht zu verstehen.

Die Inselbewohner hätten ohnehin keine Palmenstämme für Kanus benutzt. Die Polynesier wussten, dass Palmenstämme viel zu schwer sind. Kanus müssen auf den Wellen gleiten, auch wenn sie schwere Lasten tragen. Die Polynesier machten ihre Kanus aus den viel leichteren Toromiro-Bäumen, deren Setzlinge sie von den Marquesas-Inseln mitgebracht hatten.

Bodenerosion? Die Osterinsulaner mussten keine Bäume von ihrem Land räumen, um Taro, Yamswurzeln und Süßkartoffeln anzubauen. Sie pflanzten die Knollen zwischen den Stümpfen kleinerer Bäume, die für den gelegentlichen Hausbau geschnitten wurden. Die gefällten Bäume wuchsen aus ihren lebenden Stümpfen wieder auf; ihre Wurzelsysteme blieben lebendig und schützten den Boden weiter. Tatsächlich schützten die landwirtschaftlichen Techniken der Inselbewohner den Boden noch besser als auf dem Festland bis zur Einführung der modernen Direktsaat.

Kein Fisch zum Essen? Ein Leutnant der U.S. Navy, der die Osterinseln 1886, kurz nach dem Ende der Kleinen Eiszeit, besuchte, berichtete, dass die Einheimischen riesige Mengen an Meeresfrüchten aßen! Die meisten Fische wurden mit kleinen Küstenkanus gefangen, wobei Steinfische sehr beliebt sind. Die Einheimischen spießen auch Delfine in die Untiefen, nachdem sie das berühmte „Sonar“ der Tiere durch das Klatschen von Steinen verwirrt hatten. Flusskrebse und Aale gab es in den Felsspalten der Küste, und fliegende Fische schleuderten sich selbst an die Strände. Schildkröten und Schalentiere waren reichlich vorhanden.

Die Inselbewohner töteten sich auch nicht gegenseitig in Hungerkriegen – obwohl die Süßkartoffelernte spärlich war und die Bevölkerungszahl während der kalten Dürre in der Kleinen Eiszeit zurückging.

Was ist mit der Osterbevölkerung passiert? Die Wahrheit ist ein abscheulicher Blick auf die Ausbeutung einiger der schwächsten Menschen auf der Erde durch einige der Mächtigsten der [damaligen] Zeit. Peruanische Sklavenjäger brachten die meisten Männer im 18. Jahrhundert nach Peru, um Schiffsladungen mit Seevogelmist (Guano) von den dort vorgelagerten Inseln abzugraben, um Europas Felder zu befruchten. Schreckliche Zustände, Überarbeitung und europäische Krankheiten töteten die meisten der entführten Sklaven.

Die Empörung der peruanischen Bürger über diese Misshandlungen zwang die Behörden schließlich dazu, die wenigen Überlebenden zurückzugeben. Leider trugen die Überlebenden die Pocken zurück nach Ostern. Nur wenige Einheimische überlebten die folgende Epidemie. Später steckten wohlmeinende Missionare die Bewohner mit Tuberkulose an.

Die letzte Katastrophe war die Verpachtung der Grasflächen der Insel an weiter weg wohnende Schäfer für die Beweidung. Die Schafe zerstörten die letzten der Toromiro-Bäume, während die überlebenden Eingeborenen (unglaublich) hinter Stacheldraht eingesperrt wurden – bis 1960 – als schließlich die Welt davon erfuhr und die Sache verurteilte.

Kristof, der vielleicht seine Osterinsel-Mythen aus Jared Diamonds fehlgeleitetem Buch „Collapse“ erhalten hat, schätzt die nachhaltigen Traditionen der polynesischen Siedler im Südpazifik nur als gering ein. Ihre aufschlussreiche Tradition bestand darin, eine Ressource nicht schneller zu verbrauchen, als sie sich selbst wiederherstellen konnte.

Mutter Natur, nicht die Polynesier, zerstörten die Bäume. Es passierte immer wieder: in der eisenzeitlichen Abkühlung, im kalten Mittelalter und dann wieder in der kleinen Eiszeit. Auch war Mutter Natur nicht „fahrlässig“. Die Natur reagierte auf die uralten Befehle der Sonne, die Gravitationsfelder der vier größten Planeten und die anderen mächtigen Naturkräfte, die seit jeher das Klima der Erde bestimmen.

Dieselben planetarischen Muster bestimmen auch unsere Zukunft, ob wir wollen oder nicht. Ein weiteres „Eiszeitalter“ wird unweigerlich unsere gegenwärtige und relativ unterstützende Klimawärme und -stabilität ersetzen. Das wird wahrscheinlich (hoffentlich) erst in einigen Jahrhunderten eintreffen. Unsere aktuelle Erwärmungsperiode ist erst 150 Jahre alt; die kürzeste Dansgaard-Oeschger-Warmphase war das Mittelalter, das 350 Jahre dauerte.

Die Osterinsulaner waren technologisch in der Lage (wenn auch kaum), ihre Gesellschaft durch die Klimazyklen der Natur zu erhalten. Andernorts überlebten Nomaden aus der Schwarzmeerregion das letzte Gletschermaximum (bei Temperaturen unter -40 Grad Celsius), indem sie Zelte aus Mammutfellen bauten, um die Kälte zu überleben, während sie den wandernden Mammutherden folgten. Diese riesigen pelzigen Tiere waren selbst gezwungen, auf Wanderschaft zu gehen, da die Eiszeit das Gras in eine weniger nahrhafte Tundra verwandelte.

nsere Vorfahren entdeckten die Landwirtschaft erst vor etwa 10.000 Jahren, was als die wichtigste Entwicklung in der gesamten Menschheitsgeschichte anzusehen ist. Die Landwirtschaft erlaubte es den Menschen schließlich, mehr als nur herum streunende Banden auf Jagd zu werden, die ihre Babys und spärlichen Habseligkeiten auf dem Rücken trugen. Durch Arbeitsteilung konnten sie mehr Menschen ernähren, Sprachen erschaffen, Tempel, Städte und Handelsschiffe bauen und Industrien gründen, die Gegenstände aus Kupfer, Bronze und dann Eisen herstellten.

Kollektives Lernen hat uns nun an den Punkt gebracht, an dem wir Ressourcen schaffen, anstatt sie nur zu finden. Denken Sie an Stickstoffdünger, der zu 78% aus der Luft gewonnen und dann durch natürliche Prozesse wieder in die Atmosphäre zurückgeführt wird. Denken Sie an Computerchips und Glasfaserkabel aus Silizium, das auf Sand basiert.

Wir sind nicht mehr dazu verdammt aufzuwachsen, nur um irgendwann wieder an Krankheiten zu sterben. Unsere Herausforderung besteht heute nicht darin, die harte und unsichere Abhängigkeit von Mutter Natur und ihrem tödlichen Klima zu meistern. Vielmehr können und müssen wir uns auf das nächste „Eiszeitalter“ vorbereiten, von dem wir wissen, dass es kommen wird – indem wir unser kollektives Lernen fortsetzen, eine natürliche Weisheit anwenden und uns nicht von den fossilen, nuklearen und anderen zuverlässigen, erschwinglichen Energiequellen abwenden, die unsere Industrien, unsere Gesundheit, Innovationen und unseren Lebensstandard ermöglicht haben.

Mr. Kristofs Mythologie führt uns zurück in die Unwissenheit, nicht vorwärts.

Dennis Avery ist Co-Author des New York Times best-seller “Unstoppable Global Warming: Every 1,500 Years mit dem Atmosphärenphysiker Fred Singer. Sein nächstes Buch ist betitelt „Climates of Collapse: the Deadly “Little Ice Ages.”

Erschienen auf Wattsupwiththat am 07.04.2018

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2018/04/07/easter-islands-ecological-suicide-myths-and-realities/




Kommen irgendwann die Autos mit Brennstoffzellen-Antrieb?

 Dabei lässt sich Wasserstoff aus erneuerbaren Quellen relativ leicht herstellen und obendrein gut speichern. Und der Strom der Akku-Autos kommt immer noch zum großen Teil aus „schmutzigen“ fossilen Quellen.

Doch halt! Im Umfeld der Olympischen Winterspiele 2018 in Pyeongchang hat die südkoreanischen Autofirma „Hyundai“ eine Miniserie von fünf Geländewagen, (sprich: SUV), aufgelegt, die allesamt durch eine Brennstoffzelle angetrieben werden. Die Autos mit der Bezeichnung „Nexo“ waren während der Spiele mehrere Wochen störungsfrei in Betrieb. Wenn sie im Sommer an die normale Kundschaft ausgeliefert werden, können sie fahrerlos ein-und ausparken und auf der Autobahn selbstständig Abstand und Spur halten. Die Reichweite zwischen den Tankstopps beträgt derzeit 550 Kilometer; in 9,2 Sekunden beschleunigt der SUV von Null auf 100 km/h. Den Verkaufspreis wollen die Koreaner unter 60.000 Euro halten.



Die Brennstoffzelle und ihre Tanks


Die Brennstoffzelle eines Autos ist eine galvanische Zelle, zumeist eine Wasserstoff-Sauerstoff-Brennstoffzelle. Die Brennstoffzelle ist kein Energiespeicher, sondern ein Wandler. Erfunden wurde sie bereits 1838, also vor knapp zweihundert Jahren, von dem Deutschen Christian Friedrich Schönlein,wobei dieser zwei Platindrähte mit Wasserstoff bzw. Sauerstoff umspülte und dabei zwischen den Drähten eine elektrische Spannung registrierte.

In Fahrzeugen kommt heutzutage praktisch nur noch die sog. PEM (=Polymer-Elektrolyt-Membran) -Brennstoffzelle zum Einsatz. Eine Membran trennt die vom Wasserstoff (H2) umspülte Anode von der Kathode mit dem Sauerstoff (02).  An der Anode trennen sich die Wasserstoffmoleküle in Ionen und Elektronen. Die Ionen wandern durch die PEM zur Kathode und verbinden sich dort mit dem  Luftsauerstoff zu Wasser – der einzigen und ökologisch problemlosen Emission. Weil die Membran für die Elektronen undurchlässig ist, müssen sie auf ihrem Weg zur Kathode einen Umweg über eine Leitung gehen. Die „wandernden“ Elektronen führen dann zu einem Stromfluss, der direkt von den Elektromotoren des Autos zum Antrieb genutzt wird.

Derzeit gibt es in Deutschland nur 43 Tankstellen, an denen Wasserstoff getankt werden kann. Bis Ende 2018 soll sich die Zahl verdoppeln. Beim Nexo strömen in fünf Minuten 6,3 Kilogramm Wasserstoff in drei große Karbontanks, die unter dem Kofferraumboden und dem Rücksitz montiert sind. Angesicht der bislang raren Tankstellen in Deutschland relativiert sich die oben genannte beträchtliche Reichweite des Nexo.

Erfahrungsgewinn beim Betrieb von Omnibussen

Um Erfahrungen beim Alltagsbetrieb von Fahrzeugen mit Brennstoffzellen zu sammeln, nahm das „Karlsruher Institut für Technologie“ (KIT) im Jahr 2013 zwei Omnibusse in Betrieb. Damit wurde ein fahrplanmäßiger Linienverkehr zwischen den beiden ca. 15 km entfernten  Standorten Nord und Süd des KIT aufgebaut, wodurch täglich ca. 800 Mitarbeiter und Studenten befördert werden. Am Campus Nord (früher Forschungszentrum Leopoldshafen) wurde eine Wasserstofftankstelle eröffnet, die in der Lage ist, 80 Kilogramm Wasserstoff pro Tag abzugeben, was in etwa drei Busladungen entspricht. Die Betankung der sog. „KIT-Shuttle“ dauert im Schnitt 20 Minuten. An 200 Arbeitstagen werden ca. 160.000 Passagiere pro Jahr befördert. Die Fahrleistung der Busse im Jahr 2016 betrug 92.000 Kilometer. Die Erfahrungen mit der Tankstelle und dem Linienbetrieb sind sehr gut. Das Vorhaben wird vom baden-württembergischen Umweltministerium mit 3,2 Mio Euro pro Jahr gefördert. Künftig soll vermehrt Wasserstoff aus erneuerbaren Energien verwendet werden.

Historisches und Aktuelles


Die Forschung an Brennstoffzellen wurde im ehemaligen Kernforschungszentrum Karlsruhe (KfK) bereits zu Anfang der 1990er Jahre betrieben. Nicht ohne Erfolg, denn ein LKW mit diesem Antrieb drehte damals vielbeachtet seine Runden im Zentrum und (dank einer Straßenzulassung) auch außerhalb.  Sinnigerweise wurde der ganze Aufwand finanziert aus dem – thematisch weit entfernt liegenden – Schnellbrüterbudget des Blogautors. Als Experimentatoren und Promotoren sind die Herren Dorner, Schretzmann, Kessler und Hennies zu nennen. 


Enge Kontakte gab es damals zur Firma Mercedes-Benz, die 1994 mit NECAR 1das erste Brennstoffzellenauto der Welt präsentierte. Der Prototyp ist heute noch im Mercedes-Museum in Stuttgart zu besichtigen. Bald waren alle großen Autohersteller (GM, Ford, Fiat, Nissan, VW, BMW) an diesem Thema dran – aber nach kurzer Zeit setzten sie doch lieber auf den billigeren Diesel. In diesem Jahr will Mercedes – vielleicht – endlich den oft angekündigten GLC F-Cell auf den Markt bringen. Vielleicht als Kleinstserie.

Mittlerweile haben in Asien bereits drei Marken Wasserstoffautos in ihrem Portfolio:
Honda mit dem Clarity, Toyoto mit dem Mirai und Hyundai mit dem Nexo.
Die deutschen Entwicklungschefs mögen den verlorenen 25 Jahren nachtrauern.
Die Asiaten haben ihre modernen Antriebe im Verkaufsprospekt –
das Mercedes-Brennstoffzellenauto steht im Museum.

Der Beitrag erschien zuerst im Blog des Autors hier




Gegner von Trump attackieren nun die Leute um Trump herum

Pruitt geriet Anfang dieses Jahres unter Beschuss, weil er mehr als 100.000 US-Dollar für Flugreisen erster Klasse ausgegeben hatte, was nach Angaben der EPA auf Sicherheitsbedenken zurückzuführen war. Die Reise nach Italien zum G7-Gipfel kostete $ 120.000-für die rund 10 köpfige Gruppe, aber das war erst der Anfang der Medienprüfung.

Washington Post:

… „Die Sicherheitsdetails von Administrator Pruitt für das G-7-Umwelttreffen in Italien sind die gleichen, die auf bei den Reisen der vorherigen EPA-Administratoren Stephen Johnson, Lisa Jackson und Gina McCarthy nach Italien verwendet wurde“, sagte EPA-Sprecher Jahan Wilcox in einer E-Mail. „Die Sicherheitsverfahren der EPA sind in den letzten 14 Jahren nicht geändert worden.“

Das Weiße Haus untersucht bereits Pruitts Übernachtungsarrangements, nachdem eine Reihe von Medienberichten darauf hinwiesen, dass der ehemalige Generalstaatsanwalt von Oklahoma für 50 Dollar pro Nacht ein Zimmer von einer Ehefrau in DC gemietet hatte, deren Mann für die Energiebranche tätig ist. Es gibt bereits Berichte, dass der Stabschef des Weißen Hauses, John Kelly, Pruitt von seinen Pflichten entbinden wollte.

Ein Nebenschauplatz kam mit der Enthüllung des The Atlantik, dass Pruitt eine Regelung des Safe Drinking Water Act verwendet hatte, um die Gehälter zweier Mitarbeiter zu erhöhen, ohne die Zustimmung des Weißen Hauses einholen zu müssen. Die Gehaltserhöhung war Berichten zufolge, vorher von Offiziellen des Weißen Hauses zurückgewiesen worden. Obwohl nicht illegal, erregte Pruitts Handlung den Unmut von EPA-Mitarbeitern und Beamten des Weißen Hauses.

Pruitts angemietete zwei-Zimmer Wohnung in Capitol Hill gehört teilweise der Frau von J. Steven Hart von der Firma Williams & Jensen. Pruitt bezahlte nur für die Nächte, in denen er das Zimmer tatsächlich nutzte, er zahlte insgesamt $ 6.100 für die ungefähr sechs Monate, in denen er dort wohnte, berichtete Bloomberg.

Justina Fugh, Leiterin der Rechtsabteilung bei der EPA, sagte gegenüber Bloomberg: „Die Mietvereinbarung war kein ethisches Problem, weil Pruitt Miete gezahlt hat“. Die EPA veröffentlichte eine Notiz des leitenden Ethik-Beauftragten der Behörde über den Mietvertrag.

„Wie die Beamten der EPA Rechtsabteilung erklärten, war die Unterbringung von Administrator Pruitt für sich und die Familie kein Geschenk und der Mietvertrag entsprach den compliance Vorschriften für Beamte der Regierungsbehörde“, sagte der Sprecher der EPA, Jahan Wilcox.

Die „Environmental Integrity Project Gruppe“, [eine aktivistische Umweltbewegung, NGO] die sich um die Aufdeckung von Pruitt Reisen bemüht, argumentierte, dass der Betrag von [nur] 50 US-Dollar je Nacht ein Annahmeverbot von Geschenken für Bundesangestellte verletzen könnte, das bei 20 US-Dollar beginnt.

Die Gruppe Public Citizen bat das Büro des Generalinspekteurs der EPA, dies zu untersuchen [PC ist eine linke progressive Interessenvertretung für Verbraucherrechte, Ihre Methoden sind Lobbying, Rechtsstreitigkeiten und Appelle, Medienaufmerksamkeit, Aufrufe].

Paul Krugman, Kolumnist der New York Times, ging so weit zu argumentieren, dass Pruitt Bezahlung für einen Schlafplatz eine Bestechung darstellt.

Krugman stellt jedoch wahrscheinlich das Extrem in diesem Fall. Es ist nicht wirklich klar, wie man daraus eine Bestechung konstruieren kann, wenn Pruitt eine Miete für ein Zimmer zahlt, die für diese Gegend von DC im üblichen Bereich liegt.

„Er hat einen fairen Preis bezahlt, für die gelegentliche Nutzung eines Zimmers“, sagte Fugh zu Bloomberg. „Ich glaube nicht einmal, dass die Tatsache, dass das Haus einer Person gehört, deren Job es ist, ein Lobbyist zu sein, uns Sorge bereitet.“

Die New York Times berichtete am Montag [den 02.04.2018], dass Pruitt die Wohnung von Harts Frau gemietet hatte, während die EPA über die Umweltgenehmigung für ein Pipeline-Projekt von Enbridge [Unternehmen für Pipelines] entschied. Enbridge hatte die Beratungsagentur Williams & Jensen engagiert. [Ehemann J. Steven Hart ist Vorsitzender von Williams & Jensen, eine Agentur für große Umwelt- und Energiekonzerne]

Wiederum argumentierten die Pruitt-Kritiker, dass „wenn schon keine spezifischen Gefälligkeiten verlangt oder gewährt werden, kann es den Anschein eines Konflikts schaffen. Der Eintritt in diese Vereinbarung veranlasst eine vernünftige Person, die Integrität der EPA-Entscheidung in Frage zu stellen“, sagte Don Fox, ehemaliger Leiter der Rechtsabteilung unter Obama und Bush gegenüber NYT.

Die Lobbying-Offenlegungen, die von der NYT präsentiert werden, zeigen jedoch nicht, dass Williams & Jensen sich tatsächlich bei der EPA im Auftrag für ihre Kunden einsetzte (~ lobbying). Die Agentur interveniert nicht bei der Umweltbehörde für ihre Kunden.

Erschienen auf The Daily Caller am 03.04.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/04/03/scott-pruitt-negative-press-coverage/




Klimachaos-Behaup­tungen lösen weiter­hin Betroffen­heit aus

Die Vorwürfe lesen sich phasenweise, als ob sie von einem Monty Python Comedy Team und ein paar Jurastudenten im ersten Semester geschrieben worden sind. Die beklagten Unternehmen sollen „konspiriert“ haben, um gefährliche Treibstoffe herzustellen, heißt es in der Klageschrift, und sie sollen dabei „dem Drehbuch von Big Tobacco“ gefolgt sein, während sie „Leugner-Gruppen“ finanzieren, damit diese die „etablierte“ Klimawissenschaft in Frage stellen, die „beispiellosen“ Risiken der vom Menschen verursachten globalen Erwärmung „herunterspielen“ sowie „unbegründete Angriffe gegen die Integrität“ führender „Konsens“-Wissenschaftler führen.

Und weiter: „Farbige Personen“ und andere „sozial verwundbare“ Individuen werden am stärksten betroffen sein. (Dabei dürften diese Personen viel mehr durch die Klimapolitik geschädigt werden, treibt diese doch die Preise von Energie und Nahrungsmitteln hoch).

Die Anwälte von Oakland greifen scharf den Astrophysiker Wei Hock „Willie“ Soon an, weil er die unverzeihliche Sünde begangen hat zu fragen, ob nicht die Sonne irgendetwas mit Klimawandel zu tun hat. Sie bekamen nicht einmal seinen Ph.D. richtig hin. Sie nennen ihn „Raumfahrt-Ingenieur“ und behaupteten, dass er persönlich der Empfänger von 1,2 Millionen Dollar sei, die in Wirklichkeit an die Harvard University geflossen sind (dies geht eindeutig aus vielen, leicht zugänglichen Dokumenten hervor).

Sie erwähnen nicht einmal ansatzweise die Milliarden Dollars der Steuerzahler, welche Jahr für Jahr unter Forscher und Aktivisten aufgeteilt worden sind, welche die alarmistischen Standpunkte bzgl. globale Erwärmung und erneuerbare Energie vorantreiben.

Oakland und seine Mitstreiter erwarten, dass der Gerichtshof ihre Behauptungen eins zu eins akzeptiert als „etablierte“ Wissenschaft. Es bestehe ihnen zufolge kein Bedarf, Beweise aus der realen Welt als Stützung dieser Behauptungen zu präsentieren. Sie betonen allen Ernstes besonders, dass steigende Meeresspiegel und die daraus folgende „unmittelbare Bedrohung durch katastrophale Flutwellen“, welche von Computermodellen „projiziert“ werden, jetzt via fossile Treibstoffe der primäre oder alleinige Treiber des Klimawandels sind, welche die Sonne, kosmische Strahlen, Meeresströme und andere mächtige Naturkräfte ersetzt haben, welche „zuvor“ für Klimawandel verantwortlich waren.

In ihrer Klage gegen fünf große Ölunternehmen ignorieren sie die Tatsache, dass die Unternehmen nur sehr wenig des Treibstoffes verbrennen, den sie erzeugen. Es sind die Stadtregierungen der Kläger und deren Wähler, welche nur zu glücklich waren, seit über einem Jahrhundert Öl und Erdgas zu verbrennen, um ihre Autos zu fahren, um zu heizen, kühlen, beleuchten sowie ihre Büros und Wohnungen zu erleuchten und zu elektrifizieren – und überhaupt erst ihre Industrie, ihre Kommunikation, Gesundheit und Lebensstandards ermöglichten.

In dem Prozess sind sie es, die das Pflanzen düngende CO2 erzeugt haben, welches vermeintlich die Ursache der beispiellosen globalen Erwärmung sein soll, die Ursache schmelzender Eiskappen und steigender Meeresspiegel. Kohlenwasserstoffe befeuern auch die unabdingbaren Stromgeneratoren der Wind- und Solareinrichtungen in Kalifornien – und liefern Rohmaterialien für Stoffe, Plastik, Gemälde, Pharmaprodukte und zahlreiche andere Erzeugnisse, welche die Kläger jeden Tag nutzen.

Genauso problematisch für die Kläger ist, dass die „etablierte Konsens“-Wissenschaft, die sich wie ein roter Faden durch die gesamte Klageschrift und die Aussagen vor Gericht zieht, immer unsicherer und immer hitziger debattiert wird. Der Wissenschaftler am Heartland Institute Joe Bast weist darauf hin, dass selbst das IPCC höchstselbst inzwischen zahlreiche Zweifel und Unsicherheiten einräumt hinsichtlich der Rate des Meeresspiegel-Anstiegs, der Rolle von CO2, den Ursachen und der Dauer des „Stillstands“ der globalen Erwärmung, welcher inzwischen schon 23 Jahre andauert. Tatsächlich ist die Temperaturspitze des starken El Nino 2015/16 weitgehend wieder verschwunden, und Ozean und Atmosphäre kühlen sich wieder fortgesetzt ab.

Die Ölunternehmen haben sich entschlossen, gar nicht so viel Klimawissenschaft in dem Verfahren heranzuziehen. Allerdings haben Lord Christopher Monckton, Will Happer, Richard Lindzen und deren Kollegen Fragen angesprochen über Gleichgewichts-Klimasensitivität [auf Deutsch beim EIKE hier] und damit zusammenhängende Dinge, und zwar in Sachverständigen-Gutachten für das Gericht.

Die Behauptung von Oakland, der zufolge die Ölunternehmen „konspirierten“, um „die Wissenschaft“ zu globaler Erwärmung und Klimawandel zu verstecken und falsch darzustellen, steht auf sehr dünnem Eis. In einigen Berichten heißt es, dass Richter Alsup diese Behauptungen zurückwies oder urteilte, dass die Kläger keinen Beweis dafür erbringen konnten, dass es eine Konspiration gab. In jedem Falle wird es eine Entscheidung zu all dem geben, die verlierende Partei wird Revision einlegen, und der ganze Fall wird wahrscheinlich vor dem obersten US-Gerichtshof landen.

Inzwischen verursachen Klimachaos-Behauptungen in einigen Kreisen weiterhin Betroffenheit. Zu viel Geld, Macht, Prestige, Kontrolle und Wohlstands-Umverteilung steht auf dem Spiel, so dass kaum ein anderer Weg denkbar ist.

Tatsächlich nutzen Viele in dem Klima-industriellen Komplex im Wert von 1,5 Billionen Dollar pro Jahr diesen Fall (und gleichermaßen dehnbare Mantras von „Nachhaltigkeit“), um den Kapitalismus freier Märkte durch eine totalitäre Eine-Welt-Regierung zu ersetzen; fossile Energie und Kernkraft (welche zur Zeit 85% der verbrauchten Energie in den USA und global ausmachen) durch teure, Land fressende Wind-, Solar- und Bioenergie zu ersetzen sowie die Hoffnungen und Träume armer Menschen auf der ganzen Welt durch eine Politik zu zerschlagen, die es nur in sehr geringem Umfang gestattet, dass sich deren Lebensstandard verbessert.

Tatsächlich versteigen sich die Klimawandel-Chaoten dazu, nicht nur Kohlendioxid und Methan für eine runaway-globale Erwärmung verantwortlich zu machen, sondern auch Asthma-Inhalatoren und Fleischdiäten. Die Folgen hiervon sind nicht nur steigender Meeresspiegel, wärmeres und kälteres Wetter, nassere und trockenere Zeiten, Waldbrände, nicht existierendes Massenaussterben und anderen oftmals erwähnte Pseudo-Kataklysmen. Auch kleiner werdende Tiere, eine immer schlimmere Drogenkrise sind enthalten, ebenso wie die endlose Litanei oftmals erheiternder Beschwerden und Katastrophen, gelistet in The Warmlist und deren video counterpart.

Die „Lösung“ besteht nicht darin, die fossile Treibstoffe einfach im Boden zu lassen. Sie besteht auch in der Akzeptanz ausgeprägter Änderungen des Lebensstils sowie des Verzehrs klimafreundlicher Insekten (gilt nicht für die herrschenden Eliten, sondern nur für uns Normalverbraucher).

Und die wirklichen Auswirkungen der Furcht vor dem Klima-Kataklysmus sind nicht nur immer höhere Preise für immer weniger, unzuverlässigeren, das Netz destabilisierenden „grünen“ Strom. Darunter sind auch die Notwendigkeit Abenteurer zu retten, welche versuchen, über das vermeintlich schmelzende Eis in Arktis und Antarktis zu segeln, mit Motorschlitten zu fahren oder zu wandern – nur um dann gerettet werden zu müssen, weil sie gestrandet sind, Frostbeulen davontragen und ihre Schiffe in rapide gefrierendem Eis festsitzen.

Was also sollen die strammen Statthalter der Klimakatastrophe tun, wenn Temperaturen und Meeresspiegel es ablehnen, den Reden Al Gores sowie „Projektionen“ von Computermodellen und „Szenarien“ zu folgen? Oder wenn Vorhersagen über immer mehr Hurrikane eine rekordlange Zeit von 12 Jahren folgt, ohne dass irgendein Sturm der Kategorie 3 bis 5 auf das US-Festland übergreift?

Eine Strategie besteht darin, Diskussionen mit allen abzulehnen, welche die düsteren Hypothesen, Daten oder Schlussfolgerungen hinterfragen. Eine andere Strategie ist es, Originaldaten zu „homogenisieren“, zu „korrigieren“ und zu manipulieren, damit die Temperaturen der Dust Bowl-Ära [= die dreißiger Jahre im vorigen Jahrhundert in den USA, Anm. d. Übers.] nicht so warm daherkommen – und damit die langen und bitterkalten Winter der letzten Jahre nicht so kalt erscheinen. Zu diesem Zweck wurden Aufzeichnungen lokaler Temperatur-Messpunkte um bis zu 1,7 Grad Celsius adjustiert (hier).

Was die zahlreichen Artikel und Studien betrifft, welche bei WattsUpWithThat.com, DrRoySpencer.com, ClimateDepot.com, ClimateChangeReconsidered.org und anderen Sites veröffentlicht werden, welche sich auf Klimastudien und Forschungen auf der Grundlage von beweisen konzentrieren und welche Behauptungen wie jene in Frage stellen, auf welche sich die Klage von Oakland stützt – die immer häufiger ergriffene Strategie besteht darin, Algorithmen und andere Taktiken anzuwenden, um entsprechende Arbeiten ganz an das Ende von Suchmaschinen-Anfragen zu stellen. Lange Listen alarmistischer Behauptungen, Artikel und Perspektiven erscheinen zuerst, es sei denn, ein Student oder ein anderer Forscher gibt sehr spezifische Suchbegriffe ein. Selbst die großen Schwachpunkte von Windenergie [auf Deutsch beim EIKE hier] sind schwer zu finden, wenn man nicht ganz genau weiß, wonach man sucht.

Google, Facebook, You Tube und andere Such- und Sozialmedien scheinen sich zu Schiedsrichtern aufgeschwungen zu haben, zu welchen Fakten und Realitäten wir Zugang haben dürfen, was unsere Kinder lernen sollen. Sie helfen dabei, Wissenschaftler zu stigmatisieren und zu schikanieren, deren Forschungen oder Standpunkte nicht zu akzeptierten linken Perspektiven passen. Sie haben sogar professionelle Werbeträger engagiert, um die Reden politischer Gegner zu kontrollieren.

Und all das seitens der Champions der freien Rede, von Toleranz, Diversität und Inklusion. Nicht vergessen:

Es geht nicht darum, ob sich unser Planet erwärmt oder ob sich Wetter und Klima ändern. Es geht darum, welche Ursachen diese Fluktuationen haben, wie viel davon auf fossile Treibstoffe und wie viel auf natürliche Kräfte zurückgeht, und darum, ob irgendwelche kommenden Änderungen genauso katastrophal sind, wie es durch natürliche Kräfte in der Vergangenheit schon oft vorgekommen ist (man stelle sich einmal vor, wie es unseren Städten, Bauernhöfen und der Menschheit gehen würde, falls es zu einer weiteren Pleistozän-Eiszeit kommen sollte).

All dies unterstreicht wieder einmal, warum Amerika und die ganze Klimawissenschaft ein „Red Teams“ braucht, mehr Klima-Bildung auf der Grundlage von Beweisen und eine Umkehr der willkürlichen, von Obamas EPA in den Raum gestellten Behauptung, wonach Kohlendioxid-Emissionen irgendwie das menschliche Wohlergehen und den Wohlstand gefährden.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of books and articles on energy and environmental policy.

Link: https://www.iceagenow.info/climate-chaos-claims-continue-causing-consternation/

Übersetzt von Chris Frey EIKE




Lesegewohnheiten und Korrekturen: Zombie-Fakes und geheime Absprachen, die sich weigern zu sterben

Man kommt nicht um die Tatsache herum, dass wir Nachrichten anders aufnehmen als unsere Großeltern. Die Online-Nachrichtenverbreitung hat ihre Vorteile (Geschwindigkeit, Interaktivität, Reichweite), weist aber auch Probleme auf, von denen die weitverbreitete und unkontrollierte Wiederholung von falschen Geschichten die vorherrschende ist. Die Medienkritikerin der Washington Post und frühere Redakteurin der New York Times, Margaret Sullivan, fasst das Problem klar zusammen:

 „Korrekturen sind wichtig und stellen oft die Trennlinie zwischen einer verantwortungsvollen Nachrichtenorganisation und einer unverantwortlichen dar. Aber sie bekommen selten einen Bruchteil der Aufmerksamkeit, die der ursprüngliche Fehler bekommt. Es ist unmöglich, den Geist in die Flasche zurückzubringen. „

 

Bring‘ Sensationen, keine Fakten

Die Unterschiede in der Aufmerksamkeit der Leser von Korrekturen gegenüber dem ursprünglichen Fehler erzählen die Geschichte, aber die Medien Think Tanks und Beobachter haben sich noch nicht auf dieses Thema konzentriert. Im Jahr 2009 versuchte die Harvards Nieman Foundation, Online-Korrekturen in den Griff zu bekommen, und wies lediglich auf die noch bestehende Legacy-Newsroom-Dynamik hin [m.e.: … die zu korrigierende Nachricht ist „schon alt“; der Übersetzer], nämlich: die Unwilligkeit zu erkennen, dass Fehler zahlreich sind; Zögern, Korrekturen anzubieten; und dass Leserbeschwerden oft ignoriert oder abgelehnt werden. Aber das sind seit langem bestehende Probleme, die nicht nur für Online-Inhalte typisch sind, sondern allgemein auch für die Kultur der Nachrichtenredaktionen gültig. (Als Nachrichtenredakteurin habe ich [Margaret Sullivan] einmal eine Geschichte in Auftrag gegeben, die korrigiert werden sollte, und der verärgerte Reporter, der sich geirrt hat, hat seitdem nicht mit mir gesprochen. Das war vor acht Jahren).

Der Bericht von Nieman von 2009 endete mit der Beobachtung, dass „… der mittlerweile legendäre Anspruch besteht, dass die interaktive Natur der digitalen Medien dazu führt, dass Fehler schneller identifiziert und korrigiert werden können. Diese Prämisse muss durch unabhängige Forschung getestet und bewertet werden. Leider wurde das durch die Medienbranche im Großen und Ganzen nicht durchgeführt.“

In einem 2014 mit dem Columbia Journalism Review (CJR) betitelten Interview mit dem Titel „Corrections Do not Go Viral“ [~ sind nicht medienwirksam] sagte David Mikkelson, Teil des Ehepaar-Teams, das die Faktencheck-Website Snopes betreibt: „Jeder weiß, die originellen sensationellen Geschichten sind viel interessanter als die banalen Korrekturen.“

Die Frage der Diskrepanz zwischen der Leserschaft des Originals und der einer korrigierten Geschichte ist nicht völlig unbemerkt geblieben. CJR wies in dem Artikel darauf hin:

„Jetzt, wo eine Geschichte entlarvt ist, ist sie bereits gereist, ohne dass die Leser zurück zur ursprünglichen Quelle navigieren – oder irgendeine Quelle – um eine korrigierte Version zu sehen. … Eine falsche Geschichte über eine Frau mit drei Brüsten wurde fast 190.000 Mal auf Facebook, Twitter und Google+ geteilt, aber Geschichten, die diese Sensation korrigierten, erzeugten nur etwa ein Drittel der ‚klicks‘“.

Ein Experiment zur Messung der Disparität heißt Emergent, das von Craig Silverman im Rahmen eines Stipendiums im Tow Center für digitalen Journalismus an der Columbia University durchgeführt wurde.

[Die Emergenz (lateinisch emergere „Auftauchen“, „Herauskommen“, „Emporsteigen“) ist die Herausbildung von neuen Eigenschaften oder Strukturen eines Systems infolge des Zusammenspiels seiner Elemente.]

Emergente Tracks bringen Gerüchte (hervor), die sich online manifestieren und messen die Diskrepanz zwischen Posts, die das Original akzeptieren, und Postkorrekturen. Während Emergent die großen Auswirkungen der Medien noch nicht berücksichtigt hat, unterstreichen einige ihrer Daten das Disparitätsproblem. Eine Falschmeldung über Kentucky Fried Chicken, die in das Marihuana-Geschäft eingestiegen sei, wurde 225.825 Mal geteilt, während Posts, die es enthüllten, nur 2.788 Mal geteilt wurden. Die Fehlinterpretation einer Breitbart-Geschichte mit der Schlussfolgerung, dass ein Gericht in Dallas nach dem Gesetz der Scharia urteilte wurde 2.048 Mal geteilt, während die Fehlinterpretation online nur 1,753 Mal angesehen wurde.

 

Ein Fehler, kein Wesensmerkmal

Das Problem könnte darin liegen, wie Online-Korrekturen oder Tweets aufbereitet (dargeboten) sind. Nur wenige Menschen sind so erfahren und haben die Einsicht der Journalistin und Unternehmerin Elizabeth Spiers, die so erfolgreich Websites wie Dealbreaker, AboveTheLaw, Fashionista und, am meisten berüchtigt, Gawker mitfinanziert, strukturiert und / oder bearbeitet hat. Auf die Frage nach Online-Korrekturen sagte mir Spires: „Historisch gesehen sind digitale Agenturen, die originale Nachrichten produzieren, ziemlich gut und in der Anfangszeit waren sie sogar besser als herkömmliche Medien, die nicht online waren, weil Korrekturen direkt angefügt wurden, während Zeitungen sie hintenanstellen, oft in einem ganz anderen Abschnitt des Zeitung unter der Überschrift „Korrekturen“ bringen und sie nicht sofort veröffentlicht werden.“

Während unsere Großeltern regelmäßig den Abschnitt „Korrekturen“ des Druckmediums überprüft hatten, erstellen nur wenige Nachrichtenplattformen einen Abschnitt „Korrekturen“, in dem korrigierte Geschichten markiert werden. Spiers erklärt die Logik dahinter: „In der Praxis achten die Nutzer nicht auf die Aufmacher, es sei denn, sie suchen explizit nach verwandten Informationen.“

Obwohl ich als Medienjurist und Ethikprofessor den Reportern vorschlage: Suchen Sie nach einer Korrektur, bevor Sie eine Meldung zitieren, hat Spiers Recht, dieser zusätzliche Schritt wird nicht von gewöhnlichen Lesern gemacht.

 

TL; DR [zu lang, nicht gelesen]

Die Platzierung von Korrekturen (und die Zeile, die den Lesern sagt, dass eine vorherige Geschichte korrigiert wurde, „trashline“ genannt) ist entscheidend für die Verbesserung der Zuverlässigkeit von Online-Publikationen. Spiers sagt: „Mein Ideal ist eine Notiz an der Spitze, dass der Artikel korrigiert oder aktualisiert wurde, [die trashline] und Erklärungen oder Korrekturen am Ende.“

Ohne trashlines führt das bloße Anhängen einer Korrektur an das Ende einer Geschichte zu dem Problem „TL; DR“: Internet-Kurzschrift für „zu lang; nicht gelesen“, genutzt um anzuzeigen, dass man nicht den ganzen Text gelesen hat. Angesichts der Tatsache, dass zu viele Menschen keinen ganzen Online-Artikel lesen, ist es für Leser – und faule Reporter oder Forscher – zu leicht, die Korrektur zu verpassen, die allzu oft nicht den gleichen Stellenwert hat wie das Original.

Zu ihrer Ehrenrettung, einige Web-basierte Nachrichten – Plattformen wie ProPublica stellen ihre trashline genau unter der Überschrift vor dem Text und können sogar das Wort „Korrektur“ zur neuen Überschrift hinzufügen. Aber viele Nachrichten – Plattformen haben entweder keine Richtlinien oder verdächtig schwammige Richtlinien. National Public Radio irrte in einer Geschichte vom 12. März 2018, in der Innenminister Ryan Zinke beschuldigt wurde, für den republikanischen -Kongresskandidaten Rick Saccone „Werbung zu machen“, eine mögliche Verletzung des Hatch Act [Beschränkung der parteipolitischen Aktivität von Regierungsangestellten] Aber die korrigierte Version hatte keine Trashline oder irgendeinen Hinweis darauf, dass die Geschichte überhaupt korrigiert wurde: Der Leser muss elf Seiten nach unten scrollen, um zu erfahren, dass Zinke ein offizielle Aussage macht, um ein Zuschussprogramm zur Rückgewinnung aufgegebener Kohleminen anzukündigen.

In ähnlicher Weise fügt The Guardian (eine britische Zeitung) lediglich am Ende der Geschichte Korrekturen hinzu, auch wenn die Korrektur den Tenor der (falschen) Geschichte fortsetzt. Letzten Monat veröffentlichte The Guardian eine Geschichte mit dem Titel „Ein Mann wurde für die Planung eines Terroranschlags auf Cumbrias Love Parade schuldig befunden“ Die ursprüngliche Geschichte, die die vorhersehbaren Anti-Waffen-Gefühle ihrer Leser ansprach, hatte berichtet, dass ein „Sturmgewehr“ in seiner Wohnung gefunden worden war. Ungeachtet der Schlüsselwörter „Angriffswaffe“, sagt die Korrektur – nicht bereits oben als Korrektur oder gar Update markiert – lediglich am Ende aus „Dieser Artikel wurde am 7. Februar 2018 geändert. In einer früheren Version wurde fälschlicherweise berichtet, dass ein Sturmgewehr in Stalls Schlafzimmer gefunden wurde. es war ein Luftgewehr.“ „Oh, nun, macht nichts.“

 

Zombie Fakten: Fehler oder Lügen, die nicht sterben werden

Bekannt für ihren gesunden Menschenverstand fügt Sullivan hinzu, dass der Unterschied zwischen der Leserschaft der Korrektur und der Leserschaft des ursprünglichen Fehlers darin besteht, „warum es so wichtig ist, alles zu tun, um es gleich richtig zu machen.“ Journalisten aller Art machen Fehler. Das ist nur menschlich. Das Problem ist, dass die Online-Nachrichtenübermittlung (größtenteils) nicht für Klarheit sorgt und Korrekturen werden so schlecht gehandhabt, dass falsche Nachrichten die Erzählung bestimmen und nur die unerschrockensten Leser oder Forscher werden sich durch die ursprüngliche Erzählung bis zur Wahrheit graben. Und damit beginnt die Schaffung der „Zombiefakten“.

Der vielleicht hartnäckigste Zombiefakt ist der immergrüne „Bush Kunststoff Truthahn„, den Bush bei einem Fototermin mit ihm und den Truppen im Irak 2003 serviert haben soll. Dieser Bericht ging online und wurde mindestens 70-mal von Bloggern, bekannten Journalisten und Politikern wie John F. Kerry, Howard Dean und Wesley Clark wiederholt. Auch die New York Times nahm den Köder auf und es dauerte eine Woche, bis die Times ihre Geschichte korrigierte. Bis dahin war es zu spät. Der australische Kolumnist Tim Blair hat in einem Interview darauf hingewiesen, dass er zu einem echten Thema in den Köpfen vieler Menschen wurde, mit einem fast religiösen Aspekt:

„Wenn du vom Anti-Bush-Glauben bist, ist das ein Prüfstein. Es ist die Mär vom Truthahn. Und natürlich gibt es heute immer noch Menschen, die glauben, dass Präsident Bush den amerikanischen Truppen aus Gründen der Publicity kaltblütig und oberflächlich einen Kunststoff-Truthahn serviert hat. Dieses Märchen wurde serviert, und der Schaden war angerichtet.“

„Der Geburtszombie“ (die Erzählung, dass Präsident Obama in Kenia geboren wurde) ist ein Zombie, der bis heute anhält. Es ist schwierig genau zu bestimmen, wo und wann er das erste Mal in den digitalen Nachrichtenstrom injiziert wurde, und die Antworten unterscheiden sich stark voneinander. Was als Gewissheit bekannt ist, ist, dass bereits 2004 eine Bowdlerisierte Version einer AP-Story, die in einer kenianischen Zeitung erschien, diese Behauptung aufstellte. Später und die Situation nicht verbessernd, fügte dann Senator Obamas eigener Literaturagent diesen Zombie hinzu, um für ein Buch über Obama zu werben.

[Thomas Bowdler war ein englischer Arzt, der eine nach moralischen Zensurkriterien bereinigte Ausgabe der Werke von William Shakespeare veröffentlichte. Dieses Vorgehen rief unter Zeitgenossen beträchtliche Kritik und Belustigung hervor. Wikipedia]

Die Hillary-Clinton-Kampagne fügte der Erzählung subtile Glaubwürdigkeit hinzu und musste sich nach dem Verteilen eines Fotos von Obama in einem indonesischen Kostüm entschuldigen. Die Obama-Kampagne beklagte sich – zu Recht -, dass dies eine „Hundepfeifen Politik“ sei, die das Feuer der Erzählung weiter schürte.

[Hundepfeife – produziert einen sehr hohen Ton, der von Menschen meist nicht gehört wird. Der Begriff bezeichnet einen politischen Code. Es werden Dinge gesagt, die ein klares Signal an eine bestimmte Gruppe aussenden, welches zumindest theoretisch, von anderen nicht gehört wird. So kann man gesellschaftlich eigentlich verpönte Positionen einnehmen. Insider verstehen sofort was gemeint ist. Für alle anderen hat man was in Geheimdienstkreisen als plausible deniability (Möglichkeit zur plausiblen Leugnung) bezeichnet wird, selbst wenn sie die eigentlich gemeinten Dinge trotzdem wahrgenommen haben. ]

Schließlich wurde die Erzählung zu einem der ersten Blickfänger für die Kampagne für Trump im Jahr 2016 und obwohl alle anderen es bereits aufgegeben hatten, verlangte Trump noch bis 2017 einen „Beweis“ für Obamas Staatsbürgerschaft. Wie die an Bush Kunststoff-Truthahn noch immer glaubenden, gibt es immer noch Leute, die glauben, dass der ehemalige Präsident kein in Amerika geborener Bürger ist. Die Geschichte wurde erzählt und der Schaden ist angerichtet.

Linke Nachrichtenorganisationen haben ein ganzes Geschäftsmodell rund um die Erzählung „Putin / Trump geheime Absprachen“ aufgebaut. Der letzte Zombie in diesem Zirkus ist die falsche Behauptung, dass WikiLeaks im letzten September (in Verbindung mit einem nicht benannten „Russen“) heimlich der Trump-Kampagne und Donald Trump selbst Zugang zu schädlichen E-Mails des Democratic National Committee (DNC) [Demokratische Partei] angeboten hatten, bevor sie (im Internet) veröffentlicht wurden. Glenn Greenwald von Intercept hat eine umfangreiche Nachforschung durchgeführt und festgestellt, dass dieses Angebot erst Stunden später gemacht wurde, nachdem CNN diese Geschichte bereits gesendet und dann immer und immer wieder hochgespielt hat. Die Washington Post berichtete, dass CNN die Hauptsache falsch verstanden habe: Die E-Mail war nicht vom 4. September, wie CNN behauptete, sondern eher vom 14. September – was bedeutet, dass es [an Trump] gesendet wurde, nachdem WikiLeaks bereits den Zugang zu den DNC-E-Mails online veröffentlicht hatte.

Obwohl CNN die Geschichte später korrigierte, lebt der Zombie im fieberhaften Geist von Adam Schiff [Politiker der DNC] und der #Resist-Trump Anhänger weiter. (Man kann nicht anders als an Dan Rathers „fake, aber genauen“ Journalismus erinnert zu werden, der immer noch von den anfeuernden Medienaktivisten praktiziert wird).

[Sag mir eine Tatsache, und ich werde lernen. Sag mir eine Wahrheit, und ich werde es glauben. Aber erzähle mir eine Geschichte, und sie wird für immer in meinem Herzen leben. „-– Steve Sabol, NFL Films]

Bis jetzt gibt es keine glaubwürdigen oder konkreten Fakten, die eine solche geheime Absprache zeigen, aber trotzdem wurde die Geschichte platziert und der Schaden ist angerichtet.

 

Ich möchte es glauben

In seinem Intercept Artikel über Trump / Wikileaks Medienente ist Greenwald skeptischer gegenüber der Art und Weise, wie Korrekturen ignoriert werden und verweist auf politische Aktivisten, die, obwohl sie wissen sollten, dass ihre „Quelle“ nicht korrekt ist, weitermachen und sie erneut veröffentlichen:

„Einmal damit angefangen, kann nicht übertrieben werden, wie schnell und wie weit diese falsche Geschichte verbreitete. Demokratische Parteisprecher, Aktivisten und Journalisten mit riesigen Social-Media-Plattformen sprangen sofort auf die Geschichte und verkündeten, dass es sich um eine geheime Absprache zwischen Trump und Russland (aufgedeckt durch WikiLeaks) handelte. Ted Lieu, ein Abgeordneter der Demokraten, tweetete, dass dies ein Beweis für kriminelle Absprachen sei, das wurde tausende Male in wenigen Stunden retweetet (Lieu löschte den Tweet geräuschlos, nachdem ich Mr. Lieu dessen Fake mitgeteilt hatte, aber lange nachdem dieses Fake bereits lebhaft aufgegriffen war und ohne seinen Anhängern mitzuteilen, dass die CNN-Geschichte und damit seine Anschuldigung entlarvt worden war.“

Greenwald berührt einen weiteren Aspekt des Ignorieren von Korrekturen, die weniger ruchlos sind, aber zu dem Gruppendenken passen, mit dem die heutigen Leser von politischen Berichterstattung infiziert werden: „Es ist schwer zu quantifizieren, wie viele Menschen durch die CNN-Geschichte mit falschen Nachrichten und Propaganda betrogen wurden. Aber dank demokratisch-loyaler Journalisten und Aktivisten, die jeden Trump-Russland-Anspruch für wahr erklären, ohne irgendwelche Beweise zu sehen, kann man mit Sicherheit sagen, dass viele hunderttausend Menschen, fast sicher Millionen, diesen falschen Behauptungen ausgesetzt waren. „

In einer Studie des Pew Research Centers aus dem Jahr 2014 wird deutlich, dass die Tendenz besteht, dass „diejenigen mit stärkeren ideologischen Tendenzen sich eher mit gleichgesinnten Meinungen abgeben“. Der Wunsch, dass etwas ohne wirkliche Beweise wahr ist, ist daher nichts Neues.

[Dabei fallen mir die Klimagläubigen ein, der Übersetzer]

Wenn Sie es nur stark genug glauben, dass Präsident Trump sich heimlich mit den Russen abgesprochen hat, um gewählt zu werden, dann sind Sie ziemlich geneigt Fehler zu ignorieren, die dieser Meinung entgegenstehen.

* * *

Charles Glasser war in den 1980er Jahren Journalist und studierte später an der New York University School of Law. Nach mehreren Jahren als First Amendment-Prozessanwalt wurde er der erste globale Medienberater von Bloomberg News Er ist Autor von „The International Libel and Privacy Handbook„, lehrt Medienethik und Mediengesetze an derNew York University und hält außerdem Vorträge weltweit und schreibt häufig über Medien und Redefreiheit für Instapundit und andere.

Erschienen auf The Daily Caller am 22.03.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/03/22/internet-corrections-and-zombie-facts/




EIKE wünscht allen Leserinnen und Lesern ein frohes Osterfest

Auch wenn Ostern saukalt ist, kann es nur an der Klimaerwärmung liegen. Das jedenfalls meint der Potsdamer Klimafolgenforscher Prof. Dr. Stefan Rahmstorf. Wir meinen hingegen „es kütt, wie es kütt“ und „et is noch immer jot jegange“.

In diesem Sinne wünscht die EIKE Redaktion allen ein frohes Osterfest. Und erfolgreiches Ostereiersuchen. Vielleicht ist ja auch noch eins vom letzten Jahr dabei.




Klimaleugner befinden sich in der ersten Phase der Klimatrau­matisierung

Ständiges „Klimawandel-Dauerfeuer“ zermürbt selbst seelisch stabile Personen …

Klimaretter als „Wissensportal“ zeigt immer neu und beispielhaft, wie man es bewerkstelligt, zu beeinflussen, indem man Apokalypsen endlos wiederholt:
klimaretter.info 17. März 2018: [1] Trauern um Verlust und Zerstörung
… Da ist dieses dumpfe Gefühl. Die Bilder abgeholzter Amazonaswälder, toter Korallenriffe oder verhungernder Eisbären in der Arktis berühren uns … … „Unsere Pflanzen blühen plötzlich zu anderen Zeiten im Jahr, und es gibt weniger Vögel in unseren Gärten.“ …
… „Schrecklich“, „furchtbar“, „traurig“ sind die hilflosen Reaktionen angesichts unwiederbringlicher Verluste durch Umweltzerstörung und Klimawandel …
Öffentlich-Rechtliche stehen dem in keinster Weise nach: BR: Hintergrund Klimawandel
BR: Schmelzendes Polareis lässt Eisbären hungern

Bild 1 Screenshot BR-Homepage

Eine Methode, welche von Aktivisten im Ausland zur Perfektion gebracht wurde:
EIKE 27.09.2016: Der Krieg des Klimas gegen die Menschheit

… und erzeugt latente Schuldgefühle

Zeitungs-Artikel: [9] Eine Klimasünderin will sich bessern: ... Die Folgen des vom Menschen gemachten Klimawandels treffen, wie häufig, am Stärksten die ärmsten Regionen auf der Erde, obwohl diese zum Problem am Wenigsten beigetrage haben. Schuld daran ist, so erklären Expertenberichte, der Ausstoß des Treibhausgases CO2 … Und Schuld daran bin damit zum Teil auch ich durch mein Konsumverhalten

Ein typischer Fall für die Wissenschaft von der Psychologie des menschlichen Verhaltens

Inzwischen werden solche Probleme gelöst. Nicht, indem die Ursache erklärt und beseitigt wird, sondern indem die Symptome ordentlich zugeordnet und nach dem etablierten Baukasten der Psychologen*innen langwierig und aufwendig behandelt. Wie von unserer Bundeskanzlerin, welche von „Mutter Natur“ spricht, werden auch esoterische Elemente in den Wissenschaftskanon der Klimatraumatisierung aufgenommen.
klimaretter.info: [1] … Die US-Amerikanerin Kriss Kevorkian war eine der ersten Wissenschaftlerinnen, die bereits vor rund 20 Jahren den Begriff der Umwelttrauer („environmental grief“) prägte – und damit die Thanatologie, also die Trauerforschung, um eine neue Dimension bereicherte.
… das Thema ist mittlerweile gesetzt … Das liegt auch daran, dass die ökologischen Verluste durch den Klimawandel in den vergangenen zwei Jahrzehnten deutlich sichtbarer geworden sind … „Es geht nicht nur um den Verlust von Dingen, sondern auch
um den Verlust des Rhythmus, den wir mit der Natur hatten„, sagt Kevorkian …

Gruppierung der Traumatisierungsstadien

Dank diesem neuen Forschungszweig der „Umwelttrauer“ ist es nun möglich, als „Klimaleugner“ wissenschaftlich fundiert zu erfahren, in welchem Stadium der Klimatraumatisierung man sich aktuell befindet. Einem Journalisten und einer Schweizer Psychologin gelang dazu der methodische Durchbruch:
klimaretter.info: [1] … Andere versuchen die Gefühle der Umwelttrauer und die Angst vor dem Klimawandel analog zum Umgang mit dem Prozess des Sterbens zu erklären: So beschrieb der Guardian-Journalist Richard Schiffman die Reaktion der Menschen auf den Klimawandel und dessen Folgen mit den von der Schweizer Psychologin Elisabeth Kübler-Ross beschriebenen fünf Phasen des Umgangs mit dem Sterben: Leugnen, Zorn, Feilschen, Depression und schließlich Akzeptanz.
Und jeder „Klimaleugner“ kann nun nachlesen, dass er sich lediglich in der ersten Phase der Klimatraumatisierung befindet und die weiteren unerbittlich folgen können.

klimaretter.info: [1]
Am Anfang will der Patient – oder in diesem Fall die Öffentlichkeit – die (wissenschaftlichen) Fakten nicht wahrhaben, der Klimawandel wird geleugnet und die Wissenschaft infrage gestellt …
In der zweiten Phase beginnt sich der Zorn auf die Verursacher zu richten … Es werde ein Schuldiger gesucht, aber keine eigene Verantwortung übernommen.
Drittens folge darauf das Stadium des Verhandelns: Der Mensch sehe ein, dass etwas getan werden müsse, und übe sich in mehr oder weniger wirkungsvollen Klimaschutzvorhaben …
In der
vierten Phase verfalle der Mensch in eine Depression über die unwiederbringliche Zerstörung des Planeten …
Darauf folge –
fünftens – die Akzeptanz und Einsicht … wir kämpfen nicht länger gegen die Wahrheit … Dann folge endlich die Tat: Ein Stopp der Verbrennung fossiler Rohstoffe … kurz: konkrete Schritte zum Schutz des Klimas.

Die Phase „Klimaskeptiker“ fehlt noch in der psychologischen Forschung

Eine Phase ist in dieser Traumatisierungswissenschaft noch nicht bekannt: Die der „Erkenntnis“, in welcher jemand durch Recherchen außerhalb des Öffentlich-Rechtlichen Medienbereiches und unserer angepassten Zeitungslandschaft Wissen über Hintergründe und Klimapolitik erlangt und dadurch zum AGW-Klimawandel-Skeptiker wird.

Aber dieser Zweig der psychologischen Wissenschaft ist ja noch jung. Bliebe nur zu hoffen, dass Fördermittel nicht die Erkenntnis verhindern, dass diese bei den bisher ermittelten Phasen noch fehlt. Interessant wird es dann werden, wohin diese Phase zugeordnet wird. Sie müsste die Ausstiegsphase sein und den bisher noch fehlenden Ausweg weisen, um als Klimaskeptiker nicht unwiederbringlich mit der Phase Fünf: Unreflektiertes Mitmachen aller von Politikern und „Klima-Hysterie-Fachpersonen“ angeordneten Schuld- und Sühnemaßnahmen [12] – enden zu müssen.

Die Klimawandel-Medizin „tanzt“ bereits nach der Geige des PIK und bekommt dafür Professuren

Skeptisch macht jedoch das Vorgehen der Mediziner. Diese sind bereits weiter und haben „großflächig“ erkannt, welche gewaltigen Fördersummen „abgeholt“ werden können, sofern man dem Klimawandel-Untergang mit seiner „unwiderlegbaren, gesundheitlichen Beeinflussung“ artig genug zustimmt:
EIKE 13.03.2018: Ärzte brauchen auf den Klimawandel medizinische Antworten
Eine Einrichtung hat zu dem Zweck bereits in seiner bekannten Art die Betreuung übernommen:

PIK, Leopoldina-Dialog in Potsdam 05.12.2017: [10] Klimawandel und Gesundheit
Klimawandel bedingte Risiken für die Gesundheit gehören zu den wichtigsten Herausforderungen unserer Zeit. Beide Forschungsrichtungen haben bislang jedoch noch zu wenig zusammengearbeitet, um die kritischen Verflechtungen von Klimawandel und Gesundheit widerspiegeln zu können ….
… Der Klimawandel ist bereits heute in ungewöhnlichen Hitzewellen oder Hurrikans zu spüren. Diese haben wiederum in vielen Regionen Auswirkungen auf die Ernährungsqualität der landwirtschaftlichen Erträge, Malariagefahren, auf die Überschreitung der menschlichen Thermoregulierungskapazität oder auf die wärmebedingte Zunahme an Mortalitätszahlen, erklärte Hans Joachim Schellnhuber, Direktor des PIK. Angesichts des zunehmenden Klimawandels könne „ein Versagen der öffentlichen Gesundheitsstrukturen viele Menschen treffen“, sagte er. Die Auswirkungen des Klimawandels auf die Arbeitsproduktivität und das langfristige Wirtschaftswachstum wurden von PIK-Chefökonom Ottmar Edenhofer diskutiert.
Man beachte die kritiklose Zustimmung der „Fachpersonen“ zu den von Herrn Schellnhuber in der Einleitung zitierten Gefahren, obwohl alle aus dem Stegreif heraus als mindestens sehr zweifelhaft – da bisher nur in PIK-Simulationen erst noch (vielleicht) entstehend – bezeichnet werden können (Details dazu den nächsten Absatz):

PIK: [10] … „Krankheiten, Behinderungen und Todesfälle gehören zu den wesentlichen Auswirkungen des Klimawandels“, sagte Rainer Sauerborn, Leiter des Instituts für Öffentliche Gesundheit der Universität Heidelberg. Umgekehrt aber könnten „für die Gesundheit positive Nebeneffekte eine treibende Kraft für Klimapolitik und individuelles Verhalten sein“, argumentierte er. Die öffentliche Gesundheit könne dazu beitragen, die Klimapolitik voranzubringen, und sie sei Schlüssel zur Bewältigung des Klimawandels. Weitere Referenten waren unter anderem Christian Witt, Leiter der Ambulanten Pneumologie der Medizinischen Abteilung der Charité, Jos Lelieveld, Direktor am Max-Planck-Institut für Chemie, Ashish Jha von der Harvard T.H. Chan School of Public Health und Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie.

Im Oktober hatte das PIK die Impacts World Konferenz „Counting the true costs of climate change“ in Potsdam organisiert, an der 500 Forscher aus 67 Ländern teilnahmen. Auf dieser Konferenz waren Klimarisiken für die menschliche Gesundheit bereits Thema. Im kommenden Jahr plant das PIK in Form einer gemeinsamen Professur mit der Charité Berlin einen Experten für Klimawandel und Gesundheit zum Ko-Leiter des Forschungsbereichs Klimawirkungen und Vulnerabilität zu ernennen

Verhindere, dass Fakten recherchiert und darüber nachgedacht wird

Solche Information stürmt seit Jahrzehnten von wirklich allen Seiten auf jeden ein und es wundert nicht, dass es viele glauben, weil es ihnen undenkbar erscheint, dass „so viele Experten“ irren können.
Konsequent wird dabei verschwiegen, dass die Menschheit aktuell in einem der glücklichsten Stadien ihrer Geschichte lebt und selbst die bisher schlimmste Apokalypse – die Vorhersage des sicheren Verhungerns der Menschheit aufgrund des Bevölkerungswachstums (Malthus: Die Erde könne maximal 1 Milliarde Menschen ernähren [7]) – ausgeblieben ist, nachdem die Ernten aufgrund (nicht nur) der Erwärmung seit der schlimmen, kleinen Zwischeneiszeit weltweit geradezu explodieren:
[6] EIKE 30.06.2015: Ernteerträge und Klimawandel
Nicht akzeptiert wird dabei, dass das ungebremste Anwachsen der Bevölkerung zu Verwerfungen führen muss. Und vergessen wird, dass zu den angeblich so schönen, vorindustriellen Zeiten, als man sich „im Rhytmus mit der (äußerst grausam schlagenden) Natur befand“:
-Deutschland mangels Energie fast vollständig waldfrei geschlagen wurde (den deutschen Wald rettete nur die Kohle vor dem vollkommenen Kahlschlag)
-Die Alpenbewohner wegen der Kälte und riesiger, oft berstender Gletscher in ständiger Todesangst vor Überschwemmungen lebten [13], dabei mangels ausreichender Ernteerträge ihre Kinder schon mit sechs Jahren weit in die Fremde zum Verdingen geben mussten („Schwabenkinder“)
-Trotz der damaligen, niedrigeren Temperaturen, das Rheintal und Teile von Europa bis nach Finnland hinauf, eine Malaria-verseuchte, tödliche Gegend war:
ZDF: Der Rhein Von Malaria und Jahrtausendflut
Bis ins 19. Jahrhundert fielen viele Rheinbewohner einer tödlichen Krankheit zum Opfer, die man sonst eher mit den Tropen in Verbindung bringt: der Malaria. Besonders am Oberrhein verwandelten damals Hochwasser die Ufergebiete immer wieder in sumpfige Brackwassergebiete – ideal für Mücken, die Überträger des Fiebers …

Man erinnere sich an die im vorhergehenden Kapitel von Herrn Schellnhuber genannten Klimawandel-Gesundheitsgefahren. Malaria wurde dabei genannt. Allerdings nimmt Malaria ziemlich genau seit dem Beginn des ominösen Klimawandels massiv und stetig ab.
WUWT Anthony Watts / May 22, 2010: [4] Mann’s 1.8 million Malaria grant – “where do we ask for a refund’?

Thomas Fuller of the San Francisco Examiner has a great piece which summarizes the issue of climate and malaria and Mann. Like with the imagined increase in hurricane frequency due to global warming, so it goes with malaria. There’s no correlation. The premise is false
The researchers — whose work was published in Nature yesterday (20 May) — found that despite global warming, the prevalence of malaria decreased, which they attribute to disease and mosquito control programmes.

Bild 2 Weltweite Abnahme der Malariaverbreitungsgebiete seit 1850 [11]

Bild 3 Weltweite Abnahme der Malariafälle seit dem Jahr 2.000. Quelle: OUR WORLD IN DATA December 2017 : Malaria by Max Roser and Hannah Ritchie

Das weiterhin ungebremste Bevölkerungswachstum muss zu Verwerfungen führen

an denen Vieles, aber bestimmt kein Klimawandel Schuld hat. Man erinnere sich an die „guten, alten Zeiten“:
[8] Dorfling: … im Mittelalter wurde die Hälfte der Kinder nicht einmal 14 Jahre alt. Selbst noch 1870 starben etwa in Deutschland 25% aller Kinder …
… Um 1930 waren es immer noch 10% … Kindersterblichkeit 1970 … 2,5 Prozent … heute in Deutschland … etwa 0,4 Prozent
und betrachte die sich daraus (bisher nicht bei uns) resultierende Bevölkerungs-Situation:

Bild 4 Bevölkerungsentwicklung seit 3.000 Jahren. Quelle: WIKIPEDIA Weltbevölkerung, vom Autor zum Jahr 2100 erweitert

Gerade von Fachleuten wurde es für unvorstellbar gehalten, dass die Erde so Viele ernähren kann

Lässt man Malthus beiseite, kommt man zum Club of Rome, der es wissenschaftlich anging und erstmals modern auch mit Rechnern die Zukunft simulierte. Das geschah um 1972. Wären diese Simulationen wirklich eingetroffen:
– begänne bereits eine nicht mehr aufhaltbare, weltweite Nahrungsmittelknappheit,

– wären die Rohstoffe bereits seit Längerem am Ausgehen,

– hätte die Bevölkerung noch ca. vier Jahrzehnte Zeit, bis aufgrund mangelnder Nahrungsmittel und fehlender Rohstoffe entweder Neugeburten massiv eingeschränkt werden müssten, oder ein Massenserben einsetzt.

Bild 5 Bevölkerungsentwicklung (1800 – 2007) und Vorhersage(-Simulation) des Club of Rome im Buch „Grenzen des Wachstums“. Bild vom Autor zusammengesetzt

Wie das im historisierten „Einklang mit der Natur“ möglich sein soll, dürfte ein GRÜNES Rätsel bleiben

Man könnte sich Gedanken machen, warum diese simulierten Vorhersagen nicht eingetroffen sind, und darauf reagieren. Man könnte sich fragen, wie sich manche schon heute überbevölkerten, aber weiterhin vollkommen ungebremst geburtenreichen Staaten ihre Zukunft vorstellen.

Bild 6 Weltbevölkerung 1950 / 2010 nach Regionen. Quelle: WIKIPEDIA

Bestimmt würde man darauf kommen, dass träumerische Illusionen dafür keine Lösung bieten:
EIKE 19.09.2016: Biobauern sind die größten Lebensmittel-Vernichter Ohne Klimawandel überlebt die Biolandwirtschaft ihre Ernteverluste nicht

Das würde jedoch enorme Kompetenzen und auch viel Arbeit des weltweiten, politischen Personals erfordern. Beides hat man längst aufgegeben. Schließlich werden internationale Gremien nach Proporz und Gender-Gesichtspunkten, aber nicht nach Fähigkeiten „bestückt“.

Um wie viel einfacher und vorteilhafter ist es da, alleine auf CO2-Vermeidung zu drängen und zusätzlich auf den lebenswichtigen Atmosphärenbestandteil möglichst viel Steuer zu erheben.
Damit lösen sich alle „Probleme“ auf einen Schlag: Die Klimawandel-gläubigen Bürger sind “beruhigt“ [12], die NGOs der Klimakirche haben weiterhin ihr risikoloses Auskommen und die Regierungen ihre zum Aufblähen des Staatsapparates erforderlichen, zusätzlichen Einnahmen.
Es lässt sich allerdings schon jetzt vorhersagen: Selbst wenn der ominöse Klimawandel nicht mehr existieren sollte, werden weder die NGOs, noch die Umwelt-Rettungs-Steuern abgeschafft.

Nachtreten ist immer einfacher, als nachdenken

Eine gerade über MSN verbreitete Reuters-Info stellt die arrogante Überheblichkeitsdenke der „Eliten“ in Medien und Politik geradezu bilderbuchhaft bloß.
MSN Nachrichten, 23.03.2018: REUTERS/Michaela Rehle AfD nennt Klimawandel „Irrlehre“ und will Energiewende beenden
„Die AfD sagt hier und heute der Irrlehre des von Menschen gemachten Klimawandels den Kampf an“, sagte ihr Umweltpolitiker Karsten Hilse am Freitag: „Wir wollen den Ausstieg aus allen diesbezüglichen nationalen und internationalen Verträgen und Gremien.“ Es gebe keine Beweise für den Klimawandel. Studien gäben nur wider, was die Aufraggeber wollten. Auch der Umstieg auf erneuerbare Energien sei daher falsch …
Die Rede löste im Bundestag Empörung und auch Gelächter aus. Der durch den Menschen ausgelöste Klimawandel ist von einem UN-Expertengremium und der weit überwiegenden Mehrheit der Wissenschaft festgestellt worden. Im Pariser Klimaabkommen hat sich die Weltgemeinschaft auf ein gemeinsames Vorgehen verständigt, um den Anstieg der Erwärmung auf deutlich unter zwei Grad gegenüber der vorindustriellen Zeit zu begrenzen.
… Feinstaub oder auch Stickoxide, wie Diesel-Fahrzeuge sie produzieren, gelten auch schon in Konzentrationen unter den bestehenden Grenzwerten als Auslöser für eine Vielzahl von Krankheiten und vorzeitige Todesfälle …

In diesem kurzen Artikel sind wie in einer päpstlichen Bulle Dogmen der Ökokirche gelistet, welche der Leser gefälligst kritiklos zu Glauben hat:
„UN-Expertengremium“ (gemeint ist der IPCC): Wer dies glaubt, sollte das folgende Buch lesen:

Bild 7 Buchcover

Er wird zumindest den Glauben, dass die Aussagen von IPCC-Gremien zum Klima Klima-Experten frei entscheiden dürften, verlieren und erkennen, dass der IPCC vorwiegend ein Gremium zum Schüren der Klimaangst und nicht zur Klärung von Klimafragen ist, woran die vielen, dort auf wichtigen Positionen sitzenden, von NGOs eingeschleusten Klimaaktivist*innen sorgen. Es ist auch satzungsgemäß nicht Auftrag des IPCC, Klimawissenschaftliche Fragen zu klären, sondern, den Klimawandel zu „belegen“:
WIKIPEDIA: … Er stellt die naturwissenschaftlichen Grundlagen, die Folgen sowie Risiken des Klimawandels dar und zeigt zudem Möglichkeiten auf, wie die Menschheit den Klimawandel mindern und sich an eine globale Erwärmung der Erde anpassen kann …
Was „wissenschaftlich“ sein soll, wenn weltumspannend Regierungen unterschiedlichster couleur – und einer Mehrheit an Klimageld-Anspruchsländern – entscheiden, ob wissenschaftliche Ergebnissen veröffentlicht werden dürfen, erschließt sich wohl nur Politikern und Redakteur*innen:

WIKIPEDIA: … Alle Mitgliedsländer des IPCC müssen der entsprechenden Fassung des Berichts zustimmen, bevor dieser veröffentlicht wird.
Die „Überwiegende Mehrheit der Wissenschaft“ ist die gleiche Floskel, wie: „die vielen, im Mittelalter entdeckten Hexen belegen deren schlimme Taten in diesen Jahrhunderten“.
Im Welt-Klimavertrag hat sich die „Weltengemeinschaft“, bestehend aus wenigen Geberländern – vorne dran Deutschland – und vielen Geldempfänger – vorwiegend darauf verständigt, wie das viele Geld bereitgestellt und ohne Verpflichtungen seitens der Empfängerländer als „Klima-Sühnezahlung“ überwiesen wird. Nicht einmal, auf welchen Wert die „vorindustrielle Temperatur“ festgelegt werden soll, ist im Vertrag enthalten. Alleine die einfache Betrachtung: Der Welt-Klimavertrag hat nach sich über viele Jahre hinziehenden, harten Verhandlungen mit teils über 20.000 Teilnehmern einen Umfang von 30 Seiten erreicht, der Koalitionsvertrag der GroKo hat 177 Seiten, zeigt, das für „die Rettung der Welt“ nur das für die „Weltengemeinschaft“ Allerwichtigste – eben die Verteilung der Gelder – Platz gefunden hat:
EIKE 04.10.2016: Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung. Die DDR Volkskammer lässt grüßen
Die Erwähnung zu den Stickoxyden zeigt, dass die Redakteurin überhaupt keine Scham hat, schlimmsten Unsinn zu wiederholen, weil er die vorgegebene Meinung unterstützt. Der Autor geht davon aus, dass der Reuters-Artikel sich bezüglich der Aussage zu NOx auf die jüngste „Studie“ des Umweltbundesamtes bezieht:

EIKE 15.03.2018: Bild, Diesel, manipulierte Daten und die Wut der Leser

Dass unseren Abgeordneten dazu keine andere Gegenargumentation einfällt, als zu lachen, oder sich zu empören, sieht der Autor nicht – wie wohl die Reuters-Redakteurin (Ausbildung: Diplom-Sozialpädagogin) – als positives Merkmal dieser zwischenzeitlich oft wie Prälaten auf Konzilsversammlungen wirkenden Politikrunde. Von der Phase der „Erkenntnis“ sind diese Abgeordneten*innen jedenfalls weit entfernt, eher haben sie die Gläubigkeit von Kirchenvertretern.

Anmerkung: Die Debatten lassen sich bei EIKE aufrufen:
EIKE 24. März 2018: Generaldebatte: Bundesregierung will per Gesetz das Klima schützen und die Emissions-„Lücke“ damit bis 2030 schließen; AfD sagt der Irrlehre vom „Klimaschutz“ den Kampf an.
Unabhängig davon ist es immer neu erschütternd, wie es gelingt, als Umweltminister*in Personen mit ausreichender Unkenntnis, aber genügend Hysterie ins Amt zu hieven. In der Lokalzeitung des Autors stand, die Entscheidung war dem Proporz gegenüber dem SPD-Landesverband NRW geschuldet. Zudem ist diese Frau aktive Atomkraftgegnerin.
Ihrer Vorgängern, Frau Hendricks scheint sie jedenfalls an Unwissen zum Fachgebiet nicht nachzustehen.
Jedenfalls werden die Klimafond-Empfängerländer weltweit alle aufatmen, dass zumindest aus Deutschland der Klimaschaden-Wiedergutmachungs-Geldstrom nicht versiegt.

Quellen

[1] klimaretter.info 17. März 2018: Trauern um Verlust und Zerstörung

[2] klimafakten.de 08.03.2018: Tote Korallenriffe, verbrannte Wälder: der Klimawandel erfordert Trauerarbeit. Doch lässt sich Apathie vermeiden?

[3] F.A.Z. 27. November 2015: Hans Joachim Schellnhuber: „Selbstverbrennung“

[4] wiki bildungsserver: Kipppunkte im Klimasystem

[5] EIKE 13.03.2018: Ärzte brauchen auf den Klimawandel medizinische Antworten

[6] EIKE 30.06.2015: Ernteerträge und Klimawandel

[7] Bundeszentrale für politische Bildung: Geschichte der Bevölkerungswissenschaft

[8] Dorfling: Lebenserwartung im Mittelalter

[9] nordbayerische nachrichten, print-Lokalausgabe vom 17./18. März 2018: Eine Klimasünderin will sich bessern

[10] Leopoldina-Dialog in Potsdam 05.12.2017: Klimawandel und Gesundheit

[11] WUWT Anthony Watts / May 22, 2010: Mann’s 1.8 million Malaria grant – “where do we ask for a refund’?

[12] EIKE: Wer bei der nächsten Wahl ans Klima denkt und an Demonstrationen teilnimmt, bekommt CO2-Kompensation gutgeschrieben

[13] EIKE 31.07.2015: Fakten zu Gletscherschwund und Co. – und wie Ideologie unsere Natur zerstört

[14] EIKE 01.01.2017: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann




Große Leseraktion: Wie manipulieren Messstationen die Feinstaubmessung in Ihrer Stadt? – Teil 3

Überwältigend! Vielen Dank für Ihre Reaktion und Mitarbeit. Mit so vielen Einsendungen hatten wir nicht gerechnet. Darüber freuen wir uns. Mit Ihrer Hilfe ist es möglich, den Wahnsinn eindrucksvoll zu dokumentieren, der sich quer über Deutschland ausbreitet. Wir werden die Fotos und Berichte in einer Serie veröffentlichen.

Aus Hamburg, der Stadt mit den roten Chaoten im Rathaus, kommen Fotos von zwei Luftmessstationen in Hamburg. »Es handelt sich dabei um genau diejenigen Luftmessstationen,« schreibt TE-Leser Jan-Hendrik M., »die in Kürze zu einem Dieselfahrverbot auf den betroffenen Straßen führen werden: Stresemannstraße und Max-Brauer-Allee.

Zur Stresemannstraße:

Hamburg leidet seit Jahren daran, dass es nördlich der Elbe lediglich zwei Querungen der Stadt in Ost-West-Richtung gibt, eine nördlich der Alster und eine südlich der Alster. Diejenige Querung südlich der Alster beinhaltet die Stresemannstraße in ihrer vollen Länge, sodass sich große Teile des Hamburger Durchgangsverkehrs durch diese Straße quälen. Die Stelle, an der sich die Luftmessstation befindet, ist nahe der Einmündung der Max-Brauer-Allee und des Neuen Flora Musicaltheaters gelegen.

Es ist eindeutig die engste Stelle dieser Straße, auf der im Grunde rund um die Uhr Stau herrscht. Der Grund: Die Brückenpfeiler der die Stresemannstraße überquerenden Bahnbrücke stehen mitten auf der Straße. Der Einfallsverkehr – auf dem Foto in einiger Entfernung sichtbar – macht mit einer Spur einen Schlenker um einen solchen Pfeiler herum. Der Ausfallverkehr – auf dem Foto hinter den Polizeiwasserwerfern versteckt – wird auf eine Spur eingeengt. Letzteres führt zu einem Rückstau direkt an der Messstation.«

In den Achziger- und Neunzigerjahren hat es hier mehrere Verkehrstote gegeben.
»Die damalige rot-grüne Regierung kam auf die sensationelle Idee, zwei der vier Spuren in Busspuren zu verwandeln, was selbstverständlich zu einem völligen Verkehrsinfarkt geführt hat. Die danach unter der Führung der CDU und Bürgermeister von Beust gewählte Regierung revidierte diese Entscheidung, erließ aber ein bis heute gültiges Tempolimit von 30 km/h auf dieser Strecke, das auch mittels zweier fester Geschwindigkeitskontrollen („Blitzer“) durchgesetzt wird, die die Luftmessstation auf beiden Seiten wunderschön einrahmen.«

»Die Fahrzeuge bremsen selbstverständlich vor dem Blitzer und beschleunigen danach wieder. Meine Fotos konnte ich heute übrigens völlig unbehelligt und unter Polizeischutz anfertigen. Die Stresemannstraße war aufgrund einer Demonstration von der Polizei gesperrt worden, sodass auf meinen Bildern lediglich Polizeifahrzeuge zu sehen sind. Muss darüber hinaus eigentlich betont werden, dass die Luftmessstation direkt am Fahrbahnrand steht und die Straße durch eine enge Häuserschlucht führt?«

Wiesbaden

Nach diesem kurzen Einblick in das lebendige, bunte und weltoffene Hamburg kommen wir in die hessische Landeshauptstadt Wiesbaden, früher eher als Rentnerstadt verschrien, heute ebenfalls rot-grünes Experimentierfeld. Ergebnis: Immer mehr Geschäfte in der Innenstadt machen dicht.

TE- Leser Franz M. schickt uns Fotos der drei Messstationen.

In der Schiersteiner Straße steht die Messstation direkt an der sechsspurigen Schiersteiner Str. Hier wird die 270 Grad Regel der EU verletzt. Außerdem ist die Messstation mit ihrem Fahrbahnabstand von 20 cm nicht repräsentativ für einen größeren Luftbereich.

In Wiesbaden Süd steht die Messstation außerhalb des Stadtgebietes südlich der Autobahn A66. Adresse Am Hohen Stein. Das ist eine Sackgasse in einem reinen Wohngebiet ohne größere Verkehrsbelastung. Sie entspricht meiner Ansicht nach den EU-Regeln.«

Für TE-Leser Frank M. ist klar:

»Ich habe schon einiges zu dem Thema kommentiert und 5 Punkte herausgearbeitet, die zusammenfassen, was in der Fahrverbotsdiskussion schief läuft:

Fakt ist:

Unsere Autos werden immer sauberer.
Die Luft in den Städten wird immer sauberer.
Alle deutschen Städte halten die Grenzwertregelungen für Feinstaub ein.
Der 40µg/m3-Grenzwert für Stickoxide ist absurd niedrig (im Vergleich der MAK Wert in Deutschland 950µg/m3 und in der Schweiz 6000µg/m3. Er ist in dieser Höhe ohne jegliche medizinische Grundlage.
Würden die EU-Messregeln angewendet, gäbe es selbst mit diesem extrem niedrigen Wert in keiner deutschen Stadt eine Überschreitung der EU-Grenzwertregelungen.
Fahrverbote sind deshalb völlig überflüssig, ja sie sind durch NICHTS gerechtfertigt. »Verhältnismäßig« sind sie schon gar nicht.
Der Dieselskandal ist kein Umweltskandal, sondern ein Politikskandal und ein Medienskandal, denn die meisten Medien berichten falsch, lückenhaft oder verzerrt.«
Sein Fazit: »Mit der Gesundheit des Bürgers hat das alles nichts, aber auch gar nichts zu tun!«

Cottbus

In Cottbus steht eine Luftmessstation in der Bahnhofstraße vor Haus Nummer 56. Diese Straße ist eine der wichtigsten Nord-Süd Verbindungen mit teilweise prächtigen Bürgerhäusern aus der Jahrhundertwende.

Die Messstation steht an dem Straßenabschnitt mit der höchsten Verkehrsdichte und mit regelmäßigem Stau in der Cottbuser Innenstadt. Sie steht etwa ein Meter vom Fahrbahnrand entfernt im Mehrzweckrandstreifen für Parktaschen und Baumscheiben. Danach kommen Radweg und erst dann der Bürgersteig. Ca. 50 Meter von der Messstation kreuzt die Bahnhofstraße die ebenfalls stark befahrene Ost-West-Achse Karl-Liebknecht-Straße.

– je eine Richtungsfahrbahn mit integriertem Straßenbahngleis
– Mittelstreifen als Sperrfläche mit Querungsstellen
– Mehrzweckrandstreifen für Parktaschen, Baumscheiben und Haltestellen
– durchgängigem Radweg beidseitig
– Gehweg beidseitig

Das Ergebnis beschreibt TE-Leser Falko G.: Der Verkehr staut sich wochentags regelmäßig in den Spitzenzeiten vor der Messstation.

Dennoch: Für Stickstoffdioxid zum Beispiel meldet die Station allein in diesem Jahr keinerlei Überschreitung der Grenzwerte – wie übrigens auch alle anderen hier aufgeführten Messstationen im Land Brandenburg.

Dortmund

Bei Tilman K. hat diese seit 2003 existierende Luftmessstation schon immer Kopfschütteln hervorgerufen.

Er schreibt: »Ein 4-spuriger, autobahnähnlich ausgebauter Zubringer (B236 und L633n) verjüngt sich auf eine einspurige Straße, die in einen ampelgesteuerten Kreisverkehr (Borsigplatz) mündet. Davor gibt es eine enge vierstöckige Häuserflucht. Die Messstation steht genau da, wo es zu Rückstaus vor der Ampel kommt.

Bis vor paar Jahren waren hier noch LKW´s erlaubt; jetzt ist die Straße ab 2,8 Tonnen abgeriegelt. Angesichts des hohen Verkehrsaufkommens an dieser Einfallsstraße zur Stadt und den engen Straßen um den Borsigplatz war das eine richtige Entscheidung, hat aber nicht zum Unterschreiten der Grenzwerte geführt.«

Ein Blick in den Umweltbericht der damals noch rot-grünen Landesregierung hält fest:  »Der langfristig zu beobachtende Trend abnehmender Belastung durch Stickstoffdioxid und Feinstaub setzte sich im Jahr 2016 fort. Wie schon im Jahr 2015 konnten die Grenzwerte für Feinstaub PM10 und PM2,5 sowie die Grenz- und Zielwerte der Metallgehalte im PM10 bis auf eine Ausnahme in Bottrop eingehalten werden.«

Die Stellungnahme im alten Bericht dann nach dem Motto »Mehr Drama, Baby«:
»Verglichen mit den Vorjahren ist an den Verkehrsstandorten in NRW bei Stickstoffdioxid weiterhin nur ein geringfügiger Rückgang der Belastung feststellbar. Die Jahresmittelwerte verbleiben auf hohem Niveau. Bezogen auf die Anzahl und Höhe der Grenzwertüberschreitungen ist Stickstoffdioxid weiterhin als derzeit kritischster Luftschadstoff zu bewerten.«

Die Zahlen im Bericht dagegen sagen anderes: 51 µg/m3 des Grenzwertes von 40 µg/m3 – eine Größe, die angesichts der in Frage stehenden Wertes von 40 µg/m3 zu vernachlässigen ist.

Es scheint, als verändere sich zumindest die Tonart unter der neuen NRW-Regierung.

»Luftqualität hat sich im vergangenen Jahr 2017 weiter verbessert«, meldet das Landesamt für Natur, Umwelt und Verbraucherschutz NRW. »Abnehmender Trend bei Stickstoffdioxid-Belastung setzt sich fort. Die Schadstoffbelastung der Luft in NRW hat sich weiter verringert. Das zeigen die Ergebnisse der 2017er Luftqualitätsmessungen des Landesamtes für Natur, Umwelt und Verbraucherschutz (LANUV). Auch in den verkehrsreichen Innenstädten war ein Rückgang der Schadstoffbelastung zu verzeichnen. In Dinslaken, Eschweiler, Halle, Langenfeld, Münster und Remscheid wurde erstmals der EU-Grenzwert für Stickstoffdioxid von 40 Mikrogramm pro Kubikmeter (µg/m³) im Jahresmittel eingehalten.«

Die Daten aller Messstellen wurden vom LANUV validiert. Damit stehen die endgültigen Jahreswerte für das Jahr 2017 fest. Die höchsten NO2-Jahreswerte wurden im Jahr 2017 in Nordrhein-Westfalen wie auch in den Vorjahren in Köln (Clevischer Ring: 62 µg/m³), Düren (Euskirchener Straße: 58 µg/m³) und Düsseldorf (Corneliusstraße und Merowingerstraße: 56 µg/m³) gemessen.

Bedeutet: Die Luft ist also raus.

Unter rot-grün klang alles dramatischer: »Auch in 2016 wurden NO2-Grenzwertüberschreitungen ausschließlich an verkehrsnahen Messstellen registriert. Nach wie vor sind der Kfz-Verkehr und insbesondere die Diesel- Fahrzeuge als Hauptverursacher der hohen NO2-Belastung anzusehen. Ohne eine deutliche Reduktion der Kfz-bedingten Emissionen ist eine absehbare Einhaltung des Immissionsgrenzwertes nicht möglich.«

Also: Verkehrsstopp. Dagegen sagt jetzt die neue Umweltministerin Christina Schulze-Föcking deutlich: »Erklärtes Ziel bleibt es, Fahrverbote zu vermeiden.«
Nordrhein-Westfalen hat übrigens Stuttgart überholt. Das Land, so geht aus dem neuen Bericht hervor, ist sauberer als die Schwabenmetropole, feinstaubmäßig gesehen. Der NRW-Umweltbericht für 2017 stellt für Feinstaub fest: »Die Feinstaubbelastung lag im Jahr 2017 wie auch schon in den Vorjahren flächendeckend in Nordrhein-Westfalen unterhalb der Grenzwerte. Schon seit dem Jahr 2014 kam es in Nordrhein-Westfalen nicht mehr zu Feinstaub-Grenzwertüberschreitungen.«

München

In der bayerischen Landeshauptstadt München hatten wir die Verkehrssituation am Stachus hinreichend gewürdigt sowie die Bemühungen des Oberbürgermeisters, Fahrverbote einzuführen. TE-Leser Dieter F. hat sich gründlich noch in anderen Straßen umgesehen.

»Direkt neben allen Messstellen stehen Laubbäume (unzulässig gemäß 2008/50/EG; Anhang III /C) Diese umhüllen von Frühjahr bis Herbst manche Messstellen komplett. Dies gilt insbesondere für die Messstelle Lothstraße.«


Schicken Sie uns bitte an Tichys Einblick aus Ihrer Stadt Fotos der Messstationen. Bitte notieren Sie den genauen Standort. Aus einem weiteren Foto sollte das Umfeld der Messstation ersichtlich sein. Bitte schicken sie die Fotos an redaktion@tichyseinblick.de; Sie erteilen uns damit automatisch das Recht, Ihr Foto zu veröffentlichen. Wir freuen uns auch über Beiträge aus der Lokalpresse zu diesem Thema.

Vielen Dank!

Der Beitrag erschien zuerst bei Tichys Einblick hier


Hier geht es zu Teil 1 – Messstationen in Stuttgart, Leipzig, Fulda, Magdeburg, Rostock, Marburg und Tübingen

Hier geht es zu Teil 2 – Messstationen in Ludwigsburg, Hannover, München und Siegen




,Earth Hour‘ – eine Kampf­ansage an das gesamte Leben auf unserem Planeten

Bekanntlich sind ja die drei großen Säulen die Grundlage des Lebens auf unserer Erde Wasser, Sonnenlicht und Kohlenstoff. Letzterer steht dem Leben jedoch nur in gebundener Form als CO2 zur Verfügung. Die Natur musste also erst einmal Chlorophyll „erfinden“ und dann die Photosynthese. Das CO2 wurde dadurch aufgespalten in Kohlenstoff, den die Pflanze für sich behielt, und Sauerstoff, der in die Atmosphäre freigesetzt wurde.

Der Verbrauch von CO2 seitens der Pflanzen ist während der Jahrmilliarden der Entwicklung des Lebens inzwischen bis auf einen geringen Rest aufgebraucht – eingelagert in der Erde als sog. „fossile Treibstoffe“, zu einem noch weitaus größeren Teil gebunden in Kalkgestein. Dieser Kohlenstoff steht also dem Kreislauf des Lebens nicht mehr zur Verfügung. Die Natur selbst würde sich auf diese Weise selbst so nachhaltig „dekarbonisieren“, dass sie sich selbst den Ast absägt, auf dem sie sitzt. Dieser Gedanke ist aber auch nicht neu. Am Treffendsten hat dies Patrick Moore zum Ausdruck gebracht, der Mitbegründer von „Greenpeace“, zuletzt in seinem Interview hier auf der Website des EIKE.

Damit zurück zur ,Earth Hour‘ und der Absicht, damit ein Zeichen für ,Klimaschutz‘ zu setzen. Klima ist ja nichts weiter als die Summe von Wetter, und da erhebt sich natürlich die Frage, vor wem oder was man das Wetter eigentlich schützen will. Weiß da jemand eine Antwort? Der Autor dieser Zeilen weiß keine. Das CO2 kann nicht gemeint sein, denn unser Wetter kann unmöglich nur von einem einzigen Faktor abhängen, der noch dazu nur zu einem so winzigen Anteil in der Atmosphäre vertreten ist – 0,04% – 4 von 10.000 Teilen. Oder behauptet jemand, dass dies doch der Fall ist?

Wenn das nicht der Fall ist – was soll dann dieser idiotische Kampf gegen diese Grundlage unseres und des Lebens insgesamt?

Wer oder was kann eine ganze Gesellschaft (der westlichen Welt, heißt das) so nachhaltig einer so gründlichen Gehirnwäsche unterziehen, dass (fast) jeder ,Hurra‘ schreit, wenn es um den Kampf gegen das Leben überhaupt geht? Nicht einmal Terroristen welcher Couleur auch immer haben sich bislang die Vernichtung des gesamten Lebens auf ihre Fahnen geschrieben – wohl aber unsere Politiker und Medien, allen voran die „Süddeutsche Zeitung“.

Fazit: Um es dem Leben als Ganzes zu ermöglichen zu überleben, muss der gebundene Kohlenstoff wieder dem Kreislauf des Lebens hinzugefügt werden. Der Mensch ist die einzige Spezies auf der Welt, der dies zu leisten vermag. Und so schließt dieser Kommentar wie er begann: Wer dem Kohlendioxid den Kampf ansagt, der sagt dem Leben auf der Erde selbst den Kampf an! Was bitte schön ist daran moralisch?!

© Chris Frey, EIKE, März 2018

NACHTRAG: Vor diesem Hintergrund ist es eine gute Nachricht, dass der Erfolg dieser gemeingefährlichen Veranstaltung praktisch gleich Null war, wie Herr Limburg schon am 25.3. hier ausführte.




Interview mit Patrick Moore – Teil 3: Energie und Gesellschaft

Grégoire Canlorbe: Nach den Worten des Ökonomie-Historikers E. A. Wrigley hat die Industrielle Revolution, zu der es auf der Grundlage fossiler Treibstoffe gekommen war, die Entstehung einer „Welt erlaubt, welche nicht mehr dem Rhythmus von Sonne und Jahreszeiten folgt; eine Welt, in welcher das Schicksal der Menschheit zum großen Teil davon abhängt, wie sie selbst die Wirtschaft lenkt und sie nicht von den Launen von Wetter und Ernte lenken lässt; eine Welt, in der Armut in den Stand einer Option geraten ist anstatt notwendige Grenzen menschlicher Produktivität zu reflektieren“. Der Ökonom Deepak Lal, Spezialist für vergleichende Studien von Zivilisationen, hat dies „promethisches Wachstum“ genannt als Gegensatz zum „Smith’schen Wachstum“, welches darauf aufbaut, wie stark das Ausmaß von Arbeitsteilung zunimmt.

Würden Sie so weit gehen, dass wenn man den Horizont des Ökologismus verteidigt, dies genau zu einem traditionellen Wachstum nach Smith zurückführt auf der Grundlage der Arbeitsteilung und einher gehend mit einer Ökonomie organischen Typs (also eine Landwirtschafts-Ökonomie), begrenzt durch das verfügbare urbare Land und gestützt durch Geburtenkontrolle?

Patrick Moore: Das sind sehr gute Fragen. Nun, einer der Widersprüche der grünen Umweltbewegung besteht darin, dass sie all diese moderne Technik von Internet und sozialen Medien benutzen und dass sie dafür die Energie verbrauchen, die jeden Tag ihres Lebens aus fossilen Treibstoffen erzeugt worden ist. Sei es, Energie zur Herstellung des Fahrrades, das sie benutzen oder sei es der Bildschirm, auf den sie starren. Sie nutzen all diese Früchte der modernen Zivilisation, während sie gleichzeitig genau diese moderne Zivilisation verdammen. Das werde ich nie verstehen. Ich meine, es ist doch völlig sinnfrei, und eine Art und Weise, dies zum Ausdruck zu bringen ist, dass man Scheinheiligkeit als Zivilverbrechen einstuft. Falls man dann nachweisen kann, dass man sehr häufig genau das macht, gegen das man kämpft, könnte man sich schuldig machen, und es muss einem verboten werden, das weiter zu tun.

Beispiel: Falls Sie an einer Tankstelle Ihr Auto betanken, sollten Sie vielleicht zuerst eine Frage beantworten: „Unterstützen Sie die Raffinerien und Pipelines und Ölfelder, welche diesen Treibstoff zu dieser Tankstelle bringen mit Rohrleitungen, Tankwagen und so weiter?“ Falls Sie antworten „Nein, ich bin gegen die Pipeline, ich bin gegen das Bohren“, dann sollte man Sie von der Tankstelle verweisen und eventuell Ihr Auto konfiszieren und es jemandem geben, der Benzin darin haben möchte. Für mich ist das eine hochgradig unehrliche Lage, dass wir es mit einer Bewegung zu tun haben, die behauptet, rechtschaffen zu sein und gleichzeitig heuchlerischer ist als man sich überhaupt vorstellen kann, ihr Leben in der Praxis so zu leben, wie sie es tun. Sie erinnern sich an die Pariser IPCC-Konferenz – wo fand sie statt? Direkt neben dem größten Privatflughafen der Welt, so dass alle Leute und deren Jets zu dieser Konferenz kommen konnten. Wie kann man das rechtfertigen? Warum sollten die Menschen jemandem zuhören, der sagt „Der Ölverbrauch muss gestoppt werden!“, und der dann mit seinem Privatjet zu einer Konferenz fliegt, welche sich gegen den Verbrauch von Öl richtet? Das scheint mir ziemlich offensichtlich.

Geht man zurück zum malthusianischen Denken, prophezeite Malthus natürlich, dass es zu Massen-Hungersnöten schon vor Jahrhunderten gekommen wäre, weil seiner Ansicht nach die Erzeugung von Nahrungsmitteln linear ist, während das Bevölkerungswachstum exponentiell ist. Nun, die Wahrheit ist, dass dies inzwischen genau umgekehrt ist. Die Bevölkerung wächst nicht mehr exponentiell; tatsächlich schwächt es sich hinsichtlich einer Exponentialkurve ab. Während die Erzeugung von Nahrungsmitteln exponentiell geworden ist hinsichtlich der Fähigkeit, die gesamte Weltbevölkerung zu ernähren – und genau das sehen wir ja mit unserem Wissen über Genetik und vielleicht noch ein wenig Erwärmung sowie mit viel mehr CO2 in der Atmosphäre – wird die Landwirtschaft auch ohne Schwierigkeit zehn Milliarden Menschen ernähren können.

Gerade heute Vormittag habe ich gelesen, was Richard Lindzen gesagt hat, dass nämlich die Temperatur während der letzten 150 Jahre um etwa 1°C gestiegen ist. Während dieser Zeit hat sich jeder einzelne Aspekt des menschlichen Wohlergehens verbessert, einschließlich Umweltqualität, vor allem in wohlhabenden Ländern, wo wir es uns die Technologie leisten können, die Luft in den Schloten der Kohlekraftwerke oder die Abgase unserer Autos zu reinigen. Was heutzutage aus dem Auspuff eines Autos herauskommt, ist fast durchweg nur Wasser und Kohlendioxid, und beides ist für das Leben unabdingbar. Was ich also sagen will, obwohl die meisten Leute dabei nach Luft schnappen – Tatsache ist, dass fossile Treibstoffe, Kohle, Petroleum, Erdgas zu 100% organisch sind – in der wissenschaftlichen Bedeutung von organisch. Organische Chemie ist die Chemie vom Kohlenstoff, mit anderen Worten, die Chemie des Lebens, und alle fossilen Treibstoffe stammen von Lebewesen, also sind sie zu 100% organisch. Sie sind zu 100% aus Sonnenenergie entstanden. Das war die einzige Energiequelle dafür.

Kohlendioxid und Wasser und Photosynthese sowie die vielen anderen Mineralien, die das Leben auf unserer Erde formen, lassen aus Chlorophyll im Sonnenlicht Zucker entstehen und damit die Basis aller Energie für das Leben auf der Erde. Das ist das Faktum: CO2 ist kein Verschmutzer! Das ist die Ur-Grundlage des Problems, dass man Kohlendioxid als Verschmutzer brandmarkt, als gefährlich für die Zukunft, obwohl es doch die Grundlage des Lebens selbst ist. Das Wichtigste, was also derzeit geschehen muss ist, auf globaler Basis diese Hysterie über CO2 und Klimawandel zu stoppen. Die USA müssen ihr endangerment finding der EPA verwerfen, in welchem CO2 ganz offiziell als „Verschmutzung“ gelistet ist, obwohl es in Wirklichkeit Pflanzendünger ist. Das ist es, was man der Welt klar machen muss.

Ich tue nicht so, als ob ich die Zukunft der menschlichen Zivilisation vorhersagen kann. Ich meine, es gab Katastrophen in der gesamten Historie, es gab und gibt Kriege, Krankheiten, Pestilenz und viele, viele schreckliche Dinge im Verlauf der menschlichen Zivilisation. Klimawandel gehört nicht dazu, aber zu anderen weiteren könnte es in einigen Gebieten kommen. Den meisten Menschen ist gar nicht bewusst, dass über zehn mal mehr Menschen in dieser Welt durch Kälte als durch Wärme sterben. Über zehn mal mehr. Sollte einen nicht schon diese eine Tatsache denken lassen, dass es vielleicht doch etwas wärmer sein sollte? Dann würden weniger Menschen durch Kälte sterben. Das ist doch nur zu offensichtlich.

Die meisten Menschen verstehen nicht einmal, dass wir Menschen eine tropische Spezies sind. Wir entwickelten uns am Äquator in einem warmen Klima. Daher kamen wir, daran haben wir uns angepasst. Darum heizen wir unsere Wohnungen in Frankreich und Kanada. Weil es draußen für uns zu kalt ist, würden wir sonst sterben. Nur mittels Feuer, Kleidung und Schutz in Wohnungen können Menschen außerhalb der Tropen leben. Wie viele Menschen wissen eigentlich, dass man bei +18°C im Schatten an Unterkühlung sterben würde, falls man nackt dort liegen würde?

Darum brauchen wir Wärme so dringend. Wir sind keine Kälte-resistente Spezies; wir haben kein Fettpolster und kein Fell, um uns vor der Kälte zu isolieren, wie es bei Seehunden oder Eisbären der Fall ist. Wenn doch die Menschen endlich aufhören würden, diesen Gedanken so grotesk zu übertreiben, dass es auf der Erde zu warm wird. Vor Millionen Jahren gab es weder am Nord- noch am Südpol Eis. Es gab kein Eis. Wir leben in der ersten Eiszeit seit 250 Millionen Jahren. Vor 250 Millionen Jahren gab es die vorige Eiszeit, aber dazwischen war es warm auf der Erde. Viel wärmer als heute. Jede einzelne heute auf der Erde lebende Spezies hat Vorfahren, die in einer viel wärmeren Zeit lebten. Je länger Spezies auf der Erde leben, und je mehr sich alles verändert, umso belastbarer wird das Leben.

Dann gibt es da die Behauptung eines Konsens‘ von 97% unter Wissenschaftlern, dass die Menschen einen gefährlichen Klimawandel verursachen. Um es gleich zu sagen, das ist eine Lüge, weil es hinsichtlich einer kontroversen Debatte niemals eine Unterstützung von 97% geben kann und wird. Die ureigene Definition einer kontroversen Debatte ist eine, bei der die Menschen geteilter Meinung und sich nicht fast einig sind; sonst gäbe es keine Fragen. Die Tatsache, dass so viele Menschen diese so genannte „Wahrheit“ eines gefährlichen Klimawandels hinterfragen ist in sich schon ein Beleg, dass es keinen Konsens gibt. Damit kommen wir zu dem wirklich wichtigen Punkt: Konsens ist kein wissenschaftlicher Terminus, sondern ein politischer und sozialer, und man darf diesen Terminus im Bereich der Wissenschaft niemals verwenden. Fast alle bedeutenden Entdeckungen in der Wissenschaft wurden von Individuen gemacht, von Sokrates bis Einstein. Alle diese Individuen stellten sich gegen den jeweiligen Konsens zu ihrer Zeit, häufig der Gefahr für Leib und Leben ausgesetzt.

Meiner Erfahrung nach sind es immer die an der vordersten Front stehenden Menschen, die Fortschritten den Weg bahnen, welche geschmäht und kritisiert werden. Dieser 97%-Konsens stammt von Leuten, die so blasiert und selbstsicher hinsichtlich ihrer Rechtschaffenheit sind, dass es nichts mit Wissenschaft zu tun hat. Es ist vielmehr eine anmaßende und scheinheilig tugendsame Bewegung, welche sämtliche anderen Aspekte der Diskussion verwirft, ganz so, als ob sie Götter wären, obwohl in Wirklichkeit der Terminus „der Kaiser hat ja gar nichts an!“ der richtige wäre für diese Situation. Darum bringt Donald Trump so frischen Wind in diese Sache. Ich bin kein Politiker und habe keine Meinung zu all den ökonomischen und sozialen Belangen, aber ich habe eine sehr feste Meinung beim Thema Klima, und die geht sehr stark in die gleiche Richtung wie Präsident Trump. Ich kann nur hoffen, dass die Welt diese lächerlichen Untergangsszenarien rund um Kohlendioxid bald ausmerzt, ist dieses Gas doch das wichtigste Nahrungsmittel für das gesamte Leben.

Link: https://wattsupwiththat.com/2018/03/13/a-conversation-with-patrick-moore/

Übersetzt von Chris Frey EIKE




Behaup­tungen über Beschleu­nigung des Meeres­spiegel-Anstiegs – gescheitert!*

Unter den Referenten bei dieser Anhörung fand sich auch Dr. James Hansen vom Goddard Institute for Space Studies der NASA, welcher seine infamen und jetzt widerlegten Ergebnisse der globalen Temperatur-Modelle vorstellte mit Temperaturprojektionen unter drei verschiedenen Szenarien der Zunahme von CO2-Emissionen. Diese haben den daraus resultierenden globalen Temperaturanstieg drastisch überschätzt:

Ebenfalls bei der Anhörung kam Dr. Michael Oppenheimer zu Wort, ein leitender Wissenschaftler beim Environmental Defense Fund. Er präsentierte Behauptungen, unter denen sich auch Projektionen des zukünftigen Meeresspiegel-Anstiegs befanden, zu welchem es während der kommenden Jahrzehnte kommen sollte.

Im Einzelnen behauptete Dr. Oppenheimer, dass…

dieser Anstieg der globalen Temperatur einen damit einhergehenden Anstieg des globalen Meeresspiegels verursacht infolge Wärmeausdehnung des Ozeanwassers und schmelzendem Inlandeis.

die globale Mittlere Temperatur wahrscheinlich im nächsten Jahrhundert um 0,3°C pro Jahrzehnt und der Meeresspiegel um etwa 6 cm pro Jahrzehnt steigen wird. Diese Raten sind 3 bis 6 mal höher als die historischen Raten.

weil sich die Ozeane nur langsam erwärmen, es eine Verzögerung zwischen Emissionen und dem vollen Einsetzen der daraus resultierenden Erwärmung gibt – eine Verzögerung von vielleicht 40 Jahren. Auf der Welt ist es derzeit ca. 0,5°C wärmer als vor einem Jahrhundert und dürfte sich um den gleichen Betrag weiter erwärmen, SELBST WENN DIE EMISSIONEN HEUTE BEENDET WERDEN.

Die EIA zeigt, dass die globalen Emissionen seit 1988 um über 60% zugenommen haben, und zwar um 13 Milliarden metrische Tonnen CO2 pro Jahr. Dr. Oppenheimer fuhr fort:

Diese Änderungen sind effektiv unumkehrbar, weil Treibhausgase langlebig sind.

Diese Erwärmung erfordert einige Anpassungsmaßnahmen wie etwa Deichbau. Das Aufgeben küstennaher Gebiete ist unvermeidlich.

Nunmehr 30 Jahre sind vergangen seit diesen düsteren Warnungen vor einem beschleunigten Anstieg des Meeresspiegels, welche auf der Anhörung präsentiert worden waren. Während dieses Zeitraumes sind die globalen CO2-Emissionen um über 60% gestiegen.

Mit Sicherheit müsste es nach 30 Jahren Anzeichen des damals projizierten beschleunigten Anstiegs sowie der anderen Vorgänge geben, und ebenso „Deichbauten und Aufgabe von Küstengebieten“ – so diese Projektionen eingetroffen wären.

Die NOAA hat soeben sein ausgedehntes Netzwerk von Tidenmesspunkten aktualisiert (142 Messpunkte) und die Messungen aus dem Jahr 2017 mit erfasst.

Diese gemessenen Daten zeigen unverdrossen, dass es während der letzten drei Jahrzehnte keine Beschleunigung des Anstiegs des küstennahen Meeresspiegels an diesen Punkten gegeben hat – obwohl dies auf der Anhörung damals hypothetisiert worden war.

Die NOAA unterhält Aufzeichnungen von Tidenmesspunkten an 16 Stellen, welche 99 Jahre oder noch länger zurück reichen. Sie stehen an der Pazifik-, der Atlantik- und der Golfküste. In der folgenden Graphik sind Beispiele am Battery Park in New York, San Francisco in Kalifornien, Honolulu und Key West in Florida gezeigt:

Die an den NOAA-Tidenmesspunkten ermittelten Raten eines Meeresspiegel-Anstiegs sind konsistent mit den Trends, welche 10 oder noch mehr Jahrzehnte zurückreichen. Sie zeigen, dass von dem behaupteten, vom Menschen verursachten Anstieg des Meeresspiegels keine Spur zu finden ist.

Diese Messergebnisse zeigen, dass natürliche Klimatreiber den Anstieg des küstennahen Meeresspiegels steuern, und nicht menschliche CO2-Emissionen.

Außerdem stellen diese Ergebnisse ernsthaft die Validität der Wissenschaft hinter dem Anstieg des globalen Meeresspiegels in Frage sowie diesbezügliche Abschätzungen und Behauptungen.

Link: https://wattsupwiththat.com/2018/03/14/1988-congressional-climate-change-hearing-claims-of-accelerating-sea-level-rise-failed/

Übersetzt von Chris Frey EIKE




Zwei Mythen zu CO2 und Klimawandel

Wissenschaftlich ist es ziemlich anders. Tatsächlich ist es ziemlich komplex, weshalb die Wissenschaft vom Klimawandel so breit diskutiert wird.

CO2 in der Luft fängt keine Wärme ein

CO2 führt der Atmosphäre Wärme zu und entfernt sie auch wieder daraus, so dass die Wärme sicher nicht eingefangen wird. CO2 ist ein sekundäres Treibhausgas, und Wasserdampf das primäre Treibhausgas. Ein Treibhausgas bedeutet zweierlei, denn es führt der Atmosphäre Wärme zu und entfernt diese auch wieder aus derselben.

Alles fängt damit an, dass die Sonne die Erdoberfläche aufheizt. Ein Teil dieser Energie wird dann als Infrarot wieder abgestrahlt, was gemeinhin „langwellige Strahlung“ oder LWR genannt wird. Ein großer Teil dieser LWR durchläuft einfach die Atmosphäre und wird in den Weltraum abgestrahlt, wo sie für immer verschwunden ist. Aber ein geringer Teil dieser Wärme wird von Treibhausgas-Molekülen eingefangen und absorbiert.

Diese energetisch angereicherten Moleküle geben dann diese absorbierte LWR als Wärme in die übrige Atmosphäre ab. (Wärme ist keine Substanz, sondern vielmehr eine molekulare Bewegung). An diesem Punkt kann man also sagen, dass CO2 die Atmosphäre erwärmt hat, und so weit gehen auch die Alarmisten. Was diese aber nicht erwähnen – diese Wärme reichert andere Treibhausgas-Moleküle an, diese geben ihre LWR ab und entfernen somit die Wärme.

Die Energie tritt also als LWR in die Luft ein und wird zu Wärme, um danach wieder als LWR abgestrahlt zu werden und damit verschwunden ist. In diesem Prozess wird keine Wärme eingefangen. Es gibt immer Einiges an Wärme in der Luft im Zuge dieses Prozesses, aber es ist wie Menschen, die ein Geschäft betreten, dann anstehen müssen, bis sie bedient werden, wonach sie den Laden wieder verlassen. Niemand wird gefangen.

Hat man einmal erkannt, das keine Wärme eingefangen wird, kann man fragen, ob hinzugefügtes CO2 die Wärmemenge notwendigerweise in der Luft erhöht (und damit auch die Temperatur). Dank der Komplexität des Klimasystems ergibt sich die Antwort ,nicht notwendigerweise‘. Vielmehr geht aus Satellitenbeobachtungen hervor, dass es keine CO2-Erwärmung gegeben hat seit Beginn derartiger Aufzeichnungen vor etwa 40 Jahren.

Die CO2-Zunahme ist nicht unseren CO2-Emissionen geschuldet

Es ist unstrittig, dass der CO2-Gehalt der Luft gegenwärtig zunimmt. Normalerweise wird dies zurückgeführt auf unsere Freisetzung von CO2 in die Atmosphäre, wo ein großer Teil davon verbleibt und sich Jahr für Jahr akkumuliert. Dies ist mehr oder weniger das Standardkonzept von Verschmutzung, was die Alarmisten unablässig hervorheben, aber das ist nichts, was irgendwie mit der CO2-Zunahme verbunden ist.

Was die Alarmisten aber beharrlich verschweigen ist, dass unsere CO2-Emissionen winzig sind im Vergleich zu den natürlich auftretenden Emissionen. Tatsächlich emittieren und absorbieren natürliche Prozesse etwa 25 mal die Menge, die wir emittieren (die tatsächliche Menge wird nicht gemessen). Diesen gewaltige natürliche Fluss von CO2 in die Luft hinein und wieder heraus nennt man den „Kohlenstoff-Fluss“. Er ist Bestandteil der Kohlenstoff-Kreislaufes, welcher alles Leben auf der Erde erst möglich macht.

Der Punkt hier lautet, dass angesichts dieses gewaltigen Kohlenstoff-Flusses ziemlich viel des von uns emittierten CO2 innerhalb nur weniger Jahre wieder verschwindet. Um 25% der CO2 in der Luft wird jedes Jahr durch natürliche Prozesse absorbiert, einschließlich des CO2, das wir in die Atmosphäre einbringen.

Dies bedeutet, dass die CO2-Zunahme in der Luft nicht durch unseren CO2-Ausstoß zustande kommt. Unser CO2 kann die Zunahme bewirken oder auch nicht, aber die Zunahme geht nicht ausschließlich auf uns zurück. Einfach gesagt: die CO2-Zunahme ist nicht unserem CO2 geschuldet.

Unter dem Strich: Immer wenn man in einem Artikel etwas von Wärme einfangender CO2-Verschmutzung liest, weiß man, dass das Humbug ist. Die CO2-Zunahme geht nicht auf menschliche Emissionen zurück und führt nicht zu einer Erwärmung der Atmosphäre.

Link: http://www.cfact.org/2018/03/13/two-co2-climate-change-myths/

Übersetzt von Chris Frey EIKE




STICKOXIDE und der DIESELMOTOR (1)

Reinhard Marx

  1. Chemische Gleichgewichte

     Reaktion A: N2 + O2   ↔   2 NO („Stickstoffverbrennung“)

In einem Dieselabgas mit 74% Stickstoff und 6% Sauerstoff (s.u.) sind im chemischen Gleichgewicht folgende Stickoxide (NO) auf Grund der thermodynamischen Daten zu erwarten:

_________________________________________________________

bei     25°C            1 Zehnmillardstel ppm (= fast gar nichts)

bei   700°C          45 ppm

bei 1.200°C    1.300 ppm

bei 2.700°C 13 % (in Luft mit 23% O2), = 130.000 ppm

_________________________________________________________

Die Gleichgewichtskonzentrationen geben aber noch nichts über die Reaktions-geschwindigkeiten an, weder zur Bildung noch zur Zersetzung. Dazu wird berichtet, dass unterhalb 700°C die Verbindung NO metastabil ist und sich praktisch nicht verändert, also weder sich bildet noch sich zersetzt; wenn also bei sehr hohen Temperaturen sich eine deutliche Menge gebildet hat und das Gasgemisch sehr schnell bis auf 700°C oder weniger abgeschreckt wird, bleibt viel des erhaltenen NO bestehen. Solches wurde früher im sogenannten „Nitrum“-Verfahren zur Luftverbrennung im Lichtbogenofen ( ̴ 2700°C !) durchgeführt (Herstellung von Salpetersäure).

Das Gas NO ist farblos und hat nur ein sehr geringes Lösungsvermögen in Wasser.

       Reaktion B: 2 NO + O2   ↔   2 NO2 („Oxidation von Monoxid zu Dioxid“)

In Luft mit 23 % Sauerstoff und bei 25°C liegt das Verhältnis Dioxid zu Monoxid (NO2 : NO) bei über 500.000.

So ist in Luft bei 25°C praktisch kein NO mehr neben NO2 vorhanden, die Reaktion ist aber sehr temperaturabhängig, und sie verläuft relativ schnell.

Bei ca. 480°C wird sie bereits endotherm, und der Zerfall von NO2 in NO und Sauerstoff setzt verstärkt ein, was bei 650°C so gut wie vollständig ist.

Das braune Gas NO2 löst sich gut in Wasser nach der Formel 2 NO2 + H2O → HNO2 + HNO3, die salpetrige Säure ihrerseits ist aber nicht beständig und zersetzt sich nach der Formel 3 HNO2 → HNO3 + H2O + 2 NO. Das dabei gebildete NO ist ein Problem bei jeder Gaswäsche, weil es sich erst wieder oxidieren muss, um weiter ausgewaschen werden zu können, häufig aber vorher entweicht.

  1. Emissions-Konzentrationen

Man spricht häufig von NOx-Konzentrationen, weil sowohl NO als auch NO2 vorhanden sein kann. Die Gleichgewichtsbetrachtungen zeigen aber, dass bei Raumtemperaturen praktisch nur NO2 vorhanden ist, es bildet sich aus NO und Luftsauerstoff ziemlich schnell. Bei hohen Temperaturen (Verbrennungen) kann sich aber nur NO bilden, das nach Abschreckung und bei Sauerstoffanwesenheit so gut wie vollständig verschwindet und so zu NO2 wird.

In der Industrie besagen die Abgasvorschriften, dass die Emissionskonzentration von NOx nicht höher als 100 mg/Nm3 ( ̴ 77 Gew.ppm) sein darf; es wird im Abgaskamin gemessen. Um diesen Wert zu erreichen, werden stickoxidhaltige Abgase normalerweise in einer Gaswäsche behandelt, wobei die Waschflüssigkeit alkalisch sein muss. Der Stickstoff wird so aus der Gasphase in eine Abwasserphase überführt und kann dort zu weiteren Schwierigkeiten führen, die aber beherrschbar sind (z.B. durch biologische Abwasserbehandlung).

Die emittierten NOx-Mengen führen nun in der Umgebung der Emissionsquelle zu Immissionen, deren zulässige Konzentrationen folgendermaßen definiert sind:

40 µg/Nm3 im Jahresmittel, höhere vereinzelte Spitzenwerte dürfen 200 µg/Nm3 während

1 Stunde nicht überschreiten.

Gemessen wird in einiger Entfernung von der Emissionsquelle und in der Nähe menschlicher Wohnungen unter Berücksichtigung der herrschenden Windrichtung. Die Messpunkte werden von den Überwachungsbehörden festgelegt. Das Verhältnis zwischen zulässiger Emissions- und Immissionskonzentration beträgt bei NOx also 2.500:1 (= erforderlicher Verdünnungsfaktor).

(1 Nm3, „Normkubikmeter“, ist der Kubikmeter bei 0°C und dem Druck von 1 atm oder 760 Torr)

An den Arbeitsplätzen in der Industrie gilt der sogenannte MAK-Wert („maximale Arbeitsplatzkonzentration“), er beträgt für Stickoxide 0,95 mg/Nm3 (= 950 µg/Nm3 oder 735 µg/kg), früher war er noch erheblich höher eingestuft. Dieser Wert bedeutet, dass die Beschäftigten während acht Stunden und fünfmal in der Woche dieser Konzentration maximal ausgesetzt sein dürfen – wobei keine gesundheitliche Beeinträchtigung zu befürchten wäre.

Verteilte man die 40 h Wochenarbeitszeit mit einer Belastung von 950 µg/Nm3 gleichmäßig auf die Gesamtzeit von 168 h in der Woche, ergäbe sich ein Durchschnittswert von 226 µg/Nm3, unter der Annahme, dass in den 128 Stunden Freizeit gar keine Belastung besteht. Dieser Wert entspricht etwa der zugelassenen kurzfristigen Immission von 200 µg/Nm3.

  1. Verhältnisse bei Dieselmotoren

Die Verbrennung des Kraftstoffs in Dieselmotoren muss mit einem deutlichen Luftüberschuss erfolgen (λ ≥ 1,3), andernfalls wäre mit starker Rußbildung zu rechnen. Die Verbrennungstemperaturen im Zylinder sind sehr hoch (>> 1000°C), also erfolgt mit dem überschüssigen Sauerstoff auch eine Oxidation des Luftstickstoffs (s.o.), das gebildete NO wird dann sehr schnell in den Auspuff geleitet und unter 700 °C abgekühlt, so dass das unerwünschte Gas sich nicht weiter zersetzen kann und zu Emissionsproblemen führt. Im heißen Auspuff bei etwa 700°C werden 600-800 Vol.ppm gefunden (TÜV Essen, z.T. auch etwas weniger oder mehr). Das deckt sich gut mit obigen Berechnungen: Wenn bei 1200°C während der Verbrennung ̴ 1.300 ppm NO gebildet werden, so haben sie sich bei 700°C noch nicht bis auf < 100 ppm wieder zersetzt wegen der Geschwindigkeit der Abkühlung.

Bei stationären Großanlagen könnte jetzt wieder die schon erwähnte alkalische Gaswäsche installiert werden, was aber bei beweglichen Fahrzeugen nicht durchführbar ist. Hier bietet sich ein anderes Verfahren an: Das heiße Abgas wird mit einer wässerigen Lösung von Harnstoff behandelt, wobei nur die Stoffe N2, CO2 und H2O entstehen. Die summarische Reaktionsgleichung wäre ganz grob folgende:

CO (NH2)2 + H2O + 3 NO     →     5/2 N2 + CO2 + 3 H2O

Allerdings verläuft die Reaktion über Zwischenstufen, wobei auch NH3 (Ammoniak) gebildet wird; eine katalytische Unterstützung ist erforderlich. Das zeigt, dass die Dosierung der Harnstofflösung sehr genau erfolgen muss. Wird zu wenig eingespritzt, bleibt unbehandeltes NO übrig, bei einer Überdosierung entstehen Zersetzungsprodukte des Harnstoffs, die ebenfalls unerwünscht sind. Die Dosierung hängt weiter auch davon ab, wie hoch die Drehzahl des Motors ist, und wie viel Kraftstoff gerade zugegeben wird – einem Rechner müssen alle Einflussgrößen zugeführt werden, und der sorgt dann automatisch für die richtige Dosierung der 32,5 %-igen Harnstofflösung (als „AdBlue“ im Handel). Gemäß obiger Formel kann mit 1 kg Harnstoff 1,5 kg Stickoxid unschädlich gemacht werden; bezogen auf den Kraftstoffverbrauch, sei je nach Fahrweise mit 2 – 8 % Harnstoffeinsatz zu rechnen.

Weitere veröffentlichte Kennzahlen zum Dieselmotor: Je Liter Kraftstoff werden ca. 14 m3 Luft benötigt (bei λ= 1,4 als Überschussfaktor) und etwa 2,65 kg CO2 erzeugt. Seine Dichte beträgt 0,84 kg/l und der Heizwert 9,7 kWh/l.

  1. Theoretische Verbrennungsrechnung im Dieselmotor:

Man kann folgende vereinfachte Reaktionsgleichung aufstellen, bei der als Kraftstoff Cetan genommen ist, Lambda mit 1,4 gerechnet wird und 800 ppm NO im Abgas entstehen sollen:

______________________________________________________________________________

C16H34 + 24,5 O2 + 93,75 N2 + λ-Luft      16 CO2 + 17 H2O + 93,75 N2 + 0,1 NO + λ-Luft

226           784             2625        1363               704            306           2625            4         1359

______________________________________________________________________________

Die Zahlen sind die Molekulargewichte in g; addiert ergibt sich, dass 226 g Kraftstoff 4.772 g Luft (=3.690 l) erfordern. Im Abgas werden 4 g NO aus der λ-Luft gebildet, es hat folgende Zusammensetzung :

                     Gewichts-%     Volumen-%                                

Stickstoff           73,4                75,3

Sauerstoff            6,3                  5,6

CO2                   14,1                  9,2

Wasserdampf       6,1                  9,8

Stickoxid NO       0,080              0,077 (unbehandelt, unverdünnt) 

__________________________________________________________

Die Abgasmenge beträgt 18,1 m3/kg oder 15,2 m3/l Kraftstoff. Als Luftbedarf ergibt sich 16,3 Nm3/kg oder 13,7 Nm3/l. Vielleicht wäre noch folgende Zahl interessant: Ein Fahrzeug, das einen Verbrauch von 5 l/100 km hat und mit einer Geschwindigkeit von 50 km/h fährt, würde minütlich 833 m zurücklegen und dabei 42 ml (=35 g) Kraftstoff verbrauchen und rund 0,6 m3 Abgas produzieren.

Damit ein konzentriertes Abgas mit ca. 800 ppmgew NO in den Bereich dessen gelangt, das in der Industrie genehmigt ist (= 77 ppmgew), müsste es zunächst zehnfach verdünnt werden, was bei einem fahrenden Automobil, das minütlich beispielsweise 0,6 m3 ausstößt, leicht geschieht, eine weitere Verdünnung um den Faktor 105 wäre erforderlich, um den MAK-Wert zu erreichen. 0,6x10x105 = 630 m3 (= z.B. 2,5 m x 2,5 m x 100 m), ein Volumen, das ein Fahrzeug in 14 Sekunden durchfährt, so dass selbst diese Verdünnung kein Problem darstellt. Schwieriger wird es, den festgesetzten Immissionswert von 40 µg/Nm3 zu erreichen, der eine weitere Verdünnung um das 24-fache erforderte.

Das unverdünnte Abgas ist mit Sicherheit gesundheitsschädlich, sogar giftig beim direkten Einatmen (nach Abkühlung !), allein schon wegen seines hohen CO2-Gehaltes, eine Verdünnung ist also erforderlich. Der Faktor von 1 : 1.000 ist nicht schwer zu erreichen, wie dargestellt, um an den MAK-Wert des NOx zu gelangen. Trotzdem ist die Maßnahme, bei Fahrzeugstillstand den Motor abzustellen, wenn man sich im dichten Stadtverkehr befindet, richtig. Daraus resultiert, dass auch ein häufiges Wiederstarten erforderlich wird, was die Starterbatterie stark belastet. Die Batteriehersteller haben dieser Anforderung allerdings bereits Rechnung getragen.

Aus diesen Betrachtungen ergibt sich, dass bei dichtem Verkehr und Windstille sich NOx-Konzentrationen über dem Immissionsgrenzwert ergeben können. Das kann aber nicht durch eine wie auch immer geartete „Software“ verhindert werden, vielleicht nur etwas gemindert werden – die Naturgesetze der Verbrennung lassen sich nicht ändern. Die Anwendung der Harnstoffeinspritzung ist für so tiefe Grenzwerte wie 40 µg/Nm3 eine reale Möglichkeit, also das Anbringen einer „Hardware“, um bei der gängigen Wortwahl zu bleiben. Ob der Wert von 40 µg/Nm3 allerdings wirklich erforderlich ist, sollte noch einmal gründlich überprüft werden. Der gültige und bereits reduzierte MAK-Wert ist mit Sicherheit nach langen Untersuchungen festgelegt worden, eine geforderte weitere Reduzierung um das 24-fache für den Straßenverkehr erscheint um ein Vielfaches überzogen ! Der zeitweise bereits zulässige Immissionswert von 200 µg/Nm3 (21 % des MAK-Wertes) wird von Dieselfahrzeugen so gut wie nie in der Realität erreicht und sollte als Grenzwert eingeführt werden, weil er durchaus noch als gesundheitlich ungefährlich betrachtet werden muss. Damit erübrigte sich die große Aufregung über die „schrecklichen“ Dieselemissionen, und der „Skandal“ bezöge sich nur noch auf die betrügerischen Versprechungen einiger PKW-Hersteller.

Es sei noch auf eine relative Zahl hingewiesen, die bei NOx und auch bei CO2 gerne angeführt wird: Die Emissionsmenge je gefahrenen Kilometer. Das ist überhaupt keine technische Zahl, und sie sollte vollkommen unterbleiben. Die Emissionen hängen allein vom Kraftstoffverbrauch (in kg oder l) und vielleicht auch der Fahrweise ab – ein mit laufendem Motor stehendes Fahrzeug emittiert pro Kilometer unendlich viel ! Wer viele Liter Kraftstoff verbraucht, emittiert auch viele Mikrogramm NOx.

Bei Otto-Motoren wird ohne Luftüberschuss gearbeitet (λ = 1), dabei kann sich so gut wie kein NO bilden, wohl bleibt aber immer etwas unverbranntes CO übrig, das dann mittels zugeführter Luft an dem bekannten nachgeschalteten Katalysator zu CO2 umgesetzt und unschädlich gemacht wird.

 




Ärzte brauchen auf den Klimawandel medizinische Antworten…

Nach der Kältewelle steigen endlich die Temperaturen. Doch ein massiver Wetterumschwung erhöht auch das Risiko für einen Infarkt

Inzwischen kommen die Bürger auch mit dem Wetter nicht mehr alleine zurecht. Ist es Winter, muss die WHO bereits Kleidungstipps geben und auf die Kälte hinweisen [3], wohl weil zu Viele fest davon überzeugt sind, dass seit dem ominösen Klimawandel keine Winter mit Kälte vorkommen können und nicht mehr gelernt haben, wie Kleidung wärmt. Bald wird auch in Vergessenheit geraten, wofür Heizungen da sind. In Zukunft stellt diese eine App ein und das Wissen darüber, was diese App eigentlich macht, geht unwiederbringlich verloren.
Kommt zusätzlich ein Wetterumschwung, ist der Bürger inzwischen jedoch ganz neuen Gefahren ausgesetzt. Denn solche sind schnell tödlich und nehmen, wie es jeder lernt, durch den Klimawandel immer mehr zu.
Kein Wunder, dass unsere Ärzte die Gefahr erkannt haben und immer tiefschürfender zum Klimawandel-Krankheits-Zunahmerisiko forschen.

Inzwischen sind aus diesem Forschungszweig bereits Erfolge sichtbar: Auf einem Herzkongress in Orlando (USA) wurden erste, harte Fakten präsentiert. Und diese sind geradezu erschütternd:
Jeder Temperatursprung von einem Tag zum nächsten mit 5 Grad Differenz erhöht die Herzinfarktrate um satte 5 % [3]. 30.000 Herzpatienten wurden dazu untersucht. Und weil es so viele waren – und die Anzahl der Daten in der Klimawandelforschung nach einhelliger Expertenmeinung die Qualität ausmacht [5] -, kann das Ergebnis nicht falsch sein.

Wie schlimm wird es besonders gefährdete Gebiete Deutschlands, wie zum Beispiel Franken, treffen?

Wie zufällig kam gleich zur SZ-Meldung am folgenden Montag in einer Lokalzeitung die Zusatzinformation, dass Franken besonders vom Klimawandel getroffen ist
nordbayern: [4] In Franken und der Oberpfalz ist der Klimawandel längst da.
In Bayern ist es damit bereits so schlimm, dass ihn die bayerische Umweltministerin mit den Händen greifen kann, wie sie einmal berichtete.
Wer nun in einer solch gefährdeten Gegend von Deutschland lebt, wo jeden Tag das Infarktrisiko dramatisch ansteigen kann und diese Gefahr auch noch deutlich zunehmen wird, möchte natürlich wissen, wie hoch diese einzuschätzen wäre. Leider hat diese ganz praktische Frage die SZ-Journalisten nicht mehr interessiert und so blieben ihre Leser damit vollkommen alleine gelassen.
Zum Glück ist der Autor ebenfalls von dieser Fragestellung betroffen, weshalb er sich die von der SZ versäumte Mühe gemacht hat, die Auswirkungen auf im besonders gefährdeten Franken wohnende Bayernbürger abzuschätzen.

Gefährdungsanalyse Franken

In Franken liegt Nürnberg mit einer DWD Wetterstation, ID: 3668. Deren Wetterdaten sind anbei mit den Infarkt-Risikodaten ausgewertet.
Laut den amerikanischen Ärzten ist die Temperaturdifferenz von einem Tag zum anderen die kritische Belastung. Bild 1 zeigt dazu den Absolutwert des Tages-Maximum zum Vortags-Minimalwert. Die Differenzen sind schon gewaltig und die relevanten 5 Grad Temperaturdifferenz häufig überschritten, was bedeutet: Es ist fast ständig eine deutliche Erhöhung der Infarktgefahr vorhanden.

Bild 1 Temperaturdifferenz Absolutwert des Tages-Maximum zum Vortags-Minimum mit gleitendem Jahresmittel (weiß) von 1950 – 2017 der DWD-Station Nürnberg (blau).

Im Folgebild sind die Werte in die „ereignisrelevanten“ 5 Grad-Sprünge geclustert, von denen jeder +5 % Infarktrisiko darstellt.

Bild 2 Die Daten von Bild 1 als Anzahl von 5 Grad Sprüngen (braun). Gleitendes Jahresmittel (weiß)

Daraus bleibt nur ein Fazit übrig: Die Temperaturwechsel haben einen hohen Anteil an der Infarktrate.

Beim Ansehen dieser Auswertebilder (-Mittelwerte) kommt man vom Thema „Temperatur-Differenz-bedingte Infarktraten-Eintrittswahrscheinlichkeits-Erhöhung“, jedoch sofort zu einer anderen Fragestellung.

Wo ist die gemeldete, Klimawandel-bedingte Verstärkung?

Im SZ-Artikel wird darauf hingewiesen, warum die „Infarkt-Erkenntnis“ so wichtig ist: Früher waren abrupte Temperaturwechsel scheinbar eine Ausnahme, während sie aufgrund des Klimawandels inzwischen normal sind und sogar weiter zunehmen:
SZ: [3] Diese Forschung wird wichtiger, denn mit dem Klimawandel häufen sich Wetterextreme. Abrupte Temperaturwechsel von Tag zu Tag sind dann keine Ausnahme mehr …

Leider widersprechen bereits die Bilder 1 und 2 dieser Aussage der Süddeutschen Zeitung. Weder absolut, noch geclustert haben sich die relevanten Temperaturdifferenzen seit Beginn der Messreihe (und das ist genau der Beginn des starken Klimawandels) signifikant verändert. Und dass sie heutzutage gegenüber früher zugenommen hätten, oder würden, zeigen die bisherigen, beiden Auswertebilder ebenfalls nicht.

Die SZ-Aussage einer Erhöhung der Temperatur-Differenzen ist falsch

Wenn die Bilder 1 und 2 stimmen, muss sich die angegebene Häufung der Temperatur-Differnezextreme wo anders verstecken.
Deutschland ist beim Wetter nicht so extrem, wie die USA. Es könnte also sein, dass bei uns erst die Temperaturdifferenz von zwei Tagen das relevante Ergebnis liefert.
In den folgenden Grafiken sind nun dazu die Differenzen nach Absolut- und Maximalwerten dargestellt. Doch unabhängig, wie man auswertet, das Ergebnis lautet: Es gibt keine Erhöhung der Temperaturdifferenzen.

Somit bleibt nur eine Schlussfolgerung übrig:
Die Aussage in der SZ: [3] denn mit dem Klimawandel häufen sich Wetterextreme. Abrupte Temperaturwechsel von Tag zu Tag sind dann keine Ausnahme mehr …, ist ganz einfach falsch!

Es ist nicht erkennbar, dass die gestiegenen Temperaturen zu mehr Extremen führen. Und das bestätigen auch die weiteren Temperaturdifferenz-Auswertungen. Bild 5 zeigt sogar eindeutig eine erhebliche, negative Korrelation zwischen CO2-Eintrag und Vortages-Temperaturdifferenz.

Bild 3 Absolute Temperaturdifferenz zweier Folgetage Min. zum Maximumwert mit gleitendem Jahresmittel von 1950 – 2017 der DWD-Station Nürnberg

Bild 4 Maximale, absolute Temperaturdifferenz während ein- bis zweie Folgetagen, Min. zum Maximumwert mit gleitendem Jahresmittel von 1950 – 2017 der DWD-Station Nürnberg

Nun könnte es sein, dass nicht die Maximalwerte, sondern nur das Tagesmittel vom Klimawandel betroffen ist. Anbei deshalb die absolute Differenz des Tagesmittels zum Vortagesmittel. Deren Differenzen haben durch den „Klimawandel“ eindeutig abgenommen. Gut erkennbar darin die (negative) Korrelation zwischen CO2-Konzentratio und Abnahme der Tagesmittel-Differenzen.

Bild 5 Differenz Tagesmittel zum Vortag von 1950 – 2017 der DWD-Station Nürnberg (braun). Gleitendes Jahresmittel (schwarz, Maßstab rechts). Darüber kopiert der CO2-Konzenrationsverlauf von 1970 – 2015 (blau)

Findet sich der Klimawandel-Einfluss, wenn man noch weiter zurückschaut?

Nun könnte es sein, dass die Auswertung falsch ist, weil der Zeitraum der Nürnberger Datenreihe zu kurz ist. Im Artikel der nordbayerischen Nachrichten findet sich dazu nämlich eine Hinweis:
nordbayern: [4] … Extreme Wetterereignisse wie der Starkregen vor zwei Jahren waren in den letzten 15 Jahren in Deutschland wesentlich häufiger als im Jahrhundert davor ...
Man muss wohl das ganze, vorherige Jahrhundert auswerten, um mit den letzten 15 Jahren vergleichen zu können. Leider findet sich dazu keine Station in Franken (mit Tagesauflösung), doch die Datenreihe von Aachen reicht zum Beispiel so weit zurück.
Also das Analysespiel anhand der Tagesdaten von Aachen nochmals durchgeführt. Das Ergebnis:
Es zeigt sich nun noch deutlicher, dass der ominöse Klimawandel die Temperaturdifferenzen nicht erhöht.
Leider endet die Messreihe von Aachen mit dem Jahr 2011, so dass von den wichtigen, letzten 15 Jahren einige fehlen. Der Autor wagt jedoch die Behauptung, dass diese letzten, fehlenden Jahre am Auswerte-Ergebnis wenig ändern würden.

Bild 6 Temperaturdifferenz Tagesmittel zum Vortag und gleitendes Jahresmittel (Maßstab rechts)von 1891 – 2014 der DWD-Station Aachen (ID: 3)

Bild 7 Temperaturdifferenz des Vortages-Min. zum Maximumwert des Folgetages und gleitendes Jahresmittel (Maßstab rechts) von 1891 – 2014 der DWD-Station Aachen (ID: 3)

Bild 8 Tagesmaximum und gleitendes Jahresmittel (Maßstab rechts) von 1891 – 2014 der DWD-Station Aachen (ID: 3)

Als Abschluss noch eine Prüfung, ob wenigstens die großen Temperaturdifferenzen durch den Klimawandel zugenommen haben. Doch auch dazu ergibt die Langzeitreihe eine vollständige Entwarnung.

Bild 9 Gleitende Jahresmittel der Folgetage mit Temperaturdifferenzen >15 Grad (grün) und >20 Grad (rot) von 1891 – 2014 der DWD-Station Aachen (ID: 3)

Zu Extremereignissen gehören auch Starkniederschläge. Dass es sich bei Starkregenereignissen ebenfalls nicht anders verhält, wurde bereits in früheren Artikeln gezeigt:
EIKE 22.08.2017: Verschiebt der Klimawandel Europas Hochwässer dramatisch
EIKE 12.08.2017: Die Starkregen vom Juli 2017 in Deutschland sind (keine) Menetekel eines Klimawandels

Einflüsse des Klimawandels auf die Infarkt-Mortalität

Korrelationen sind so herrlich statistisch und klingen toll nach Wissenschaft. Deshalb zeig das Bild 10 eine solche zwischen der Infarktmortalität und CO2-Konzentration in der Atmosphäre: Die Verläufe sind eindeutig hoch signifikant negativ korreliert und belegen, dass die sich erhöhende CO2-Konzentration dem menschlichen Herzen genau so gut tut, wie den nach CO2 dürstenden Grünpflanzen.

Bild 10 Sterbeziffern Herzinfarkt Deutschland von 1985 – 2012. Quelle: Die Welt. Vom Autor darüber gelegt der Verlauf der CO2-Konzentration in diesem Zeitraum (grün)

Medizinverlag Krause und Pachernegg GmbH A-3003 Gablitz: Insgesamt hat das Herzinfarkt-Risiko über die letzten Jahrzehnte für Männer und Frauen abgenommen.

Jeder weiß, dass gerade die Mittelmeerländer besonders vom Klimawandel gebeutelt werden.
Frankfurter Allgemeine, 27.10.2005: Klima: Mittelmeerländer leiden besonders unter Klimawandel
Dazu der erkennbar, sehr positive Einfluss des Klimawandels auf die Infarkt-Sterberate in verschiedenen EU-Ländern, welche nahe am Mittelmeer oder im Süden liegen.

Bild 11 Infarkt-Sterberaten verschiedener EU-Länder. Quelle: Ärzte-Zeitung

Abschlussergebnis der kleinen Recherche

Wenn es einen Bereich der Wissenschaft gibt, der seine Reputation ständig neu verliert, und einen Bereich der Leserinformation, mit dem unsere Medien immer neu belegen, wie ideologisch hinterlegt „berichtet“ wird, dann gehört das Thema (AGW-)Klimawandel dazu.
Der hier rezensierte Artikel der SZ zeigt zudem, warum gerade die Süddeutsche Zeitung oft als „Alpenprawda“ betitelt wird.

Verlegt sich (wie bereits zu erkennen ist) die forschende Ärzteschaft in Zukunft zum „Abzapfen“ von Fördermitteln nun verstärkt auf den Klimawandel als Mortalitäts- und Krankheitsfaktor, dürften in kurzer Taktung immer neue „Erkenntnisse“ ans Licht kommen. Ob diese den Patienten helfen, wird man nicht fragen dürfen.

Ergänzender Hinweis: Mehr Details zur Studie, als in den deutschen Medien (und hier) berichtet wurden, lassen sich nachlesen bei: [6] WUWT: The latest medical malpractice: blaming “climate change” for heart attacks

Behörden als Propagandainstitute

Die SZ ist natürlich nicht alleine. Unsere Behörden gehen mit „gutem Beispiel“ voran. Eine ganz aktuelle Pressekonferenz des DWD zeigte es wieder exemplarisch:
Pressemitteilung: [7] Klima-Pressekonferenz 2018 des DWD
… In seinem Rückblick auf das Wetter und Klima im vergangenen Jahr hob der DWD hervor, dass das Jahr 2017 weltweit erneut eines der drei wärmsten Jahre seit Aufzeichnungsbeginn 1881 war. Der Trend zur globalen Erwärmung ist also, so Dr. Thomas Deutschländer, Klimaexperte des DWD, nach wie vor ungebrochen …
Das Jahr 2017 brachte in Deutschland viele Wetterextreme
„Das Jahr 2017 stand hierzulande aber auch ohne neuen Rekord ganz im Zeichen des Klimawandels“ so Deutschländer. Dies zeigte nicht nur die Verteilung statistisch betrachtet zu warmer und zu kalter Monate. So waren nur der Januar und September im Vergleich zum vieljährigen Mittel zu kühl. Auffällig seien auch die vielen Extremereignisse gewesen. Wiederholt kam es zu Sturm und Starkregen. Als Beispiele nannte der DWD-Experte die Stürme Axel im Januar 2017 sowie Xavier und Herwart im Oktober 2017. Tief Rasmund brachte der Stadt Berlin und dem Umland am 29. Juni an nur einem Tag Niederschlagsmengen von rund 150 Litern pro Quadratmeter (l/m2). An der Wetterstation Tegel wurde sogar ein Spitzenwert von 196,9 l/m2 gemessen. Hinzu kamen extreme Witterungsabschnitte, wie eine andauernde Trockenheit im Frühjahr oder das anhaltend trübe Wetter zwischen September 2017 und Januar 2018. So summierte sich das Sonnenscheindefizit in diesem grundsätzlich eher sonnenscheinarmen Zeitraum deutschlandweit auf über 74 Stunden. Außergewöhnlich war auch der neue Temperaturrekord für den März 2017. Mit einer Mitteltemperatur von 7,2 °C und einer Abweichung von +3,7 Grad wurde der bisherige Rekord von 1938 und 1989 um 0,2 Grad übertroffen.
Ob solche meteorologischen Extremereignisse zugenommen haben, sei allerdings statistisch nach wie vor schwierig nachzuweisen. Als Gründe nannte Deutschländer häufig noch zu kurze Beobachtungsreihen, die hohe natürliche Klimavariabilität sowie Probleme bei der flächendeckenden Erfassung von kleinräumigen Ereignissen. Dennoch sei die beobachtete Häufung solcher Ereignisse auch 2017 ein Indiz für die Annahme vieler Klimaforscher, dass extreme Wettersituationen mit weiter steigenden Temperaturen zunehmen dürften.

Selbstverständlich kommen nur harte Fakten vor. Doch werden extreme Ereignisse ganz bewusst so gelistet, als ob es Klimawandel-bedingt, zunehmende wären. Obwohl der Fachmann des DWD genau weiss, dass es nicht „statistisch nach wie vor schwierig nachzuweisen“ sei, sondern bewiesen ist, dass es diese Extremereignisse schon immer gab und sie deshalb mit einem (AGW-)Klimawandel nichts zu tun haben. Es gibt – und das sollte gerade mit diesem Artikel (wieder) gezeigt werden, keine „ … beobachtete Häufung solcher Ereignisse … „. Die „ … Probleme bei der flächendeckenden Erfassung von kleinräumigen Ereignissen … „ können das Problem schon gar nicht lösen, denn die damit gewonnenen Daten lassen sich nicht mit den historischen vergleichen (was man natürlich trotzdem macht, indem man in die Vergangenheitsdaten simuliert).

Wer die wohl wissentlich falschen Darstellungen nicht glaubt, sollte sich bei kaltesonne die gerade erschienene Listung historischer Extremereignisse ansehen. Heute auftretend, würden viele wohl zu sofortigen Massenpaniken führen.
kaltesonne 6. März 2018: Extremwetter in den letzten tausend Jahren
Extremwetter Fazit
Selbst wenn man den Chronisten einige Übertreibungen unterstellt, dürfte feststehen, dass Extremwetter in der Vergangenheit nicht seltener, sondern öfter eintraten und diese Ereignisse nicht harmloser, sondern schlimmer waren, als das was wir heute erleben. Verglichen mit den vergangenen 1000 Jahren, leben wir heute in einer ruhigen Zeit. Am ähnlichsten scheint mir noch das 13. Jahrhundert mit dem 20. Jahrhundert zu sein. Zwar scheinen Hunger in einer globalisierten Wirtschaft nicht mehr vorstellbar, zumindest in den s. g. entwickelten Ländern. Auf die Marktpreise hat das Wetter auch heute noch Einfluss, wie man selbst bei kleinen Wetterabweichungen wie ein Spätfrost im April in 2017 beobachten konnte. Da erfroren mal eben die Blüten an den Obstbäumen und schon waren Kirschen und Äpfel knapp und teuer.
Was würde heute geschehen, wenn wie in all den Jahrhunderten der kleinen Eiszeit, die Flüsse in Europa zufrieren würden, oder der Winter von Oktober bis Juni anhält? Wie würden wir reagieren, wenn Niederschläge und Überschwemmungen, oder Hitze und Dürre Ausmaße annehmen wie sie die Chronisten beschrieben haben? Und wer garantiert uns, dass es nicht doch wieder mal so kommt, denn Extremwetter hat es zu allen Zeiten gegeben, egal ob das Klima kälter oder Wärmer war. Es hat den Anschein, dass es in den wärmeren Perioden etwas weniger Wetter-Abweichungen vom „Normalen“ gab. Das mag aber auch daran liegen, dass die Extreme zum Kalten hin für uns Menschen schädlicher sind als die zum Warmen hin. Klar dürfte auch sein, dass wir Menschen Extremwetter nicht verhindern und auch nicht herbei zaubern können, selbst nicht mit Kohlendioxyd.

Wie subtil und konsequent der DWD in seinen alarmistischen Darstellungen vorgeht, zeigt ergänzend ein Beispiel aus der DWD-Publizierung: Klima-Pressekonferenz des Deutschen Wetterdienstes am 25. März 2014 in Berlin: Zahlen und Fakten zum Klimawandel in Deutschland
Auf der Seite 34 sieht man dort die folgende Information mit Schaubild:

Bild 12 Quelle [8]
Dazu gibt es eine Rezension des Autors:
EIKE 23.10.2017: Deutschland erwärmt sich schneller als der Rest der Welt – oder etwa doch nicht?
mit dem folgenden Bild 13. Darin sind die Daten von Bild 12 (mit dem alternativen, aber fast identischen Giss-Globaldatensatz), durch Skalierung der Deutschland-Temperaturreihe angepasst worden, um einen Vergleich zu ermöglichen.
Und sofort sieht man, dass die Verläufe aus zwei Zeitsegmenten bestehen und die Temperatur Deutschlands seit den 60er Jahren des letzten Jahrhunderts deutlich langsamer als der globale Durchschnitt steigt. Man könnte sogar so weit gehen, zu behaupten, die linearen Regressionen ergeben falsche Werte und Deutschland „hinkt“ sogar seit 1881 „hinterher“.
Ein exemplarisches Beispiel, wie man Information in die gewünschte Richtung „dreht“.

Bild 13 [9] GISS Globaltemperatur 1880 – 2017 (gleitendes Jahresmittel, blau) und Deutschland DWD Jahreswerte (rot) übereinander gelegt (mit Anpassung an den Anfangs- bis Mittelteil des Zeitraums). Temperaturachse der Deutschlandwerte nicht mit den GISS-Werten übereinstimmend. Grafik vom Autor erstellt
Quellen

[1] SZ 3./4. März, Printausgabe: „Herzenssache“

[3] SZ 3. März 2018: Herzschmerz nach dem Frost

[4] nordbayern: In Franken und der Oberpfalz ist der Klimawandel längst da

[5] Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 2)

[6] WUWT March 4, 2018: The latest medical malpractice: blaming “climate change” for heart attacks

[7] 06.03.2018 Pressemitteilung zur Klima-Pressekonferenz 2018 des DWD

[8] DWD-Broschüre: Klima-Pressekonferenz des Deutschen Wetterdienstes am 25. März 2014 in Berlin: Zahlen und Fakten zum Klimawandel in Deutschland

[9] EIKE 23.10.2017: Deutschland erwärmt sich schneller als der Rest der Welt – oder etwa doch nicht ?