Was ist bloß los mit der Agenda 21 und der Klima­wandel-Politik?

Die meisten Menschen wissen nichts über die Agenda 21, dem globalen Plan für das 21. Jahrhundert. Selbst jene, die es doch wissen, zumindest teilweise, sind sich allgemein nicht dessen bewusst, wie er umgesetzt worden ist. Nur für den Fall, dass manch einer es herausfindet, ist eine bewusste Ablenkungs-Kampagne im Gange, wobei u. A. gesagt wird, es sei optional. In einem internationalen Maßstab stimmt das, aber wie das so ist mit allem, was die Globalisten und deren Erfüllungsgehilfen tun – es wird nicht auf diesem Niveau angewendet. Die Antwort auf die Frage, was eigentlich los ist, liegt weit zurück in der Zeit der frühen Entwicklung des Club of Rome und des Planes von Maurice Strong. Elaine Dewar fasste es so zusammen, nachdem sie fünf Tage mit ihm bei den UN gesprochen hatte: Strong nutzte die UN als eine Plattform, um eine globale Umweltkrise und die Agenda einer Weltregierung anzuzetteln [the Global Governance Agenda].

Als Strong die Kampagne zur Einrichtung einer Weltregierung mit dem Verweis auf die Umwelt und die globale Erwärmung organisierte, dirigierte er ein paar Individuen, Slogans zu entwerfen mit dem Ziel, die Menschen zu locken. Einer dieser Slogans stammt von Rene Dubos, welcher der Phrase des Umweltaktivisten Jacques Ellul Berühmtheit verlieh: „denke global, handle lokal!“. Das waren fesselnde Worte, welche den Gedanken des Globalismus einfingen und weicher machten. Heute bilden sie die Grundlage der Implementation der Agenda 21. Die Agenda ist auf dem untersten Niveau der Regierung in Ihrem Gebiet implementiert worden. Man agiert lokal inmitten verwundbarer Menschen. Es gibt kaum oder gar kein Verständnis bzgl. der falschen Klimawissenschaft. Sie wollen, was für ihre Nachbarschaft am besten ist. Es ist einfach, die Menschen anzulocken mittels Angeboten proportional umfangreicher Finanzierung von außen. Das macht es einfacher, jedwede Opposition auszumachen, sie zu isolieren und zum Schweigen zu bringen.

Ich selbst wurde vor ein paar Jahren auf das aufmerksam, was da vor sich ging. Damals rief mich einer an, der auf einer der Inseln an der kanadischen Westküste lebte, nämlich Mayne Island (siehe Abbildung 1). Er erzählte mir, dass die Provinzregierung eine öffentliche Versammlung einberufen hatte, um über die Zukunft der Insel zu diskutieren. Das Treffen begann mit der Vorführung von Al Gores Film An Inconvenient Truth. Dann sagten die Bürokraten, dass es das Ziel sei, den Kohlenstoff-Fußabdruck der Insel so stark wie möglich zu reduzieren. Dies könnte das Verbot aller Fahrzeuge einschließen. Jedermann war wie betäubt, und niemand wusste auf die Schnelle, was man dazu sagen konnte oder wie man darauf reagieren sollte. Einer sagte mir, dass es sich nicht um ein Informationstreffen gehandelt hat, auf welchem man nach den Meinungen der Menschen gefragt hat. Vielmehr war es eine diktatorische Informationsveranstaltung.

Irgendwie stolperten sie über meinen Namen und luden mich ein, auf der Insel darüber vorzutragen, was los war. Das Treffen war gut besucht einschließlich einiger Leute, die das Koolaid* nicht nur tranken, sondern in sich hinein schütteten. Die Organisatoren verrieten mir, dass diese Herrschaften jeden schikanieren, vor allem all jene, die Fragen stellten. Ich hielt einen einstündigen Vortrag, in welchem ich alle Fehler im Film von Al Gore sowie in der Behauptung aufdeckte, dass die Menschen globale Erwärmung verursachen. Danach erklärte ich ihnen, dass ihnen die Regierung die Agenda 21 aufgedrückt hätte, aber sie haben es anders bezeichnet. Agenda 21 war der globale Maßnahmen-Plan, aber man hatte ihnen nur die lokalen Maßnahmen gegeben unter der Bezeichnung BC [= British Columbia] Climate Action Plan.

[*Kool Aid, ein amerikanisches Erfrischungsgetränk gegen übermäßigen Durst. Hier ist es natürlich im übertragenen Sinne gemeint. Anm. d. Übers.]

Abbildung 1

Es war vorgesehen, dass das Kyoto-Protokoll, welches Maßnahmen zur Kontrolle der Freisetzung von Kohlendioxid enthielt, auf der Klimakonferenz COP 15 in Kopenhagen implementiert werden sollte. Enthalten darin waren auch Pläne, das Geld einzusammeln mittels des International Monetary Fund (IMF) und der Weltbank, und zwar in Gestalt von Kohlenstoff-Steuern sowie mittels der nationalen Regierungen, die eine ,grüne Agenda‘-Gesetzgebung auf den Weg bringen sollten. Wir wissen das, weil der US-Senat nach einem Blick auf den Vertrag im Rahmen der Byrd/Hagel Resolution geschrieben hat:

Im Einzelnen stellt die Resolution fest, dass die USA und andere entwickelte Länder nicht in einen Vertrag eintreten sollten, welcher Reduktionen von Kohlendioxid-Emissionen fordert aus der Verbrennung fossiler Treibstoffe, es sei denn, „es ordnet neue spezifische Verpflichtungen an, Treibhausgas-Emissionen für Entwicklungsländer zu begrenzen oder zu reduzieren innerhalb der gleichen Referenzperiode“.

In der Resolution wurde auch festgeschrieben, dass die USA keinem Vertrag welcher Art auch immer beitreten sollten, welcher „der Ökonomie der Vereinigten Staaten ernste Schäden zufügen würde“.

Wir wissen auch, dass jedes Land, welches Kyoto effektiv als grüne Agenda umgesetzt hatte, gescheitert ist.

Kyoto wurde dann ersetzt durch den Green Climate Fund (GCF), der im Jahre 2015 auf der Klimatagung COP21, also dem Pariser Abkommen, ratifiziert werden sollte. Inzwischen scheitert auch der GCF, weil das Geld nicht so fließt wie es geplant war. Allerdings spielt das keine Rolle, weil die Bürokraten mit dem Programm fortfahren – genau wie Strong es verstanden und beabsichtigt hatte. Darum sind sie der Staat im Staate: sie agieren unabhängig von der Politik oder den Menschen.

Im April 2016 verkündete die Weltbank einen neuen Climate Action Plan:

Nach dem Paris-Abkommen müssen wir jetzt handfeste Maßnahmen ergreifen, um unseren Planeten für zukünftige Generationen zu schützen“, sagte der Präsident der Weltbank Jim Yong Kim. „Wir agieren dringend, um Ländern zu helfen, wesentliche Transitionen zur Steigerung der Nutzung erneuerbarer Energiequellen durchzuführen, hoch kohlenstoffintensive Energiequellen zu stoppen, grüne Transportsysteme zu entwickeln sowie nachhaltig lebenswerte Städte für die wachsende Bevölkerung in Städten zu schaffen. Entwicklungsländer wollen, dass wir ihnen bei der Implementierung nationaler Klima-Programme helfen, und wir tun alles, um ihnen zu helfen“.

Diese Pläne wurden an Entwicklungsländer geleitet und folgten ambitionierten Plänen zur Übernahme von Klima-Maßnahmen. Im Jahre 2013 verkündeten viele Städte umfangreiche und sehr teure Pläne:

Rund 20 Prozent aller Städte der Welt haben Anpassungs-Strategien entwickelt. Dies geht aus Schätzungen von Forschern am MIT aus dem Jahre 2011 hervor. In den USA haben Städte, Counties [= Landkreise] und [US-]Staatsregierungen über 100 Anpassungspläne entwickelt, wie eine unabhängig davon durchgeführte Zählung des Georgetown Climate Center ergab. Und via einer UN-Finanzierungs-Initiative haben wohlhabende Nationen während der letzten paar Jahre 11 Milliarden Dollar an Entwicklungsländer gezahlt, um ihnen bei der Anpassung zu helfen.

Im Februar 2016 hat das Center for Climate and Energy Solutions eine Aktualisierung der Umsetzung von Plänen in den USA geliefert:

Viele Staaten haben umfangreiche Climate Action Plans vollendet oder befinden sich auf dem Weg, dieselben zu überarbeiten oder neu zu entwickeln. Die Pläne listen detailliert Schritte auf, welche die Staaten gehen können, um ihren Beitrag zum Klimawandel zu reduzieren. Der Prozess der Entwicklung eines Klima-Maßnahmen-Plans kann kosteneffektive Gelegenheiten aufzeigen, Treibhausgas-Emissionen zu reduzieren, welche für den jeweiligen Staat relevant sind.

Es gibt bereits fertige Pläne zur Weiterführung und Ausweitung von Maßnahmen mit einem Global Climate Action Summit, welcher im September 2018 in San Francisco geplant ist.. Ein Artikel mit der Website rät:

Städte auf der ganzen Welt setzen bereits ambitionierte Maßnahmen um, um das Paris-Abommen zur Realität zu machen. Wir wissen, dass bis zum Jahr 2030 fast jedes neu errichtete Haus, jedes Kraftwerk, das online geht, von sauberer Energie betrieben werden muss. Der Global Climate Action Summit bieten eine Chance, der Welt zu zeigen, dass Städte zusammen mit Industrien, Investoren, staatlichen und regionalen Regierungen an vorderster Front stehen, um eine klima-sichere, gesunde und blühende Welt für alle zu schaffen.

Die Agenda 21 war der alles umfassende Umweltplan des United Nations Environmental Program (UNEP). Darin werden völlig aus der Luft gegriffene Behauptungen angeführt als Rechtfertigung für die Einrichtung einer Weltregierung, wie Dewar richtig erkannt hat. Das Erste Statement dieser Agenda lautet:

Die Menschheit steht an einem entscheidenden Punkt seiner Geschichte (hier). Wir sind konfrontiert mit einer Durchdringung von Ungleichheiten zwischen den und innerhalb der Nationen, gekennzeichnet durch eine Verschlimmerung von Armut, Hunger, Krankheit, Analphabetentum sowie durch eine fortwährende Degeneration von Ökosystemen, von denen wir so abhängig sind. Allerdings werden die Integration von Belangen von Umwelt und Entwicklung sowie eine größere Aufmerksamkeit für dieselben zur Erfüllung grundlegender Bedürfnisse führen sowie zu besser geschützten und behandelten Ökosystemen und einer sichereren, blühenderen Zukunft. Keine Nation kann dies allein erreichen, aber zusammen können wir das – in einer globalen Partnerschaft für nachhaltige Entwicklung.

Die Behauptung, dass eine „Verschlimmerung von Armut, Hunger, Krankheit und Analphabetentum“ zu beobachten ist, ist schlicht und ergreifend eine Lüge. Das Ökosystem degeneriert nicht, außer vielleicht in kleinen Gebieten wie etwa Peking. Die Menschen leben länger und sind gesünder als jemals zuvor auf der Welt. Ich empfehle dringend, die Agenda 21 vollständig zu lesen. Dann wird man erkennen, dass jeder einzelne Lebensaspekt eines jeden Einzelnen der Kontrolle der Regierung unterworfen werden soll.

Der Entwurf einer Organisations-Struktur für die Agenda 21 (Abbildung 2) zeigt, wie zentral für eine orchestrierte Bemühung zur Einführung einer Weltregierung die falsche Wissenschaft ist, welche erschaffen wurde, um zu ,beweisen‘, dass menschliches CO2 den Planeten zerstört:

Abbildung 2

Der gesamte Prozess ist einen einzige Aneinanderreihung von Betrug. Die Öffentlichkeit denkt, dass das IPCC den gesamten Klimawandel untersucht, obwohl es absichtlich nur das Mandat hat, auf die menschlichen Ursachen zu schauen. Das IPCC erzeugt die Summary for Policymakers (SPM). Diese ist eine betrügerische, absichtlich aufgeblähte Version der IPCC-Berichte. Die Öffentlichkeit denkt, dass es dabei um Klimawandel geht, obwohl es doch ausschließlich um globale Erwärmung durch menschliches CO2 geht. Die Politiker in Gestalt der COP können nur auf der Grundlage dieser SPMs agieren. Mittels dieser Information bestimmen diese Herrschaften die Politik in den UN-Mitgliedsstaaten und die Finanzierung für die weitere Arbeit des IPCC. Es ist ein wahrhaft inzestuöses System.

Genau wie Strong es geplant hat ist der Betrug der Öffentlichkeit mit dem Narrativ, dass die Menschen mit CO2 den Planeten zerstören, vollständig aufgegangen. Es überlebte die durchgesickerten E-Mails, alle Bemühungen der Skeptiker, Trumps Rückzug aus dem Paris-Abkommen und gescheiterte Vorhersagen. Diese Ereignisse waren ein Ärgernis, welche normale politische Aktivitäten stoppen würde, aber sie waren kein Problem für die Bürokraten, die niemandem Rechenschaft schuldig sind. All diese Ärgernisse waren kleine Störungen, während das große Ziel ungebrochen weiter angestrebt wird.

Dies involviert die Einbettung des Zieles einer Weltregierung in eine niemandem Rechenschaft schuldige Gesetzgebung, die erzeugt, implementiert und geschützt wird durch nicht gewählte Bürokraten. Diese sind der einzige Teil der Agenda 21, die global denken und lokal handeln. Bürokraten von der globalen bis zur Gemeinde-Ebene stehen unter totaler Kontrolle.

Die Warnung von Mary McCarthy, dass „Bürokratie, das Gesetz von niemandem, zur modernen Form des Despotismus geworden ist“ ist aktueller denn je, ist doch die Agenda 21 das perfekte Beispiel dafür.

Link: https://wattsupwiththat.com/2018/07/07/whatever-happened-to-agenda-21-and-climate-change-policy/

Übersetzt von Chris Frey EIKE




Die Widersprüchlichkeiten beim Strahlenschutz

Damals traten bei hohen sich wiederholenden Strahlendosen gesundheitliche Schäden auf. Im Jahre 1934 legte man den ersten Grenzwert für den Umgang mit Strahlung fest und man schuf Gesetze zum Schutz vor Strahlung. Bis zur heutigen Zeit wurden die Grenzwerte ständig verringert. Allerdings bezogen sich die Grenzwerte nur auf den Umgang mit Kernbrennstoffen, im Wesentlichen also auf den Umgang mit Uran. Aus dem Auftreten von gesundheitlichen der Schäden bei hohen Strahlendosen wurde geschlossen, daß auch kleinste Strahlendosen unabhängig von der Zeit des Einwirkens schädlich seien. All dieses ist heute in Gesetzesform gegossen und wegen der Existenz dieser Gesetze wird fest an die Gefahren jeglicher Strahlung geglaubt.

Es gibt heute viele Widersprüchlichkeiten in der Strahlenschutzgesetzgebung, denn nicht nur beim Umgang mit Kernbrennstoffen gibt es hohe Strahlendosen. Im Folgenden sollen einige der Widersprüche erläutert werden:

  1. Die Strahlenschutzverordnungwurde bei uns durch ein Strahlenschutzgesetzabgelöst und so verschärft. In diesem Strahlenschutzgesetz ist jetzt auch für das überall in der Luft vorhandene Edelgas Radon der Grenzwert von 300 Becquerel pro Kubikmeter Luft für Innenräume genannt, Radon wird so als „Gefahrstoff“ gebrandmarkt. Es wurden2000 hypothetischeTodesopfer pro Jahr durch Radon in Deutschland ausgerechnet. Dabei wird übersehen, daß in Radonheilbädern die 1000-fach höhere Konzentration des Radons in der Atemluft zur heilenden Wirkung für die Patienten führt. Es gibt in Deutschland 8 Radonheilbäder, und in der EU profitieren im Jahr 80 000 Patienten von der Heilwirkung des Radons.
    Einige 100 000 Becquerel Radon pro Kubikmeter Luft in Heilbädern bewirken Heilung für Patienten, warum sind dann 300 Becquerel Radon gefährlich???
  2. In der evakuierten Zone von Tschernobyl ist der Strahlenpegel erhöht, er liegt im Bereich 0,1 bis 0,2 Mikro-Sievert pro Stunde. In unmittelbarer Umgebung des Unfallreaktors werden an einzelnen Stellen 10 Mikro-Sievert pro Stunde erreicht. Die evakuierte Zone wird „Todeszone“ genannt. Im Flugzeug hat man in Reiseflughöhe auf unserer Breite ca. 6 Mikro-Sievert pro Stunde.
    Warum gibt es in der „Todeszone“ Betretungsverbot, während die vielfach höhere Strahlung im Flugzeug täglich für Millionen Menschen erlaubt ist???
  3. Bei einem Ganzkörper-CT erhält der Patient eine Strahlendosis von 10 bis 20 Milli-Sievert in wenigen Minuten. Bei Aufräumarbeiten in der Kerntechnik gilt eine Grenze von 10 Mikro-Sievert im Jahr.
    Warum werden zur Einhaltung der Grenze in der Kerntechnik riesige Geldbeträge ausgegeben, wenn doch die 1000-fach höhere Dosis bei einem CT sich in millionenfacher Anwendung als harmlos erwiesen hat???
  4. Durch den Unfall in Fukushima hat niemand einen Schaden durch Strahlung erlitten, und es ist auch in Zukunft nicht mit gesundheitlichen Schäden zu rechnen, so berichten die von der UNO beauftragten Fachleute (UNSCEAR). Es hat aber durch die Strahlenschutzmaßnahmen der Evakuierung Todesopfer gegeben, es werden 150 bis 600 Opfer genannt (DER SPIEGEL), anderen Quellen in Japan sprechen von 1600 Opfern durch die Schutzmaßnahmen.
    Warum wird vor Strahlung geschützt, nicht aber vor unsinnigen Strahlenschutzmaßnahmen???
  5. In Kernkraftwerken westlicher Technik ist durch Strahlung noch nie ein Mensch zu Schaden gekommen, dennoch sind Italien und Österreich ausgestiegen und Deutschland folgt dem Beispiel. Weltweit hat die friedliche Nutzung der Kerntechnik laut UNSCEAR von Beginn in 1945 bis 2007 insgesamt 147 Todesopfer bei Strahlenunfällen gefordert, da sind Tschernobyl und Unfälle in der Medizin mit eingeschlossen, ebenso auch Kritikalitätsunfälle in der Anfangszeit. Die IAEA gibt eine um etwa 20 höhere Zahl an. Durch Stürze von Treppen und Leitern sterben allein in Deutschland jedes Jahr etwa 5000 Menschen.
    Warum wird die Kerntechnik eine HOCH-Risiko-Technik genannt und verboten, Treppen und Leitern jedoch nicht???
  6. Im Jahre 2006 hat man sich auf einer Tagung der IAEA geeinigt, daß der Tschernobyl-Unfall insgesamt 4000 zusätzliche Krebstodesfälle zur Folge haben wird. Das sind virtuelle Todesopfer, die unter allen zukünftigen Krebsopfern nicht nachweisbar sind. Wenn man die hierbei benutzte Rechnung auf die Zusatzbestrahlung bei Flugreisen anwendet, kommt man auf jährlich 5000 virtuelle Krebsopfer weltweit durch das Fliegen, die ebenfalls nicht nachweisbar sind.
    Warum werden aus den einmaligen 4000 virtuellen Krebstodesfällen des Tschernobyl-Unfalls schwerwiegende Schlußfolgerungen gezogen, die sich jährlich wiederholenden ähnlich hohen virtuellen Opferzahlen des Flugverkehrs jedoch ignoriert???
  7. Fall A)Meine Frau ist mit ihren 52kg eine Strahlenquelle von 6000 Becquerel, mit diesen 6000 Bq bestrahlt sie sich selber und ihre Umgebung.
    Fall B)Wladimir Klitschko ist mit 110kg eine Strahlenquelle von 12 000 Bq, er bestrahlt sich selber und seine Umgebung mit doppelt so viel Radioaktivität wie Fall A.
    Fall C)Herr Minister Peter Altmaier ist mit seinen 140kg (?) eine Strahlenquelle von 15 000 Bq, er bestrahlt sich selber und seine Umgebung mit der 2 ½ – fachen Menge im Vergleich mit Fall A.
    Nun wäre es für Herrn Minister Altmaier durchaus nützlich, sich mit einigen 1000 Bq weniger zu bestrahlen, zu Erreichen durch kleineren Body-Maß-Index. Dann könnte er seine Dosis durch Eigenbestrahlung um 30 bis 50 Mikro-Sievert im Jahr verringern und würde nicht mehr den Grenzwert von 10 Mikro-Sievert im Jahr verletzten, wie er bei Freimessungen im Rückbau von Kernkraftwerken gilt.
    Warum gilt beim Strahlenschutz oft eine Grenze von 10 Mikro-Sievert im Jahr, nicht jedoch für die Eigenbestrahlung durch erhöhten Body-Maß-Index???
  8. Nach Fukushima wurden in Deutschland die erlaubten Grenzen für Kontamination mit Cäsium-137 in Nahrungsmitteln herab gesetzt, von 1000 Bq/kg auf 600 Bq/kg. Fleisch von Wildschweinen kann heute noch über der Grenze liegen. Wenn meine Frau nun einen Wildschweinbraten essen wollte mit >600 Bq/kg, dann wäre sie für einige Tage eine Strahlenquelle von etwa 6100 Bq, sie würde sich selber und alles in ihrer Umgebung mit zusätzlichen 100 Bq bestrahlen.
    Warum wird das nun als gefährlich hingestellt und verboten, wenn doch Peter Altmaier sich selber das ganze Jahr über mit 15 000 Bq bestrahlen darf???
  9. Zur ASSE:Der Bundestag hat ein Gesetz gemacht, das die Rückholung der Abfälle aus der Tiefe verlangt. Dort lagern schwach radioaktive Abfälle, so wie alles auf der Erde schwach aktiv ist. In der ASSE sind verteilt über 125 000 Fässer 250 Gramm Plutonium-241, was den Löwenanteil der Aktivität in der Tiefe ausmacht. Allerdings wird diese Aktivität wegen kurzer Halbwertszeit verschwunden sein, wenn die Abfälle eines Tages tatsächlich wieder an der Oberfläche sein werden. Dann werden die Abfälle nur noch eine Aktivität von ca. 2 mal 10 hoch 13 Bq haben. In dem Deckgebirge über der ASSE von rund einem halben Kubikkilometer Volumen befinden sich etwa 2 mal 10 hoch 15 Bq, also die 100-fache Menge an Radioaktivität.
    Warum wird die Radioaktivität in der Tiefe als Gefahr gesehen, die 100-fache Menge darüber im Deckgebirge jedoch nicht???
  10. Zur ASSE:Die Radioaktivität von ca. 2 mal 10 hoch 13 Bq ist die ganz normale Radioaktivität der Erdkruste von einem Volumen von einem Quadratkilometer Fläche und 10 Meter Tiefe. In diesem Volumen der Erdkruste wachsen unsere Lebensmittel und wird unser Trinkwasser gewonnen. Deutschland hat eine Fläche von 356 000km², also das besagte Volumen an der Oberfläche 356 000-fach.
    Wie kann es sein, daß die Radioaktivität in der Tiefe der ASSE eine Gefahr darstellt, die 356 000-fach vorhandene gleiche Menge an der Oberfläche jedoch nicht???
  11. Zur ASSE:In der Landwirtschaft in Deutschland werden durch Düngung mit Kali in 2 bis 3 Jahren eine Menge Radioaktivität von etwa 2 mal 10 hoch 13 Bq durch K-40 auf die Felder verteilt.
    Warum ist die Radioaktivität in der Tiefe der ASSE gefährlich, die auf den Äckern verteilte gleiche Menge jedoch nicht???
  12. Zur ASSE:In 2 bis 3 Jahren werden von den Menschen in Deutschland mit der Nahrung etwa 2 mal 10 hoch 13 Bq durch Kalium-40 und Kohlenstoff-14 verspeist ohne negative Folgen für deren Wohlergehen. Die eingeatmete Radioaktivität durch Radon und seine Zerfallsprodukte liegt um den Faktor 10 höher.
    Warum ist die Radioaktivität in 500 Meter Tiefe der ASSE gefährlich, die viel höhere von den Menschen verspeiste und eingeatmete Menge jedoch nicht???
  13. Bei Radioaktivität und vielen anderen umweltpolitischen Diskussionen wird mit nicht nachweisbaren virtuellen Todesopfern argumentiert, aktuell bei Feinstaub und Stickoxiden. Das Rechenverfahren wurde im Umgang mit Radioaktivität erfunden und führte zur Verdammung der Kerntechnik und oft auch zur Verweigerung nützlicher medizinischer Strahlenanwendungen. Würde man das Rechenverfahren auch in der Medizin bei Bestrahlung nach Krebs-OP anwenden, dann käme man auf viel mehr Todesfälle als es überhaupt gibt. Würde man dieses Rechenverfahren auch bei dem allseits beliebten „Gift“ und Kanzerogen Ethanol anwenden, so käme man allein in Deutschland auf eine Todesrate, die 3-fach über der tatsächlichen liegt. Warum ist die Politik als oberste Autorität der Demokratie nicht bereit, diese Unstimmigkeiten zu beseitigen???
  14. Die weltweit geltenden Strahlenschutzgesetze erlauben dem Bürger eine maximale zusätzliche Dosis von
    1 Milli-Sievert im Jahr. Diese Dosis ist gleichbedeutend mit einer Temperaturerhöhung des menschlichen Körpers von 0, 000 000 2°C. Zur Erhaltung des Lebens brauchen wir eine Temperatur von 36°C, also rund 20°C mehr als die Umgebung.
    Die Lebensvorgänge in unseren Zellen sorgen für 100-millionenfach höheren Energieumsatz als die erlaubte Strahlung von 1 Milli-Sievert im Jahr, daher ist diese neben den Lebensvorgängen bedeutungslos – wann wird das erkannt und in den Massenmedien gesagt???
  15. Strahlung von Radioaktivität ist nicht grundsätzlich schädlich, wie es der Menschheit seit 80 Jahren suggeriert wird. Zusätzliche Strahlung führt zu zusätzlichem Training des Abwehrsystems im Organismus von Lebewesen und zusätzlichen Fähigkeiten des Immunsystems zur Abwehr und Korrektur von Fehlern. Dieser Zusammenhang ist seit langen als Hormesis bekannt und verspricht gigantische gesundheitliche Vorteile. Daher wird das Minimierungsgebot im Strahlenschutz auch „der größte wissenschaftliche Irrtum“ der Menschheit genannt.
    Wann werden die Menschen bereit sein, diesen fatalen Irrtum zu korrigieren???

Die 15 Beispiele zeigen Fehler/Irrtümer in der Strahlenschutzgesetzgebung. Die Ursache dazu ist die falsche Lehrmeinung, nämlich die Annahme, daß jede noch so kleine Strahlendosis schädlich sei. Die Strahlengefahr ist keine reale Gefahr, sie ist eine virtuelle Gefahr. Und die damit berechneten Todesopfer sind nicht real, sondern virtuell, d.h. es gibt sie nicht. Einige Mitglieder der Internationalen Strahlenschutzkommission sprachen von einem Geisterbild, das sagt viel. Die Strahlenschutzgesetzgebung sollte auf den Stand der Wissenschaft gebracht werden, dazu sind die internationalen und nationalen Gremien gefordert: ICRP, UNSCEAR, IAEA, BfS, SSK;  mit Unterstützung der Massenmedien.  

 

 

 

 




Klimawandel: Sind Christen bibelfest?

Pixabay

Alle Religionen der Welt beruhen auf Narrativen (Narrativ hier wie „zum Narren halten“), die der Aufklärung und dem gesunden Menschenverstand Hohn sprechen. Selbst die albersten Geschichten waren und sind für die Überzeugung der Gläubigen immer noch gut genug. Natürlich haben auch einige der weltweiten Religionen inzwischen den modernen Naturwissenschaften Tribut zollen müssen, leider nicht alle. So werden zumindest von christlichen Funktionären (Pfarrern, Bischöfen, Kardinälen, Papst) Narrative, wie z.B. die leibliche Wiederauferstehung beim jüngsten Gericht oder die Rettung der Fauna vermittels der Arche Noah etc. inzwischen als „Bildnisse“ und nicht mehr als Realität verkauft.

Bedenklich wird es allerdings, wenn sich Religionsfunktionäre, hier der aktuelle Papst Franziskus, zu sachlichen Urteilen über naturwissenschaftliche Phänomene versteigen (hier, hier, hier) und daraus Handlungsdirektiven für ihre Glaubensanhänger ableiten. Für solche Beurteilungen sind sie auf Grund ihrer akademischen Ausbildung und intellektuellen Fähigkeiten weder befähigt noch zuständig. Hier wird eine bedenkliche Rückwendung sichtbar, an deren konsequentem Ende wieder die Vernichtung von Ketzern steht. Bekanntestes historisches Beispiel war der seiner Zeit weit vorausgreifende Naturwissenschaftler Giordano Bruno, der am 17.Feb. 1600 in Rom als Ketzer verbrannt wurde (hier). Seine Rehabilitierung erfolgte erst 400 Jahre(!) später durch Papst Johannes Paul II.

Immerhin wagt das „idea Spektrum“ eine Zeitschrift von Nachrichten und Meinungen aus der evangelischen Welt, diese Entwicklung zu kritisieren. Es geschieht vorsichtig und sogar ein wenig ironisch, indem zwei konträre Meinungsvertreter sich äußern dürfen. Der Artikel lautet „Kann der Mensch den Klimawandel stoppen?. Er erschien in idea, Nr. 23, 6. Juni 2018. Auf der Seite der Befürworter von „Klimaschutz“ steht Frau Stefanie Linner als Aktivistin einer globalen christlichen Bewegung (hier) mit der Aussage „Unser Lebensstil hat das Gleichgewicht der Schöpfung tiefgreifend beeinflusst„. Auf der anderen Seite steht Dr. Rainer Facius (Physiker) mit der Aussage „Was der Mensch nicht verursachen kann, das kann er auch nicht stoppen„.

Frau Linner hat, wie alle Gläubigen, überhaupt keine Sachargumente, mit denen sie ihre Auffassung stützen könnte. Ihre Argumentationsschiene besteht aus einer freien Glaubensbehauptung, denn sie schreibt „….. Der Lebensstil, den wir uns gemeinsam in den letzten paar hundert Jahren angewöhnt haben, hat das Gleichgewicht der Schöpfung tiefgreifend beeinflusst. Diese Veränderungen führen zu einem Klimawandel, dessen Konsequenz uns im Prinzip klar ist ….“. Leider ist nichts klar, liebe Frau Linner! Hat der vor rund 60 Millionen Jahren herabstürzende Großmeteorit, der gemäß heutiger wissenschaftlicher Auffassung für das Aussterben der Dinosaurier verantwortlich war, etwa nicht das Gleichgewicht der Schöpfung tiefgreifend beeinflusst? Dass die Behauptungen von Frau Linner auch nur versuchsweise belegt werden, kann nicht erwartet werden. Ein unverrückbares Mantra musste genügen.

Herr Facius argumentiert dagegen sachlich: Zuerst mit der Schwäche von Klimamodellen, die als Beweismittel untauglich sind. Er erwähnt den seit 20 Jahren anhaltenden globalen Temperaturstillstand, der mit dem zunehmenden CO2 nicht zusammenpasst. Er erwähnt die weit höheren CO2-Konzentrationen der Erdvergangenheit, die keine Katastrophen verursachten und er spricht die Ausgasung von CO2 aus dem Meer bei steigenden Temperaturen an, wobei die Temperatur das CO2 führt, nicht umgekehrt.

Auch bei bemühter Neutralität und allem gebotenen Respekt für den religiösen Glauben unserer Mitmenschen leben wir immer noch in Zeiten der Aufklärung! Die Entscheidung, welcher der beiden Meinungsäußerungen mehr Gewicht beigelegt werden sollte, kann daher dem logisch denkenden und naturwissenschaftlich kundigen Leser nicht schwer fallen. Ironischerweise kommt im idea-Artikel auch zur Sprache, dass sich Gott (hier ist natürlich der christliche gemeint) höchstselbst für die Rettung des Klimas verbürgt hat. So ist nämlich in 1. Mose 8,22 (Luther Bibelübersetzung) nachzulesen

„Solange die Erde steht, soll nicht aufhören Saat und Ernte, Frost und Hitze, Sommer und Winter, Tag und Nacht“

Daraus ist zu folgern, dass christliche Kirchenfunktionäre, zumindest was den Klimawandel angeht, noch nicht einmal bibelfest sind.

 

 

 




Die Menschen werden immer dümmer – und der Klima­wandel ist nicht schuld daran

Forschung: Menschen werden immer dümmer …

lautete die informative Überschrift einer renommierten Postille [1]. Wissenschaftler in Norwegen haben festgestellt, dass die Bewohner von Norwegen von 1905 bis heute dümmer geworden sind. Sie sind sich darin so sicher, dass sie die Vermutung äußern, der IQ der norwegischen Bevölkerung würde in den nächsten hundert Jahren um weitere sieben, bis zehn Prozent abfallen [5].
BUSINESS INSIDER: [1]Seit Jahren gibt es Anzeichen dafür, dass der durchschnittliche IQ weltweit sinkt. Die norwegischen Forscher Bernt Bratsberg und Ole Røgeberg vom Frisch Centre der Universität Oslo konnten das nun erstmals anhand der norwegischen Bevölkerung nachweisen.
Während der Schnitt seit der Entwicklung des ersten massentauglichen Intelligenztests im Jahr 1905 immer weiter anstieg und im Jahr 1975 sogar einen Durchschnittswert von 102 erreichte, sank er danach bis zum Jahr 1990 stetig auf unter 100 Punkte ab. Wie die Forscher vermuten, könnte der IQ innerhalb der nächsten hundert Jahre sogar um ganze sieben bis zehn Punkte abfallen.

Das sind nicht hoch genug zu achtende Forschungsergebnisse – wie man sie sonst nur aus der modernen Klima(Folgen)-Forschung kennt. Anhand genauer und mit heutigen IQ-Messungen bestimmt vergleichbaren Daten von 1905 wurden komplexe, statistische Analysen durchgeführt [6]. Mit erschreckendem Ergebnis und noch erschreckenderer, aber präziser Hochrechnung für die kommenden 100 Jahre.
Norwegens Bevölkerung ist dann mit einer – dank hochwertiger, wissenschaftlicher Arbeitsweise engen Vorhersage-Genauigkeit, um 8,5 +-1,5 (7 … 10) Intelligenzpunkte dümmer geworden.
Ein solcher „IQ-Proxy“ erlaubt auch eine Hochrechnung auf die Welt-Gesamtpopulation „ ,,, der durchschnittliche IQ weltweit sinkt“.

Nicht Klima- sondern Umweltfaktoren sollen der Grund dafür sein

Klar wurde mit wissenschaftlicher Akribie auch nach den Gründen gesucht. Und es fand sich kein Klimawandel darunter! Es sollen nun „Veränderungen im Bildungswesen“ und Mediennutzungen sein … Wer wäre bisher ohne neue Forschungen nur auf solche weit, weit weg vom Thema liegende Möglichkeiten gekommen?
BUSINESS INSIDER: [1]Für ihre Studie ermittelten die Wissenschaftler den Intelligenzquotienten von Testpersonen … und untersuchten außerdem genetische Veränderungen und Veränderungen, die verschiedenen Umweltfaktoren zuzuschreiben sind … Vielmehr sollen Umweltfaktoren für diesen negativen Trend verantwortlich sein. Dazu zählen den Forschern zufolge Veränderungen im Bildungswesen, bei der Nutzung verschiedener Medien sowie bei der Ernährung …

Statistik

Wenn man schon beim Nachsehen ist, anbei ein paar Daten [7]:
– Singapur hat Rang 1 mit einem IQ von 108
– Deutschland Rang 15 mit einem IQ von 100 (gleichauf mit Österreich)
– Norwegen Rang 19 mit einem IQ von 99
– Frankreich und USA Rang 26/27 mit einem IQ von 98
(der gleiche IQ wählt einmal Trump und einmal Macron. Vielleicht unterscheiden sich die Beiden gar nicht so stark)
– Äquatorialguinea steht an letzter Stelle mit Rang 109 und einem IQ von 56

Obwohl die Norweger also dümmer geworden sind, liegen sie lediglich einen einzigen, wohl kaum unterscheidbaren Punkt niedriger als Deutschland. Nun wäre es interessant zu wissen, wo Deutschland im Jahr 1905 stand.

Es gibt verschiedene Korrelationen

Anbei die Korrelation zwischen den Bildungsausgaben und IQ-Rang eines Landes (Rang 0 ist der Spitzenplatz). Leider ist nicht erkennbar, wie sich diese Bildungsausgaben zusammensetzen. Manche werden ahnen, welche Länder weit links stehen. Der Kontinent mit den meisten Länderprobanden liegt auf dem Globus in Südrichtung direkt unter uns.

Bild 1 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), Bildungsausgabe/Einwohner, logarithmische Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt
Fast identisch sieht das Diagramm zwischen dem IQ-Länder-Ranking und mittlerem Einkommen aus.

Bild 2 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), Einkommen/Einwohner, logarithmische Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt

Trotzdem war noch etwas mit Intelligenz und Klima

Laenderdaten.Info: [7]Ist Intelligenz abhängig vom Klima?
Schon seit 1991 besteht die Vermutung, dass über Generationen anhaltende Wärme sich auf den IQ auswirkt. Man ging zunächst davon aus, dass ein Leben in niedrigeren Temperaturen eine höhere körperliche Fitness voraus setzt und höhere soziale Anforderungen an das Leben stellt. Richard Lynn, Professor an der nordirischen University of Ulster geht zudem davon aus, dass die kälteren Temperaturen das Gehirnvolumen ansteigen lassen. Ob die Gehirngröße mit der Intelligenz überhaupt in Verbindung steht, ist allerdings umstritten.
Generell gilt ein heißes Klima als nachteilig für die Entwicklung von Intelligenz. Der Grund hierfür wird heutzutage vorwiegend in dem hohen körperlichen Energiebedarf und dem
dadurch entstehenden Stress gesehen. Insbesondere Kleinkinder verwenden bis zu 90% der Körperenergie für das Gehirn. Wenn in dieser für die Entwicklung wichtigsten Lebensphase die Energie anderweitig benötigt wird, kann sich das Gehirn nicht entsprechend entwickeln.

Dazu die Grafik mit dem Scatterdiagramm zwischen IQ-Rang (Rang 0 ist der Spitzenplatz) und der mittleren Tageshöchsttemperatur. Es zeigt sich ein eindeutiger Zusammenhang. Mehr Tageshitze macht das Landesranking und damit den IQ schlechter.
Nach anderen Ursachen braucht niemand mehr zu suchen, erlauben es sich Klimawandel-Forscher zu solch eindeutigen Diagrammen zu sagen. Diese „eindeutige“ Bild wird nur dadurch gestört, dass die schlimmen Ausreißer erfolgreiche, asiatische Staaten sind.

Bild 3 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), mittlere Tageshöchsttemperatur °C, Lineare Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt
Damit kann jeder relativ leicht entscheiden, ob das Klima (wie es Wissenschaftler vemuten), oder Anderes (mehr) am IQ „dreht“.

Noch etwas Interessantes findet sich auf der IQ-Infoseite. Der IQ schwankt je nach psychischer Verfassung mit einer Spanne von 20 (+-10) Punkten:
Laenderdaten.Info: [7]Der Intelligenzquotient wurde so bemessen, dass der Mittelwert bei 100 liegt. Bei einer Standardabweichung von 15% ist also ein IQ zwischen 85 und 115 als normal anzusehen. Je nach psychischer und physischer Verfassung des Probanden können zudem die Messergebnisse um bis zu 10 Punkte nach oben und unten schwanken.
Nun stelle man sich vor, die psychische Verfassung der Proband*innen hat sich die letzten Jahre durch die dauernde, mediale Klimawandelfolgen-Hysterie verändert. Dann ließen sich die wenigen Punkte „Verdummung“ und der minimale Abstand zu Deutschland leicht erklären.
Mit ganz geringem „Bildungsaufwand“ wäre es dann auch möglich, die Norweger vor dem 8,5 +-1,5 IQ-Punkteverlust in 100 Jahren durch einfache (psychische) Maßnahmen zu heilen.

Quercheck

Keine Sichtung ohne den obligatorischen Quercheck. Gibt es etwa in Deutschland Anzeichen, dass – wie in [7] berichtet wird -, die Temperatur im Babyalter Einfluss auf den IQ hat.
Es findet sich eine Quelle mit umfassender Information:
P.M. Magazin (gekürzt): [8] Der Geburtsmonat prägt unser Leben entscheidend
… Der Geburtsmonat eines Menschen hat nachweislich Einfluss auf seine Entwicklung, Gesundheit, Charakter und Beruf, berichtet die Zeitschrift P.M. MAGAZIN in ihrer Februar-Ausgabe. Eine große Rolle spielen dabei die äußeren Einflüsse, denen ein Kind zum Zeitpunkt der Geburt und in den Monaten zuvor im Mutterleib ausgesetzt ist.
Ausgewählte Merkmale für jeden Geburtsmonat:
Januar: höheres Risiko für Schizophrenie, Epilepsie und Alzheimer; tendenziell Frühaufsteher
Februar: höheres Risiko für Essstörungen und Pollenallergien
März: überdurchschnittlich früh einsetzende Wechseljahre bei Frauen; höheres Risiko für Alkoholismus und Kindheit-Diabetes
April: höhere Kinderzahl und Körpergröße bei Männern; tendenziell geringerer Intelligenzquotient
Mai: überdurchschnittlich viele Selbstmorde; erhöhtes Multiple-Sklerose-Risiko; eher Nachtmenschen
Juni: geringes Geburtsgewicht; viele Nobelpreisträger …

So wirklich Hilfreiches findet sich darin nicht. Im April geborene Männer haben einen geringeren Intelligenzquotient. Aber drei Monate später im Hochsommer Geborene können bereits Nobelpreisträger werden. Das war es aber schon über das gesamte Jahr mit einem Temperatureinfluss. Richtig zwingend Temperatur-korrelativ erscheint dies nicht.
Zur wichtigen Eigenanamnese vor Besuchen beim Arzt oder Psychologen ist diese Listung allerdings gut zu gebrauchen. Man kann sich damit als kompetenter Patient fühlen.

Quellen

[1] BUSINESS INSIDER Deutschland 14.06.2018, Jessica Dawid: Die Menschen werden immer dümmer — jetzt gibt es einen wissenschaftlichen Beweis

[2] EIKE 20.02.2018: Der Klimawandel macht dumm

[3] WUWT October 17, 2012: Claim: CO2 makes you stupid? Ask a submariner that question

[4] EIKE 14. Juni 2018: AfD Abgeordnete führen Ministerin Schulze vor – Auf klare einfache Fragen nur verschwiemelte, ausweichende Antworten

[5] Bernt Bratsberg and Ole Rogeberg, Studie: Flynn effect and its reversal are both environmentally caused

[6] Bernt Bratsberg and Ole Rogeberg: Supplementary Information for “The Flynn effect and its reversal are both environmentally caused” Authors:

[7] Laenderdaten.Info: Der IQ im Ländervergleich

[8] Gruner+Jahr, P.M. Magazin, 16.01.2014: Der Geburtsmonat prägt unser Leben entscheidend




Infraschallauswirkungen aufs Herz – Neues zur Vahl-Studie an der Uni Mainz

Lesen Sie dazu unseren Bericht über die vorausgegangenen Untersuchungen der Forscher um Prof. Vahl vom 06. März 2018:

Forschung in Mainz: Infraschall mindert Herzmuskelkraft um bis zu 20 Prozent

Video Ausschnitt der swr-aktuell Sendung vom 25.4.18 über die Gesundheitsgefährdung durch von Windrädern erzeugten Infraschall

Drei Infraschallstudien – drei unterschiedliche Herangehensweisen – drei gleiche Ergebnisse

Vahl-Studie: Beschallung lebender Präparate

Die im Interview der Allgemeinen Zeitung mit Prof. Christian-Friedrich Vahl angekündigte Beschallung des lebenden Präparats mit Infraschall konnte mittlerweile durchgeführt werden. Ergebnis: Die Aktivität der Herzfaser wird nachweislich beeinflusst.

Prof. Vahl:” Was wir als gesichert sehen ist, dass die Applikation von Schallwellen, also Vibrationen mit niedrigen Frequenzen zu einer Hemmung der Kraftentwicklung von Herzmuskelpräparaten führt.”

VAD-Forschungen: Nachweis durch pathologische Untersuchungen

Damit bestätigt er die eindrucksvollen jahrzehntelangen Arbeiten zur Vibro Acoustic Disease (VAD) von Prof. Mariana Alves-Pereira, die bereits seit den 80er Jahren  gemeinsam mit Dr. Nuno Castelo Branco in Portugal an der Lusofóna Universität Lissabon im Staatsauftrag  zu Gewebeveränderungen u.a. am Herzen forscht und Herzwand- und Gefäßverdickungen durch Collagenzunahme  unter dem Einfluß der Beschallung mit Infra und tieffrequentem Schall belegt.

Die VAD-Forschungen sind international bekannt und werden in Deutschland seit Jahren verleugnet – Ein Ritterschlag der WK-Lobby:
https://www.nhmrc.gov.au/_files_nhmrc/file/media/events/windfarms_science_forum_mariana_alves_pereira.pdf

Studie zur toxischen Wirkung: Beschallung im Tierversuch

Auch die bemerkenswerte Forschungsarbeit von Wissenschaftlern aus Kasachstan und Ägypten von 2010 zur toxischen Wirkung von Infraschall auf das Immunsystem,
von uns am 22.06.2014 auf www.windwahn.de veröffentlicht, weist im Tierversuch etliche Veränderungen nach, z.B.:


“Andere Frequenzen und Schalldrücke führen bei 4 verschiedenen Tierarten zu weiteren Schädigungen wie Arterienverengungen, Kern-Deformationen und mitochondriale Schädigungen, Pathologien der Herzmuskelzellen, reduziert kontraktile Funktion des Myokards, Mikrozirkulationsstörungen, Ischämie und mitochondriale Zerstörung in den Kapillaren, Störungen des Enzymniveaus der Mitochondrien.

“Infraschall – toxische Wirkung auf das Immunsystem”
Unbedingt noch einmal lesen und weitergeben!

Infraschall: Toxische Wirkung auf das Immunsystem

Diese Forschungen werden uns noch oft beschäftigen.

Übernommen von Windwahn e.V hier




Aktionismus in Hamburg und Forderung flächendeckender Fahrverbote in Deutschland

Fahrer müssen sich jetzt eine Ausweichroute um die Stresemannstraße suchen, die 4,8 km lang ist und damit länger als die eigentliche Route von 1,6 km. Ein erheblicher Umweg, der Zeit, Geld und Sprit plus Abgase kostet.

Tag eins der neuen Zeit in Deutschland: Hamburger Dieselfahrer retten das Klima und fahren seit Mitternacht des 31. Mai 2018 fortan nicht mehr über 580 Meter der Max-Brauer-Allee sowie über 1,6 Kilometer der Stresemannstraße. 55 Umleitungs- und 49 Verbotsschilder wurden aufgestellt. Das Bußgeld bei einem Verstoß beträgt 20 Euro für Pkw und bis zu 75 Euro für Lkw.

58 Mikrogramm pro Kubikmeter Luft an NO2 in der Luft an dieser Messstelle sollen auf 40 Mikrogramm pro Kubikmeter Luft gedrückt werden. Eine Gefahr für die Gesundheit besteht laut Aussage von Wissenschaftern nicht.

Die Luftmessstation in der Max-Brauer-Allee steht auf einem Mittelstreifen idyllisch unter Bäumen, die ein dichtes Dach bilden und den Luftaustausch stark einschränken. Das ergab unsere Leseraktion in der Folge im März dieses Jahres.

Ob diese Messstation korrekt misst, darf bezweifelt werden. Unter Bäumen darf laut Anhang 3, Buchstabe C der der 39. Bundesimmissionsschutzverordnung (BImSchgV) nicht gemessen werden, eine Station in der Mitte einer Allee verstößt gegen Anhang 3, Buchstabe A 2 c) der 39. BImSchgV.

Der Ingenieur Fred F. Mueller fand zudem heraus: »Bei amtlichen Kontrollmessungen zeigte sich, dass die NO2-Konzentrationen am Messpunkt GM-12 um 16 % niedriger waren, am Messpunkt GM-10 lag die Belastung sogar um volle 30 % tiefer. Ein Beleg dafür, wie massiv der Einfluss der Distanz des gewählten Messpunktes zum Maximalpunkt der Emissionen ist.«

Einen deutlichen Rückgang des Berufsverkehrs haben die Reporter von Bild am Morgen des Donnerstags nicht bemerkt. Sie sahen sich schon früh auf den beiden betreffenden Straßenabschnitten um. Allerdings berichteten sie von empörten Anwohnern der Umgehungsstraßen, durch die jetzt der Verkehr rollt. Denn die Fahrer müssen sich jetzt eine Ausweichroute um die Stresemannstraße suchen, die 4,8 km lang ist und damit länger als die eigentliche Route von 1,6 km. Ein erheblicher Umweg, der Zeit, Geld und Sprit plus Abgase kostet.

Laut Bild verwarnt die Polizei nur; sie kann nur stichprobenartig kontrollieren, denn einem Auto sieht man von außen nicht an, was für ein Motor unter der Haube steckt. Also: Auto anhalten lassen, Fahrzeugschein herausfummeln, Blick auf die erfüllten Norm – das kostet Zeit und Nerven. Doch die Polizei verspricht schon: »Großkontrollen sind in Planung. Zunächst wollen wir informieren statt sanktionieren.«Bild zitiert Anwohner, die an der Umgehungsroute wohnen und bereits jetzt die Nase voll haben: »Wir können unsere Fenster nachts nicht mehr aufmachen, unser kleines Kind hustet nachts.«

Der grüne Hamburger Umweltsenator Jens Kerstan verteidigt die Fahrverbote: »Es ist unser Ziel und unsere Verantwortung, die Bürgerinnen und Bürger vor schädlichen Abgasen zu schützen.«

Vielleicht sähen es die Bürgerinnen und Bürger Hamburgs lieber, wenn der Senat ihr Leben zuerst vor messernden Neuankömmlingen und ihr Eigentum vor Antifa-Chaoten schützen würde. Das klappt noch nicht so gut; das Abfackeln von Autos in einem hohen Flammenmeer mit dunklen Rußfahnen verhageln die Bilanzen in Portemonnaies und Schadstofftabellen.

Mit dem »Schutz« vor kaum vorhandenen Abgasen, für deren Schädlichkeit es keine Belege gibt, tut sich der Senat schon leichter. »Solange die Bundesregierung nicht handelt, werden wir diese Straßensperrungen aufrechterhalten.«

Gnädigerweise will der Umweltsenator das Fahrverbot nicht auf die gesamte Stadt ausweiten, dies sei nicht verhältnismäßig den Fahrern von Dieselfahrzeugen gegenüber.

Die einschlägigen NGOs und Umweltverbände betonten, dass die Sperrung beim Straßenabschnitt nicht ausreichend sei.

Die Grünen wollen das totale Dieselverbot und fordern gleich flächendeckende Fahrverbote in ganz Deutschland. Der Grüne Cem Özdemir will keinen „Flickenteppich an Maßnahmen“ in Deutschland, sondern pauschale Fahrverbote mit der »blauen Plakette«.

ALIBIPOLITIK

Hamburg: Diesel-Fahrverbot ab kommender Woche

»Wenn Sie künftig von Hamburg nach Stuttgart fahren, brauchen Sie vielleicht ein dickes Handbuch, wo drin steht, wo Sie mit welchem Fahrzeug reinfahren dürfen und wo nicht«, befürchtet der grüne Sozialpädagoge. Einfacher wäre aus seiner Sicht eine bundesweite blaue Plakette. »Dann gibt es eine klare Regelung. Der moderne Diesel darf rein, die anderen dürfen in der Zeit der Überschreitung nicht rein.«Hand in Hand gehen Grüne mit dem Abmahnverein Deutsche Umwelthilfe (DUH), der ebenfalls flächendeckende Dieselverbote will. Danach soll der Benziner dran sein, der ebenfalls verboten werden muss, geht es nach dem DUH-Chef Jürgen Resch.

Bereits jetzt sind die Grundlagen dafür gelegt worden, dass in drei Jahren unsere jetzigen Autos überhaupt nicht mehr fahren dürften. Zum Schutz der Umwelt – natürlich – müssen die Grenzwerte noch weiter herabgesetzt werden. Dasselbe Spiel wie aktuell deutet sich an: Die EU will ab 2021 neue Verbrauchstests für Pkw und leichte Lkw einführen. Diese Grenzwerte sind so niedrig, dass sie mit Fahrzeugen mit Diesel oder Benzinern nicht mehr erreicht werden können. Nur mit Luft und Liebe lässt sich eben kein Auto mehr antreiben.

Auf den Weg gebracht wurde dieser Vorschlag von Deutschland bei der EU. Die Einspruchsfrist bei der EU endete im Frühjahr. Deutschland hat auf sein Recht des Einspruchs verzichtet. Das bedeutet: In drei Jahren können solche Trupps wie die von der Deutschen Umwelthilfe, wenn es die dann noch gibt, ihre neuen Klagewellen lostreten. Alles völlig legal, steht dann so in den Vorschriften und Gesetzen.

Der Beitrag erschien zuerst bei TICHYS Einblick hier




Roda Verheyen II: Familie auf Langeoog verklagt EU für mehr Klimaschutz

von Michael Krüger,

Eine Familie von der Nordsee-Insel Langeoog hat die Europäische Union verklagt, damit der Staatenverbund mehr für den Klimaschutz tut.

Mit ihr fordern neun weitere Familien aus Europa, Kenia und Fidschi vor dem Gericht der Europäischen Union einen besseren Schutz ihrer Grundrechte, wie die Umwelt- und Entwicklungsorganisation Germanwatch am Donnerstag mitteilte. Ein Urteil wird 2019 erwartet.

Die klagende Familie Recktenwald wohnt seit vier Generationen auf der ostfriesischen Insel Langeoog. Sie sieht ihre Heimat und ihr als Familienbetrieb geführtes Hotel und Restaurant durch den steigenden Meeresspiegel bedroht. Was ist dran, an dieser Behauptung? Dem möchte ich nachgehen.

Zur Siedlungsgeschichte an der deutschen Nordseeküste

Vor 2.000 Jahren lebten die Stämme der Chauken auf Erdhügeln, wie aus den Chroniken der Römer hervorgeht. Die Chauken gehörten nach Tacitus zur Gruppe der von der Nordseeküste stammenden Ingaevonen.

Chauken

77 n. Chr. beschrieb der römische Chronist Plinius das Volk, das auf künstlich aufgeworfenen Erdhügeln im Küstenbereich, den Warften lebte, wie folgt:

„… Gesehen haben wir im Norden die Völkerschaften der Chauken, die die größeren und die kleineren heißen. In großartiger Bewegung ergießt sich dort zweimal im Zeitraum eines jeden Tages und einer jeden Nacht das Meer über eine unendliche Fläche und offenbart einen ewigen Streit der Natur in einer Gegend, in der es zweifelhaft ist, ob sie zum Land oder zum Meer gehört. Dort bewohnt ein beklagenswertes Volk hohe Erdhügel, die mit den Händen nach dem Maß der höchsten Flut errichtet sind. In ihren erbauten Hütten gleichen sie Seefahrern, wenn das Wasser das sie umgebende Land bedeckt, und Schiffbrüchigen, wenn es zurückgewichen ist und ihre Hütten gleich gestrandeten Schiffen allein dort liegen. Von ihren Hütten aus machen sie Jagd auf zurückgebliebene Fische. Ihnen ist es nicht vergönnt, Vieh zu halten wie ihre Nachbarn, ja nicht einmal mit wilden Tieren zu kämpfen, da jedes Buschwerk fehlt. Aus Schilfgras und Binsen flechten sie Stricke, um Netze für die Fischerei daraus zu machen. Und indem sie den mit den Händen ergriffenen Schlamm mehr im Winde als in der Sonne trocknen, erwärmen sie ihre Speise und die vom Nordwind erstarrten Glieder durch Erde.“ [Gekocht und geheizt wurde also mit Torf.] „Zum Trinken dient ihnen nur Regenwasser, das im Vorhof des Hauses in Gruben gesammelt wird …“

– Plinius: Naturalis historia XVI 1, 2–4

deichbau1

Um das Jahr 1100 kamen holländische Siedler an die deutsche Nordseeküste und machten das Land urbar. Deiche wurden gebaut und das Deichhinterland entwässert. Die Holländer wollten ihre überbevölkerte Heimat verlassen und beabsichtigten das Ödland zu entwässern und zu bewirtschaften, denn es handelte sich um fruchtbaren Marschenboden, den die Frühjahrs- und Herbsthochwasser herangeschwemmt hatten. Unsere Vorfahren mussten sich immer wieder den klimatischen Begebenheiten anpassen und mit Unwettern kämpfen. Aus dieser Zeit stammt auch der Spruch „Deichen oder weichen“.

Immer wieder wurde die norddeutsche Küste von verheerenden Fluten heimgesucht, wie die Erste Marcellusflut von 1219, die Zweite Marcellusflut, Erste Mandränke von 1362, die Burchardiflut, Zweite Mandränke von 1634. Seit 1634 (der Burchardiflut oder Zweite Grote Mandränke) sind keine größeren Landverluste mehr an der deutschen Nordseeküste aufgetreten. Im Gegenteil, man hat durch eingedeichte Polder das früher verschlungene Land dem Meere z. T. wieder abgerungen. Die Holländer leisteten dabei Pionierarbeit. Die Landverluste und die Küstenentwicklung der letzten Jahrhunderte an der deutschen Nordseeküste zeigen die folgenden Abbildungen.

sturmfluten3

ostfriesland-1595-heute2

Früher lagen Orte wie Jever und Carolinensiel direkt an der friesischen/ ostfriesischen Nordseeküste und wurden als Häfen genutzt. Heute liegen diese Orte Dank Landgewinnung, Deichbau und Entwässerung einige Kilometer im Landesinneren. An der nordfriesischen Küste wurde ebenfalls Land dem Meer abgerungen.

D0088_1_deutsch_D1-1_Web300RGB

Nach der Burchardiflut von 1634 kam es vermehrt zum Bau Oktroyierter Köge. Bekannte Köge sind beispielsweise:

Köge im Kreis Dithmarschen
Christianskoog
Delver Koog
Dieksanderkoog (ehemals Adolf-Hitler-Koog)
Friedrichsgabekoog
Friedrichskoog
Hedwigenkoog
Kaiser-Wilhelm-Koog
Karolinenkoog
Kronprinzenkoog
Neufelderkoog
Preiler Koog
Speicherkoog in der Meldorfer Bucht
Wesselburenerkoog
Westerkoog

Köge im Kreis Nordfriesland
Augustenkoog
Beltringharder Koog
Hauke-Haien-Koog (nach der Hauptfigur der Novelle Der Schimmelreiter von Theodor Storm benannt)
Friedrich-Wilhelm-Lübke-Koog – 1954 letzter zur Besiedlung eingedeichter Koog Schleswig-Holsteins.
Gotteskoog
Tümlauer-Koog (ehemals Hermann-Göring-Koog)
Norderheverkoog (ehemals Horst-Wessel-Koog)
Uelvesbüllerkoog (Gemeinde Uelvesbüll)
Bottschlotter Koog (Gemeinde Dagebüll)
Kleiseerkoog (Gemeinde Galmsbüll)
Herrenkoog
Köge der früheren Insel Nordstrand
Elisabeth-Sophien-Koog
Alter Koog
Osterkoog
Trendermarschkoog
Neukoog
Morsumkoog
Pohnshalligkoog
Köge der Gemeinde Reußenköge
Cecilienkoog
Desmerciereskoog
Louisen-Reußen-Koog
Reußenkoog
Sönke-Nissen-Koog
Sophien-Magdalenen-Koog

Köge im Kreis Pinneberg
Hetlinger Neuerkoog

Die wechselhafte Geschichte der ostfriesischen Inseln

Inselverlagerung

Die ostfriesischen Inseln wie Langeoog sind einer stetigen Verlagerung durch die Gezeitenströme unterlegen. Im Westen der Inseln wird Land weggespült und im Osten neues Land/ Sand angespült. Dadurch wandern die Inseln von West nach Ost. Ganze Orte gingen so auf den Inseln verloren und mussten neu aufgebaut werden. Der Westturm von Wangerooge wurde um 1600 an der Ostküste der Insel erbaut. 1793 stand er in der Inselmitte. Vor dem ersten Weltkrieg befand er sich im Westen bereits im Wasser.

norderney

Die Insel Juist wurde gar in zwei Teile geteilt. Im Verlauf der Petriflut 1651 trennte der sog. Hammer-Durchbruch die Insel in zwei Teile. Erst 1877 wurde der Durchbruch im Süden und 1927 bis 1932 im Norden durch Dünenbaumaßnahmen geschlossen. Zwischen den beiden Dünenketten entstand der ca. 30 ha große ausgesüßte Hammersee. Auch die Insel Langeoog war betroffen. Es ist zu lesen, dass die Petriflut am 22. Februar 1651 zu einem Durchbruch der Insel geführt haben soll. Die Weihnachtsflut von 1717 riss die Insel in der Nähe des Großen Schlopp (Grote Sloop; Sloop bezeichnet dabei einen linienhaften Dünendurchbruch) gar in zwei Teile. Die Kirche und das Pfarrhaus wurden dabei zerstört, das zu diesem Zeitpunkt wieder im Westteil der Insel befindliche Dorf beschädigt. Bis auf vier Familien verließen daraufhin die Bewohner die Insel. Nach einer weiteren schweren Sturmflut wurde die Insel im Jahr 1721 komplett verlassen. Und auch die Entstehunggeschichte von Norderney ist nicht weniger spektakulär. Die sog. „Zweite Marcellusflut“ von 1362 hat nach jetzigem Stand der Forschung die Insel Buise in zwei Teile zerbrochen. Der östliche Teil erhielt den Namen „Osterende“ und wurde stetig größer, während Buise selbst immer kleiner wurde und nach der Petriflut von 1651 in der Nordsee verschwand. Osterende wurde 1550 in einem Rechnungsbuch der Gräfin Anna erstmals unter dem Namen „Nordernye-Oog“ (Nordens neues Auge, später: „Norderney“) erwähnt. Solche Durchbrüche, Inselverluste und Inselverlagerungen treten heute nicht mehr auf, Dank Küstenschutz.

 

Karte_Insel_Juist

Durch die Gezeitenströme unterliegt die norddeutsche Küste aber einen stetigen Wandel. An einer Stelle verschwinden Land und Inseln, an anderer Stelle entsteht neues Land und neue Inseln. Das ist bis heute zu beobachten. Die Kachelotplate ist eine Sandbank bei Juist, die gerade zur Insel wird. Die sogenannte Kachelotplate war schon 1840 in einer Landkarte der Region eingezeichnet, doch erst 2006 wurde eindeutig klar, dass bei dieser Sandbank fünf Kilometer südwestlich von Juist und drei Kilometer westlich von Memmert enorm was im Gange ist. Schon vor 35 Jahren hatte sich auf der Plate soviel Sand aufgetürmt, dass selbst bei mittlerem Tidehochwasser immer noch eine Spitze davon zu sehen war. 2004 betrug diese Fläche dann schon stolze 230 Hektar und zwei Jahre später konnte Kachelot (leitet sich vom französischen Wort “cachalot” = Pottwal ab) schon 2,5 Meter hohe Dünen mit Grasbewuchs vorweisen. Die derzeit 150 Hektar große Kachelotplate westlich von Juist unterliegt weiterhin ständigen Veränderungen: Aufgrund der seit 2001 zu beobachtenden Ostwärtsverlagerung ist es nur eine Frage der Zeit, bis sich die Kachelotplate mit der Insel Memmert verbindet.

113113

Auch der aktuelle Meeresspiegelanstieg an der deutsche Nordseeküste ist alles andere als dramatisch, wie der Pegel von Norderney zeigt. Dort ist ein Meeresspiegelanstieg von ca. 25 cm in den letzten 100 Jahren zu verzeichnen, der sich nicht beschleunigt hat. Auch die Anzahl der Sturmfluten und schweren Sturmfluten hat in den letzten 100 Jahr nicht zugenommen.

Auch die Anzahl der Sturmfluten und schweren Sturmfluten hat in den letzten 100 Jahr nicht zugenommen.

Pegel-Norderney

Sturmfluten

Im Angesicht der letzten 2.000 Jahre, dem modernen Küstenschutz und dem aktuellen Meeresspiegelanstieg ist die Sorge der Familie Recktenwald also völlig unbegründet.

Der Beitrag erschien zuerst bei Science Sceptical hier

Auch Die kalte Sonne nimmt sich dieser dreisten Tatsachenverdrehung an und zitiert zunächst die Ehefrau der beiden Kläger

ZEIT ONLINE: Frau Recktenwald, warum beteiligen Sie sich an der Klage?

Maike Recktenwald: Wir nehmen den Klimawandel besonders wahr, weil wir hier mit der Natur leben. Wir wohnen hundert Meter vom Strand entfernt und der Meeresspiegel steigt. Auch wenn wir das noch nicht sehen können, so ist das doch eine langfristige Bedrohung für unser Dorf. Schon jetzt merken wir den Unterschied beim Wetter: Im vergangenen Winter hatten wir sehr viel Niederschlag und extrem viel Westwind. Normalerweise haben wir in den Wintermonaten Ostwind. Der Westwind drückte das Regenwasser in die deutsche Bucht hinein. Normalerweise leiten die Deichschleusen das Regenwasser über das Entwässerungssystem von der Insel ab. Dieses Mal aber war das System voll ausgelastet, beinahe ist das Regenwasser ungefiltert in die Süßwasserbrunnen gelaufen. Dann hätten wir auf der Insel keine Trinkwasserversorgung mehr gehabt. Das könnte man jetzt als Sonderfall abtun. Ich bin mir sicher: Es ist eine Folge des Klimawandels. Wenn der Meeresspiegel weiter steigt, ist die Entwässerung der ostfriesischen Inseln in hundert Jahren gar nicht mehr möglich. Dazu gibt es inzwischen Messungen.

Um dann die Behauptungen von Frau Rektenwald Stück für Stück auseinander zu nehmen




Deja Vu: Es lief doch so gut mit der Ethikkommission! Modell für die Kohleausstiegskommission.

Kohleausstiegskommission – Ergebnis schon klar!

Vorgestern, am 29.05.2018 wurde der Beschluss der Zusammensetzung der Kohleausstiegskommission ) euphemistisch „Kohlekommission“ genannt) erneut vertagt. Trotzdem sickerte die geplante Besetzungsliste bereits durch.

Link: https://www.lr-online.de/lausitz/cottbus/chaos-um-kohlekommission-zwei-lausitzer-sollen-rein_aid-23139137

Geplant lt. LR online:

Vorsitz:

Ronald Pofalla – Kommentar: Sozialpädagoge, Rechtsanwalt, CDU, Ex-Bundeskanleramt, Vorstand Deutsche Bahn

Matthias Platzeck – Kommentar: Kyberniter, Grüne, SPD, Landesminister, Ex-MP Brandenburg

Stanislaw Tillich – Kommentar: Konstruktionsingenieur, Unternehmer, CDU, Landesminister, Ex-MP Sachsen

Barbara Praetorius – Kommentar: Volkswirtin und Politikwissenschaftlerin, für schnellen Ausstieg aus „dreckiger“ Braunkohle, ehemals AGORA Energiewende

Mitglieder:

1 Prof. Dr. Jutta Allmendinger – FU Berlin – Kommentar: Soziologin, Gerechtigkeitsforscherin

2 Antje Grothus – Bürgerinitiative „Buirer für Buir“ – kein Kommentar

3 Christine Herntier – Sprecherin Lausitzrunde – Kommentar: Spremberger Bürgermeisterin, Diplomökonomin

4 Martin Kaiser – Geschäftsführer Greenpeace – kein Kommentar

5 Stefan Kapferer – Bundesverband Energie- und Wasserwirtschaft – Kommentar: Verwaltungswissenschaftler, FDP

6 Prof Dieter Kempf – Präsident Bundesverband der Deutschen Industrie – Kommentar: Diplom-Kaufmann, umfangreiche Führungspositionen in der Wirtschaft

7 Stefan Körzell – Deutscher Gewerkschaftsbund – Kommentar: Gewerkschaftslaufbahn, SPD, Fan der Energiewende, aber sozial verträglich und gerecht

8 Ingo Kramer – Bundesvereinigung der Deutschen Arbeitgeberverbände – Kommentar: Wirtschaftsingenieur, Geschäftsführer Familienunternehmen, FDP

9 Michael Kreuzberg – Landrat Rhein Erft Kreis – Kommentar: Sozialwissenschaflter, Germanistiker, Lehrer, CDU

10 Felix Matthes – Ökoinstitut – Kommentar: Studium E-Technik, Promotion Politik, Protagonist frühen Kohleausstiegs

11 Claudia Nemat- Telekom – Kommentar: Studium Physik, Philosophie und Mathematik, Lehrtätigkeit, Mc Kinsey, Telekom, Fan der Smart Grids

12 Kai Niebert – Universität Zürich – Kommentar: Studium Biologie, Chemie. Politik, Nachhaltigkeitswissenschaflter, Ausstiegsfan

13 Annekatrin Niebuhr – Uni Kiel – Kommentar: Volkswirtschaftlerin, Forschung im Bereich regionale Wachstumsstrukturen

14 Reiner Priggen -Landesverband EEG NRW – deutscher Politiker der Partei Bündnis 90/Die Grünen.

15 Katherina Reiche – Verband kommunaler Unternehmen – Kommentar: Diplom-Chemikerin, Ex-CDU-MDL, StaatssekretätinUmwelt, Realpolitikerin

16 Gunda Röstel – Geschäftsführerrin Stadtentwässerung Dresden – Kommentar: Sonderschulpädagogin, Vorstand Grüne, Vorstandsmitglied EnBW, BDEW, Realpolitikerin

17 Andreas Scheidt – Verdi – Kommentar: Elektriker, Leitstandsfahrer, Gewerkschafter, fordert sozial Verträglichen Umgang mit dem Ausstieg

18 Hans Joachim Schellnhuber – Potsdam-Institut für Klimafolgenforschung – kein Kommentar

19 Eric Schweitzer – Deutscher Industrie und Handelskammertag – Kommentar: Politologe, Vorstand Alba Group, fordert ökonomisch vertretbare Energiewende und echte Konkurrenz

20 Michael Vassiliadis – IG Bergbau, Chemie, Energie – Chemielaborant, SPD, Gewerkschaftler

21 Ralf Wehrspohn – Fraunhofer Institut für Mikrostruktur von Werkstoffen – Kommentar: Physiker, Forscher, Photovoltaik, Materialeffezienz

22 Hubert Weigner – BUND – kein Kommentar

23 Hannelore Wodtke – „Grüne Zukunft Welzow“ – kein Kommentar

Eine; sicherlich durchaus wenig objektive; Einschätzung der Zusammensetzung der Kommission, selbst wenn sich hier und da noch etwas ändert, zeigt ein zu erwartendes Ergebnis von

11 Stimmen für den schnellen bis direkten Kohleausstieg.  Hierzu Zitat Barbara Praetorius: „Kohle im Stromsektor, aber auch Öl und Gas im Verkehr und in der Wärmeversorgung müssen ersetzt werden. Die Perspektive lautet Elektromobilität und mehr Wärmepumpen, beides betrieben mit Strom aus Erneuerbaren Energien. Technisch ist das unbestritten möglich. Aber um die fossilen Energien zu ersetzen, müssen auch mehr Wind- und Sonnenstromanlagen gebaut und Braunkohlegruben geschlossen werden.“

8 Stimmen für ein Ja, aber nur wenn der Wandel sozialverträglich gestaltet wird. Hierzu Zitat Andreas Scheidt, Verdi: „Ein vorzeitiger Ausstieg aus der Kohleverstromung muss eine verbindliche Übereinkunft beinhalten, dass diese Beschäftigten keinerlei materielle Einbußen erleiden, wenn ihr Arbeitsplatz aufgrund von politischen Entscheidungen verloren geht.“

7 Stimmen für einen ökonomisch und sozial planbaren Ausstieg. Zitat Christine Herntier: „Deutschland ist ein wirtschaftlich sehr erfolgreiches Land, das auch über einen breit aufgestellten und innovativen Dienstleistungssektor verfügt. Doch die Grundlage für Dienstleistungen ist die industrielle Wertschöpfung. Und deren Voraussetzung wiederum ist bezahlbare und zuverlässig verfügbare Energie.“

Die Zusammensetzung der Kommission lässt also ein Ergebnis im Sinne der grünen Kanzlerin erwarten: „Wir schaffen das“; mit einer Prognose meinerseits mit 2030 als Datum zum kompletten Ausstieg, koste es, was es wolle. Die Berücksichtigung von NGO’s und Bürgerinitiativen für den direkten Ausstieg (Buirer für Buir, Grüne Zukunft Welzow) aus der Braunkohle bei gleichzeitigem Ignorieren des anderen Seite (Pro Lausitz, Unser Revier; die sich ebenfalls um einen Platz in der Kommission beworben hatten) zeigt diese Zielrichtung.

Gleichzeitig wird damit die grüne Kompetenz der GroKo gestärkt, um ähnlich wie beim Kernenergieausstieg Grünen und Linken den Wind aus den Segeln zu nehmen.

Der Schaden für die deutsche Wirtschaft wird irreparabel anwachsen.




Plutonium Vernichtung in den USA! Notbremse gezogen?

Die Vorgeschichte

Bereits vor dem Zusammenbruch der Sowjetunion setzte ein gewaltiges Abrüstungsprogramm zwischen den USA und Russland ein. Letztendlich wurden im Rahmen des ersten Vertrages zur Verringerung strategischer Waffen (START I) tausende Raketen und Sprengköpfe auf beiden Seiten vernichtet. Damit saß jeder der beiden Vertragspartner auf zig Tonnen waffengrädigem Materials, aus dem man zehntausende von neuen Sprengköpfen hätte bauen können. Im Zeitalter des aufkeimenden Terrorismus eine äußerst unbehagliche Situation, zumal die Sowjetunion in Auflösung begriffen war.

Die Mengen an hochangereichertem Uran stellten nur ein kleines Problem dar: Sie wurden mit abgereichertem Uran auf die Gehalte für Brennstoff verschnitten und nach und nach in Kernkraftwerken zur Stromerzeugung verbraucht. Gleichwohl waren die Mengen so gewaltig, daß für Jahre der Markt für Natururan nahezu zusammenbrach. Für sich genommen schon ein gewaltiger Schaden für die Uranbergwerke.

Ganz anders verhielt es sich mit dem Plutonium. Jeder der beiden Vertragspartner verfügte nun über einen Überschuß von 34 to waffengrädigem Plutoniums, der irgendwie aus der Welt geschafft werden mußte. Um zu verstehen, warum das gar nicht so einfach ist, muß man sich etwas näher mit Plutonium beschäftigen.

Das besondere Plutonium

Plutonium ist ein chemisches Element mit der Ordnungszahl 94 (94 Protonen im Kern), welches faktisch nicht in der Natur vorkommt. Es kann zwar in verschiedene chemische Verbindungen mit verschiedenen chemischen Eigenschaften überführt werden, nicht aber auf chemischen Wegen wieder aus der Welt geschafft werden. Es kommt in zahlreichen Isotopen (unterschiedliche Anzahl von Neutronen im Kern) — von Pu236 bis Pu244 — mit jeweils eigener Halbwertszeit und eigenem Einfangquerschnitt für Neutronen vor. Die einzige Möglichkeit es wieder aus der Welt zu schaffen, ist es mittels Neutronen zu spalten oder wenigstens in andere Isotopen um zu formen.

Schon in den Anfängen der Entwicklung von Kernwaffen hat man erkannt, daß Pu239ein idealer Kandidat für den Bau von Kernwaffen ist. Es ist recht einfach und preiswert in „speziellen Reaktoren“ in beliebigen Mengen aus Natururan herstellbar und es besitzt ein Optimum aus „Lebensdauer“ und Einfangquerschnitt im auftretenden Energiespektrum einer Kernexplosion.

Jede Kernwaffe altert durch spontane Zerfälle. Je kürzer die Halbwertszeit des Materials ist, desto schneller ist die Kernwaffe unbrauchbar. Jeder Kern, der schon zerfallen ist, steht für die Kettenreaktion im Ernstfall nicht mehr zur Verfügung. Dies ist leicht einsichtig. Jeder Spontanzerfall löst aber eine ganze Kette weiterer radioaktiver Produkte aus. Jedes Glied hat eigene, energieabhängige Einfangquerschnitte. Vereinfachend gesagt, viele verbrauchen nur Neutronen, die für eine Kettenreaktion nicht mehr zur Verfügung stehen können. Im Extremfall bricht die „Explosion“ sehr schnell in sich zusammen.

Der Zweck einer Kernwaffe ist Zerstörung (Druckwelle, Feuerball und Strahlung). Dafür braucht man eine hohe Leistung (Energie pro Zeiteinheit). Mit einfachen Worten: Man muß möglichst viele Kerne (ungefähr 200 MeV pro Spaltung) in nahezu „Null Sekunden“ spalten. Das Geheimnis des Bombenbaues liegt nun in der Beherrschung der Kettenreaktion: Mit jeder Spaltung werden weitere Neutronen frei, die von Generation zu Generation (jeweils etwa Verdoppelung) immer noch mehr Kerne spalten könnten — wenn sie nicht parasitär weggefangen werden oder den Ort des Geschehens einfach mit hoher Geschwindigkeit verlassen würden ohne überhaupt jemals einem spaltbaren Kern begegnet zu sein. Insbesondere für diesen „Verlust von Neutronen durch Austritt“ ist die schnelle Ausdehnung des Spaltmaterials durch die entstehende Hitze verantwortlich.

Waffengrädiges- oder Reaktorplutonium?

Von „Atomkraftgegnern“ wird immer wieder behauptet, man könne auch aus Reaktorplutonium „Bomben bauen“. Man möchte damit Plutonium aus der Wiederaufbereitung von Brennelementen aus Leichtwasserreaktoren gefährlicher erscheinen lassen, als es in Wirklichkeit ist. Bestenfalls steckt dahinter Wortklauberei. Natürlich kann man mit großem Aufwand unter Laborbedingungen auch mit Reaktorplutonium eine Kettenreaktion auslösen — bloß bringt man damit keine Fensterscheibe zum wackeln. Deshalb ist auch noch keiner so bescheuert gewesen, mit gewaltigem Aufwand eine „Atombombe“ aus Reaktorplutonium zu bauen, die trotzdem nur einem Knallfrosch gleicht, wenn er mit geringstem Aufwand aus Natururan waffengrädiges Plutonium erzeugen kann.

Damit ist auch ein Weg aufgezeigt, wie man „altes Bombenplutonium“ dauerhaft und sicher beseitigen kann. Setzt man es als Brennstoff in Leistungsreaktoren ein, wird dadurch ein erheblicher Teil der Ursprungsmenge „verbrannt“ und gleichzeitig der Rest durch die Bildung von anderen Isotopen verdorben. Denn nicht jeder Kern Pu239 wird durch das Einfangen eines Neutrons gespalten, sondern wird teilweise bloß in ein anderes Isotop (Pu240, Pu241 usw.) umgewandelt. Man kann das mit dem vergällen von trinkbarem Alkohol vergleichen: Der Zusatz von geringen Mengen ähnlicher Stoffe macht aus einer großen Menge Genussmittel einen für Menschen giftigen Industriealkohol. Der Trick ist der Gleiche: Der Aufwand zur Trennung wäre um ein vielfaches höher, als die erneute Herstellung von Trinkalkohol.

Grundsätzlich kann man „überschüssiges Bombenplutonium“ in schnellen Reaktoren oder in konventionellen Leichtwasserreaktoren einsetzen. Effektiver ist der von Rußland eingeschlagene Weg der Herstellung von Brennstoff für einen natriumgekühlten Reaktor mit schnellen Neutronen: Man kann größere Anteile (schnelle Reaktoren über 20%, LW bis rund 8%) verwenden. Dies vereinfacht schon mal die notwendige Überwachung bei der Produktion. Durch eine angepaßte Fahrweise (nicht die Energieerzeugung steht im Vordergrund, sondern die Erzeugung ungeeigneter Isotope) kann man recht schnell große Mengen Plutonium für eine Waffenproduktion dauerhaft unbrauchbar machen. So gibt es beispielsweise ein Konzept — bestehend aus zwei PRISM-Reaktoren — innerhalb von nur zwei Jahren alle Überschussbestände in Großbritannien für eine Waffenproduktion unbrauchbar zu machen. Elektrische Energie könnten diese Reaktoren mit diesem Plutonium dann trotzdem noch viele Jahrzehnte weiter produzieren.

Der Weg über MOX

Üblicherweise setzt man in Kernkraftwerken einen Brennstoff aus (nur) angereichertem Uran ein. Man kann aber auch einen Brennstoff aus einer Mischung aus Uranoxid und Plutoniumoxid verwenden. Keine neue Erfindung. Bereits 1972 wurde in Deutschland (!) erfolgreich ein Mischoxid in einem Reaktor verwendet. Heute sind rund 5% aller verwendeten Brennelemente weltweit vom Typ MOX. Führend in dieser Technologie ist mit großem Abstand Frankreich. Ursprünglich wollte man damit den Verbrauch von Natururan strecken. Es war daher nicht abwegig, über diese Schiene auch das „Überschuß-Plutonium“ aus der Rüstung vernichten zu wollen. Nur mußte aus politischen Gründen (Proliferation und Verträge mit Rußland) in USA erst einmal eine neue Anlage gebaut werden. Und damit nahm das Verhängnis seinen Lauf…

Wenn man eine verfahrenstechnische Großanlage in Auftrag gibt, sollte man vorher wissen, welches Produkt man eigentlich herstellen will, welche Vorschriften im eigenen Land gelten und welchen Rohstoff man genau einsetzen muß. Ganz offensichtlich für Politiker (per Eigendefinition Alleskönner) und öffentliche Verwaltungsapparate (zumindest, wenn sie sich auf einem neuen Gebiet bewegen sollen) eine unlösbare Aufgabe. Wie immer, wurde erst einmal — im Bewußtsein kein eigenes Geld, sondern das Geld der Steuerzahler zu verschwenden — eine Anlage für den Durchsatz von 3,5 to Plutonium pro Jahr bei Areva für 2,7 Milliarden Dollar in Auftrag gegeben. Baubeginn war 2007 mit einer geplanten Fertigstellung im Jahr 2016.

Nachdem der Baubeginn bereits erfolgt war, stellte man fest, daß der spezielle Eingangsstoff — besagtes Waffenplutonium zur Vernichtung in Leichtwasserreaktoren — anders, als das übliche Plutonium — Plutonium aus französischer Wiederaufbereitung von Kernbrennstoff— war. Flugs mußte noch ein kompletter zusätzlicher Verfahrensschritt zur Entfernung von Verunreinigungen eingeführt werden. Die Anlage — fast genau so groß, wie die bereits im Bau befindliche — wurde verniedlichend „Aqueous Polishing“ genannt. Die geplante Fertigstellung verschob sich auf 2019 und die geplanten Kosten schossen auf 4,9 Milliarden Dollar hoch.

Im Jahre 2012 führte man eine Untersuchung durch und aktualisierte die Kostenschätzung auf 7,7 Milliarden. Eine weitere Untersuchung im Jahre 2016 ergab eine Kostenschätzung von 17,2 Milliarden und eine Inbetriebnahme nicht vor 2025. Wie bei öffentlichen Projekten üblich — wir kennen das vom Flughafen BER in Berlin — wurschtelt man weiter vor sich hin. Jährlich versickerten zwischen 350 und 500 Millionen Dollar aus diversen Haushaltstiteln in diesem Sumpf. Ein schönes Auftragsvolumen, für das man schon etwas für die Politik tun kann.

Die Programmkosten

Mit dem Bau der Anlage ist es aber noch nicht getan. In einer Marktwirtschaft muß man auch noch Kunden für das Produkt finden. In diesem Fall, wegen der geltenden Abrüstungsverträge, ausschließlich in den USA. Die Kernkraftwerke in den USA müssen aber Genehmigungen für den Betrieb mit MOX-Brennelementen besitzen. Sie müssen geprüft und umgebaut werden. Mit anderen Worten, im Moment würden die Betreiber die Brennelemente nicht einmal geschenkt nehmen. Lange Rede, kurzer Sinn, das Energieministerium schätzt die Gesamtkosten für das Programm auf 50 Milliarden Dollar. Das entspricht einem Preis von über 1,4 Millionen Dollar für jedes Kilogramm Waffenplutonium. Selbst wenn man die Anlagen noch für andere Zwecke nutzen kann, ist das ein Irrsinn.

Dieser Vorgang zeigt sehr schön, was geschieht, wenn man Politikern solche komplexen technischen Herausforderungen überläßt. Man muß nur so ein verrücktes Programm starten und erschließt sich damit eine sprudelnde Geldquelle: In diesem Fall mit ursprünglich „etwa 1 Milliarde für ein tolles Abrüstungsprogramm“ oder einer „Eiskugel für eine Energiewende“ bei uns. Sind erstmal genug Laiendarsteller auf den Zug aufgesprungen, kann man sie beliebig ausquetschen. Der Politiker steht vor der Alternative: Ich verbrenne weiterhin das Geld fremder Leute (sprich unsere Steuern) oder gebe zu, gar nicht allwissend zu sein, was das Ende der eigenen Karriere bedeutet. Solche „Steuergelder-Verbrennungsanlagen“ werden erst gestoppt, wenn Kräfte an die Regierung kommen, die bisher nicht im etablierten Machtapparat tätig waren. Dies geschah mit der Wahl von Donald Trump zum 45. Präsidenten der USA, der schon in seinem Wahlkampf lieber vom „Sumpf“ sprach und ungern das etablierte Synonym „Washington“ benutzte.

Wie geht’s weiter

Allerdings ist mit dem Baustopp der Anlage noch lange nicht das Problem beseitigt. Dabei ist das Plutonium selbst das geringste Problem: Es schlummert weiterhin in den Tresoren vor sich hin. Was drückt, sind die Abrüstungsverträge mit Russland. Im Moment herrscht ein seltsames gegenseitiges „Wegsehen“: Die USA kommen nicht mit der Vernichtung ihres „Überschussplutonium“ voran, dafür regt man sich nicht sonderlich über den Bruch des Abrüstungsabkommens über Mittelstreckenwaffen (Landgestützte Cruise missile mit „Atomsprengköpfen“) durch Putin auf.

Es muß also eine Lösung her. Zumindest über einen weiteren Ansatz, wird hier demnächst berichtet…

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Klima-Zerrbild wegen kleinster Nenner

Es gibt dieser Tage sehr viele Indizes, mit denen die Aufmerksamkeit der Menschen erregt wird, und zwar wegen der genannten großen Zahlen. Aber in der Realität stammen diese großen Zahlen samt und sonders aus sehr kleinen Nennern, wenn man ein Verhältnis berechnet. Drei prominente Beispiele dieser mathematischen Tatsache sind: Der Rückkopplungs-Effekt in den Globale-Erwärmung-Modellen; das „Globale-Erwärmung-Potential“ und der „Happy Planet Index“. Jeder dieser Indizes ist behaftet mit der enormen Verzerrung, zu der es kommt, wenn ein Divisor sehr klein ist.

A. Der „Happy Planet Index“ ist am einfachsten zu erklären: Er wird herangezogen, um verschiedene Länder miteinander zu vergleichen und hat folgende Form:

(a x b x c) / d.

In dieser Gleichung bedeuten:

a = Wohlergehen: „wie zufrieden sind die Einwohner eines jeden Landes mit ihrem Leben allgemein?“ (auf der Grundlage einer Gallup-Umfrage.)

b = Lebenserwartung

c = Ungleichheiten der Ergebnisse („die Ungleichheiten zwischen den Menschen innerhalb eines Landes hinsichtlich der Lebensdauer und wie glücklich sie sich fühlen auf der Grundlage der Verteilung und des Wohlergehens in jedem Land“)

d = ökologischer Fußabdruck („die mittlere Auswirkung eines jeden Einwohners eines Landes auf die Umwelt auf der Grundlage der Daten, die vom Global Footprint Network aufbereitet sind“).

Wie stehen die ausgewählten Länder nun da? Mit diesem Index ist Costa Rica mit einem Wert von 44,7 die Nummer 1, gefolgt von Mexiko mit einem Wert von 40,7 an Nummer 2. Bangla Desh rangiert mit einem Wert von 38,4 auf Rang 8, Venezuela mit einem Wert von 33,6 auf Rang 29 und die USA mit einem Wert von 20,7 auf Rang 108 – von 140 betrachteten Ländern.

Neben solchen auf der Hand liegenden Fragen wie „warum kommen so viele Menschen aus Mexiko in die USA, während kaum jemand den umgekehrten Weg nimmt?“ ist es instruktiv, einmal näher den Divisor (Faktor d in der Gleichung) zu betrachten beim Errechnen dieser numerischen Indexwerte.

Jedes Land mit einem sehr geringen Niveau ökonomischer Aktivitäten wird hinsichtlich des „ökologischen Fußabdrucks“ einen kleinen Wert aufweisen. Unbewohnter Dschungel oder Wüsten stehen in dieser Hinsicht weit unten. Mit einem sehr kleinen Wert des Faktors d spielt es keine große Rolle, welche Werte die Faktoren a bis c annehmen – der kleine Nenner garantiert, dass der Quotient groß ist. Daher der große Index für einige wirklich armselige Plätze.

Die zugrunde liegende Ursache, dass der „Happy Planet Index“ so irreführend ist, ist die Einbeziehung einer Division durch eine Zahl, die für einige Länder ziemlich dicht bei Null liegt.

B. Das zweite Beispiel für diesen Effekt ist der Parameter „Globale-Erwärmung-Potential“. Dieser wird herangezogen, um die relative Stärke der ausgewählten Treibhausgase zu vergleichen.

Die falsche Anwendung von Zahlen hierbei hat zu allen möglichen Arten grauenhafter Prophezeiungen geführt hinsichtlich der Notwendigkeit, sehr kleine Mengen von Spurengasen wie Methan (CH4), NO2 und Andere loszuwerden.

Der Terminus „Globale-Erwärmung-Potential“ ist erstmals im 2. IPCC-Zustandsbericht aufgetaucht. Er wurde später, genauer im 4. Zustandsbericht aus dem Jahr 2007 in eine Formel gekleidet. Dies wird beschrieben in Abschnitt 2.10.2 des Textes der Arbeitsgruppe 1. Um zu begreifen, was das bedeutet, ist es zunächst einmal erforderlich zu verstehen, wie Moleküle Strahlung absorbiert und emittiert werden.

Jedes Gas absorbiert Strahlung in bestimmten Spektralbändern. Je mehr dieses Gases vorhanden ist, umso mehr wird absorbiert. Stickstoff (N2) mit einem Anteil von 77% in der Atmosphäre absorbiert im nahen UV-Spektrum, aber nicht im sichtbaren oder infraroten Bereich. Wasserdampf (H2O) ist ein ausreichend starker Absorbierer im Infraroten, dass es den Treibhauseffekt verursacht und die Erde um über 30°C erwärmt, was unseren Planeten viel angenehmer zu bewohnen macht. An Stellen, wo nur wenig Wasserdampf vorhanden ist, gibt es weniger Absorption, weniger Treibhauseffekt, und bald wird es kalt (nachts in der Wüste).

Hat ein Molekül erst einmal ein Photon absorbiert, gewinnt es an Energie und wechselt in einen angeregten Zustand. Bis diese Energie wieder abgegeben wird (via Rückstrahlung oder Kollisionen), wird jenes Molekül kein weiteres Photon absorbieren. Die Folge hiervon ist, dass die Gesamt-Absorption durch jedwedes Gas allmählich saturiert, wenn die Menge jenes Gases zunimmt. Eine kleine Gasmenge absorbiert sehr effizient, aber wenn sich die Menge verdoppelt, wird die Absorption weniger als doppelt so groß sein wie zuerst. Und so weiter bei jeder weiteren Verdoppelung. Wir sagen, dass die Absorption logarithmisch abhängig ist von der Konzentration des jeweiligen Gases. Die Kurve, wie stark die Gesamt-Absorption abnimmt, variiert entsprechend der Exponential-Funktion exp (-X/A), wobei X für die präsente Gasmenge steht (normalerweise angegeben in ppm) und A für eine Konstante relativ zur Physik des Moleküls. Jedes Gas wird einen anderen Wert aufweisen, angegeben als B, C, D usw. Erhält man diese Zahlen innerhalb von 15%, wird das als ziemlich gut angesehen.

Es gibt so viel Wasserdampf in der Atmosphäre (variabel, über 10.000 ppm oder 1% als Konzentration), dass dessen Absorption vollständig gesättigt ist. Da gibt es nicht mehr viel zu diskutieren. Im Gegensatz dazu weist das Gas CO2 einen stetigen Wer um 400 ppm auf, und dessen Absorption ist zu 98% gesättigt. Das fällt zusammen mit dem Koeffizient A, der grob äquivalent zu 100 ppm ist.

Diese Exkursion in die Physik der Absorption zahlt sich aus, wenn wir auf die Mathematik schauen, mit der das „Globale Erwärmung Potential“ (GWP) eines Spurengases berechnet wird. GWP ist definiert als das Verhältnis der Steigung der Absorptions-Kurven für zwei Gase: hier die Steigung des interessierenden Gases dividiert durch die Steigung für Kohlendioxid. Die Steigung einer heden Kurve ist die erste Ableitung jener Kurve. Ökonomen sprechen von einer „marginalen“ Änderung in einer Funktion. Bei einer Änderung von 1 ppm der Konzentration, wie ändert sich dann die Strahlungs-Effizienz?

An diesem Punkt ist es entscheidend, sich vor Augen zu führen, dass jedes andere Gas mit CO2 verglichen wird, um dessen GWP-Wert zu bestimmen. Mit anderen Worten, welcher GWP-Wert auch immer für CO2 bestimmt ist, wird jener Wert rückgesetzt auf 1, damit die Berechnung des GWP für ein Gas eine Zahl im Vergleich zu CO2 erzeugt. Die Steigung der Absorptionskurve für CO2 wird zum Divisor der Berechnung des GWP jedes anderen Gases.

Jetzt wollen wir jenen Divisor berechnen: Wenn die Absorptions-Funktion lautet exp (-X/A), dann ist es eine mathematische Tatsache, dass die erste Ableitung lautet [-1/A][exp(-X/A)]. Im Falle der CO2-Konzentration von 400 ppm beträgt die Steigung, wenn A 100 ppm ist, [-1/100][exp (-4)] = –0,000183. Das ist eine mächtig flache Kurve mit einer extrem geringen Steigung, die leicht negativ ist.

Als Nächstes untersuchen wir das Gas, das mit CO2 verglichen werden soll, und berechnen den Dividend:

Man muss erwähnen, dass die Berechnung des GWP auch einen Faktor enthält, der mit der atmosphärischen Lebensdauer eines jeden Gases in Relation steht. Dazu mehr im Anhang [hier nicht übersetzt]. Hier wollen wir uns auf die Änderung der Absorption konzentrieren bei einer geringen Änderung der Konzentration. Die Steigung der Absorptionskurve wird vergleichsweise steil sein, weil jenes Molekül in niedriger Konzentration vorliegt und in der Lage ist, alle Photonen einzufangen, die auf seinem Weg liegen.

Um es numerisch zu erfassen, wollen wir Methan (CH4) mit einer atmosphärischen Konzentration von etwa Y = 1,7 ppm annehmen, die N2O-Konzentration mit Z = 0,3 ppm. Deren numerische Koeffizienten sind vielleicht B ~ 50 oder C ~ 150; sie werden nicht sehr weit entfernt liegen vom Wert von A für CO2. Die erste Ableitung ergibt dann [-1/B][exp{-Y/B)]. Man schaue genau hin: mit Y oder Z so dicht bei Null wird der Exponentialfaktor nahe 1 liegen. Damit wird die Ableitung lediglich zu 1/B (oder 1/C, usw). Vielleicht beträgt jene Zahl 1/50 oder 1/150 – aber sie wird nicht so klein sein wie 0,000183, also die Steigung, welche im Nenner erscheint.

Tatsächlich ist der Divisor (die Steigung der CO2-Kurve, wenn sie nahe der Sättigung ist) garantiert um einen Faktor von etwa [exp(-4)] kleiner als der Zähler – aus dem sehr einfachen Grund, weil es ~ 400 mal so viel CO2 gibt und dessen Job als Photonen-Absorbierer weitgehend getan ist.

Wenn ein normal großer Dividend durch einen kleinen Divisor geteilt wird, wird der Quotient immer größer. Das GWP für ausgewählte Gase ergibt dann sehr große Zahlen, wie etwa 25 für CH4 und 300 für N2O. Der Faktor der atmosphärischen Lebenszeit macht einige dieser Zahlen noch größer: einige FCKWs (Freon) haben gigantische GWPs: HFC-134a (verwendet in den meisten Auto-Air-Conditioners), schlägt mit einem GWP über 1300 zu Buche. Das IPCC nennt eine Fehler-Bandbreite von ±35% bzgl. dieser Schätzungen. Die Wirklichkeit jedoch ist, dass jeder einzelne der berechneten GWP-Werte enorm aufgebläht ist infolge der Division durch einen extrem kleinen Divisor assoziiert mit der Steigung der CO2-Absorptionskurve.

Die Berechnung des GWP ist nicht so sehr eine Warnung bzgl. anderer Gase, sondern eher eine Anklage gegen CO2, welches (bei 400 ppm) seine Absorption nicht nennenswert ändert, falls die CO2-Konzentration um 1 ppm ab- oder zunimmt.

C.Das dritte Beispiel sind die Schätzungen des „Rückkopplungs-Effektes“ in den Computermodellen der globalen Erwärmung

Der Terminus „Klimasensitivität“ drückt aus, wie stark die Temperatur steigen wird, falls sich die CO2-Konzentration verdoppelt. Ein relevanter Parameter bei der Berechnung ist der „Strahlungsantrieb“ [radiative forcing], welcher entweder mit oder ohne Rückkopplungseffekte assoziiert mit Wasserdampf in der Atmosphäre bearbeitet werden kann. Lässt man viele Details außen vor, involviert der Fall „keine Rückkopplung“ einen Faktor l, welcher die Stärke des Erwärmungseffektes von CO2 charakterisiert. Aber mit Rückkopplung ändert sich dieser Faktor zu [ l /(1 – bl)], wobei b die Summe ausgewählter Rückkopplungs-Terme ist wie etwa die Reflektion von Strahlung durch Wolken und andere physikalische Vorgänge; jedem davon wird eine numerische Quantität zugeteilt. Der Wert von 1 neigt dazu, etwa 0,3 zu betragen. Die gesammelte Summe der Rückkopplungs-Terme ist stark variabel und Gegenstand heißer Diskussionen, aber in den vom IPCC in früheren Jahren verwendeten Computermodellen neigt der Wert von b dazu, etwa b = 2,8 zu betragen.

Man beachte, dass wenn l ~ 1/3 und b ~ 3 der Nenner Null wird. Für den speziellen Fall von l = 0,3 und b = 2,8 wird der Nenner zu 0,16 und der „Rückkopplungs-Faktor“ zu 6,25. Es war jener kleine Nenner und der als Folge übertriebene Rückkopplungs-Faktor, welcher die Schätzung der „Klimasensitivität“ von unter 1°C ohne Rückkopplungen auf alarmierend große Schätzungen der Temperaturänderung getrieben hat. In einigen Zeitungen war von einer „Zunahme der globalen Temperaturen um 5°C“ die Rede. Niemand hatte auf die numerischen Details geachtet.

Während der letzten Jahre haben sich die Kenntnisse verschiedener positiver und negativer Beiträge zu Rückkopplungen verbessert, und der Wert der Summe b fiel auf etwa 1, was den Rückkopplungs-Faktor auf etwa 1,4 reduzierte. Der vor 30 Jahren geschätzte Wert der „Klimasensitivität“ betrug 3°C ± 1,5°C. Heute spricht das IPCC vorsichtig von einer projizierten Klimasensitivität als „nahe dem unteren Ende der Bandbreite“ liegend. Diese ernüchternde Revision kann zurückverfolgt werden auf die Änderung eines kleinen Divisors zu einem normalen Divisor.

Unter dem Strich: Aus all dem ergibt sich, dass man auf kleine Divisoren achten muss.

Jedweder am Fließband erstellte numerische Faktor ist zunehmend bedeutungslos, wenn der Divisor kleiner wird.

Wenn bei der Berechnung einiger Parameter (wie etwa „Klimasensitivität“ oder „Globale-Erwärmung-Potential“ oder „Happy Planet Index“) ein kleiner Divisor involviert ist, glaube man diese Werte nicht. Derartige Parameter haben keine Bedeutung und keinen anderen Zweck als die Erzeugung von Schlagzeilen und Alarm zu schlagen.

[Im Original folgt jetzt ein recht theoretischer Anhang über den Zeitfaktor im „Globale-Erwärmung-Potential“, auf dessen Übersetzung hier verzichtet wird. Das Wesentliche ist oben gesagt. Anm. d. Übers.]

Link: https://wattsupwiththat.com/2018/05/25/climatic-distortions-due-to-diminutive-denominators/

Übersetzt von Chris Frey EIKE




Der Mythos vom gefährlichen sauren Regen

Bei CBS und CNN gab es Schlagzeilen, denen zufolge saurer Regen als eine Gefahr durch den Kilauea-Ausbruch gelistet wird. US News meldet dazu: „Saurer Regen könnte die nächste Bedrohung sein, vor denen die Bewohner Hawaiis während der nächsten Tage stehen …“ Bei CNN hieß es: „Falls Sie in Kontakt mit saurem Regen kommen, waschen Sie ihn so schnell wie möglich ab!“

Das vom Kilauea emittierte Schwefeldioxid (SO2) ist ein Verschmutzer, der beim Einatmen schädlich sein kann. Das Einatmen von SO2 verursacht Reizungen in Nase und Hals und kann eine lebensbedrohende Ansammlung von Flüssigkeit in den Lungen mit hohen Konzentrationen bewirken. Im Gegensatz dazu gibt es aber keinen Beweis, dass irgendjemand jemals durch sauren Regen geschädigt worden ist.

Wissenschaftler messen den Säuregrad oder die Alkalinität mittels einer 14 Punkte enthaltenden logarithmischen Skala mit der Bezeichnung pH-Wert. Bei einem pH-Wert von 7 ist Wasser neutral. Batteriesäure weist einen pH-Wert von etwa 1 auf. Im Gegensatz dazu weist eine Lauge, die alkalisch oder basisch ist, einen pH-Wert bis 13 auf. Regenwasser ist aus natürlichen Gründen sauer, ebenso wie Milch und die meisten unserer Nahrungsmittel.

Sowohl Stickstoffdioxid (NO2) und Schwefelsäure-Gas reagieren in der Atmosphäre zu nitrogenischer und schwefliger Säure [nitric and sulfuric acid]. Diese Gase lösen sich in Wassertröpfchen und können den Säuregrad von Regen verstärken. Aber saurer Regen ist nur milde sauer mit einem pH-Wert von etwa 4, also etwa 100 mal weniger sauer als Zitronensaft.

Anfang der achtziger Jahre führte saurer Regen durch NO2– und SO2-Emissionen seitens der Industrie zu einer wesentlichen Sorge um die Umwelt. Saurer Regen wurde für die Versauerung von Seen und die Schädigung von Wäldern in Ostkanada, dem Nordosten der USA und Nordeuropa verantwortlich gemacht. Zeitungen und Zeitschriften zeigten Bilder von sterbenden Bäumen und machten dafür die industrielle Luftverschmutzung verantwortlich.

In Deutschland wurde der Begriff „Waldsterben“ geprägt, und man sagte dem sauren Regen nach, den Schwarzwald zu zerstören. Im Jahre 1981 prophezeite Prof. Bernhard Ulrich von der Universität Göttingen: „Die ersten großen Wälder werden während der nächsten 5 Jahre sterben. Sie können sich nicht mehr erholen“.

Das National Acid Precipitation Assessment Program (NAPAP), ein 500 Millionen Dollar teures Forschungsprogramm wurde im Jahre 1982 in den USA ins Leben gerufen, um sich dieses Problems anzunehmen. Die Genfer Konvention zu großräumiger, grenzüberschreitender Luftverschmutzung nahm im Jahre 1983 in Europa ihre Arbeit auf. Versauerung von Seen und Zerstörung von Wäldern durch Luftverschmutzung wurde zu einem weit verbreiteten Glauben, welcher in Universitäten auf der ganzen Welt gelehrt wurde. Saurer Regen wurde zum Auslöser von Bemühungen in den USA und Europa, Emissionen von NO2 und SO2 zu reduzieren.

Aber die tatsächlichen Auswirkungen von saurem Regen waren viel geringer als befürchtet. Ein NAPAP-Bericht aus dem Jahr 1990 mit dem Titel „Acidic Deposition: State of Science and Technology“ kam zu dem Ergebnis: „Es konnte nicht gezeigt werden, dass saure Ablagerungen einen signifikanten Beitrag zu gegenwärtigen Gesundheitsproblemen von Wäldern in Nordamerika leisten“, vielleicht mit Ausnahme des Fichtenbestandes in hohen Lagen der nördlichen Appalachen. Eine andere Studie kam zu dem Ergebnis, dass Schäden in den Fichtenwäldern der Appalachen auf einen Holzschädling zurückzuführen sind, nicht auf sauren Regen.

Aus der NAPAP-Studie geht außerdem hervor, dass nur etwa 4,2% aller Seen im Osten der USA sauer waren und dass die sauren Bedingungen in vielen dieser Seen natürlichen Faktoren oder dem Abfluss aus Bergbau geschuldet waren, aber nicht saurem Regen. Weiter ergab diese Studie, dass das Niveau des sauren Regen aufgrund von Luftverschmutzung nicht schädlich war für die Landwirtschaft oder die menschliche Gesundheit.

In Europa zeigten Folgeanalysen, dass die Schädigungen des Schwarzwaldes auf Krankheit, Wetter und andere Faktoren zurückzuführen waren, wobei saurer Regen nur eine unbedeutende Rolle spielte. Die großen Wälder in Europa gibt es heute immer noch.

Während der letzten vier Jahrzehnte waren die USA und die europäischen Länder bemerkenswert erfolgreich bei der Reduktion von NO2 und SO2 sowie anderer gefährlicher Verschmutzer. Daten der EPA zufolge sind die NO2-Emissionen in den USA im Zeitraum 1980 bis 2016 um 61%, diejenigen von SO2 um 87% zurückgegangen. Auch in Europa sind die Emissionen auf einen Bruchteil des Niveaus aus dem Jahr 1980 zurückgegangen.

Der möglicherweise schlagendste Beweis gegen schädliche Auswirkungen sauren Regens ist die Tatsache, dass saure Seen sich nicht „erholt“ haben, nachdem die meiste Schwefel- und Stickstoff-Verschmutzung aus der Atmosphäre verschwunden war. Im Report des NAPAP an den Kongress aus dem jahr 2011 wurde festgestellt, dass SO2– and NO2-Emissionen gesunken waren, dass die Konzentrationen in der Luft gesunken waren und dass saure Ablagerungen aus dem Regen gesunken waren. Nicht festgestellt wurde, dass der Säuregrad von Seen signifikant gesunken war. Im Report heißt es: „Wissenschaftler haben Verzögerungen festgestellt bei der Erholung des Ökosystems in den östlichen USA trotz des Rückgangs von Emissionen und Ablagerungen während der letzten 30 Jahre“. Mit anderen Worten, die Verschmutzung war weitgehend eliminiert worden, aber die Seen sind immer noch sauer.

Unglücklicherweise fahren die Nachrichtenmedien und Colleges damit fort, den Mythos zu proklamieren, dass saurer Regen ein gefährliches Problem ist. In jedem Falle sollten Sie es sofort abwaschen, falls Sie jemals mit Zitronensaft oder saurem regen in Berührung kommen.

Link: http://www.cfact.org/2018/05/24/the-myth-of-dangerous-acid-rain/

Übersetzt von Chris Frey EIKE




Roda Verheyen schlägt wieder zu: EUGH wird angerufen weil die EU Klimaziele nicht streng genug verfolgt werden!

Roda Verheyen ist eine Klimaaktivistin, die auch als Rechtsanwältin auftritt. Sie spielt bereits eine unrühmliche Rolle in dem Unsinnsprozess eines peruanischen Bauern, der – vertreten und angefeuert kann man -ohne die Unwahrheit zu sagen- feststellen- auf die Schnapsidee kam, (hier und hier) dass sein Land in den Anden durch einen evtl. Dammbruch gefährdet sei, weil die deutsche RWE zu viel CO2 emittiere. Der Fall ist derzeit beim Düsseldorfer Oberlandgericht anhängig.

Der ARD Sender rbb fand die Aktivitäten der Roda Verheyen so toll, dass er mit ihr im Hörfunk vor einigen Monaten ein Huldigungsinterview führte. Sie finden es hier.

Offensichtlich sind die Geldmittel, derer, welche de westlichen Staaten (von Klagen in Russland oder bspw. China hört man bisher nichts, von Auftritten dieser Aktivisten dort auch nichts) unbedingt der Quelle ihres Wohlstandes berauben wollen, so gewaltig, dass sie sich problemlos viele Klagen gleichzeitig, in Europa wie in den USA, leisten können.

Und die Kanzlei von Frau Roda Verheyen ist oft ganz vorne mit dabei. Es sind dies das Climate Action Network (CAN) und bspw. Die deutsche Nichtregierungsorganisation Protect the Planet und ein sog. wissenschaftlicher Thinktank namens Climate Analytics mit Sitz in Berlin. Schon dessen rund 30 köpfiger Mannschaft (Februar 2015) lässt erahnen mit welchen ungeheuren Geldmitteln – allen voran durch das deutsche Umweltministerium- diese Leute ausgestattet sind.

Geldgeber der Klimaanalytiker, Bild Climate Analytics

Partner der Klimaanalytiker, Bild Climate Analytics

So auch jetzt wieder bei einer Klage vor dem Luxemburger Europäischen Gerichtshof für Menschenrechte. Dort vertritt Frau Verheyen mit ihrer Klage 10 Familien aus 10 EU-Ländern, die vorgeben der „Klimawandel“ hätte in den letztem 5 Jahren ihre Lavendelernten gemindert, oder würde, wie die Familie aus Samen (Schweden) die Aufzucht ihrer Rentiere behindern.

Der Guardian nimmt sich dieser ergreifenden Story an und schreibt (Hervorhebung von mir) bspw:

Roda Verheyen, die Anwältin der Familien, sagte: „Der Klimawandel ist bereits ein Thema für die Gerichte in den europäischen Ländern und auf der ganzen Welt. „Die Klägerfamilien vertrauen auf die Gerichte und das Rechtssystem der EU, um ihre Grundrechte auf Leben, Gesundheit, Beruf und Eigentum, die vom Klimawandel bedroht sind, zu schützen. Die EU-Gerichte müssen jetzt auf diese Familien hören und sicherstellen, dass sie geschützt sind. „

Wissenschaftler des thinktank Climate Analytics stellen den Anwälten der Familien Experten zur Verfügung. Die deutsche Nichtregierungsorganisation Protect the Planet trägt alle mit dem Rechtsfall verbundenen Kosten. Das Climate Action Network (CAN), Europas größte NGO, die sich mit Klima- und Energiefragen befasst, unterstützt ebenfalls die Aktion.

Wendel Trio, CAN-Direktor in Europa, sagte:

„Dies ist Teil einer Strategie, um die EU-Institutionen dazu zu bringen, ihre Ziele zu erhöhen. 2015 vereinbarten die Länder im Rahmen des Übereinkommens von Paris, Anstrengungen zu unternehmen, um den Temperaturanstieg auf 1,5 ° C zu begrenzen. Es ist jedoch klar, dass das bestehende Klimaziel der EU bis 2030 nicht ausreicht, um die im Pariser Abkommen eingegangenen Verpflichtungen einzuhalten, und dass es erhöht werden sollte. Die EU muss nach dem Abkommen ihr Ziel bis 2020 bestätigen. Diese von normalen Familien, die vom Klimawandel betroffen sind, initiierten Klagen unterstreichen die Dringlichkeit und die Notwendigkeit, sie zu erhöhen. „

Mit dieser Klage, und der durchaus nicht geringen Wahrscheinlichkeit ihres Erfolges bei Gericht, wird einmal mehr deutlich, mit welchen Gegnern es die modernen westlichen Völker zu tun haben, und auch welches üble enge Gespinst von Gesetzen und Verordnungen die EU und ihre Mitgliedstaaten erlassen haben, die diesen unfassbaren, jeder ehrlichen Wissenchaft Hohn sprechenden Verhaltensweisen, erst ermöglichen ja Tür und Tor einladend öffnen.

Deutlich sichtbar wird auch, dass immer dieselben Stiftungen, und Organisationen hinter diesen Aktionen stehen, auch wenn sie unter immer neuen Namen auftauchen.

Die Rückkehr ins finstere Mittelalter dort mit Gottesurteilen, und Hexenverbrennungen nach dem Gesetzbuch des Hexenhammers, hier unter dem Nonsensewort Klimaschutz, alles unter der Tarnkappe der Wissenschaft, scheint unabwendbar.

Und der deutsche Steuerzahler – es geschieht ja nur zu seinem Besten- darf letztlich alles bezahlen. 




Große Leseraktion: Wie manipulieren Messstationen die Umweltbelastung in Ihrer Stadt? – Teil 9

Immer wieder stechen die angeblich lebensgefährlichen Grenzwertüberschreitungen aus Stuttgart und München hervor. Tausende von Toten durch Abgase von Dieselautos. Erhellend ist da ein Blick auf einen Bericht des Spiegel über die Lebenserwartungen der Menschen in unterschiedlichen Regionen Deutschlands. Vorweg genommen sei, dass Stuttgart und München zu den Gebieten mit der höchsten Lebenserwartung gehören. Ein Fall für die Statistiker.

Der Ingenieur Fred F. Mueller hat sich genauer in die Statistiken des Umweltbundesamtes vertieft und kommt aus dem Staunen nicht mehr heraus.

Vorab merkt Mueller an, dass »das Umweltbundesamt (UBA) im Rahmen seiner neuesten Veröffentlichung über angeblich 6.000 NO2-Tote und mehr als 400.000 angebliche Diabetesfälle durch NO2 im Jahre 2014 so freundlich war, eine Grafik zu veröffentlichen, die seine eigene ständige Panikmache als Fake-News entlarvt.«

Mueller weiter: »Diese vom UBA selbst in Auftrag gegebene Untersuchung dokumentiert, dass nur ein verschwindend kleiner Teil der deutschen Bevölkerung überhaupt an Orten wohnt, wo die Immissionsmesswerte den Jahresgrenzwert von 40 µg/m3 überschreiten. Schon seit 2010 zeigt sie selbst in der Kategorie zwischen 35 und 40 µg/m3 gar keine Farbbalken mehr, und die Kategorie über 40 µg/m3 wird gar nicht erst aufgeführt.“

Die in den Medien immer wieder kursierenden Behauptungen des UBA über angeblich viel zu hohe NO2-Werte in Städten beruht auf einem recht simplem, aber sehr wirksamem Trick: Man platziert seit vielen Jahren einen erheblichen Teil der Messstationen nicht etwa da, wo sie für den größten Teil des Stadtgebiets repräsentativ wären, sondern gezielt dort, wo man in eng begrenzten »Hot-Spot-Bereichen« die höchsten überhaupt aufzufindenden Messwerte auftreiben kann. So findet sich in einer Pressemeldung des Landesumweltamtes Baden-Württemberg der Hinweis, dass schon 2006 alle Gemeinden in Baden-Württemberg gebeten wurden, sogenannte straßennahe Belastungsschwerpunkte zu melden, an denen dann sogenannte Spotmessstellen eingerichtet wurden. Hiervon gibt es allein in Stuttgart vier Stück, das sind 50 % aller städtischen Messstellen.

Die „Belastung“ der Stuttgarter Bürger wird demnach zu einem geradezu grotesk überproportionalen Anteil aus Daten hergeleitet, die an vier räumlich eng begrenzten Hot-Spots erfasst werden. Zudem wurden diese Messstationen immer mal wieder anders platziert: Wenn die Belastungssituation an einer Messstelle unter den Grenzwert gefallen ist, wird ein anderer Ort gesucht und gefunden, wo man noch die gewünscht hohen NO2-Werte auftreiben kann. Vor diesem Hintergrund bekommen die jeweiligen oberen Kurven eine ganz neue Bedeutung.

Bild oben: So manipuliert das UBA die Öffentlichkeit mit »kreativ« neu selektierten Informationen seiner Messstationen. Das untere Bild wurde zwischenzeitlich von der Webseite entfernt. (Quelle: Umweltbundesamt)

Das dokumentiert eine gleich doppelte Manipulation durch das UBA. Einerseits sind im Prinzip nur die grünen und gelben Kurven der beiden Teilbilder maßgeblich für die tatsächliche Luftqualität für vermutlich mehr als 99,98 % der deutschen Bevölkerung. Die obersten Kurven gelten nur für die „Hot-Spot“-Messstellen, die nur für einen verschwindend kleinen Bruchteil der Bevölkerung relevant sind. Obwohl beide Bilder aus dem gleichen Kalenderjahr stammen, unterscheiden sich die jeweils oberen Kurven drastisch. Grund hierfür ist die Tatsache, dass man 2016 eine »Hintergrund«-Broschüre mit dem Titel »Luftqualität 2015 Vorläufige Auswertung« herausbrachte, deren Stoßrichtung betont alarmistisch war. Die Botschaft im Kapitel über NO2 war: »Stickstoffdioxid: Kaum Besserung gegenüber dem Vorjahr«. Da den Autoren die vorhandenen Grafiken wohl nicht dramatisch genug waren, wurden die Verläufe sowohl der mittleren als auch der oberen Kurve im oberen Bild durch kreative Auswahl der Datensätze nach oben frisiert, damit sie besser zur Botschaft passten (man beachte hierbei auch die Farbwahl). Das untere Bild wurde mittlerweile von der UBA-Webseite entfernt, es ist jedoch nahezu deckungsgleich mit einer Fassung aus dem Jahr 2017.

Reutlingen, Lederstraße 

Aus Reutlingen schickt uns TE-Leser Thomas A. Bilder der Messstelle in der Lederstraße, Höhe Matthäus Alber Haus an der B312. Den Aufstellungsort bezeichnet er als Skandal. Die Stadt Reutlingen wird aktuell von der Deutschen Umwelthilfe (DHU) verklagt. Es wurde bereits eine Pförtnerampel im westlichen Zugang von Reutlingen installiert, um 12.000 Fahrzeuge täglich umzuleiten. Ergebnis: Ausweichverkehr in Wohngebiete und Staus.

Ludwigshafen

Aus Ludwigshafen schreibt TE-Leser Andreas H: »Vielen Dank für diese Initiative. Sie wird ihre Wirkung nicht verfehlen, denke ich. Es ist aber ein weiteres Beispiel für das Versagen eines Staates, wenn sich die Bürger selbst um Dinge kümmern müssen, für die eben diese Bürger einen Beamtenapparat von ihren Steuern bezahlen. Auch in der Innenstadt von Ludwigshafen am Rhein steht eine Messstation an einem Ort, wo diese nicht hingehört: auf dem Grünstreifen inmitten einer 4-spurigen Straße, der Heinigstraße. Aber nicht nur, dass sie praktisch »im« Verkehr steht. Sie steht dazu noch im Einzugsbereich einer Kreuzung und im Berufsverkehr in deren Rückstau. Die Messstation stand übrigens jahrelang direkt vorne an der Kreuzung und wurde erst vor kurzem um 25 Meter versetzt. Von grottenfalsch nach falsch sozusagen. Die Messwerte sind im Jahresmittel mit 45 µg trotzdem nur gering über dem Grenzwert und wie praktisch überall sinken diese stetig weiter ab. Eine Klage der unseligen DUH ist trotzdem denkbar.«Er schließt: »Tun wir etwas, diesem unlauter handelnden Abmahnverein die Geschäftsgrundlage zu entziehen, wenn sich Stadt LU und Land RLP nicht dazu in der Lage sehen, Richtlinien einzuhalten.«

Dortmund

TE-Leser Reiner S. schickt Bilder aus Dortmund. Die SPD-regierte Stadt hat noch zwei weitere politisch gewollte Messtellen, einmal an der Steinstrasse ca. 20 Meter von der vielbefahrenen Kreuzung Münster-/Steinstrasse entfernt. Dieser Messpunkt liegt nur ca. 7,5 Meter von der Steinstrasse entfernt. Zum andereren die Messtelle Burgweg, sie liegt ca. 30 Meter von der ebenfalls vielbefahrenen Kreuzung Evingerstrasse/Burgweg entfernt. Der Abstand vom Burgweg zur Messtelle beträgt ca. 8 Meter, ist also viel zu klein.

Dresden

Mehrere Leser waren in Dresden unterwegs und haben Meßstellen fotografiert. Ralf L. zeigt die Messstation Schlesischer Platz in Dresden, direkt am Bahnhof DD-Neustadt:

»Direkt vor dem Bahnhof auf einem gepflasterten Platz und richtig schön mit dunkelgrauen Lamellen verkleidet, schwitzt sie so vor sich hin, damit ihr nicht zu heiß wird, hat man ihr wohl eine Klimaanlage spendiert. Die gehört aber wohl eher dem Türkischen Imbiss an der Stirnseite. In Fahrtrichtung links sind Haltestellen für vier verschiedene Straßenbahnlinien und Busse.

Messstation Winckelmannstr./Schnorrstr. in Dresden

An dieser Messstation gibt es wohl nichts zu meckern, außer dass die Fahrzeuge auch rückwärts dicht an die Station heranfahren könnten!

Messstation Bergstr. 78/80 in Dresden

Diese Station ist wohl die Ausgeburt/Planung eines absoluten Autohassers! Ungefähr fünf bis sechs Meter hinter der Station steht ein festinstallierter Passbildautomat, in diesem Starenkasten nisten selbige aber nicht, ich hab extra nachgeschaut. Meine Beobachtung: Kurz vor dem Blitzer wird stark abgebremst, um dann wieder sehr stark zu beschleunigen, da es ja bergauf geht! Auf diese Weise erhöhen sich der Bremsabrieb und der Abgaswert natürlich deutlich, ein Schelm der sich so was ausgedacht hat, oder?«

Thomas N. schickt uns seinen Beitrag über die Messstation in Dresden an der Bergstraße: »Die Bergstraße ist als Zubringerstraße zur Autobahn A17 sehr stark frequentiert mit PKW, LKW und auch Reisebussen. Die Autobahnzubringerrichtung der Bergstraße ist dort in diesem Bereich zusätzlich noch ansteigend, also bergauf, so dass LKW´s und Busse nach einem Stopp an der vorgelagerten Ampelkreuzung ordentlich aufs Gaspedal treten müssen, um halbwegs vernünftig vom Fleck zu kommen. In den Stoßzeiten ist dort regelmäßig mit Stau zu rechnen, zumal es auch nicht wirklich dort eine Grüne Welle gibt. Die Station steht direkt an der zweispurigen Zubringerstraße, 120 Meter hinter einer Ampelkreuzung und fünf Meter hinter einer kleineren ampellosen Ausfahrt. Es stehen Bäume an der Station, so dass dort sicherlich auch keine ordentliche Luftzirkulation bei vollen Blattwuchs gegeben ist.«

Fotos der Umweltmessstation Dresden-Bergstraße auch von Leser Ulrich A.: »Die starke Steigung der Straße ist gut an den Mauer- und Hausfluchten zu sehen. Die vorliegenden „verkehrsarmen“ Fotos entstanden am Ostersonntag gegen 14 Uhr. Zu sehen ist die Station, unmittelbar am Fahrbahnrand der steil ansteigenden Berg(!)straße plaziert, rund 100 m nach einer Ampelkreuzung bzw. 150 m hinter einer rege bedienten Bushaltestelle. Wie heutzutage üblich, schießen sich die Busse per Rot für alle anderen Verkehrsteilnehmer nach dem eigenen Halt die Strecke frei. Die Station misst deshalb auch (gewollt) keine normalen Werte, sondern die viel stärkeren Anfahremissionen bei Berganfahrt. Nebenbei lässt sich der Container, wie zu sehen, auch noch ausgezeichnet als Sichtschirm des unmittelbar dahinter stehenden Blitzers nutzen. Welch Zufall!«

Würzburg 

Aus Würzburg mailt Leser Werner S.: »Die von mir beigefügten Bilder zeigen eine der zwei Messstationen in Würzburg. Eine dritte Station in der Innenstadt wurde Ende 2011 außer Betrieb genommen. In den Bildern handelt sich um die Station am „Stadtring-Süd“, einem Teilstück der B19, eine der Hauptverkehrsstraßen durch Würzburg. Die Station ist in dem einen Bild mit einem Pfeil gekennzeichnet. Die Straße wird bei Störungen am nahegelegenen Autobahnkreuz Biebelried (A3 / A7) gerne als Ausweichroute für den Fernverkehr genutzt. Zu den Hauptverkehrszeiten kommt es im Bereich der Station stets zu zähfließendem Verkehr mit Stop-and-Go, bedingt durch die Ampel an der nachfolgenden Kreuzung. Auf dem größten Teil der Strecke verläuft parallel eine Bahnstrecke. Somit sind die ermittelten Messwerte nicht repräsentativ für das Stadtgebiet.«

Zum Schluss noch nach München. Leser Hubert G. schickt uns dieses Bild der merkwürdigsten Station, wenn sie denn eine sein sollte. »Anbei ein Foto vom Isartorplatz in München. Ich sehe des Öfteren, wie Techniker die Litfaßsäule über einer eingebauten Tür öffnen und Wartungsarbeiten durchführen. Hinter der Tür verbergen sich eine ganze Menge Hightech-Gerätschaften. Eigentlich eine gute Idee, so was Teures hinter einer Litfaßsäule zu tarnen. Kennt man aber den Sinn und Zweck des Ganzen, findet man das schon nicht mehr so lustig. Oben aus dem Dach ragt ein Ansaugstutzen. Ich nehme an, dass damit die entsprechenden Luftwerte gemessen werden. Ob diese Messstation allerdings das gleiche misst, was sonst üblicherweise im Rahmen der Feinstaubmessungen erfolgt, weiß ich nicht.«Wir konnten aus der Ferne nicht herausbekommen, um was es sich handelt. Früher hätte man vermutet, hier verkriechen sich die Spione des Bundesnachrichtendienstes. Die sind aber nicht mehr in München, sondern nach Berlin gezogen.


Schicken Sie bitte an Tichys Einblick aus Ihrer Stadt Fotos der Messstationen. Bitte notieren Sie den genauen Standort. Aus einem weiteren Foto sollte das Umfeld der Messstation ersichtlich sein. Bitte schicken sie die Fotos an redaktion@tichyseinblick.de; Sie erteilen uns damit automatisch das Recht, Ihr Foto zu veröffentlichen. Wir freuen uns auch über Beiträge aus der Lokalpresse zu diesem Thema.

Vielen Dank!


Hier geht es zu Teil 1 – Messstationen in Stuttgart, Leipzig, Fulda, Magdeburg, Rostock, Marburg und Tübingen

Hier geht es zu Teil 2 – Messstationen in Ludwigsburg, Hannover, München und Siegen

Hier geht es zu Teil 3 – Messstationen in Hamburg, Wiesbaden, Cottbus, Dortmund und München

Hier geht es zu Teil 4 – Messstationen in Berlin, Hannover, Halle an der Saale, Wuppertal und Göttingen 

Hier geht es zu Teil 5 – Messstationen in Darmstadt, Leonberg, Kiel und Gelsenkirchen

Hier geht es zu Teil 6 – Messstationen in München, Plauen/Vogtland, Osnabrück und Norderstedt

Hier geht es zu Teil 7 – Messstationen in Oldenburg, Köln, Leipzig, Nürnberg, Kassel und Essen

Hier geht es zu Teil 8 – Messstationen in Potsdam, Berlin, Duisburg und Stralsund

Übernommen von Tichys Einblick hier




Die NASA und die Deep State Creation bzgl. Klima und Umwelt

Aus persönlichen Gesprächen weiß ich, dass es schon früh Bedenken gab über die Rolle [der NASA] bzgl. des Hinzufügens von Gasen, vor allem Wasserdampf, in die untere Stratosphäre durch Fahrzeuge, was Erwärmung verursacht. Einige sagen, dass die Zunahme Leuchtender Nachtwolken eine Folge dieser Aktivitäten ist (siehe Bild oben).

Es gab auch Bedenken hinsichtlich der genauen Bestimmung der Höhe der Tropopause, zumeist eine Folge der globalen Temperatur, um den Reibungseffekt von Satelliten im niedrigen Orbit zu berechnen. Ich habe verstanden, dass man die Lage bzgl. des Skylab falsch beurteilt hatte und danach nicht mehr in der Lage war, die Station in einen höher gelegenen Orbit zu bringen. Das hatte katastrophale, aber zum Glück keine tödlichen Folgen. Es gab die Entscheidung im Jahre 1986, die Challenger ins All zu bringen, obwohl es Warnungen gab, dass „O“-Ringe [Dichtungsringe] bei niedrigen Temperaturen nicht funktionieren könnten (hier).

NASA-Wissenschaftler, Ingenieure und Administratoren operieren in einem Umfeld wie nur wenige andere. Man könnte denken, dass dieser Umstand ihnen mehr als anderen die Gefahr bewusst macht, Alarmismus zu praktizieren, Angst erzeugende Prophezeiungen des Untergangs und des globalen Kollapses hinaus zu posaunen ohne jeden Beweis. Traurigerweise ist das aber nicht der Fall, und trotz einer offenen Revolte von 50 ehemaligen NASA-Mitarbeitern, darunter auch Astronauten, welche einen Brief unterzeichnet hatten, in welchem sie gegen den Missbrauch von Wissenschaft für eine politische Agenda protestierten, geht das immer so weiter. Hier folgen Auszüge aus jenem Brief:

Als ehemalige NASA-Mitarbeiter denken wir, dass das Eintreten der NASA für eine Extremposition, bevor es sorgfältige Studien über den möglichen weit überwiegenden Einfluss natürlicher Klimatreiber gibt, unangemessen ist. Wir fordern, dass die NASA Abstand davon nimmt, unbewiesene und nicht gestützte Behauptungen in zukünftigen Veröffentlichungen und auf der NASA-Website zu diesem Thema aufzustellen. Es besteht die Gefahr einer exemplarischen Rufschädigung der NASA, der dort beschäftigten oder ehemals beschäftigten Wissenschaftler und Mitarbeiter und dem Ruf der Wissenschaft selbst.

Die uneingeschränkte Befürwortung, dass CO2 der Hauptgrund für Klimawandel ist, ist der NASA-Historie unwürdig, objektive Einschätzungen aller verfügbaren wissenschaftlichen Daten vorzunehmen, bevor man mit Entscheidungen oder öffentlichen Feststellungen aufwartet.

Das sind direkte, verurteilende und notwendige Feststellungen, dazu gedacht, den absichtlichen und beschämenden Missbrauch einer bedeutenden Agentur und der Wissenschaft für eine politische Agenda anzuprangern. Wie konnte es dazu kommen? Warum zieht man die Protagonisten nicht zur Verantwortung? Warum geht es immer weiter?

Am stärksten involviert waren die NASA und besonders deren Erfüllungsgehilfen in den Betrug, dass menschliches CO2 globale Erwärmung (AGW) verursacht. Eindeutig erkennen immer mehr Menschen den Betrug, besonders nach der Bloßstellung der Korruption durch Trumps Rückzug aus dem Paris-Abkommen, und der fabrizierten Wissenschaft zum Voranbringen der Agenda.

Das Problem für die deep-state players wie der NASA und deren Gehilfen ist die grundlegende Schwäche von Bürokraten allgemein und von Wissenschafts-Bürokraten im besonderen. Gründet man eine Regierungsagentur, um ein Problem zu ergründen und zu lösen, wird genau dies garantiert nicht passieren. Die Agentur wird nahezu sofort beginnen, das Problem aufzublähen und sicherzustellen, dass es nicht gelöst wird. Upton Sinclair drückte es so aus:

Es ist sehr schwierig, einen Menschen dazu zu bringen, etwas zu verstehen, wenn sein Gehalt davon abhängig ist, dass er es nicht versteht!

Es ist sogar noch viel schwieriger, wenn sie ihre Position zum Voranbringen einer politischen Agenda nutzen. Falls die Abtretung seiner Existenz unvermeidlich ist, wird man neue, irgendwie parallele Probleme dazu erzeugen. Genau dies war seit Längerem der Fall mit dem Betrug um die globale Erwärmung. Im jahre 2013 schrieb ich einen Beitrag mit dem Titel [übersetzt] „Wasser ersetzt das Klima als die nächste falsche, von den UN in Umlauf gebrachte Ressourcen-Angst“ (hier).

Die NASA liefert immer neue Beweise, dass genau dies jetzt im Gange ist. Man hat jüngst eine Studie veröffentlicht mit der Behauptung, dass die Menschen verantwortlich sind für grundlegende Änderungen der Verfügbarkeit irdischer Wasservorräte. Veröffentlicht in dem ob seiner Rolle im Klimagate-Skandal diskreditierten Journal Nature lesen wir:

Was wir erleben ist eine grundlegende hydrologische Änderung“. Das sagte Mitautor Jay Famigletti am Jet Propulsion Laboratory (JPL) in Pasadena, Kalifornien. „Wir erkennen eine markante Änderung dergestalt, dass die Feuchtgebiete der Erde noch feuchter werden – in hohen Breiten und in den Tropen – während die trockenen Gebiete dazwischen trockener werden. Inmitten der trockenen Gebiete erkennt man multiple Schwerpunkte als Folge von Grundwasser-Erschöpfung“.

Das kann er gar nicht wissen, weil gegenwärtige und historische Aufzeichnungen völlig ungeeignet für eine solche Schlussfolgerung sind. Viel wahrscheinlicher ist, dass es sich hierbei um einen natürlichen Trend handelt, weil das bei allen regierungsamtlichen Behauptungen über Änderungen so ist. Offensichtlich weiß er nicht, dass globale Temperaturdaten ungeeignet sind für jedwede vernünftige Messung von Verteilungen und Trends, aber hinsichtlich der Niederschlags-Daten ist es noch viel schlimmer. Schon im Jahre 2008 mahnten Tapio Schneider und Simona Bordoni:

…eine gründliche Überprüfung einer Theorie an als Ursache für die jahreszeitliche Abfolge starken Windes und Regens, welche im Wesentlichen seit über 300 Jahren gehalten hat.

Eine im Jahre 2006 in Science veröffentlichte Studie über Modell-Prophezeiungen des Monsuns in Afrika kam zu dem Ergebnis:

Klimawissenschaftler können nicht sagen, warum der Monsun in diesem Jahr so spät kommt oder ob die Verzögerung Teil eines größeren Trends ist. Auch verstehen sie nicht in vollem Umfang die Prozesse, welche die Regenmenge in der Sahel-Zone steuern. Am frustrierendsten jedoch ist vielleicht, dass ihre prognostischen Mittel – Computer-Simulationen des zukünftigen Klimas – nicht übereinstimmen hinsichtlich dessen, was vor uns liegt. „Wohin sich das Klima der Sahel-Zone bewegt, ist umstritten“, sagte Alessandra Giannini, eine Klimawissenschaftlerin an der Columbia University. Einige Modelle simulieren eine nassere, andere eine trockenere Zukunft. „Sie können nicht alle recht haben“.

Die Studie folgerte:

Ein offensichtliches Problem sind fehlende Daten. Das afrikanische Netzwerk von 1152 Wetterbeobachtungs-Stationen, welche Echtzeit-Daten liefern, die auch ihren Weg in internationale Klima-Archive finden, macht nur ein Achtel der von der WMO verlangten Mindest-Dichte aus. Außerdem gibt es bei allen bestehenden Stationen oft Ausfälle.

Die NASA-Behauptung ignoriert die Tatsache, dass das IPCC davon ausgeht, dass die der Atmosphäre seitens der Menschen hinzugefügte Wassermenge ohne Konsequenzen ist und also auch keine Auswirkung auf das Klima hat. Das IPCC räumt ein, dass dessen Modelle nicht in der Lage sind, die Rolle der Wolken bei der Energiebilanz zu bestimmen, aber natürlich bedeutet das, dass sie auch den Niederschlag nicht bestimmen können. Das IPCC zog Baumringdaten heran als Proxy für die Temperatur, siehe den ,Hockeyschläger‘, obwohl die Baumringe viel eher als Proxy für die Niederschlagsmenge taugen. Die Autoren dieses Artikels in Nature sollten die Arbeit von A.E. Douglas und dem Laboratory of Tree Ring Research an der University of Arizona durcharbeiten, welches er im Jahre 1937 ins Leben gerufen hat.

Ich kenne die Arbeit von Douglas, weil ich genau wie er eine sehr hohe Korrelation fand zwischen dem 22-jährigen Sonnenflecken-Zyklus und Dürren in den Großen Ebenen der USA. Natürlich steht die Arbeit von Douglas dem IPCC und seiner untergeordneten Agentur NASA GISS direkt entgegen, weil darin Variable des Klimawandels untersucht werden, die nicht in die politisch verzerrte Besessenheit bzgl. menschlichen CO2 passt. Douglas drückt die Illustration des Problems so aus:

Folglich gehen Astronomie, Meteorologie und Botanik in die Studie ein, wobei jeder Fachbereich wesentliche Teile beiträgt und wobei hoffentlich jeder Fachbereich ein wenig davon profitiert.

Aber das war in der guten alten Zeit, als Wissenschaft allgemein und Klimawissenschaft im besonderen noch nicht zu einer politischen Agenda pervertiert waren. Nur wenige Regierungsagenturen trugen mehr zur Pervertierung zum AGW-Betrug bei als die NASA.

Die NASA und vor allem die untergeordnete Agentur NASA GISS sowie das JPL waren Hauptakteure bei dem massiven Betrug der vom Menschen verursachten globalen Erwärmung AGW fast von Anfang an. Ich sagte ,fast‘, weil der Verfall von NASA GISS und der mächtigen öffentlichen Glaubwürdigkeit der NASA in Wirklichkeit schon im Jahre 1988 begann, doch war auch schon zuvor etwas in diese Richtung geschehen. Das war ein interessanter Aspekt in dem Betrug, welcher sich heute immer noch durch die Regierung zieht, aber besonders durch die NASA. Ein Politiker, der damalige Senator Tim Wirth, suchte einen Wissenschaftler, der sagen würde, was er hören wollte. Er fand James Hansen vom NASA GISS.

In einem Interview im Jahre 2007 wurde Wirth gefragt:

Frage: Das einzige, was Hansen unterlassen hat vor Ihrem Komitee ist, dass er nicht den Terminus „globale Erwärmung“ in den Mund genommen hat. Er sagte: „Meine Herren, ich bin zu 99% sicher, dass die Menschen zum Klimawandel beitragen“, aber er hatte nicht den Mut, weil er sich zu jener Zeit außerhalb des wissenschaftlichen Konsens‘ befand. …

Antwort: Oh, Hansen hat einen weiten Weg zurückgelegt. Das war ein sehr, sehr mutiges Statement. Er stand am Rande der Wissenschaft und war fast 20 Jahre jünger als heute, so dass er damals relativ neu in dem Bereich agierte. Er arbeitet für die [US-]Bundesregierung, und sicher war das, was er zusagen hatte, nicht mit der Linie abgestimmt. Folglich ist die Zusammenfassung der Äußerungen Hansens in jenem Jahr sowie die Tatsache, dass diesen Äußerungen so viel Medienaufmerksamkeit zuteil wurde, weit verbreitet worden sind. Er ging bis zum Äußersten, was man überhaupt hätte erwarten können, denke ich. Noch einmal, es war sehr mutig von ihm, das zu sagen.

Hansen ging dann dazu über, mittels des Gewichtes des Namens NASA seine Besessenheit, fossile Treibstoffe loszuwerden, immer weiter zu treiben. Besonders richtete er sich gegen Kohle. Wie viele deep-state-Menschen brach er jeden Teil des Hatch Act* und wurde sogar verhaftet, weil er vor dem Weißen Haus an einer Protestdemonstration teilgenommen hatte (hier). Er trat zurück, und zwar wie die meisten vor ihm mit vollen Bezügen und ohne für den Missbrauch seines Arbeitgebers zur Verantwortung gezogen zu werden. Hansens Nachfolger als Leiter der NASA GISS, Gavin Schmidt, ist offensichtlich gewählt worden wegen seiner verzerrten Ansichten und seiner Verwicklung in die Skandale um den Betrug der globalen Erwärmung, welche durch die Klimagate-E-Mails bekannt geworden waren. Eine Reihe von Beiträgen bei WUWT stellte seine Arbeit in die richtige Perspektive.

[*Ein Gesetz, dass öffentlich Bediensteten eigene politische Tätigkeiten verbietet. Anm. d. Übers.]

Die Unterorganisationen der NASA wurden beauftragt, Expertisen zu erstellen in Bereichen, die sich negativ auf das grundlegende Ziel auswirken würden, in das Weltall zu fliegen. Eigentlich keine gute Quelle, aber bei Wikipedia findet sich eine gute Zusammenfassung dessen, was sie zu tun beauftragt worden waren.

Forschungen am GISS empfehlen eine breit angelegte Studie zur globalen Änderung; den natürlichen und anthropogenen Änderungen in unserer Umwelt, welche die Bewohnbarkeit unseres Planeten betreffen.

Ich erinnere mich an die ersten Tage Ende der sechziger Jahre, bevor die Agentur in den achtziger Jahren politisiert worden ist. Man erstellte exzellente Veröffentlichungen wie etwa den Band von 1978 von Herman and Goldberg „Sun, Waether And Climate“. Seitdem wurde eine Kombination einer über die Maßen um sein öffentliches Image bedachten Agentur, die Notwendigkeit eines besseren Verständnisses von Wetter und Klima für die Arbeit im Weltraum zu einem fruchtbaren Boden für Politiker wie Timotyh Wirth, um angepasste Wissenschaftler zu finden. Erinnern wir uns, Wirth sagte auch:

Wir müssen das Thema globale Erwärmung hoch halten. Selbst wenn die Theorie der globalen Erwärmung falsch ist, werden wir das Richtige tun …“

Wirth war offensichtlich dermaßen überzeugt, dass er die Pfründe des Senats hinter sich ließ, um Präsident der United Nations Foundation zu werden, einer Agentur, die den Löwenanteil ihrer Finanzierung dem Vernehmen nach aus einer persönlichen Spende in Höhe von 1 Milliarde Dollar von Ted Turner bezog.

Es scheint, dass der Brief der 50 keinerlei Wirkung zeitigte. Hansen trat mit 72 Jahren zurück, nachdem er 46 Jahre lang seine politischen Ansichten zu Kohlendioxid propagiert hatte und ohne Konsequenzen den Hatch Act verletzt hatte, welches über politische Aktivitäten von Bürokraten befindet. Gavin Schmidt macht mit einer ganz ähnlichen Agenda weiter. Trotz aller Bemühungen scheitert der AGW-Betrug immer mehr, so dass ein neues, vom Menschen verursachtes Desaster beschworen werden muss.

Alles folgt auf dem gleichen Weg wie das verlogene Thema FCKW/OZON und dem sogar noch größeren Fake-Thema CO2/globale Erwärmung. Man behauptet, dass ein Umweltproblem droht, welches von den Akademien, meist an der US-Westküste, in Regierungskreise wandert. Dort wird dann eine falsche Wissenschaft fabriziert seitens unzähliger Bürokraten-Wissenschaftler. Sie kontrollieren die Politiker und bringen sie dazu, drakonische, ungemein teure und vollkommen unnötige Gesetze und Vorschriften zu erlassen. Dies war die Aufgabe der Arbeitsgruppe III, die unrichtig die Bezeichnung „Mitigation of Climate Change“ [mitigation = Abschwächung] trug. Das macht diese Arbeitsgruppe nicht. Sie versucht einzig, die falsche Behauptung einer durch CO2 induzierten Erwärmung abzuschwächen. Die Illusionen und Verzerrungen werden neu belebt durch übertriebene und irreführende Daten im Synthesis Report (Summary for Policymakers).

Diesmal ist das Thema das Wasser, wie die JPL-Studie bestätigt. Wasser wurde zum ausgeschlachteten Thema am Pacific Institute, gegründet von Peter Gleick in Oakland, Kalifornien.

Die Arbeit von Dr. Gleick hat das Wasser aus der Domäne von Ingenieuren in die Welt von Nachhaltigkeit, Menschenrechte und integriertem Denken gebracht. Gleick war führend beim Konzept des „soft path for water“, entwickelte den Gedanken von „peak water“ und hat sich schriftlich über die Notwendigkeit ausgelassen, eine „local water movement“ zu erschaffen.

Das IPCC ignorierte das wissenschaftliche Verfahren des Widerlegens einer Hypothese. Es konstruierte Computer-Modelle, obwohl es nur unzulängliche Daten gab.

Die Modelle wurden so programmiert, dass sie mit einer CO2-Zunahme eine Temperaturzunahme erzeugten, wenn die Daten genau das Gegenteil zeigen. Sie erzeugten Prophezeiungen und später Projektionen, die konstant falsch waren. Aber trotzdem machten sie der Welt weis, dass sie ihr Verhalten ändern müsse, zu massiven finanziellen und sozialen Kosten. All das haben die 50 Ehemaligen verurteilt. Jetzt fährt die NASA via JPL mit der gleichen Verzerrung der Wissenschaft fort mit ihren Behauptungen über das globale Süßwasser.

Sie machen, was Gleick befürwortet, und was das Echo der Worte von Tim Wirth ist. Ignoriere die Ingenieure und die Daten, weil man das Richtige tut. Es ist an der Zeit, diese Agenturen abzuschaffen oder sie zumindest dazu zu zwingen, etwas Sinnvolles zu tun, wie beispielsweise Daten gewinnen. Im besten Falle sollten sie sich auf das beschränken, was Hubert Lamp sagte, als er die CRU gründete:

„… es war klar, dass die erste und wichtigste Notwendigkeit darin bestand, die Fakten der Vergangenheit der natürlichen Klimate zu etablieren zu Zeiten, bevor irgendwelche Nebenwirkungen menschlicher Aktivitäten bedeutsam werden konnten“.

Link: https://wattsupwiththat.com/2018/05/20/nasa-and-the-deep-state-creation-of-alarmism-about-climate-and-environment/

Übersetzt von http://www.chris-frey-welt.de/ EIKE




Jetzt zetteln sie den Krieg gegen Plastik an!

Die fehlgeleitete Anti-Plastik-Kampagne vom Earth Day Network ist ein Anzeichen dafür, dass weiterer Unsinn kommen wird.

Das Earth Day Network (EDN) wählte „Ende der Plastik-Verschmutzung“ als ihr Thema zum Earth Day dieses Jahres am 22. April . Es ist die Speerspitze des Anti-Plastik-Aktivismus, welcher jetzt die Umwelt-Aktivisten umtreibt. Eine Google-Suchanfrage nach ,Plastik-Verschmutzer-Koalition‘ (Plastic Pollution Coalition) (einer Gruppe, die für sich in Anspruch nimmt, „über 500 Mitglieds-Organisationen zu repräsentieren“, welche sich „der Arbeit an einer Welt ohne Plastik-Verschmutzung und deren giftige Auswirkungen“ verschrieben hat) ergibt rund 90.000 Treffer einschließlich eines Video-Akteurs namens Jeff Bridges für die Kampagne.

Sogar die UN sind auf den Zug aufgesprungen, erkor man doch „Beat Plastic Pollution“ zum Motto des World Environment Day, einer „globalen Plattform für öffentliche Entrüstung, welche in über 100 Ländern gefeiert wird“.

Aber die Forderung nach tief greifenden Maßnahmen gegen vergleichsweise kleine Probleme wie Plastik macht keinen Sinn. Um der Öffentlichkeit zu helfen, diese Attacken gegen dieses Wunder-Material richtig einzuschätzen, wollen wir betrachten, was führende Umwelt-Denker über Themen wie das vom EDN auf den Schild gehobenen Earth Day sagen. Fangen wir an mit dem Terminus „Plastik-Verschmutzung“.

Der kanadische Ökologe und Mitbegründer von Greenpeace Patrick Moore betont, dass Plastik ungiftig ist. „Es ist Abfall, aber kein Verschmutzer. Viele Menschen finden es unansehnlich, und die Lösung besteht darin, den Menschen nahe zu bringen, es nicht in der Umwelt zu entsorgen, sondern dem Recycling zuzuführen“.

Das EDN behauptet weiter, dass Plastik „das maritime Leben vergiftet und verletzt“. Moore dazu: „Plastik ,vergiftet‘ gar nichts. Es ist ungiftig. Glauben sie, dass unsere Kreditkarten aus PVC-Plastik ,giftig‘ sind?“ Natürlich kann Plastik Giftstoffe freisetzen, wenn es verbrannt wird, aber nicht, wenn man es doch einfach in der Umwelt entsorgt. Man sollte es also unter sorgfältigsten Emissionskontrollen verbrennen.

Der Hauptgrund dafür, warum Vögel und Fische Plastikstückchen verschlucken ist die Nahrung, die auf diesen Stückchen wächst“, fügt Moore hinzu. „Aber beide Spezies haben keine Probleme, Knochen und andere natürliche größere Objekte durch ihren Verdauungstrakt laufen zu lassen und sie danach problemlos auszuscheiden“. Plastik ist da keine Ausnahme.

Paul Driessen, leitender Politik-Analyst für das Committee For A Constructive Tomorrow CFACT und Autor von Büchern und Artikeln über Umwelt- und Energiepolitik, weist darauf hin, dass „einige Tiere Plastik aufnehmen oder sich in Netzen aus Plastik verfangen. Aber die Auffassung, dass maritime Lebensformen (und Menschen) durch die Chemikalien in Plastik vergiftet werden, entbehrt jeder wissenschaftlichen Grundlage.

Als Nächstes beklagt sich das EDN über „das allgegenwärtige Plastik in unserer Nahrung“. Moore dazu: „Das ist kompletter Unsinn. Falls ein Stückchen Plastik in unsere Nahrung gerät, läuft es einfach durch unseren Verdauungstrakt, ohne irgendeinen Schaden anzurichten“.

„Plastik-Verpackungen helfen, Nahrung zu konservieren und halten Bakterien ab“, betont Driessen. „Was ist schlimmer? Kaum aufspürbare Spurenmengen von Chemikalien in unseren Körpern oder ernste Ausbrüche von Infektionskrankheiten durch Bakterien?“

Das EDN sorgt sich auch darum, dass Plastik „menschliche Hormone schädigt“. Der Physiker und Rechtsanwalt John Dale Dunn, Dozent für Notfall-Medizin am Carl R. Darnall Army Medical Center in Fort Hood in Texas, verwirft diese Bedenken. „Ängste über Hormonschädigungen … basieren auf Müll-Wissenschaft. Viele extensive Studien haben übereinstimmend keinerlei Vergiftungserscheinungen durch BPA ergeben. Dieses ist eine nützliche Chemikalie, welche den Fortschritt beschleunigt und die Entwicklung neuer Produkte ermöglicht hat, die sehr gut aufgenommen und sehr hilfreich sind“.

„Die Widerlegung von Behauptungen über Hormonschäden war definitiv und umfassend“, schreibt Dunn. Auch der Direktor von Www.JunkScience.com Steve Milloy war hinsichtlich seiner Kritik an der Müll-Wissenschaft bzgl. Hormonschäden sehr deutlich, wie er in diesem exzellenten Beitrag erklärt.

Bizarr und unglaublich kommt die Behauptung des EDN daher, dass Plastik „das Überleben unseres Planeten bedroht“. Unter Verweis darauf, wie der Komiker George Carlin sich über die Plastik-Angst lustig machte, verwirft Driessen diese Übertreibung. „Die Erde hat gewaltige Meteoriten-Einschläge, massive Eiszeiten, Massen-Aussterben im Devon und andere planetare Katastrophen überstanden. Und jetzt hat Plastik die Rolle des Klimawandels als Bedrohung des Planeten übernommen?!“

Das EDN kolportiert „globale Bemühungen, um primär die Einmal-Verwendung von Plastik zu eliminieren“. Steve Goreham, Direktor der Climate Science Coalition of America und Autor von „Outside the Green Box – Rethinking Sustainable Development“, erwidert: „ Plastik ist ein Segen für die Menschheit. Die Verpackung von Nahrungsmitteln in Plastik anstatt in Tierhäuten, Holz, Metall, Glas und Papier bringt erhebliche Hygiene, Bequemlichkeit und gesundheitliche Vorteile mit sich, ebenso wie niedrigere Kosten. Die Lösung ist biologisch abbaubare Plastik für Einmal-Produkte und nicht die Eliminierung von Plastik“.

Verhaftet seinem Klima-Alarmismus sagte das EDN, es wolle „Alternativen zu Materialien auf der Grundlage fossiler Treibstoffe“. Driessen antwortet: „ Es ist absurd zu fordern, dass Plastik ohne Öl und Gas besser werden würde – oder dass man es tun kann, ohne fast den gesamten Planeten in eine massive Biotreibstoff-Farm zu verwandeln, um Energie und Plastik herzustellen. Die Auswirkungen auf die Wasserversorgung, Ernten und Wildnis-Habitate wären verheerend“.

Der NASA-Ingenieur im Ruhestand Alex Pope erklärt: „fossile Treibstoffe und Produkte aus fossilen Treibstoffen haben das Leben für Milliarden Menschen auf dieser Erde besser gemacht … dieses bessere Leben ist zurückzuführen auf fossile Treibstoffe und Produkte aus denselben, vor allem Plastik … Der Krieg gegen fossile Treibstoffe und gegen Produkte aus ihnen ist ein und derselbe Krieg. Ich denke, dass sie wissen, dass sie einen großen Teil des Krieges gegen fossile Treibstoffe zur Energieerzeugung verlieren. Also führen sie ihren Krieg gegen vitale Produkte aus fossilen Treibstoffen, welche das Leben verbessern und gesünder machen“.

Das EDN will ein „Recycling von Plastik zu 100%“. Goreham wischte diesen Gedanken vom Tisch. „100% Recycling von Plastik ist keine ökonomische Perspektive. Einzig eine geordnete Deponierung, Verbrennung, Kompostierung oder Recycling ist das beste, basierend auf den Kosten und Machbarkeit. Die heutigen Deponien sind in modernen Ländern sehr umweltfreundlich“.

Das EDN will, dass die Menschen Plastik „reduzieren, ablehnen, wieder verwenden, recyceln und entfernen“. Driessen sagt dazu: „An einigen Stellen und in einigen Kulturen mag das funktionieren. Aber wo die Menschen keine Nahrung, keine sanitären Anlagen, kein sauberes Wasser, keine Arbeitsplätze, keinen Strom und keine Hoffnung für die Zukunft haben – glaubt man wirklich, dass sich diese Menschen fortwährend Sorgen bzgl. Plastik machen?“

Der erste Earth Day wurde am 22. April 1970 ausgerufen als Reaktion auf die legitimen Bedenken von Millionen Menschen, dass die Reduktion von Luft-, Land- und Wasserverschmutzung viel schneller vonstatten gehen muss. Die Bewegung erhielt immer mehr Zulauf, bis die heutige Präsidentin des EDN Kathleen Rogers schätzte, dass „derzeit über 1 Milliarde Menschen in 192 Ländern teilnehmen an etwas, was der größte Aktionstag der Zivilbevölkerung weltweit ist“.

Das sollte niemanden überraschen. Alle vernünftigen Menschen sind Umweltaktivisten. Wir wollen saubere Luft, sauberes Wasser und sauberes Land, und wir lieben den Gedanken, dass zukünftige Generationen in einer sogar noch besseren Umwelt leben. Das waren die ursprünglichen Ziele des Earth Day, und ich freue mich, dass ich selbst Anfang der neunziger Jahre auf Earth Day-Veranstaltungen Vorträge halten durfte.

Wie jedoch Henry Miller und Jeff Stier in einem Beitrag bei Fox News beobachten: „Während der letzten Jahre ist der Earh Day zu einer Gelegenheit für professionelle Aktivisten und Alarmisten verkommen, die vor Apokalypsen warnen und mit anti-technologischem Schmutz und Bekehrung der Menschen aufwarten. Leidenschaft und Inbrunst triumphieren jetzt über die Wissenschaft, und Beweisbarkeit nimmt den Rücksitz bei Plausibilität ein“. Damit wirft man Wissenschaft und rationales Denken hunderte Jahre zurück.

All dies zeigt, wie weise der Entwurf des Leiters der EPA Scott Pruitt ist vorzuschreiben, dass die wissenschaftlichen Studien zugrunde liegenden Daten öffentlich gemacht werden müssen zur Einsichtnahme und Bewertung, wenn diese Studien herangezogen werden, um die regierungsamtliche Umwelt- und Energiepolitik zu rechtfertigen. Dies bedeutet, dass tatsächliche Beweise, absolut unabhängige Begutachtungen der Daten, Verfahren, Computer-Codes und Algorithmen nicht länger geheim bleiben dürfen.

Sterling Burnett, Leiter der Abteilung Umwelt- und Energiepolitik am Heartland Institute, nennt den Vorschlag von Pruitt „einen kleinen Schritt hin zu einer Reform von Vorschriften, aber einen großen Schritt hin zu wissenschaftlicher Integrität und politischer Transparenz“. Das EDN und dessen alliierte Gruppen sollten den Beweis antreten, dass Plastik ein gefährlicher Verschmutzer ist, bevor Regierungen irgendwelche Maßnahmen dagegen ergreifen.

Inzwischen erinnert uns Goreham daran, wie wichtig Plastik ist hinsichtlich Gesundheit und Sicherheit in modernen Gesellschaften. „Es ist ein Wunder-Material. Wir stellen Verpackungen für Nahrungsmittel her, für Schuhe, Herzklappen, Rohre, Spielzeug, Schutzhelme und Smartphones aus Plastik“.

Sogar das EDN und andere Anti-Plastik-Aktivistengruppen scheinen zu erkennen, dass Plastik für zahlreiche Anwendungen unverzichtbar ist, fordern sie doch ebenfalls die weitere Herstellung dieser Produkte. Sie wollen lediglich, dass diese aus menschengemachten Kohlenwasserstoffen gefertigt werden (Biotreibstoffe usw.) anstatt aus dem Öl und Erdgas, welches Mutter Natur erschaffen und unter der Erdoberfläche gelagert hat – damit es von der Menschheit genutzt werden kann, um unser Leben auf unendliche Art und Weise zu verbessern.

Hoffentlich kommt Pruitts Vorschrift bald zur Anwendung und werden die grundlosen Behauptungen der Extrem-Öko-Aktivisten ignoriert. Dann kann sichergestellt werden, dass uns Plastik auch weiterhin und noch lange zur Verfügung steht.

Tom Harris is executive director of the Ottawa, Ontario-based International Climate Science Coalition.

Link: https://www.iceagenow.info/25685-2/

Übersetzt von Chris Frey EIKE