Grüne Klimakiller (2)

Wie bei der Windenergie hat auch der Entzug von Naturenergie für Solaranlagen Folgen für die Natur.

Die Sonne stellt jeden Augenblick 10.000 bis 15.000mal so viel Energie zur Verfügung, wie alle Menschen verbrauchen. Was passiert mit all dem Sonnenschein? Er erwärmt unseren Planeten zyklisch (tagsüber) und ist damit der primäre Antreiber der Lebensprozesse auf der Welt. Zunächst erzeugt die Sonne die Wärme, die Lebewesen für ihre Existenz brauchen. Im Gegensatz zum landläufig üblichen Alarmismus ist ein wärmeres Klima auf der Erde im Grundsatz positiv, weil es die Bedingungen für Leben fördert, wenn ausreichend Wasser vorhanden ist. Die Biodiversität ist im brasilianischen Regenwald höher als auf Grönland. Lebewesen passen sich an verschiedene Klimata an, Arten verschwinden, andere breiten sich aus und verändern sich nach der Darwinschen Theorie „survival of the fittest“. Dabei gibt es weder Gerechtigkeit noch Mitleid, wer sich nach dem Wolfsgesetz der Natur den sich ändernden Bedingungen nicht anpasst, stirbt aus.

Auch für Menschen waren immer die wärmeren Zeiten die Blütezeiten ihrer Geschichte, wie die römische und die mittelalterliche Warmzeit zeigen. Im Gegensatz dazu waren Kaltzeiten mit hohen Rückgängen der Bevölkerungszahlen verbunden, zumal wenn sie zu Missernten und Hunger führten und Kriege wie den Dreißigjährigen begünstigten.

Hinzu kommt, dass jeder Klimawandel Gewinner und Verlierer nach sich zieht. Einige Regionen werden bei langfristig steigenden Temperaturen in Zusammenhang mit Trockenheit unbewohnbar, im hohen Norden hingegen sorgen höhere Temperaturen für eisfreie Häfen, höhere Ernten und damit bessere Lebensbedingungen. Aber selbst in wärmeren Gebieten führen eben diese höheren Temperaturen, so sie von ausreichend Feuchtigkeit begleitet werden, im Zusammenspiel mit einem erhöhten CO2-Gehalt der Luft zu besserem Pflanzenwachstum. Satellitenaufnahmen aus den 80er Jahren und von heute zeigen beeindruckend die Zunahme der Blattmasseauf der Erdkugel, auch in der Sahel-Zone. So gesehen sollten Fluchtgründe aus Gründen mangelnder Versorgung in Afrika eher geringer geworden sein.

Sonnige Zeiten

Es gibt keine ungenutzte solare Energie, sie wird in den natürlichen Kreisläufen komplett verwendet. Die Sonne schickt keine Rechnung, aber die menschliche Nutzung ihrer Energie hat Folgen (und kostet natürlich auch Geld).

Betrachten wir zwei gleich große Flächen, zum Beispiel eine naturbelassene Wiese und eine Freiflächen-Fotovoltaikanlage. Die Wiese wird von der Sonne erwärmt, der Bewuchs nutzt einen geringen Anteil der Energie von etwa einem Prozent für die Fotosynthese. Ein größerer Teil bewirkt die Verdunstung von Wasser über die Blätter der Pflanzen und damit die Kühlung des Bodens. Ein weiterer Teil der Sonneneinstrahlung wärmt den Boden auf und liefert Verdunstungswärme für die Erdbodenfeuchte. Nach Sonnenuntergang kühlt das Gelände ab, die im Boden gespeicherte Wärme geht über Konvektion an die Umgebung oder über versickerndes Wasser an das Erdreich ab.

Die entstehende Biomasse stellt einen Energiespeicher dar, entweder für die Natur selbst, oder durch menschliche Nutzung der Biomasse. Wird die Energie zur technischen Nutzung abgeführt, sei es durch solarthermische Verwendung oder Fotovoltaik-Strom, findet Speicherung nicht statt (von häuslichen Warmwasserspeichern abgesehen).

Mit dem Entfall der Energiespeicherung in der Biomasse und der Wärme- und Wasserspeicherung kann die Landschaft ihre Aufgabe als Klimaregulativ weniger gut erfüllen.

Thermische Solarkollektoren sind für die Abfuhr der Wärme projektiert. Kommt die Wasserzirkulation zum Stillstand, weil der Wärmebedarf gedeckt ist, erreichen Flachkollektoren Stillstandstemperaturen von 200 Grad Celsius, Vakuum-Röhrenkollektoren sogar bis 300 Grad Celsius1). Um das überhitzte System wieder in den Normalbereich zu bringen, wird oft nachts das System in Umlauf gehalten, so dass die überschüssige Wärme an die Luft abgegeben wird. Diese Energie gelangte nicht in den natürlichen Kreislauf.

Ist die Fläche mit Fotovoltaik-Zellen belegt, werden bis zu 20 Prozent der Sonneneinstrahlung in Elektrizität verwandelt. Die Paneele können im Sommer bei entsprechender Witterung über 60 Grad Celsius Betriebstemperatur erreichen, durch den Stromfluss und die solare Aufheizung. Diese Wärme wird konvektiv an die Luft abgegeben und heizt die Umgebung auf. Dabei tritt ein Rückkopplungseffekt auf: Steigt die Umgebungstemperatur, erhitzen sich die Paneele weiter.

Um möglichst viel Energie zu fangen, sind Solarpaneele dunkel gehalten. Dies bewirkt eine Reflexion der Strahlung im infraroten Bereich des Lichts, genauer gesagt eine Absorption und Re-Emission. Nach dem Stefan-Boltzmann-Gesetzhängt die abgegebene Wärmeleistung in der 4. Potenz von der Temperatur des strahlenden Körpers ab.

Das heißt, je mehr sich Solarpaneele erwärmen, umso mehr Energie geben sie exponentiell als Wärmestrahlung ab (beim Abtransport der Wärme über Konvektion ist das Verhältnis Temperatur zu abgeführter Wärmemenge etwa linear). Im Bereich einer Temperatur von 60 Grad Celsius, dies ist das Zentrum des Absorptionsbereichs von CO2(15 Mikrometer Wellenlänge), ist die „Klimawirkung“ besonders hoch. Sonnige Tage mit geringer Bewölkung, an denen Wasserdampf als Treibhausgas kaum wirkt, sorgen für erhöhte infrarote Rückstrahlung von Solarpaneelen und für höhere Wirksamkeit des CO2als Treibhausgas.

Legt man die Treibhausgastheorie in ihrer offiziellen Form zu Grunde, so sorgen zwei Effekte für Erwärmung, nur der erste wird öffentlich thematisiert:

  • Durch die Zunahme des Anteils von Treibhausgasen in der Luft steigt die Erdtemperatur.
  • Durch die Zunahme von Objekten, die infrarotes Licht reflektieren, steigt die Erdtemperatur.

Neben der Reflexion durch Solaranlagen wirken natürlich auch Dächer, Straßen, Bahnlinien und andere Bebauung in ähnlicher Weise.

Sowohl die Konvektion der Paneele wie auch die infrarote Rückstrahlung entfalten Wirkung, teils global, teils regional.

Große Fotovoltaik-Freiflächenanlagen sind Konkurrenz für landwirtschaftliche Nutzflächen, Naturflächen oder Forst. Nach dem Energieerhaltungssatz wird dem Bewuchs Licht vorenthalten. Pflanzen bekommen weniger lebensnotwendige Licht“nahrung“  und auch weniger Wasser (ein Teil verdunstet auf den Paneelen und auch durch höhere Umgebungstemperaturen).

 

Die im Schatten sieht man nicht

Geringeres Pflanzenwachstum im Schatten führt zu weniger blühenden Pflanzen, was ein verringertes Nahrungsangebot für Insekten zur Folge hat. Am Beginn der Nahrungskette entsteht Mangel. Die Fotosynthese findet in viel geringerem Umfang im Schatten unter den Paneelen weiterhin statt.

Durch Wärmeabstrahlung und Konvektion kommt es zu lokaler Erwärmung, die das Mikroklima ändert. Auf dem ehemaligen Truppenübungsplatz Lieberose nördlich von Cottbus tun das immerhin 50 Hektar (!) reiner Modulfläche innerhalb eines riesigen Kiefernwaldbestandes. Der Wald auf sandigem Boden ist extrem brandgefährlich und fast in jedem Sommer, auch in den Jahren 2018 und 2019, kam es zu großflächigen Bränden, wenn auch kilometerweit von der Anlage entfernt. Tatsache ist, dass die riesige Freiflächenanlage als Hotspot wirkt und zur Erwärmung der Umgebung beiträgt.

Wechselrichter und Transformatoren stellen zudem eine nicht zu unterschätzende Brandlast dar2). Mit zunehmender Alterung der Anlagen sinkt nicht nur ihr Wirkungsgrad, was zu steigender Abwärme führt, auch die Brandlast nimmt durch Isolationsmängel (gealterter Gummi oder Kunststoff) an Kabeln und Steckverbindern zu.

Größer sind auf Grund höherer Umgebungstemperaturen die Wärmeabstrahlungen in Anlagen, die in Wüstengebieten errichtet werden. Der Traum vom unendlichen Wüstenstrom ist zwar versandet, dennoch wollen vor allem arabische Länder mehr Fotovoltaik nutzen. Ein Megaprojekt von 7.200 Megawatt (!) in Saudi-Arabien hätte eine entsprechend riesige Fläche belegt und erhebliche regionale Klimawirkung gehabt. Nun hat sich Saudi-Arabien anders orientiert, was mit dem Kauf russischer Kernreaktoren in Zusammenhangstehen dürfte.

Etwa 44 Gigawatt(peak) Leistung sind in Deutschland als Dach- oder Freiflächenanlagen installiert. In den gegenwärtig heißen Sommern liefern sie physikalisch bedingt aber nur 24 bis 28 Gigawatt, also etwa zwei Drittel der möglichen Leistung. Sollten wir tatsächlich einer „Heißzeit“ entgegengehen, hilft uns die Fotovoltaik eher nicht dabei, durch hohe Wassertemperaturen oder Wasserknappheit eingeschränkte konventionelle Kraftwerksleistung zu ersetzen.

Solare Freiflächenanlagen sind eine Form der Monokultur auf Kosten der  Natur.

Auch mit der Anlage von Straßen und Städten, der Bodenversiegelung insgesamt, greifen wir in die natürliche solare Bilanz ein. Wird Energie „abgezweigt“, steht sie nicht für die Fotosynthese, also der Bildung von Biomasse als CO2-Senke, Energiespeicher, für die Erwärmung des Bodens und die Zufuhr von Verdunstungswärme zur Verfügung. Die klimaregulierende Wirkung des Bodens wird reduziert. Auch große Flächen offshore, also auf See, durch Fotovoltaik zu nutzen, greift in die natürlichen Kreisläufe ein und ändert die Bedingungen für Lebewesen und die Wärmebilanz des Gewässers.

Die Gewinnung von Energie aus Solarmodulen verringert nicht den Treibhauseffekt, sondern verstärkt ihn durch vermehrte Rückstrahlung. Tagsüber vermiedene Emissionen aus fossilen Energiequellen werden durch eigene infrarote Rückstrahlung und konvektive Erwärmung der Umgebung konterkariert.

Die „Energiedetektive“1)aus Graz fassen die Auswirkungen von Solar-Freiflächenanlagen in ihrer Studie im Kapitel „Tatort Solaranlage“ so zusammen:

  • Eingriff in die Nahrungskette durch Lichtkonkurrenz
  • Eingriff ins regionale Kleinklima
  • Eingriff ins Energiespeichersystem des Bodens
  • Eingriff ins Wasserspeichersystem des Bodens
  • Eingriff ins bodennahe Kühlsystem
  • Eingriff ins System der Wärmestrahlung

Alles Bio, oder was?

Eine weitere Sparte der „Erneuerbaren“ sei hier noch kurz auf ihre Umwelt- und „Klima“-Verträglichkeit angesprochen. „Biogas“ klingt gut und wie alles, was mit „Bio“ beginnt, man vermutet natürliche Reinheit und völlige Unschädlichkeit. Das ist falsch schon angesichts der Tatsache, dass 99 Prozent aller Umweltgifte, also weit über den Knollenblätterpilz hinaus, natürlichen Ursprungs sind.

Von Biogasanlagen gehen vor allem Gefährdungen durch Havarien und Undichtheiten aus, die Gärreste, Substrate oder Silage-Sickerwasser freisetzen. Die Umweltschäden können erhebliche Ausmaße annehmen und sind umso größer, wenn genannte Stoffe in Oberflächengewässer gelangen. Eine Meldepflicht für solche Unfälle gibt es übrigens nicht.

Die „Klimawirkung“ ergibt sich aus dem Methan-Schlupf von etwa fünf Prozent, den es in diesen Anlagen ebenso wie in den Förder- und Transportanlagen für fossiles Erdgas gibt. Immerhin 300.000 Tonnen Methan gelangen über Biogasanlagen jährlich in die Atmosphäre.

Auch hinsichtlich der Arbeitsunfälle sind die „Erneuerbaren“ kein besonders menschenfreundliches Feld, sondern im Gegenteil mit viel gefahrgeneigter Tätigkeit verbunden. Abstürze von Dächern und Windkraftanlagen kommen immer wieder vor, auch wenn sie im Grundsatz vermeidbar sind. Zahlen sind schwer zu finden. Für das Jahr 2011 gab die Berufsgenossenschaft Energie Textil Elektro (BG ETEM) fünf Todesopfer und elf Schwerstverletzte bei Solar-Dachmontagearbeiten an.

Gefährlicher scheinen Biogasanlagen zu sein. Selbst das Umweltbundesamt spricht von „Sicherheitsdefiziten“: „Vermeintliche Klimaschützer mit Sicherheitsdefiziten“ überschreibt es eine Veröffentlichung. 17 Tote und 74 Verletzte seien in den vergangenen zehn Jahren zu verzeichnen gewesen. Alle zwei Wochen käme es zu einem Unfall in einer Biogasanlage, meldete der „Spiegel“ am 24. Mai dieses Jahres.

 

Alle diese Informationen sollen ausdrücklich nicht die Gefahren und Umweltbelastungen durch konventionelle Kraftwerke relativieren oder aus dem Blickfeld geraten lassen. Von der Wasserkraft bis zur Braunkohle haben alle Technologien Risiken und Nebenwirkungen und es ist immer eine Frage der Abwägung, welche Folgen man bereit ist, in Kauf zu nehmen. Wäre Deutschland ein Land mit großem Wasserkraftpotenzial, würde sich die Frage der Kohlenutzung wie in Schweden gar nicht stellen. Wir sind aber ein flaches, dicht bevölkertes (Noch-) Industrieland mit eher schlechten Bedingungen zur Nutzung von Naturenergien. Andere Länder versuchen den Umweltfolgen der Energiewirtschaft dadurch zu begegnen, dass sie ihren Energiemix ausweiten und damit die Nachteile diversifizieren. Etliche Länder wollen mit Blick auf die Pariser Klimaverträge in die Kernkraft einsteigen.

 

Deutschland ist das einzige Land der Welt, das seinen Energiemix verengt und am Ende vor allem die volatile Wind- und Sonnenenergie zur Basis der Versorgung machen will.

 

Das würde zwangsläufig den exzessiven Ausbau von Wind- und Solaranlagen auf Grund der geringen Energiedichte in einem solchen Ausmaß erfordern, dass gravierende und irreparable Umweltfolgen nicht zu vermeiden wären.

Deshalb ist es nötig, darauf hinzuweisen, dass auch die Ökoenergieanlagen Umwelt- und Klimawirkung haben und eben nicht die reinen, unschuldigen und folgenlosen Technologien sind, als die sie von Lobby und Politik dargestellt werden.

 

 

 

 

 

1) Dieser Beitrag entstand unter maßgeblicher Verwendung einer ausführlichen Studie „Ermittlungsakte Energiewende – Nebenwirkungen auf Klima und Umwelt“

vom„Energiedetektiv“aus Graz. Hierder Weg zur Studie

 

2) rbb-Inforadio v. 22.8.18 (Brand im Solarpark bei Rathenow)

 




Ein Selbstdarsteller verrät die Blaupause für die Große Transformation in eine CO2-freie Welt

Manchmal finden sich dann ganz zufällig Antworten auf solche offenen Fragen, in diesem Fall der Artikel „Die neue ‚große Erzählung‘ vom menschengemachten Klimawandel – jenseits von Postmoderne und Moderne“ von Heike Diefenbach auf Science Files, Zitat daraus:

Im Zuge solcher Dekonstruktionsprojekte wird z.B. die Menschheitsgeschichte in eine Geschichte der Unterdrückung von Frauen durch Männer pervertiert und die Sklaverei als Erfindung weißer Männer in relativ moderner Zeit ausgegeben. Solche Erzählungen, die durch Dekonstruktionsprojekte Postmoderner entstehen, werden selbst nicht zum Gegenstand entsprechender Dekonstruktionen – trotz aller angeblichen „Reflexivität“ Postmoderner und De-/Konstruktivisten, und so kommt es, dass im Zuge eines weiteren, m.E. besonders perversen, Widerspruchs die neukonstruierten Erzählungen zu „Wahrheiten“ werden, die gesellschaftspolitisches Handeln anleiten, z.B. durch Quotierungen zugunsten von Frauen oder ethnischen Minderheiten, die in der Erzählung als Wahrheit postuliertes vergangenes Unrecht irgendwie „heilen“ soll.

Solche „großen Erzählungen“ der Postmodernen waren geeignet – anders als die „großen Erzählungen“ der Moderne – die Gesellschaft zu fragmentieren, statt sie zu integrieren, und wenn man einen die gesamte Erde umspannenden, totalitären Superstaat herbeiführen wollte, wäre dies eine gute Strategie, um Widerstand zu verhindern oder einzuschränken, kämpfen die so fragmentierten gesellschaftlichen Gruppen doch eher gegeneinander als gegen diejenigen, die für die Fragmentierung verantwortlich sind. Derzeit findet aber ein Prozess statt, in dem eine weitere „große Erzählung“ formuliert und durchzusetzen versucht wird, nämlich die Erzählung vom menschengemachten Klimawandel. Es geht in dieser Erzählung um nichts Weniger als die Rettung der Erde als Lebensraum für Menschen in der Zukunft.“

Und gleich darüber findet sich zufällig der Artikel von Michael Klein „Klimaextremismus: In Potsdam wird Faschismus gesponsert“, wo es zunächst heißt, Zitat:

Das Institute for Advanced Sustainability Studies (IASS) in Potsdam ist ein eingetragener Verein. Dessen ungeachtet hängt das IASS am Tropf des Bundesministeriums für Bildung und Forschung und des Ministeriums für Wissenschaft, Forschung und Kultur des Landes Brandenburg.“

Weiter wird dort über ein Interview berichtet, in dem ein Lance Bennett, Professor für Politikwissenschaft und Kommunikation an der University of Washington und derzeit Senior Fellow am IASS, erklärt, wie bessere Kommunikation den notwendigen Kurswechsel vorantreiben kann, um die verheerende Auswirkungen des Klimawandels abzuwenden. Die im Artikel von Klein problematisierte Aussage findet sich dort in einem Screenshot, wo es wiederum heißt, Zitat:

Das Buch heißt Communicating the Future. Es beschreibt, wie sich Ideen über einen aus vier Schritten bestehenden Prozess in der Gesellschaft ausbreiten können. Der erste Schritt ist das Hervorbringen von Ideen durch Thinktanks, Forschungsnetze und Interessenvertretungen – unterstützt durch strategischere Visionen seitens der Geldgeber. Dann kommt die wirkungsvolle Verpackung dieser Ideen – zum Beispiel eine andere Art der Einordnung von Umweltproblemen, indem man sich stärker auf Wirtschaftsideen konzentriert. Dadurch wird es möglich, positivere Geschichten über Arbeit, Lebensstil und die Zukunft zu erzählen. Diese Verschiebungen bei der Ideenfindung und Verpackung der Kommunikation führen dann zum dritten Schritt, in dem es um eine bessere Abstimmung der derzeit zersplitterten politischen Netzwerke geht, so dass unterschiedliche Organisationen ähnliche Ideen an ihre eigenen Interessengruppen weitergeben können. Im letzten Schritt wird diese stärkere Einheit der Ideen zur wirtschaftlichen Umgestaltung in öffentlichen Druck umgewandelt, der von politischen Entscheidungsträgern und Parteien aufzunehmen ist.“

Haben Sie’s bemerkt? – Nein? – Also:

Dieser superschlaue professorale Selbstdarsteller plaudert hier die theoretischen Grundlagen der globalen Klimahysterie aus. Denn seinen eigenartigen Vorschlag für gesellschaftspolitisches Engineering müssen wir lediglich zurückentwickeln und auf die vergangenen dreieinhalb Jahrzehnte Klimahysterie anwenden. Also noch einmal ganz zurück und dann in kleinen Schritten wieder vorwärts, die jeweiligen Zitate finden Sie auch im eben zitierten Fließtext:

(1) „Der erste Schritt ist das Hervorbringen von Ideen durch Thinktanks, Forschungsnetze und Interessenvertretungen – unterstützt durch strategischere Visionen seitens der Geldgeber.“

(1985-1995)      In meinem Buch „MEHR GEHT NICHT“ hatte ich auf einige Indikationen für eine langfristige konzertierte Klimakampagne in dieser Zeit hingewiesen:

Der Intergovernmental Panel on Climate Change         (IPCC, Zwischenstaatlicher Ausschuss für Klimaänderungen), im Deutschen oft als „Weltklimarat“ bezeichnet, wurde im November 1988 vom Umweltprogramm der Vereinten Nationen (UNEP) und der Weltorganisation für Meteorologie (WMO) als zwischenstaatliche Institution ins Leben gerufen, um für politische Entscheidungsträger den Stand der wissenschaftlichen Forschung zum Klimawandel zusammenzufassen mit dem Ziel, Grundlagen für wissenschaftsbasierte Entscheidungen zu bieten, ohne dabei Handlungsempfehlungen zu geben. (Wikipedia)

Deutscher Bundestag 1989,      Zitat aus der Drucksache 11/4133 vom 08.03.89 mit Hervorhebungen: „Der Ozonabbau in der Stratosphäre und der Treibhauseffekt  werden zu einer immer größeren Herausforderung für die Menschheit. Die Bedrohung der Erdatmosphäre gefährdet das Leben auf der Erde, wenn der gegenwärtigen Entwicklung nicht frühzeitig und umfassend Einhalt geboten wird. Ursache für die Gefährdung sind durch menschliche Aktivitäten freigesetzte Spurengase.“

Club of Rome 1991:     In dem Buch „The First Global Revolution“ (1991) von Alexander King und Bertrand Schneider für den Club of Rome heißt es auf Seite 70, Zitat mit Hervorhebungen:          „The need for enemies seems to be a common historical factor. Some states have striven to overcome domestic failure and internal contradictions by blaming external enemies. The ploy of finding a scapegoat is as old as mankind itself – when things become too difficult at home, divert attention to adventure abroad. Bring the divided nation together to face an outside enemy, either a real one, or else one invented for the purpose.”

Und weiter heißt es dort auf Seite 75, Zitat mit Hervorhebungen:          „In searching for a common enemy against whom we can unite, we came up with the idea that pollution, the thread of global warming, water shortages famine and the like, would fit the bill. In their totality and their interactions these phenomena do constitute a common thread which must be confronted by everyone together. But in designating these dangers as the enemy, we fall into the trap, which we have already warned readers about, namely mistaking symptoms for causes. All these dangers are caused by human intervention in natural processes, and it is only through changed attitudes and behaviour that they can be overcome. The real enemy than is humanity itself.

Die Klimarahmenkonvention (UNFCCC) von 1992

Das Kyoto-Protokoll von 1997

(2) „Dann kommt die wirkungsvolle Verpackung dieser Ideen – zum Beispiel eine andere Art der Einordnung von Umweltproblemen, indem man sich stärker auf Wirtschaftsideen konzentriert. Dadurch wird es möglich, positivere Geschichten über Arbeit, Lebensstil und die Zukunft zu erzählen.“

(1995-2005)      Wissenschaft, Umweltschutz-NGOs und gemeinnützige Stiftungen/Organisationen werden von Klimajüngern unterwandert und auf die Bekämpfung einer „Klimakatastrophe“ ausgerichtet, beispielsweise ADAC,Greenpeace,Sierra Club, WWF, Brot für die Welt, Ärzte ohne Grenzen

(3) „Diese Verschiebungen bei der Ideenfindung und Verpackung der Kommunikation führen dann zum dritten Schritt, in dem es um eine bessere Abstimmung der derzeit zersplitterten politischen Netzwerke geht, so dass unterschiedliche Organisationen ähnliche Ideen an ihre eigenen Interessengruppen weitergeben können.

(2005-2015)      Wissenschaft, NGOs und gemeinnützige Stiftungen bilden Netzwerke, beispielsweise das Deutsche Klimakonsortium, Copernicus,Scientists for Future

(4) „Im letzten Schritt wird diese stärkere Einheit der Ideen zur wirtschaftlichen Umgestaltung in öffentlichen Druck umgewandelt, der von politischen Entscheidungsträgern und Parteien aufzunehmen ist.“

(2015-….?)        Die Fragmentierungvon Gesellschaft und Nationalstaaten ist bereits in vollem Gange. Und das EEG, Greta und die CO2-Steuer sind  bereits erfolgreiche Teilergebnisse  = das Klima-Netzwerk wird durch unser (Steuer-)Geld finanziert, die Klimaikone erhält die Goldene Kamera, den Prix Liberté in Erinnerung an den D-Day im Juni 1944, einen Ehrendoktorund vielleicht sogar noch den Nobelpreis– und wir alle bekommen jetzt eine schöne CO2-Atemsteuerals globale GEZ-Abgabe auf das eigene Leben verpasst…

Wir haben jetzt also einerseits die professorale Theorie, „wie sich Ideen über einen aus vier Schritten bestehenden Prozess in der Gesellschaft ausbreiten können“. Und wir wissen anderseits, wie sich die globale Klimahysterie im Verlauf der vergangenen Jahrzehnte in vier Schritten ausgebreitet hatte. Im direkten Vergleich stellt also die professorale 4-Schritte-Theorie in erschreckender Weise eine Blaupause für den historischen Ablauf der Klimahysterie dar.

Wenn man so will, beweist sich also die professorale Science-Fiction durch die tatsächlichen Abläufe in der jüngeren Vergangenheit. In einem historischen Rückblick auf die letzten drei Jahrzehnte sind die wirklichen Ursachen für alle unerwarteten und unlogischen politischen Entscheidungen und alle spontanen Astroturf-Massenhysterien bisher immer schön im Dunkeln geblieben. Und das alles hatte mit Hilfe von Wissenschaft und Massenmedien auch hervorragend funktioniert. Und dann kommt da so ein Professor für Politikwissenschaft und Kommunikation und plaudert mit seiner 4-Schritte-Theorie den ganzen Fahrplan für die globale Dekarbonisierung aus – wirklich dumm gelaufen, wobei man sich andererseits wundern muss, dass ein solches Leaking nicht schon viel früher erfolgt ist…

Also haut weiter in die Kerbe, meine Damen und Herren Klimarealisten, denn es ist nie zu spät – und es ist immer von Vorteil, wenn man die Pläne seiner Gegner kennt!

 

Anmerkung: Kein Wunder also, dass die meisten Kritiker der Klimareligion in den 1980-er Jahren ihre Ausbildung bereits abgeschlossen hatten und deshalb heute als „alte weiße Männer“ (und Frauen) öffentlich diskeditiert werden; umso höher ist übrigens jüngeren Semestern eine Kritik an der globalen Klimareligion anzurechnen. Aber auch die Klimarealisten sollten sich nicht über jeden Klimaaberglauben erhaben fühlen, denn auch sie verteidigen mehrheitlich einen „natürlichen atmosphärischen Treibhauseffekt“ mit Klauen und Zähnen – obwohl seine Herleitung mit dem Stefan-Boltzmann-Gesetz nachweislichdie zwingende physikalische Randbedingung der Gleichzeitigkeit verletzt…




Alarm, Angst, weglauf – hier ist alles verstrahlt!

Radioaktivität ist verboten

Der Gesetzgeber hat zusätzliche Radioaktivität verboten, denn das hätte eine zusätzliche Bestrahlungsdosis zur Folge, und das soll gefährlich sein. Aber was ist zusätzliche Radioaktivität? Der ganze Erdball ist radioaktiv, aber nicht gleichmäßig, sondern an allen Stellen verschieden hoch. Es sollen drei Beispiele beschrieben werden, wo es Strahlenalarm gegeben hat, weil unser Herrgott etwas zu schlampig bei der Erschaffung der Erde vorgegangen ist.

 

1) Die (Hals)kettenreaktion [1]

Vor etwas mehr als einem Jahr gab es Strahlenalarm am Frankfurter Flughafen durch eine Luftfrachtsendung aus China, die an eine Adressatin in der Schweiz geliefert werden sollte. Die Sendung enthielt 25kg von einem Gesteinspulver mit erhöhter Radioaktivität. Einige Jahre zuvor hatte die Adressatin schon einmal eine ähnliche Menge vom radioaktiven Gesteinspulver bestellt, welches ohne Strahlenalarm über den Seeweg die Empfängerin erreicht hatte. Die Kundin in der Schweiz hat mit dem Gesteinspulver Halsketten hergestellt, die nicht nur hübsch aussehen, sondern denen auch noch eine förderliche Wirkung für die Gesundheit zugeschrieben wird. Die erste Sendung war aufgebraucht, jetzt war weiteres Material notwendig.

Der Strahlenalarm am Frankfurter Flughafen hatte erhebliche Folgen: Die Polizei erschien bei der Adressatin, sie wurde verhört, alles radioaktive Material wurde sichergestellt. Alle früheren Kunden wurden benachrichtigt, auch deren Halsketten sollten entsorgt werden. Das Ganze wurde als Straftat bezeichnet. Es ist eine lange Geschichte [1], die hier im Einzelnen nicht ein zweites Mal beschrieben werden kann.

Ich habe eine Halskette dieser Art in den Händen gehalten und konnte mit einem verlässlichen Strahlenmeßgerät direkt auf der Kettenoberfläche einen Strahlenpegel von 5 Mikrosievert pro Stunde messen. Bei einem Flug auf Reiseflughöhe auf unserer Breite setzen sich ALLE Insassen des Fliegers STÄNDIG mit ihrem GANZEN Körper einem Strahlenpegel von etwa 5 Mikrosievert pro Stunde aus (noch variabel mit der Aktivität der Sonne). Unser Herrgott hat Himmel und Erde geschaffen, so steht es geschrieben. Warum ist dann die Strahlung in der Höhe erlaubt, die gleiche auf der Erde aber verboten?

 

2) Die Mineraliensammlung in Schulen im Salzburger Land [2]

Durch Zufall wurden durch den Anti-Atomaktivisten Thomas Neff in der Mineraliensammlung einer Salzburger Schule radioaktive Gesteinsproben entdeckt. Das ergab ein Medienecho, initiiert durch die Salzburger Plattform gegen Atomgefahren und hatte zur Folge, daß überall nach „brisantem Material“ gesucht wurde, denn schließlich hatte der Geiger-Zähler bis zum Anschlag ausgeschlagen. Man wurde an etlichen Schulen fündig und startete ein Meßprogramm mit den 44 gefundenen Gesteinsproben. In 10cm Entfernung von den Proben wurde ein Strahlenpegel im Bereich von <0,1 bis zu >10 Mikrosievert pro Stunde gemessen, Maximalwert war 29 Mikrosievert pro Stunde.

Die Gesteinsproben lagerten schon jahrzehntellang unbenutzt in den Schränken. Die meisten stammten vermutlich aus St. Joachimsthal in Tschechien, das auf Gestein liegt mit höherer Radioaktivität. Das wird dort das radioaktive Edelgas Radon aus dem Gestein freigesetzt, so daß der Ort zu einem Heilbad wurde.

Es wurde veranlasst, daß die Gesteinsproben nur in bruchsicheren verschlossenen Gefäßen aufzubewahren sind, und daß diese Gefäße wiederum in abgeschlossenen Schränken aufzubewahren sind. So sei sichergestellt, daß niemand weder ein Staubkörnchen von den Steinen einatmen könne, noch davon abbeißen könne. Zugang ist nur unterwiesenen Personen während möglichst kurzer Zeit erlaubt.

Wieder bietet sich der Vergleich mit dem Strahlenpegel beim Fliegen an: In der üblichen Höhe von 10 bis 12km sind es etwa 5 Mikrosievert pro Stunde, in der größeren Flughöhe der Concorde wurden die Fluggäste während der gesamten Flugzeit einem Strahlenpegel von 10 bis 15 Mikrosievert pro Stunde ausgesetzt. Ist es die Richtung, aus der die Strahlung kommt, die den Unterschied in der Bewertung macht: einmal vom Himmel, das andere Mal von der Erde??? Aber warum ist dann seit uralten Zeiten der Herkunftsort der Steine, St. Joachimsthal, ein Heilbad??? Sind die Strahlen von unten wirklich „Teufelszeug“, wie es Kardinal Reinhard Marx aus München mit einer Bemerkung anzudeuten schien???

 

3) Strahlung inmitten unserer Städte [3]

Überall, wo viele Menschen sind, wird inzwischen nach Strahlung gesucht. So hat man in den Zentren der Städte gesucht – und natürlich wurde man fündig. Es werden folgende Strahlenpegel angegeben:

Der natürliche Untergrund mit                                       60 bis 80 nSv/h

Die tolerierbare Umgebungsstrahlung sind                    maximal 300 nSv/h

Erhöhte Strahlung in Leipzig, Dresden                          um 600 nSv/h

Strahlung in Oranienburg, Hannover, jetzt saniert          1 200 nSv/h bis 15 600 nSv/h

Zur Erläuterung:

1 nSv = 1 Nanosievert = 1/1000 Mikrosievert = 1/1000 µSv = 1/1 000 000 Millisievert = 1/1 000 000 mSv

Natürlich muß man eine ganze Stunde an der Stelle mit 15 600 nSv/h stehen bleiben, um die gleiche Dosis zu erreichen, die Fluggäste in der Concorde während einer Stunde erhalten. Die Concorde gibt es nicht mehr, aber im normalen Flugzeug über den großen Teich ergeben sich dieselben zusätzlichen Bestrahlungsdosen:

Beim Flug über den Atlantik FRA – JFK – FRA summiert sich die erhaltene Dosis auf

80 µSv bis 140 µSv

Und das sind Bestrahlungsdosen, die in der Kerntechnik sämtliche Alarmglocken läuten lassen würden, denn in der Kerntechnik werden riesige Geldbeträge ausgegeben, um die vom Gesetzgeber vorgegebene Grenze einer zusätzlichen Dosis von

10 µSv/a

nicht zu überschreiten. Bei der Kerntechnik gibt es in Medien Schlagzeilen „Alles ist verstrahlt“, Dosisvergleiche mit Bodenstrahlung oder Höhenstrahlung werden vermieden.

 

Was soll mit den niedrigen in der Kerntechnik geltenden Grenzen bezweckt werden?

Diese Frage liegt nahe, aber eine Antwort könnte nur der Gesetzgeber geben. Der Gesetzgeber steht aber zur Beantwortung von Fragen des Bürgers nicht zur Verfügung. Und es steht zu vermuten, daß er in der Materie nicht Bescheid weiß, die Fragen nicht beantworten kann. Die niedrigen Grenzen gelten nur für den Umgang mit Kernbrennstoffen, nicht für Bodenstrahlung, nicht für Höhenstrahlung und nicht in der Medizin. Natürlich sind die Grenzen in der Kerntechnik unlogisch, aber da sich niemand auskennt und da die wirklichen Fachleute in Medien und Politik nicht gehört werden, funktioniert die Volksverführung mit der Strahlenangst.

Die Strahlenangst wird geschürt um ein politisches Ziel zu erreichen. Die Medien machen da mit. Entweder sind sie schon selber von der Strahlenangst total ergriffen, so daß sie sich noch nicht einmal dazu aufraffen, sich in den Fachmedien zu informieren. Oder die Medien sind inzwischen so stark von der Obrigkeit abhängig geworden, daß sie sich keine freie Berichterstattung mehr zutrauen.

[1] https://nuklearia.de/2018/10/18/radioaktive-halskette/Sehr zu empfehlen, denn die 27-seitige Darstellung von Dr. Walter Rüegg mit vielen nützlichen Zitaten befasst sich mit dem Strahlenrisiko, was durch eindrucksvolle Vergleiche die behördlichen Vorschriften lächerlich erscheinen lässt.

[2] StrahlenschutzPRAXIS 2/2018 Seite 50 bis 53

[3] R. Gellermann: The world we really live in – communication on radiation, Kerntechnik 77 (2012) 3




Bildungs- und Fahrrad-Metropole Berlin! Grüne Pläne: Keine Autos mehr in Berlin

In Berlin überschlagen sich in jüngster Zeit geradezu die Ideen im Wettbewerb um die verrücktesten Vorschläge, wie der angeblichen Klimakatastrophe zu begegnen sei. Jüngst haben die Grünen beschlossen, dass ab 2030 innerhalb des S-Bahnrings kein Diesel oder Benziner mehr fahren dürfen. Nur noch Elektroautos sollen dann rollen. Auf den Straßen herrschte dann einigermaßen Friedhofsruhe. Zur Zeit gibt es rund 1,21 Millionen Autos in Berlin, aber nur 2.713 elektrisch betriebene Autos. Ob sich das Verhältnis in zehn Jahren deutlich verändert haben wird, dürfte in Frage stehen.

Der Auslöser für den jüngsten Geniestreich war offenbar eine Reise von Ramona Pop und Antje Kapek von den Grünen nach Prag. Die erste sitzt derzeit in Berlin auf dem Stuhl des Wirtschaftssenators, die zweite ist Fraktionschefin der Grünen.
Beide dachten, es wäre mal eine nette Idee für einen politischen Kurztrip. Dort verbreiteten sie dem Bericht der BZ Berlin zufolge mit dem Botschafter gute Laune auf jenem Balkon der deutschen Botschaft, auf dem einst Hans-Dietrich Genscher den ostdeutschen Flüchtlingen die Ausreise in die Bundesrepublik versprochen hatte.

In ihrem Übermut sollen sie nur noch über das Klima gesprochen und das Autoverbot beschlossen haben. Gunnar Schupelius schreibt dazu bei BZ Berlin weiter:

»Die zogen weiter ins Konferenzzentrum „Saphire“ und sprachen nur noch über das Klima. Dabei wurde das Autoverbot beschlossen. Gleichzeitig gründete sich die Initiative „Autofrei Berlin“, die am Sonnabend die Sonnenallee lahmlegen will. Deren Sprecher Oliver Schönbett sagte zum Autoverbot 2030: „Ich würde mir wünschen, dass es noch schneller geht. 2025 würde ich gut finden.“«

Pop ist als Wirtschaftssenatorin zugleich Aufsichtsratsvorsitzende der Berliner Stadtreinigung, der Berliner Verkehrsbetriebe und der Berliner Wasserbetriebe. Posten, auf denen man viel kaputt machen kann, wie man am desolaten Zustand unter anderem der Verkehrsbetriebe sehen kann. Es sind sogar nicht mehr genug Fahrer für Straßenbahnen verfügbar, die ersten Linien mussten bereits eingestellt werden. Dafür leisten sich die BVG mit Sigrid Nikutta die teuerste Vorstandsvorsitzende. Sie wird mit knapp einer halben Million Euro entlohnt.Ordentliche Radwege sind trotz vieler Ankündigungen immer noch Mangelware; eines der Hauptprobleme derjenigen, die Räder in der Stadt benutzen, nämlich Fahrradklau und Zerstörung, interessiert die grünen Phantasten eher wenig.
Von einer normalen Stadtverwaltung ist rot-rot-grün weit entfernt. Behörden funktionieren immer weniger; von Glück kann der reden, der einen Termin für einen neuen Ausweis in annehmbarer Zeit bekommt. Ein Vabanquespiel ist die Anmeldung eines Kraftfahrzeuges.

Dafür soll Berlin – bekanntlich eine sonnenreiche Stadt – zur Solarcity ausgebaut werden; ein »Masterplan Solarcity« wurde teuer entwickelt. Währenddessen gehen Berliner Stadtpolitiker mit peinlichem Beispiel voran und steigen in ihre großen Karossen wie die des Regierenden Bürgermeisters Michael Müller, ein 600er-Dienst-Mercedes.

Ramona Pop in einem ausführlichen Interview des Tagesspiegel: »Wir sind gerade dabei, auch die Dienstwagenflotten umzustellen – und glauben Sie mir: Ich suche seit über einem Jahr nach einem emissionsfreien Auto. Die Diesel werden uns zu Dumpingpreisen angeboten, und aufgrund des Wirtschaftlichkeitsgebotes müssen wir diese dann auch nehmen, das ist doch irre. Der Regierende Bürgermeister ist eine andere Kategorie, der Innensenator auch. Die Autos sind gepanzert; das ist der Standard, den der Regierende Bürgermeister auch braucht.«

Sechs Millionen Euro will der Senat für Subventionen für Elektroautos ausgeben. »Das sind geschätzt 1.500 Autos«, rechnet der Tagesspiegel vor und fragt: »Klingt nach teurer Symbolpolitik …«

Pop phantasiert aus ihrer grünen Plüschecke: »Wir wollen in Berlin kleine und mittlere Unternehmen bei dieser Umstellung unterstützen. Ein Elektroauto kostet heute immer noch das 1,7 bis 1,9-fache eines Benziners oder Diesels. Natürlich wäre die Welt eine andere, wenn die Preise für Autos sich an deren CO2-Ausstoß orientierten. Aber in dieser Welt leben wir nun mal nicht, weil die Bundesregierung die falsche Politik macht.«Berlin will richtig loslegen. In einem Mobilitätsgesetz, das der Senat will, soll Berlin zur Fahrradstadt transformiert werden. Wirtschaftsverkehr gibt es dann nicht mehr. Pops merkwürdige Phrasen: »Das Mobilitätsgesetz beinhaltet zum ersten Mal überhaupt in Berlin eine Aussage für ein Wirtschaftsverkehrskonzept. Es schreibt zwingend vor, dass ein solches erstellt werden muss. Es gibt dazu bereits Dialogformate und Workshops mit Verbänden und Unternehmen. Ich bin überzeugt, dass langfristig die Unternehmen von dem Gesetz profitieren können: je mehr Menschen aufs Fahrrad umsteigen, desto freier werden die Straßen für den Wirtschaftsverkehr.«

Pop beklagt: »Es ist ein Drama, wenn wir für die BVG auf dem deutschen und europäischen Markt keine tauglichen Elektrobusse bestellen können, obwohl das Geld dafür da ist.«

Vielleicht gibt es noch ein paar Fachleute in Berlin, die ihr erklären könnten, dass es die nicht gibt, weil es da nämlich ein paar Naturgesetze gibt, die wiederum verhindern, dass Busse mit Batterieantrieb dieselben Reichweiten erzielen wie dieselangetriebene. Und nein, da steckt nicht der böse Kapitalismus dahinter, der erst überwunden werden müsste.

Pop behauptet unverdrossen: »Wir nehmen aber derzeit unglaublich an Dynamik und an Fahrt auf mit einem Wirtschaftswachstum über dem Bundesdurchschnitt.«
Nochmal zur Erinnerung: Sie gilt als Wirtschaftssenatorin. Sie sagt das in einer Stadt, in der neben Siemens, Knorr Bremse oder auch Ledvance große Wirtschaftsunternehmen wie Air Berlin während ihrer Amtszeit für Negativschlagzeilen gesorgt haben.

Skeptisch fragt der Tagesspiegel: »Ist der Wirtschaftsstandort Berlin vielleicht doch nicht so attraktiv?«
Pop: »Ich glaube, dass Berlin früher oder später im Länderfinanzausgleich zum Einzahlerland aufsteigen wird.«
Nein, nicht in den nächsten zwei oder drei Jahren, etwas länger brauchen sie schon noch im Traumland Berlin.
»Für die alte Industriewelt kann es mitunter auch schmerzhaft sein, sich in eine neue zu transformieren. Aber für diese neue Welt der digitalen Industrie sind wir gut aufgestellt. Wir sehen, dass sich Cluster hier in Berlin entwickeln, die es anderswo nicht gibt. Wir haben das Potential an Talenten und Fachkräften der Digitalwirtschaft, sodass die Unternehmen gezwungen sind, nach Berlin zu kommen, weil die Leute eben nicht nach – jetzt muss ich aufpassen, dass ich nichts Falsches sage – sonst wohin ziehen wol-len. Wer aus dem Silicon Valley kommt, geht eben nicht nach Münster.«Münster ist vielleicht nicht gerade das beste Beispiel, das Pop anführen konnte. Will doch Anja Karliczek Münster zur Hauptstadt der deutschen Batterieforschung machen. Karliczek ist, was bestimmt viele nicht wissen, Hotelfachfrau und Bundesforschungsministerin und hat Münster eine Batteriezellenforschungsfabrik zugeschanzt. Die Stadt liegt in ihrem Wahlkreis.

Die Berliner Senatsverkehrsverwaltung jedenfalls will schon mal in diesem Herbst mit Tauentzien und Ku’damm eine Hauptverkehrsader für den Autoverkehr sperren. Zu Testzwecken, wie Staatssekretär Ingmar Streese (Grüne) sagte. Entstehen sollen Cafes auf den Mittelstreifen und Liegewiesen. In Zeiten des Online-Handels werden Kaufhäuser und Läden sowieso überflüssig. Steht nicht auf dem Satireportal Postillion, sondern in der Berliner Morgenpost.

Nicht geklappt hat die Autosperre der Friedrichstraße in der Mitte Berlins. Die sollte schon mehrfach länger oder kürzer gesperrt werden. Zuletzt sollten Anfang September für einige Tage keine Autos fahren dürfen. Jetzt auch nicht mehr, dann eben Anfang Oktober. »Auf der Straße soll Platz sein zum Bummeln und Verweilen und für besondere Angebote der anliegenden Geschäfte“, so der Bezirksbürgermeister. Was eben Grüne sich so vorstellen, wenn Arbeit und Wirtschaft überflüssig geworden sind.Berlin ohne Autos – wenn das die professionellen Autoabfackler erfahren. Die haben seit Anfang des Jahres mindestens 280 Autos abgebrannt, im gesamten Vorjahr waren es 446 Autos. Die würden keine Autos mehr in den Straßen vorfinden. Was dann? Schwere Lasten-Fahrräder?

Der Deutschland-Korrespondent des Wallstreet Journal Bojan Pancevski berichtet auf Twitter entgeistert »nicht aus einer Konfliktzone«, sondern aus Berlin und zeigt Bilder angezündeter Autos: »Das ist Berliner Folklore, die schon seit Jahren besteht und bei der niemand etwas dagegen zu unternehmen scheint. Der örtliche Bürgermeister macht sogar Witze über den Vorfall.«

So this is no conflict zone but my nice #Berlin hood, where someone torched and vandalised a few cars at 3 am. This is Berlin folklore, has been going on for years and no one seems to be able to do anything about it. The local mayor was even cracking jokes about the incident. pic.twitter.com/CTb0kkrAU3

Das interessiert bei den Grünen niemanden. Halten wir uns abschließend noch einmal den vielleicht größten Witz vor Augen, den Wirtschaftssenatorin Ramona Pop auf Lager hat: »Berlin wird zum Einzahlerland aufsteigen«.

Das dröhnende Lachen hört man sogar aus Bayern, das bisher am meisten in den Länderfinanzausgleich einzahlt.

Der Beitrag erschien zuerst bei TE hier

Rätselauflösung: Bildung-Betropole Berlin?

Soeben erreicht uns die Nachricht dass Berlin die Freie und Hansestadt Bremen als Schlusslicht im Bildungsvergleich abgelöst hat. Details dazu hier




Ist die institutionalisierte Wissenschaft tot?

“Intellectual freedom is so important. It allows academics to express their opinions without fear of reprisals. It allows a Charles Darwin to break free of the constraints of creationism. It allows an Albert Einstein to break free of the constraints of Newtonian physics. It allows the human race to question conventional wisdom in the never-ending search for knowledge and truth.”

Judge Salvatore Vasta, Brisbane, Australia

“Intellektuelle Freiheit (Wissenschaftsfreiheit) ist sehr wichtig. Sie ermöglicht es, dass Akademiker ihre Meinung sagen, ohne Angst vor Repressalien haben zu müssen. Sie hat es Charles Darwin erlaubt, die Fesseln des Kreationismus zu sprengen. Sie hat es Albert Einstein erlaubt, die Zwänge von Newtons Physik hinter sich zu lassen. Sie erlaubt es der Menschheit konventionelle Wahrheiten zu hinterfragen in ihrer nicht endenden Suche nach Wahrheit.“

Der australische Richter Salvatore Vasta hat dies im Verfahren Peter Ridd gegen James Cook University gesagt, das Peter Ridd gewonnen hat.

Peter Ridd war lange Jahre der Leiter der Physik-Abteilung an der Jams Cook University in Middlesbrough, Queensland, Australia. Er wurde unter einer Reihe von Vorwänden entlassen, weil er es gewagt hat, der Mythe, nach der das Great Barrier Reef infolge des von Menschen verursachten Klimawandels stirbt oder längst gestorben sei, zu widersprechen und die Fakten gegen die Ideologie zu setzen. Dazu kommen wir unten.

Wenn Richter Institutionen der Wissenschaft an die Bedeutung von intellektueller Freiheit, von der Freiheit erinnern müssen, vom Mainstream abweichende Ideen nicht nur zu haben, sondern auch zu formulieren, zu prüfen und gegebenenfalls gegen den Mainstream zu stellen, dann ist es nicht mehr fünf vor Zwölf, dann ist es fünf nach Zwölf und die Frage: „Ist die institutionalisierte Wissenschaft den ideologischen Tod gestorben?“, sie ist mehr als berechtigt.

Die Indikatoren, die dafür sprechen, dass das, was an Institutionen der Wissenschaft, was an Hochschulen betrieben wird, nicht Wissenschaft, sondern Ideologie ist, sind zahlreich. Wir wollen nur einige davon nennen, die wir für Deutschland gesammelt haben:

Hochschulen haben sich zu sozialistischen Gefängnissen entwickelt. Wer den herrschenden Glauben nicht teilt, der wird vom in ASten organisierten Studentenmob attackiert und neuerdings vor Amtsrichter gezerrt, wie dies Ulrich Kutschera widerfahren ist.

Politdarsteller bedienen sich willfähriger Mitglieder der institutionalisierten Wissenschaft, um ihren Ideologien einen vermeintlich wissenschaftlichen Segen zu verschaffen, so dass Junk, wie die Mitte-Studien genutzt werden kann, um den politischen Gegner zu bekämpfen. Institutionalisierte Wissenschaft ist zum Legitimationsbeschaffer für ideologische Zwecke verkommen.

Angeblich wissenschaftliche Zeitschriften haben ein peer review System aufgebaut, das vornehmlich als Gatekeeper und Kontrollinstanz wirkt, um die Publikation vom Mainstream abweichender Beiträge zu verhindern. Die Klimawandelmafia, zu der wir noch kommen, ist dafür bekannt.

Das Peer Review System wird gegen jede Realität als Qualitätsmerkmal von Beiträgen aufgebaut, ungeachtet der Tatsache, dass es in unzähligen Fällen gelungen ist, willkürlich von Textprogrammen zusammengeschnipselte Texte als „wissenschaftliche Texte“ auszugeben und den angeblichen „Peer Reviewed Zeitschriften“ unterzuschieben.

Die Hochschulen sind voller angeblicher Fächer, deren Vertreter keinerlei Idee davon haben, welches Erkenntnisinteresse sie verfolgen oder welche Fragestellung sie überhaupt bearbeiten. Es handelt sich dabei um Schwätzperten-Fächer, die installiert wurden, um ernsthafte Wissenschaft in einem Meer von Blödsinn zu ertränken. Der prominenteste Vertreter der Schwätzperten-Fächer sind die Gender Studies, deren Angehörige nicht einmal Beiträge, die offenkundiger Blödsinn sind, erkennen.

In den Naturwissenschaften ist es der Klimawandelmafia in Zusammenarbeit mit Regierungsstellen in vielen Ländern gelungen, eine Dynamik des Opportunismus in Gang zu setzen, die es Forschern, die unter normalen Umständen nie ein Funding erhalten hätten, erlaubt, ein solches zu erhalten, einfach durch den Zusatz „Klimawandel“. Wer sich daran beteiligt, den Hoax vom menschengemachten Klimawandel zu verbreiten, dem ist eine staatliche Finanzierung seiner angeblichen Forschungsarbeiten ebenso sicher wie Geschenke in materieller (Zusatzgehalt durch Mitgliedschaft in Gremien, die den Klimawandel einschätzen sollen) und immaterieller Art (Nachfrage von Mainstreammedien und dergleichen) sicher. Der Gravy Train rollt, die Klimawandelindustrie ist ein Geschäft im Bereich von dreistelligen Milliardenbeträgen.

Wenn sich Organisationen, wie die institutionalisierte Wissenschaft zu ideologischen Gefängnissen entwickelt haben, deren Insassen Legitimationsdienste für Politdarsteller erbringen, und ansonsten die politischen Moden mit ihrer vermeintlichen Forschung bedienen, wenn also immer mehr institutionalisierte Wissenschaftler ein Interesse daran haben, den Zustand der Polit-Prostitution aufrecht zu erhalten, dann sind Abweichler, Querdenker, dann sind Wissenschaftler, also Individuen, die an einer Fragestellung arbeiten und eine Lösung für reale Probleme suchen, nicht nur störend, sie werden zur Gefahr, denn mit ihnen kommt die Drohung, die Pseudo-Wissenschaft der Andienenden bloßzustellen und damit die Gefährdung des eigenen (zumeist eingebildeten) Status und vor allem Einkommens.

Deshalb gibt es an Hochschulen Kontrollmechanismen, die in der Tradition des Abklopfens von Inhalten auf Wort- und Bedeutungstreue mit den Aussagen des Marxismus-Leninismus in DDR und Sowjetunion stehen. Blockwarte und selbsternannte Sauberfrauen (Es sind heute in der Mehrzahl Frauen mit einem „Gender“-Hintergrund) versuchen, die Einheitsfront der Gläubigen aufrechtzuerhalten und Zweifler gleich im Keim zu ersticken. Die folgende Geschichte von Peter Ridd, die er selbst zu einem Zeitpunkt erzählt hat, zu dem er den Rechtsstreit, den wir zum Einstieg in diesen Post thematisiert haben, noch nicht gewonnen hatte, ist ein Beispiel für das, was Dr. habil. Heike Diefenbach „Schließungsprozesse“ nennt, die letztlich in der Übernahme von Hochschulen durch Ideologen ihren Niederschlag finden und dazu führen, dass Wissenschaft langsam verendet.

Denken Sie bitte nicht, die Geschichte sei eine australische Geschichte, eine Geschichte, die sich in Deutschland nicht ereignen kann. Ein Beispiel: Vor einigen Jahren erhielten wir eine eMail von einem Wissenschaftler, dessen Kritik am Genderismus und dessen Arbeiten, in denen einige Mythen des Genderismus zerstört wurden, wir auf ScienceFiles besprochen hatten, positiv besprochen hatten, mit der Bitte, seinen Namen doch aus den „Tags“ zu nehmen, weil die Beiträge von ScienceFiles das Erste seien, was man im Internet finde, wenn man nach ihm suche. Darauf sei er von einer Genderista an einer Hochschule in Frankfurt, die den Namen eines großen Dichters und Philosophen trägt, angesprochen worden, verpackt in die unverhohlen ausgesprochene Drohung, dass derartige Beiträge seiner Karriere nicht förderlich seien.

Offenkundig ist es an bestimmten akademischen Anstalten nicht mehr möglich, seine Karriere zu verfolgen und ordentliche Forschung zu produzieren, die den ideologischen Vorgaben widerspricht. Wer es dennoch tut, öffentlichkeitswirksam tut, wer, weil das öffentlich-rechtliche Schweigekartell sein Meinungsmonopol verloren hat, die Öffentlichkeit erreicht und damit demonstriert, dass es noch Wissenschaftler in Deutschland gibt, dem drohen in Teilen der institutionalisierten Wissenschaft Konsequenzen, denn dort werden nur noch Ideologen geduldet. Wir haben den Tag übrigens nicht entfernt und dem Wissenschaftler empfohlen seine Karriere als Wissenschaftler zu verfolgen und nicht den Drohungen, dem Zwang, dem Gendergegeifer der Totengräber von Wissenschaft nachzugeben. Offenkundig hat er sich an den Rat gehalten und eine Stelle auf einer der ideologiefreien Inseln, die es hie und da auch in der institutionalisierten Wissenschaft, außerhalb von Frankfurt allerdings, noch gibt, gefunden.

Das war vor einigen Jahren. In der Zwischenzeit ist es an deutschen Hochschulen sicherlich nicht freiheitlicher geworden.

Nun zu Peter Ridd. Er erzählt seine Geschichte in Englisch. Das Video ist mit deutschen Untertiteln, die automatisch generiert werden, versehen worden.

Bei wem die Untertitel nicht erscheinen, der kann sie durch einen Klick auf Settings (das Rädchen), dann Subtitles/CC anklicken und „english (automated Subtitles) einstellen. Im nächsten Schritt nochmals Settings, „automated Subtitles“ -> Autotranslate anklicken und „German“ einstellen.

Der Beitrag erschien zuerst bei ScienceFiles hier




Warnte Hans Rosling vergebens?

Verlegt in vielen Sprachen, auch in Deutsch bei Ullstein 2018 , erhielt sein Buch enthusiastische Zustimmung. Lieferte es doch ein durchweg optimistisches, und trotzdem ungeschönt realistisches Weltbild aus statistisch gesicherten Belegen. Es ist ein wertvolles, weil aufklärendes Buch gegen eine medial verzerrte alarmistische Weltsicht. Es liest sich gut. Es bildet. Es erheitert. Wer es kürzer braucht, schaue in die informative Rezension von Kip Hansen unter:

https://www.eike-klima-energie.eu/2018/11/17/factfulness-eine-buchrezension/

Mahnte Rosling vergebens vor Panikmache? Ja, wenn man die globale Pandemie erkennt, die gerade auch von  schwedischen Eliten angezettelt, die Welt  infiziert. Sie trägt den Namen eines psychisch erkrankten skandinavischen Kindes „Greta Thunberg“.

Hans Rosling, der Professor für Internationale Gesundheit am schwedischen Karolinska-Institut, Arzt und erfahrener Bekämpfer von Infektionskrankheiten, ist leider zu früh verstorben, um gegen das Panikorchester seines Landsmädchens eingreifen zu können. Tun wir es, indem wir seine Mahnungen auffrischen. Er schreibt in „Urgency instinct“ salopp „ Panikmache“

  • tritt ein Problem auf, ist es das Erste eben nicht zu rufen „Der Wolf kommt“, sondern die Sachlage zu prüfen. Es geht nur im akuten Notfall um „Jetzt oder Nie“
  • Bestehe auf validen und detaillierten Daten. Wenn irgendetwas wichtig und dringlich ist, muss dazu auch eine Datengrundlage bestehen. Sei vorsichtig, wenn Daten relevant, aber ungenau sind, oder umgedreht. Es braucht beides!
  • Hüte Dich vor Horror-Darstellungen! Jede Vorhersage ist unsicher. Fordere Szenarien, wenn es „alternativlos“ heißt! Kommentar: Rosling forderte von Al Gore die Darstellung aller Klimaszenarien, was dieser mit seinem Motto: „ Wir müssen Furcht erzeugen“ verweigerte
  • Hüte Dich vor drastischen Aktionen! Frage nach deren Nebenwirkungen! Frage nach Erfahrungen damit!
  • Strebe ein stufenweises Herangehen mit parallelem Monitoring an!

Um Rosling nicht komplett zu vereinnahmen: er glaubt an den  menschengemachten Klimawandel in Form der AGW-Hypothese. Aber er ist als erfahrener Arzt klug genug, um zu erkennen, ob die Diagnose tragfähig ist.

„Unser Problem ist, dass wir nicht wissen, was wir nicht wissen, und selbst unsere Vermutungen basieren auf ungewissen und vorhersehbaren Verzerrungen.“

„Was ich für besonders bedenklich halte, ist der Versuch mit der Erfindung des Klimaflüchtlings Aufmerksamkeit zu erzeugen….Die Klimaaktivisten sind inzwischen leider überzeugt, dass der Zweck die Mittel heiligt, aber wer zu oft ruft“ der Wolf kommt“ setzt seine Glaubwürdigkeit und seinen Ruf als seriöser Klimaforscher aufs Spiel.

Die Rolle des Klimawandels zu überzeichnen und ihn mit Kriegen  und Konflikten , mit Armut und Migration in Zusammenhang zu bringen bedeutet auch, andere wichtige Ursachen dieser globalen Problematik zu ignorieren und unsere Fähigkeiten, diesen zu  begegnen, zu schwächen.

Wir dürfen nicht in eine Situation geraden, in der wir einander nicht mehr zuhören. ….

Wer sich seriös mit dem Klimawandel  befassen will, muss immer zwei Dinge im Kopf behalten. Man darf nie zum Opfer der eigenen frustrierten und alarmierenden Botschaften werden . Man darf einerseits die Augen  vor den Worst-Case-Szenarien nicht verschließen, muss aber andererseits auch um die Unsicherheiten der Datenlage wissen. Und wer anderen Dampf machen will, muss trotzdem eine kühlen Kopf behalten, um kluge Entscheidungentreffen zu können und seine Glaubwürdigkeit nicht aufs Spiel zu setzen…

Der Klimawandel ist dafür zu wichtig. Er verlangt systematische Analyse, gut durchdachte Entscheidungen , abgestufte Aktionen und sorgfältige Bewertungen.

Mit einem Wort: Vernunft.

 




Akute Erklärungsnot: Die Grundrechenarten sind die schlimmsten Feinde des IPCC

Im “Summary for Policymakers” findet sich keine Inhaltsangabe für eine überschlägigen Suche und auch keine vernünftige Zusammenfassung der Ergebnisse. Es drängt sich erneut der Eindruck auf, dass  das IPCC gar kein Interesse daran hat, der Öffentlichkeit allgemeinverständliche Ergebnisse zu präsentieren. Ein Blick auf die deutsche Zusammenfassung hilft leider auch nicht weiter, um direkt an die Kernaussagen zu gelangen. Verlassen wir uns hier also einmal auf die öffentlich-rechtlichen Medien, deren Auftrag eine seriöse Informationen der Zwangsbeitragszahler ist, Zitat von tagesschau.de, Stand: 08.08.2019 um 10:49 Uhr mit Hervorhebungen:

Dürren, Hitzewellen, Wasser- und Nahrungsmangel: In seinem neuen Sonderbericht zum Klimawandel zeichnet der Weltklimarat ein düsteres Zukunftsbild und fordert eine dringende Kehrtwende bei der Landnutzung.

Der Weltklimarat (IPCC) hat seinen neuen Sonderbericht zur Erderwärmung veröffentlicht und darin die dramatischen Auswirkungen des Klimawandels beschrieben. Aus dem Bericht geht hervor, dass der weltweite Temperaturanstieg über den Landmassen bereits 1,53 Grad erreicht hat. Unter Berücksichtigung der sich langsamer erwärmenden Meeresflächen sei die globale Temperatur insgesamt um knapp 0,9 Grad gestiegen. Verglichen wurden die Zeiträume 1850 bis 1900 und 2006 bis 2015.”

Zunächst fällt einmal auf, dass es bei den öffentlichen Verlautbarungen zur Globaltemperatur NST bisher KEINE Aufteilung Land/Meer Unterscheidung gegeben hatte, Vergleichsdaten dazu also kaum öffentlich sind. Vermutlich hat man jetzt diese Landtemperatur aus der NST ausgegliedert, um analog zum ominösen 97%-Konsens (=Rekursion der 100% Anfangsmenge auf eine Teilmenge) einen medienwirksamen „Aufhänger“ zur Befeuerung der globalen Klimahysterie generieren zu können. Weiterhin wäre hier auch noch die grob unwissenschaftliche Darstellung der betreffenden Temperaturwerte zu nennen, denn bei direkten wissenschaftlichen Zahlenvergleichen MUSS immer die GLEICHE Anzahl von Nachkommastellen angegeben werden:

  • Temperaturanstieg über den Landmassen bereits 1,53 Grad-
  • -globale Temperatur insgesamt um knapp 0,9 Grad gestiegen-

Das ist also schon mal ganz schlecht. Aber wir können uns ja wegen der Chancengleichheit auf eine Nachkommastelle einigen und mal ein bisschen Kopfrechnen, vielleicht wird es dann ja besser. Wir wissen, dass die Erde zu 70% mit Wasser bedeckt ist. Und dann rechnen wir mal auf Grundlage der nachfolgenden Beziehungen los:

Landfläche       0,3 Fläche @1,5 Grad @ 0,3F    (1)

Gesamtfläche   1,0 Fläche @0,9 Grad @ 1F       (2)

Meeresfläche  0,7 Fläche @X Grad @ 0,7F       (3)

Diese Beziehungen (1) bis (3) können wir dann folgendermaßen als Gleichung ausdrücken:

1,0 * F * 0,9° = 0,3 * F * 1,5° + 0,7 * F * X°

Wir teilen nun beide Seiten  durch „F“ und erhalten:

1 * 0,9° = 0,3 * 1,5° + 0,7 * X°

Diese Gleichung lösen wir nach „X°“ auf und erhalten:

X° = (0,9° – 0,3 * 1,5°) / 0,7 = 0,64° Temperaturanstieg über den Ozeanen

Probe: 1,5° * 0,3 + 0,64° *0,7 = 0,9°

Ergebnis: Der Temperaturanstieg über den Ozeanen betrug also 0,6 Grad C.

Daraus ergibt sich nun aber wiederum ein Problem für die Klimasensitivität von CO2: Der CO2-Gehalt der Atmosphäre war von vorindustriellen 280 ppm auf aktuell etwa 415 ppm angestiegen. Für eine grobe Abschätzung rechnen wir mal mit einem Anstieg von 50%. Weiterhin GLAUBEN wir für die nachfolgende Berechnung mal an einen alleinigen CO2-Klimaantrieb und vernachlässigen den logarithmischen Zusammenhang zwischen CO2-Gehalt und Temperatur. In einer einfachen linearen Abschätzung würde ein CO2-Anstieg von 50% dann die Hälfte der CO2-Klimasensitivität [°C/2xCO2] betragen, also:

Temperaturanstieg über den Landmassen = 1,5 Grad C=> Klimasensitivität CO2= 3 [°C/2xCO2]

Temperaturanstieg über den Ozeanen = 0,6 Grad C       => Klimasensitivität CO2= 1,2 [°C/2xCO2]

Globaler Temperaturanstieg = 0,9 Grad C                     => Klimasensitivität CO2= 1,8 [°C/2xCO2]

Aus den aktuellen Zahlen des IPCC ergibt sich folglich eine sehr unterschiedliche CO2-Klimasensitivität für Landmassen und Ozeane. Daraus leitet sich schon mal die Frage ab:

Wie kann das CO2seine unterschiedliche Klimawirkung steuern, die offenbar invers zu einer behaupteten Wasserdampf-Verstärkung verläuft?

Also hilft es den IPCC-Alarmisten auch nicht weiter, dass sie jetzt die Landmassen ausgegliedert hatten, weil die Erdoberfläche nun mal zu 70% aus Wasser besteht. Eine Verdoppelung des CO2-Anteils in der Atmosphäre würde demnach folgenden Temperaturanstieg ergeben:

3,0°C * 0,3 + 1,2°C *0,7 = 1,7°C  (die Zahlen für KS-CO2in die Proberechnung oben eingesetzt)

Anmerkung: Dieses Ergebnis stimmt mit der aus dem globalen Temperaturanstieg abgeleiteten CO2-Klimasensitivität von 1,8 [°C/2xCO2] überein. Der Unterschied von 0,1°C mag die Trolle nähren…

Das Ergebnis heißt also: Wir können so weitermachen wie bisher und halten das 1,5°-Ziel ein!

Anmerkung: Aufgrund deslogarithmischen Zusammenhangs zwischen CO2-Gehalt und Temperatur ist die Klimawirkung der zweiten 50% CO2geringer als die der ersten.

Diese Berechnung hat auch Auswirkungen auf ein globales CO2-Budget:

Bei einer durchschnittlichen Lebensdauer von etwa 100 Jahren für atmosphärisches CO2beträgt das jährlich erneuerbare CO2-Budget 30 Gigatonnen (=3.000 Gt/100 Jahre)  für einen stabilen Temperaturanstieg um 1,5 Grad – WENN wir denn ÜBERHAUPT an eine Klimawirksamkeit von CO2GLAUBEN wollen (was dem Autor sehr fern liegt).

Selbst wenn die ganze Welt also an einen alleinigen CO2-Klimaantrieb glauben würde, müsste sich eine globale Erwärmung von 1,5°C bei einem jährlichen CO2-Ausstoß von 30 Gigatonnen von selbst stabilisieren. Die beabsichtigte globale Dekarbonisierung muss also ganz andere Zielehaben…




Temperaturmessung: Rekord unbrauchbar

Wurde sie gerade noch einmal abgewendet, diese schreckliche Klimakatastrophe? Zumindest in Lingen? Das war – zur Erinnerung – bei jener Hitzewelle vor kurzem bekanntlich Deutschlands heißester Ort. Eine Station des Deutschen Wetterdienstes registrierte am 25. Juli der Wert von 42,6 °C, der von Medien und Potsdamer Klimakatastrophisten als Vorstufe zur Wetterhölle erklärt wurde.

Doch jetzt hat der private Wetterdienst »Wetter online« diesen Wert zurückgezogen: Rekord unbrauchbar. »Bezüglich des Standorts gibt es aber so viel berechtigte Kritik, dass Wetter online diesen Rekordwert nicht anerkennt.«

Historisch sei die Hitze im letzten Julidrittel ohne Zweifel gewesen, bekundet Wetter online. In Geilenkirchen wurde der alte Rekord von 40,3° am 24. Juli mit 40,5° knapp überboten. Danach hatten verschiedene Stationen mehr als 40° gemeldet. »So etwas hat es in Deutschland seit Beginn der regelmäßigen Wetteraufzeichnungen nicht gegeben.«

In Duisburg und Tönisvorst zeigte das Thermometer 41,2° an. Lingen kam dann in die Schlagzeilen mit 42,6°. Doch diese Messstelle in Lingen erfüllt jetzt nicht mehr den Standard der Weltorganisation für Meteorologie WMO. Denn es ist nicht egal, wo und wie das Thermometer steht und die Umgebung beschaffen sein soll. Der Messfühler muss abgeschattet sein, so dass er nicht von der Sonnenstrahlung oder der Wärmeabstrahlung eines Mauerwerkes beeinflusst wird. Er muss zudem ausreichend belüftet werden.Doch gerade im Umfeld der Station in Lingen wuchsen die Büsche in den vergangenen Jahren so, dass rund um die Wetterstation eine Wärmeinsel entstand, in der Wärme gestaut wurde. Höhere Temperaturen sind also nicht weiter verwunderlich. Die Station in Lingen geriet schon in den vergangenen Jahren in die Kritik, weil der Unterschied der Messwerte zu den umliegenden Stationen von Jahr zu Jahr größer wurde. Wetterunternehmer Jörg Kachelmann kritisierte den Standort der Station schon seit längerem; er wusste um den Effekt der Wärmeinseln.

Auch der Deutsche Wetterdienst DWD plante seit einigen Jahren, die Station zu verlegen. Allerdings fürchtet der Dienst die politischen Folgen einer solchen Verlegung. Wetter online: »Erkennt man den Wert nicht an, rücken »Klimawandelleugner« auf den Plan und erklären, dass es nach dem Medienhype gar nicht so heiß gewesen sei. Wird er für ungültig erklärt, wären wohl schnell unangenehme Fragen zur Standardqualität im Allgemeinen aufgetaucht.«

Symbolbilder: Messstationen etwas außerhalb der Norm

Denn Temperaturmessungen sind nach einem alten Spruch von Meteorologen das größte Problem dieser Zunft. Wo wird gemessen? Jeder kennt das: Steht in einem Zimmer das Thermometer nah an einem Ofen, ist es wärmer als in der Ecke gegenüber. Wo also ist die wahre Zimmertemperatur?

Die Vorschriften für offizielle Temperaturmessungen sehen einen Standort der Wetterhäuschen zwei Meter über dem Boden auf einer freien Fläche vor. Der Messfühler muss abgeschattet sein, ein Ventilator die Luft durchwedeln. Das Thermometer soll nicht die eigene Wärme messen, sondern die der Luft.

Besonders delikat sind Vergleiche der Temperaturentwicklung über vergangenen Jahrzehnte oder gar Jahrhunderte hinweg. Messtechnik ändert sich, ebenso wandeln sich die Gegebenheiten rund um die Messstationen. Häuser werden gebaut oder Wände hochgezogen, die die Temperaturen in der Umgebung verändern. Häufig muss der Wetterdienst auch den Standort seiner Station verändern. Messstationen mussten umgestellt werden, weil die Ableser laut Protokoll des Wetterdienstes unfähig waren, regelmäßig die Werte abzulesen und weiterzugeben.So wurde die Station in Bad Dürkheim, in der Rheinebene nahe dem Pfälzer Wald gelegen, mehrfach verlegt. »Am 13.9.1977 wurden die Beobachtungen an der jetzigen Station wegen Unfähigkeit des Beobachters eingestellt.« Zwei Monate später wurde ein neuer Beobachter gefunden und die Station wieder entsprechend verlegt. Da auch dieser Beobachter ausschied, ruhte die Station vom vom 21.10.1987 bis 14.4.1988. Die Station meldete rückgängige Temperaturen. Es ist also ein sehr schwieriges Unterfangen, Temperaturmesswerte über viele Jahre zu vergleichen. Meteorologen versuchen daher, stark schwankende Daten durch statistische Verfahren zu »homogenisieren«, etwas böse ausgedrückt: passend zu machen.

Wie schwierig, ja unmöglich es ist, die Entwicklung von Temperaturen über die letzten 100, 200 Jahre sogar auf die Nachkommastelle genau anzugeben, zeigte einst die wichtige Arbeit von Michael Limburg, der als Ingenieur im Bereich der Messtechnik und Fehlerstatistik gearbeitet und die entsprechenden Erfahrungen gesammelt hat: »Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme« lautete der etwas sperrige Titel.

Limburg ging in seiner Dissertation der Frage nach, ob die meteorologischen Daten der vergangenen 150 Jahre genau genug sind, um den Verlauf der »Globalen Mitteltemperatur« auf 1/10 Grad Celsius genau zu berechnen. Dieser Verlauf spielt in der aktuellen Klimadebatte eine wichtige Rolle; belegen die einen damit doch, dass es wärmer, die anderen, dass es kälter wird.

Ausriss aus der LVZ zur Untersagung einer Klimafachtagung durch Dekan Haase, wg. Teilnahme Limburg

Doch die wichtige Frage ist: Lässt sich eine solche Aussage überhaupt treffen? Satelliten vermögen heute sehr genau alle möglichen Wetterdaten wie Temperaturen der verschiedenen Oberflächen zu messen. Sie gibt es allerdings erst seit etwa knapp 40 Jahren. Davor beruhen die Temperaturangaben auf Messungen unterschiedlicher Messstationen. Bei denen hängt es sehr davon ab, wo und wie die Thermometer angebracht sind. Über einer Wiesenfläche ergeben sich andere Temperaturen als über Asphaltflächen. Ziemlich schwierig, wenn man sehr unterschiedlich zustande gekommene Temperaturaufzeichnungen mit vielen dubiosen Angaben miteinander vergleichen und Trends herauslesen will.Das Ergebnis der Dissertation von Limburg:

»Dabei kam ich zu dem eindeutigen Ergebnis, dass die verwendeten historischen Wetter-Messdaten dies nicht erlauben. Ich fand heraus, dass die bei der Berechnung der globalen Mitteltemperatur unvermeidliche verbleibende Unsicherheit mindestens genau so groß ist wie die ganze offiziell angegebenen Änderung über 150 Jahre, wahrscheinlich aber sogar ein Vielfaches beträgt. Dies ergibt sich zwangsläufig bei Anwendung aller gängigen und vielfach erprobten Regeln der Messtechnik und der statistischen Fehlerrechnung.«

Dieses Ergebnis schreckte die prüfenden Professoren erheblich auf. Limburg weiter: »Die Arbeit stellte ja indirekt wesentliche Aussagen zur angeblichen ›menschengemachten Klimaerwärmung‹ und damit einen der Hauptgründe für die Förderung der sogenannten ›Erneuerbaren Energien‹ infrage. Für beide Themenkomplexe gibt es jedoch höchst umfangreiche Fördergelder. Vermutlich befürchteten die Verantwortlichen diesbezügliche Nachteile, falls sie einer Arbeit Platz und dem Autor einen akademischen Grad zugestanden, der dem bisherigem Dogma – und sei es auch nur indirekt – widersprach.«

Man kann sich vorstellen, wie der Blutdruck der Herren Prüfprofessoren hochschnellte. Die erste Kommission, die die Promotionsarbeit prüfen sollte, trat tatsächlich geschlossen zurück. Begründung: »Weitgehende politische Motivationder Arbeit«.

Um es kurz zu machen: Die Arbeit wurde nach einer hanebüchenen Odyssee schließlich abgelehnt. Es darf nicht belegbar sein, was nicht ins politische Konzept passt.

Nur die Entwicklung der Temperaturen über Jahrhunderte hinweg wird nach wie vor so genau angegeben, wie dies messtechnisch überhaupt nicht möglich ist. Doch ist sie ist Grundlage jener wilden These der Klimakatastrophe, auf der moderne Ablasshändler ihre Geschäfte aufbauen.

Der Beitrag erschien zuerst bei TE hier




KLEINE KLIMAKUNDE – Grüne Klimakiller (1)

Ja, das Wort ist Unfug. Klima kann man nicht killen, es ist und bleibt eine Wetterstatistik. Es klingt aber so schön reißerisch und vielleicht lockt es Leser an, die nur an Kohle, Öl und Gas denken, wenn jemand „Klimakiller“ sagt. Hier geht es aber um die Wirkung der gar nicht reinen Ökoenergien auf das Klima.

Die menschliche Nutzung der Wind- wie auch der Sonnenenergie ist ein Eingriff ins Ökosystem. Energie kann nicht erzeugt, nur gewandelt werden. Jede Naturenergie wird ohne menschlichen Eingriff zu 100 Prozent von der Natur genutzt, jeder Eingriff stört das ursprüngliche energetische Gleichgewicht.Solar- und Windenergie sind das Ergebnis der Sonneneinstrahlung, die wiederum einem kernphysikalischen Fusionsprozess der Sonne entspringt. Die Strahlung sorgt für direkte wie auch indirekte Energiezufuhr über Luftdruckunterschiede und Wasserkreisläufe. Sonnenenergie sorgt für die Erwärmung des Bodens, die Fotosynthese und die Verdunstung von Wasser, der Wind ebenfalls für Verdunstung und zusätzlichen Wärmeentzug.

Sobald der Mensch eingreift und Energie „abzweigt“, fehlt sie der Natur an anderer Stelle. „Jeder Eingriff in dieses bodennahe Ausgleichs- und Kühlsystem muss zu Änderungen im Wärmehaushalt der betroffenen Regionen führen“, schreiben die „Energiedetektive“ aus Graz in ihrer Studie 1). Die Entnahme von Sonnen- und Windenergie ändert natürliche Klimaprozesse. Windkraftanlagen beeinflussen die natürliche Ausgleichsströmung zwischen Zonen verschiedenen Luftdrucks, die Energie fehlt im bodennahen Kühlsystem und ändert damit auch die Wasserbilanzen. Sie greifen in das Lüftungssystem der Natur ein.

Wie das im Detail geschieht, durch welche sich überlagernden Prozesse, die sich kompensieren, aber auch verstärken können, ist noch nicht eindeutig geklärt. Es gibt eine dünne Quellenlage, die verschiedene Theorien zeigt.
Die „Energiedetektive“ gehen davon aus, dass die geminderte Energie des Windes nach der Windkraftanlage (WKA) den Boden weniger kühlt und weniger Feuchtigkeit verdunsten lässt. Weniger Verdunstung und weniger Wolkenbildung, weniger Regen in weiterer Entfernung wären die Folge. In Summe würde die Sonneneinstrahlung zunehmen, was die Erwärmung wiederum fördert.Andere gehen davon aus, dass durch die Drehung der Rotoren die laminare Schichtung der strömenden Luft aufgebrochen werde. Es erfolgt eine Umwandlung in Elektrizität mit einem Wirkungsgrad von etwas über 40 Prozent. Physikalisch bedingt unterliegt der maximale theoretische Wirkungsgrad der Windkraftanlagen der so genannten Betz-Grenze von 59 Prozent, hinzu kommen die praktischen Reibungs-, Wärmeverluste, Umwandlungs- und Leitungsverluste.

Die gegenseitige Windverschattung mehrerer Anlagen in Windindustrieparks mindert zusätzlich den rechnerischen möglichen Ertrag. Ein Teil der umgewandelten Energie wird sofort über die Verlustwärme von Generator und – sofern vorhanden – Getriebe und der Trafostation am Boden an die Umgebung abgegeben.

Der nicht umgewandelte Teil der Energie sorge für Verwirbelung. Es bilden sich so genannte Wirbelschleppen, die man sich als horizontale Tornados (geringer Intensität) vorstellen kann, die noch kilometerweit Bestand haben. Die vertikale Durchmischung der Luft bewirke einen Transport der feuchten Luft aus den bodennahen Schichten in höhere. Dabei kann es zur Auskondensation der Luftfeuchte in größerer Höhe durch den niedrigeren Druck kommen, was dann, wie auf dem Foto zu sehen, die Wirbelschleppen sichtbar macht.

Dazu komme der thermische Effekt. Durch den Luftabtransport aus bodennahen Schichten würde dem Boden Luftwärme entzogen, die feuchte Luft ziehe gleichzeitig Verdunstungswärme ab. Abkühlung und geringere Feuchtigkeit verschlechterten die Bedingungen für das Pflanzenwachstum. Die anthropogen verursachte Wolkenbildung sorge als atmosphärischer Wasserdampf für die Zunahme dieses stärksten und häufigsten Treibhausgases.

Eine weitere Theorie geht davon aus, dass die Verwirbelung der Luft zu deren Erwärmung führt und die Ablenkung nach oben sogar zu einer Verwirbelung und Zerstreuung von Wolkenfeldern führen kann.

Im Wald haben Windkraftanlagen unzweifelhaft besonders schädigenden Einfluss. Zunächst wird der Wald durch den Einschlag als CO2-Senke und Wasserspeicher dezimiert. Erosion und Auswaschung des ehemaligen Waldbodens sowie Versandung führen zu schnellerem Wasserabfluss, eine Versteppung der gerodeten Flächen droht.Hinzu kommt die unterirdische Bodenversiegelung durch die mehrere tausend Tonnen schweren Stahlbetonfundamente, die mehr als drei Meter mächtig sind. Der feuchte Boden darüber trocknet aus, das Wasser kann nicht versickern und an der Grundwasserbildung teilnehmen. Der gleiche Effekt tritt auf den verdichteten Zufahrtsstraßen und Montageplätzen auf, die in der Ausdehnung die Fundamentflächen der Anlagen weit übersteigen. Desweiteren führen die Erdkabel für die Stromableitung zu örtlicher Austrocknung des Bodens. Die klimaregulierende Wirkung des Waldes wird insgesamt reduziert, der natürliche Widerstand gegen Extremwetter verringert sich.

Der Dürremonitor des Helmholtz-Zentrums für Umweltforschung zeigt die verschiedenen Trocknungsgrade des Bodens in Deutschland im Oberboden und in etwa 1,8 Metern Tiefe an. Offensichtlich ist, dass das Gebiet der trockensten Böden etwa deckungsgleich mit der räumlichen Verteilung von Windkraftanlagen ist.
Korrelation ist nicht Kausalität, der Bezug scheint dennoch augenfällig. Deckungsgleichheit mit der Niederschlagsverteilung besteht hingegen, abgesehen vom Osten des Landes, nicht.

Die Erkenntnisse sind nicht neu. Die Wirkung von Windkraftanlagen auf die Bodenfeuchte wurde bereits vom Wissenschaftlichen Dienst des Bundestages (WD8-3000-057/13) beschrieben. Dass dies öffentlich kaum kommuniziert wird, ist Ergebnis von Lobbyarbeit und Energiewendeerfolgsjournalismus in unseren Medien.
Ebenso korrelieren der Ausbau der Windenergie und die Anzahl der Tornadomeldungen in Deutschland 1). Wachsen mehrere Windindustrieparks räumlich zusammen, wie zum Beispiel in der Uckermark, kann man davon ausgehen, dass die Beeinflussung des Mikroklimas zu einer Änderung des Regionalklimas führt.

Klima ist mehr als nur Temperatur

Die durchschnittlichen Windgeschwindigkeiten scheinen zu sinken. Ursache könnten die vielen Windkraftanlagen an der Nordseeküste und in der norddeutschen Tiefebene sein. Wurden in den 60er Jahren in Osnabrück noch im Jahresdurchschnitt 3,7 Meter pro Sekunde Wind gemessen, sind es heute nur noch 3,2 Meter pro Sekunde 2). Dies könnte die Verdunstung mindern, in heißen Sommern jedoch auch die Abkühlung und damit Extremtemperaturen begünstigen.Bei der Offshore-Windkraftnutzung beträgt die Luftfeuchte am Fuß der Anlage, also auf Wasserspiegelhöhe einhundert Prozent. Dementsprechend werden größere Mengen Feuchtigkeit in höhere Luftschichten befördert, was mehr als an Land die Wolkenbildung und damit die Bildung des Treibhausgases Wasserdampf fördert.

Die Frage, ob die Nutzung der Windenergie „gut“ ist fürs Klima, lässt sich nur mit „nein“ beantworten. Sie kann die Bildung von Treibhausgas (Wasserdampf) fördern, für Austrocknung des Bodens sorgen und damit für verringerte Fotosynthese als CO2-Senke. Bezüglich der quantitativen Auswirkungen gilt auch hier das Wort von Paracelsus: Die Dosis macht`s. Der bisherige massenhafte Ausbau und der geplante exzessive Zubau zu den schon vorhandenen fast 30.000 Anlagen im Land steigern die negativen Umwelt- und Klimawirkungen.

Jede Windkraftanlage muss durch ein fast 100-prozentiges konventionelles Backup im Netz abgesichert werden, das wiederum Klimawirkung hat. Der Lastfolgebetrieb konventioneller Anlagen in nicht optimalen Betriebsbereichen erhöht deren spezifische Emissionen pro Kilowattstunde. Der „Wasserbetteffekt“ über den europäischen Emissionshandel (Windstrom verdrängt Emissionszertifikate ins Ausland und hält deren Preis niedrig) kommt hinzu.

Verhinderte Forschung

Zur genaueren Bewertung der Folgen der Windenergienutzung bräuchte es Messnetze im Bodenbereich für Aufzeichnungen von Temperatur und Luftfeuchte und deren Betrieb und Auswertung über längere Zeiträume. Zunächst bräuchte es aber den politische Willen und das Geld dazu, dies untersuchen zu lassen. Auf eine Anfrage der FDP-Bundestagsfraktion zum massenhaften Insektensterben an den Rotorblättern der Windkraftanlagen antwortete Umweltministerin Schulze, dass sie keinen Handlungsbedarf sehe. Man möchte die Welt, wie sie gefällt. Oder um es mit Schopenhauer zu sagen: „Was dem Herzen widerstrebt, lässt der Kopf nicht ein.“Mit den grünen „Klimakillern“ verhält es sich genauso. Viel einfacher ist es für Politiker und Journalisten, fossile Verbrennungsprozesse allein für Klimawandel und das Elend dieser Welt verantwortlich zu machen.

Was bewirkt exzessive Windenergienutzung? Zugestellte Landschaften, ihrer Weite und ihrer Ruhe beraubt, Windindustriegebiete anstelle Natur. Der Blick darauf ist subjektiv. Manche verdienen an jeder Drehung des Rotors und sogar dann, wenn er steht, weil der Strom nicht abgenommen werden kann. Andere leiden unter Infraschall, haben Schlafprobleme, Bluthochdruck und den Wertverfall ihrer Immobilie. Auch hier wird die Gesellschaft gespalten.

Die Auswirkungen auf die Umwelt sind erheblich, auf Menschen, Flora und Fauna. Diese Themen sind an vielen Stellen schon beschrieben, zum Beispiel hier, hier und hier.

Windkraftanlagen beeinflussen das regionale Wetter und wirken sich langfristig auf das Klima aus. Dieses Feld der Forschung ist vor allem hinsichtlich seiner quantitativen Auswirkungen noch ausgesprochen unterbelichtet. Sollten Leser dazu weitergehende Erkenntnisse oder Quellen haben, nehmen wir diese gern entgegen.

In Teil 2 geht es um die Wirkungen der Photovoltaik auf den Treibhauseffekt.

1) Dieser Beitrag entstand unter maßgeblicher Verwendung einer ausführlichen Studie „Ermittlungsakte Energiewende – Nebenwirkungen auf Klima und Umwelt“
vom „Energiedetektiv“ aus Graz. Hier der Weg zur Studie.

2) donnerwetter.de, Pressemitteilung vom 29.5.2015

Der Beitrag erschien zuerst bei TE hier




Waldsterben 2.0!

Nach der drohenden Klimakatastrophe wird nun ein neues Fass von Klimaschützern aufgemacht. Das Waldsterben 2.0. Dazu einige Fakten.

Deutschland ist das waldreichste Land Mitteleuropas. Aktuell sind rund 11,4 Mio. Hektar mit Wald bedeckt. Das entspricht knapp einem Drittel der Gesamtfläche Deutschlands. Nach der Entwaldung im Mittelalter nimmt seit etwa 1850 die Waldfläche in Deutschland stetig zu.

Waldfläche-Deutschland

Dank einer nachhaltigen Bewirtschaftung hat die Waldfläche trotz einer intensiven wirtschaftlichen Nutzung seit dem 2. Weltkrieg stetig zugenommen. Auf dem Fundament des Bundeswaldgesetzes ist die Waldfläche in den letzten 50 Jahren um mehr als 1,5 Mio. ha gewachsen. Eine Fläche, die mehr als 2 Mio. Fußballfeldern entspricht.

Zwischen 1992 und 2008 ist die Waldfläche in Deutschland „pro Jahr durchschnittlich um 176 Quadratkilometer (17.600 ha) gewachsen“, meldet das Statistische Bundesamt in Wiesbaden. Das entspricht pro Jahr in etwa der Fläche der Stadt Karlsruhe. Oder aber der Fläche eines Quadrates mit 13 km mal 13 km Kantenlänge.

In den zehn Jahren von 2002 bis 2012 hat der deutsche Wald um mehr als 50.000 ha an Fläche zugelegt. Einer Fläche, die mehr als 70.000 Fußballfeldern entspricht. Das Volumen der Waldbäume hat zwischen 2002 und 2012 um 220 Mio. m3 zugenommen – und das bei einer deutlich intensivierten Nutzung.

Nicht nur die Waldfläche wächst, sondern auch das Waldvolumen. Heute wächst mehr Wald zu, als entnommen wird und abstirbt und damit steigt auch der Holzvorat in deutschen Wäldern an. Der Holzzuwachs im deutschen Wald beträgt gemäß Waldbericht der Bundesregierung von 2017 durchschnittlich 11,2 m³ je Hektar und Jahr.

csm_BMEL_BWI3_WEHAM_Broschuere_RZ02_web_Abb15_eef13c526f2

Bzw. insgesamt 121,6 Mio. m³ pro Jahr. Seit 1970 wurden die Wälder deutlich voratsreicher. Die Gründe für den hohen Zuwachs sind vielfältig. Eine verlängerte Vegetationsperiode, vermehrte Stickstoffeinträge aus der Luft, eine erhöhte CO2-Konzentration in der Luft und die großen Vorräte tragen zu der enormen Wuchsleistung der Wälder bei. Nur etwa 2/3 des Zuwachses wird dabei wirtschaftlich genutzt.

So zeigen auch Satellitendaten, dass Deutschland in den letzten 3-4 Jahrzehnten grüner geworden ist.

Deutschland-Gruen

Im europäischen Vergleich ist Deutschland nicht nur eines der am waldreichsten Länder, es wächst auch am meisten Holz hinzu.

Waldzuwachs

Laut einer Uno-Studie von 2011 sind die Wälder in Europe in den vergangenen 20 Jahren deutlich gewachsen. Laut dem in Oslo vorgestellten Bericht „Zustand der europäischen Wälder 2011“ wuchsen in den vergangenen 20 Jahren die Waldflächen in allen Regionen zumindest etwas – mit Ausnahme von Russland. Insgesamt habe sich der Wald durch Aufforstung und natürliches Wachstum um rund 17 Millionen Hektar Wald ausgedehnt. Das der Wald auch in Deutschland an Fläche gewinnt, hatte damals auch die Bundesagrarministerin Ilse Aigner (CSU) bei der Präsentation des Waldschadensberichts betont: In den vergangenen 40 Jahren wuchs die Fläche um rund zehn Prozent oder eine Million Hektar.

Im deutschen Wald stehen jetzt ca. 90 Mrd. Bäume, das sind über 1.000 Bäume pro Einwohner.

Einen überdurchschnittlichen Waldanteil haben die Bundesländer Rheinland-Pfalz und Hessen, gefolgt vom Saarland, von Baden-Württemberg, Bayern, Brandenburg mit Berlin und Thüringen.

infografik_13293_waldflaeche_in_den_bundeslaendern_n

Auch in der Länderbetrachtung nimmt die Waldfläche nahezu überall weiter zu. Das zeigen die Auswertungen der Bundeswaldinventur. Der deutsche Wald im Ganzen wächst seit Jahrzehnten. Und das sowohl, was die Gesamtfläche betrifft, als auch was das Volumen der Bäume angeht. Das gesamte Volumen der Waldbäume erreicht inzwischen Rekordwerte: 3,66 Milliarden m3 – und das ist noch nicht einmal alles, denn es kommt noch das sehr dünne Holz der Äste dazu, das traditionell nicht mitgezählt wird. Selbst der Vorrat an abgestorbenen Bäumen nimmt zu, und zwar deutlich: auf jetzt über 200 Mio. m3.

So ist auch nicht weiter verwunderlich, wenn der Wald in der Fläche und im Volumen wächst, so gibt es darunter auch mehr abgestorbene Bäume und auch mehr Bäume die durch Stürme, oder Trockenheit und Schädlinge Schaden erleiden können. In Naturwäldern liegt aus diesem Grund auch viel Bruchholz und Totholz herum.

Besonders stark zugelegt haben die dicken Bäume. Das hängt auch damit zusammen, dass die Bäume in unseren Wäldern im Durchschnitt immer älter und kräftiger werden. Und das trotz „sauren Regen“ und „Klimawandel“.

In ganz Deutschland bedecken die über 100-jährigen Waldflächen inzwischen mehr als 2,6 Mio. ha – eine Zunahme um mehr als 17 % seit 2002! Zum Vergleich: Das ist eine Fläche, die wesentlich größer ist als das ganze Bundesland Hessen (mit einer Gesamtfläche von etwa 2,1 Mio. ha = 21.000 km2).

Besonders die Flächen der sehr alten Bäume (mit einem Alter von über 160 Jahren) nehmen seit Jahrzehnten stark zu. Die bundesweiten Walderhebungen zeigen zwischen 2002 und 2012 eine Zunahme dieser alten Baumriesen um über 45 % auf jetzt 350.000 ha.

Nach den Ergebnissen der dritten Bundeswaldinventur 2011/2012 sind dabei rund 36 % der Waldfläche als sehr naturnah (14,5 %) oder als naturnah (21,3 %) einzustufen.

Auch für Klimaschützer sollte es sehr erfreulich sein, dass mit dem Holzvolumen der Bäume auch die Kohlenstoff-Menge immer mehr zunimmt, die in unseren Wäldern gespeichert ist: Etwa 2 Milliarden Tonnen Kohlenstoff stecken im deutschen Wald, eine unglaubliche Menge! In Kohlendioxidmengen umgerechnet heißt das: Die heutigen Wälder haben der Atmosphäre im Laufe ihres Wachstums über 7 Milliarden Tonnen CO2 entzogen, und jedes Jahr schlucken sie weitere 50 Mio. Tonnen. Dazu kommen noch die Kohlenstoffvorräte im genutzten Holz. Aktuell werden der Atmosphäre jedes Jahr 150 Mio. Tonnen Kohlendioxid entzogen oder bleiben ihr erspart – dank Wald und Holznutzung in Deutschland.

Allen Unkenrufen zum Trotz stirbt der deutsche Wald also nicht. Ganz im Gegenteil. Nirgendwo in Europa geht es dem Wald so gut wie in Deutschland und nirgends in Europa bindet der Wald durch die hohen Zuwächse so viel CO2 wie in Deutschland. Allen voran die „Klimaschützer“ machen aber ein neues Fass Waldsterben 2.0 auf. Siehe z.B. den Kampf um den Hambacher Forst und die jetzige Debatte um das Waldsterben 2.0 infolge Klimawandel. Hier werden dann insbesondere Fichtenmonokulturen gezeigt, die anfällig für Sturmschäden und Trockenheit und Insektenbefall sind und dies wird dann dem Klimawandel in die Schuhe geschoben. Dabei handelt es sich hier um Fehler der Vergangenheit, welche die Holzwirtschaft gemacht hat. Nach dem 2. Weltkrieg wurde viel Holz gebraucht und vor allen Fichten wurden nach der Rodung neu angepflanzt. Nach dem 2. Weltkrieg ließen England und Frankreich in Deutschland Wälder als Reparationsleistung für eigene Schäden abholzen. Die deutsche Forstverwaltung forstete danach mit Hilfe von Frauen wieder auf, vor allen schnell wachsende Fichtenwälder. Die Folgen wirken bis heute nach. Mit dem Klimawandel hat das wenig zu tun. Was den Klimaschützern aber nicht zu vermitteln sein dürfte. Man glaubt auch hier, was die Medien berichten und sogenannte Fachleute und Experten erzählen.

Der Beitrag erschien zuerst bei ScienceSceptical hier




„Eine Lüge oft genug wiederholt wird zur Wahrheit“ – Vorsicht, wenn sich 97 Prozent aller Wissenschaftler einig sind …

Vorsicht ist geboten, wenn sich wieder mal alle einig sind. Das geht für diejenigen selten gut aus, die nicht bei der trauten Einigkeit dabei sind.

Bei Honecker seinerzeit waren sich 98,85 Prozent einig. Heute sollen sich 97, manchmal auch 98 Prozent aller Wissenschaftler einig darüber sein, dass die Sache mit dem menschengemachten Klimawandel wahr sein muss. »Wir«, also die Menschheit, stehen am Abgrund und müssen sofort »das Ruder rumwerfen«.
Das sei einhellige Meinung nahezu aller Wissenschaftler. Also nahezu aller, damit sie nicht gleich 100 Prozent sagen müssen. Das klingt denn doch zu undemokratisch.

Die Geschichte geht auf den Kognitionspsychologen John Cook zurück. Der wertete 2013 knapp 12.000 Studien zum Thema globale Erwärmung aus. Die ZEIT zitierte das Ergebnis folgendermaßen: »97 Prozent derjenigen, die sich zum Klimawandel positionierten, waren sich einig, dass der Klimawandel auch menschengemacht ist.« Und sie wusste: »Es sind Lobbygruppen der fossilen Industrie, die seit Jahrzehnten bewusst Zweifel an diesem wissenschaftlichen Konsens streuen.«

Cook und seine Kollegen hatten knapp 12.000 Beiträge aus den Jahren 1991 bis 2011 gesammelt. Die sollten in verschiedene Kategorien eingeteilt werden, welche »Haltung« sie zum Klimawandel einnehmen. Weil auch 12.000 Arbeiten eine Menge Leseaufwand bedeuten, haben das »Bürger« in einem »citizen science project« getan. Wer genau, wie und nach welchen Kriterien, ist nicht bekannt.

Dann werfen sie jene Beiträge in den Papierkorb, die keinen Einfluss des Menschen sehen. Das sind rund 66 Prozent jener 12.000 Beiträge. Die willkürlich übrig gebliebenen 4.014 Beiträge teilen sie dann in eine pro und contra Kategorie. Sie finden nur 118 Arbeiten in der contra-Kategorie. Macht jene berühmten 97,06 Prozent.

Der ehemalige US-Präsident Barack Obama jubelte per Twitter: »97 Prozent der Wissenschaftler stimmen überein: Klimawandel ist eine Tatsache, menschengemacht und gefährlich.« Er berief sich auf diese auf merkwürdige Weise zustande gekommene Studie. Das Problem ist allerdings: Der Konsens der Wissenschaftler ist ein anderer, als Obama suggeriert.

Der Spiegel hat das damals, in seinen glanzvolleren alten Tagen, so gesehen und erzählte selbst, wie diese Fake-News-Nummer aufkam:

»Die Studie belegt also lediglich eine Banalität: Wissenschaftler sind sich weitgehend einig, dass der Mensch zur Klimaerwärmung beiträgt. Selbst hartgesottene Kritiker der Klimaforschung zweifeln nicht an dem physikalischen Grundsatz, dass Treibhausgase aus Autos, Fabriken und Kraftwerken die Luft wärmen.

Zu den eigentlich entscheidenden Fragen jedoch mache die Cook-Studie keine Aussage: Wie groß ist der menschengemachte Anteil am Klimawandel? Und wie gefährlich ist der Klimawandel? Die bedeutendsten Fragen der Umweltforschung sind weitaus schwieriger zu beantworten – und hier gehen die Meinungen der Wissenschaftler weit auseinander.

Warum erwecken die 97 (%) Forscher mit ihrer Kampagne den gegenteiligen Eindruck? Die Öffentlichkeit, so begründen die Autoren die Idee zu ihrer Studie, zögere bei der Unterstützung des Klimaschutzes aus Unwissenheit über den Wissenschaftlerkonsens.«

In den USA würden viele bezweifeln, dass der Klimawandel vom Menschen gemacht ist. Das ist schlecht für die Spendenkassen der vielen Panik-NGOs, die fett daran verdienen. Die sind mittlerweile zu einer unüberschaubaren Masse herangewachsen und tönen alle dasselbe. Die 97-Prozent-Kampagne sollte entsprechenden Druck ausüben. Doch die Kritik daran bezieht sich darauf, dass solche vereinfachenden Kampagnen den »Argwohn« stärken würden.

Der Spiegel zitierte damals noch den Meteorologen Victor Venema von der Universität Bonn, der fünf Gründe auflistet, warum Forscher den Konsens über den Klimawandel nicht mögen. «Über die meisten Fragen der Klimaforschung herrsche keine Einigkeit … Die Kampagne schaffe zudem zwei Lager, die Hauptgruppe und die Sonderlinge. Solch ein Gegensatz widerspreche der Widerspruchskultur der Wissenschaft.«.

In der Wissenschaft werden Erkenntnisse eben nicht mit Mehrheitsabstimmungen verabschiedet. Im Gegensatz etwa zum Fußball, wo 97 Prozent aller Fans der Meinung sind, dass Jogi Löw kein guter Bundestrainer ist; leider interessiert das wenig. Ein ›Wir stimmen ab, ob sich die Sonne um die Erde dreht oder doch umgekehrt‘ gibt es nicht. Bisher jedenfalls nicht.

Der Beitrag erschien zuerst bei TICHYS Einblick hier

Weiterführende Literatur zur Erfindung von „Konsens“ in der Klimawissenschaft finden sie ua. auch hier:

Was stimmt nicht mit der Behaup­tung, „97% aller Klima­wissen­schaftler“ stimmen hinsicht­lich AGW überein?

 

 




Keine Lust auf die grüne Machtergreifung

Deutschland ist nur für gut zwei Prozent des jährlich ausgestoßenen Kohlenstoffdioxids CO2 verantwortlich – im Jahr 1992 lag dieser Wert noch bei über vier Prozent. Zwischen Berchtesgaden und Flensburg wird sich also definitiv nicht entscheiden, wie hoch der Ausstoß des angeblichen Treibhausgases CO2 in den kommenden Jahren und Jahrzehnten ausfallen wird. Dennoch ist ausgerechnet hierzulande eine regelrechte Hysterie um dieses Thema entbrannt, die sich in einer „masochistischen Lust an der Apokalypse“ äußert, wie Jürgen Elsässer im Vorwort zur neuesten Ausgabe der von ihm herausgegebenen Reihe COMPACT-Spezial äußert, die sich dem Thema „Öko-Diktatur – Die heimliche Agenda der Grünen“ widmet. Zurecht weist der COMPACT-Chefredakteur darauf hin, dass vor acht Jahren ein einziges Ereignis am anderen Ende der Welt – nämlich der Fukushima-Störfall – als „Katalysator“ genutzt wurde, „um von einen Tag auf den anderen aus einer bis dahin per Gesetz garantierten Energieform, der Atomkraft, auszusteigen.“

 

Krieg gegen das Auto – Krieg gegen die deutschen Arbeitnehmer

 

Heute müssten eigentlich auch Robert Habeck und Annalena Baerbock wenigstens hinter vorgehaltener Hand zugeben, dass der Atomausstieg gerade auch aus ihrer Sicht ein schwerer und geradezu unverzeihlicher Fehler war, denn die Nuklearenergie liefert eine sichere Stromversorgung bei annähernder CO2-Neutralität. Doch statt die Verantwortung für solch dramatisch falsche Weichenstellungen einmal anzuerkennen und innezuhalten, fordern die Grünen heute vehementer denn je den Rückbau der gesamten deutschen Industriegesellschaft. Sie wollen damit Deutschlands Weg in die industrielle Moderne zurücknehmen, der im 19. Jahrhundert begann, dem das Land Wohlstand und Fortschritt und die ganze Welt bahnbrechende Erfindungen und Fortschritte verdankt. Die Axt wird dabei ausgerechnet an der Wurzel der deutschen Schlüsselindustrie, nämlich der Automobilbranche, angelegt. Die möglichen Folgen könnten dramatisch sein, wie in dem Kapitel „Krieg gegen das Auto“ beleuchtet wird. Der von der Politik forcierte Ausstieg aus Verbrennungsmotoren zugunsten von Batterieautos ist ein ähnlich weitreichender und riskanter Schritt wie der gleichzeitige Ausstieg aus der Kohle- und Atomenergie. Hier – wie auch auf einigen anderen Politikfeldern – scheint Tübingens Oberbürgermeister Boris Palmer der einzige „Realo“ seiner Partei zu sein, wenn er anmerkt: „Wenn der Verbrennungsmotor morgen abgeschaltet wird, ist Baden-Württemberg ein Sanierungsfall wie das Ruhrgebiet nach dem Ende von Kohle und Stahl.“ Der Kahlschlag, der sich schon jetzt in den sich häufenden Meldungen von Massenentlassungen bei Automobilherstellern und ihren Zulieferern ankündigt – und der in dem Heft durch eine Graphik plastisch gemacht wird, die veranschaulicht, dass fast alle deutschen Bundesländer vor einer dramatischen Job-Krise stehen ‒, könnte sich auch auf umweltpolitischer Ebene als verhängnisvoll erweisen. Die Branche hat in den letzten Jahrzehnten nämlich schon äußerst emissions- und verbrauchsarme Modelle entwickelt, während die Herstellung eines E-Autos immer noch eine Öko-Sünde ersten Ranges ist, wenn man den Ressourcenverbrauch, die Freisetzung von Giften wie auch die Rahmenbedingungen bedenkt, unter denen es entsteht. Besonders verhängnisvoll ist dabei die „Verschwörung gegen den Diesel“, die Carl Reinhold in einem eigenen Beitrag behandelt. Eigentlich könnte der erhöhte Absatz von Autos mit Dieselmotoren ebenso wie der Betrieb von Atomkraftwerken ein Königsweg sein, um schnell CO2-Emissionen zu sparen – doch stattdessen werden die Autos mit Hilfe absurder Fahrverbotsdebatten von den Straßen gefegt. Reinhold beleuchtet in seinem erhellenden Beitrag insbesondere die Hintergründe des VW-Dieselgate-Skandals in den Vereinigten Staaten, der – wie sich auf dramatische Art und Weise immer stärker erweist – zum Genickbruch für eine ganze Branche werden sollte.

 

Mit Flatterstrom in den Blackout

 

Weitere Texte befassen sich mit den Defiziten von batterieelektrisch betriebenen Fahrzeugen und mit der Sklaven- und Kinderarbeit, unter der das zum Bau der Batterien notwendige Kobalt in Afrika gefördert wird. Der AfD-Bundestagsabgeordnete Dirk Spaniel, der selbst früher lange in führender Funktion als Entwickler beim Dainmler-Konzern arbeitete, richtet seinen Blick auf die immer weitere Verschärfung der Stickstoffdioxid- und Kohlenstoffdioxidgrenzwerte, mit denen dem Verbrennungsmotor der Garaus gemacht werden soll, und Martin Müller-Mertens nimmt die „Deutsche Umwelthilfe“ unter die Lupe. Eine in ihren Auswirkungen fatale „Revolution von oben“ stellt natürlich auch die sogenannte Energiewende dar. Das Politgroßprojekt, das an die planwirtschaftlichen Experimente der Länder des früheren Ostblocks erinnert, war von Anfang an völlig falsch angelegt – und droht deshalb nun zum Sargnagel nicht nur des Wirtschaftsstandorts Deutschland, sondern der Energiesicherheit des Landes schlechthin zu werden. Die politisch motivierte Unterscheidung zwischen dem „guten“ Ökostrom aus Solarenergie, Windenergie, Wasserkraft, Biomasse, Geothermie und Deponiegas und dem „bösen“ Kohle- und Atomstrom führte zu volkswirtschaftlichen Fehlkalkulationen in einem geradezu sowjetesken Ausmaß. Für ersteren wurde im am 1. April 2000 in Kraft getretenen „Gesetz zur Energieeinspeisung aus erneuerbaren Energien“ (EEG) eine feste und über 20 Jahre garantierte Vergütung sowie eine Priorität vor allen anderen Erzeugungsarten festgelegt, letzterer galt von nun an als Auslaufmodell. Da der Grünstrom aber aus zwingenden Gründen ‒ da die Sonne in der Nacht in Deutschland überall nicht scheint und auch die Windverhältnisse in Küstennähe häufig sehr ähnlich sind – nur sehr ungleichmäßig erzeugt werden kann, kommt Deutschland dem Blackout jedes Jahr ein Stückchen näher. Das Kapitel zur missratenen Energiewende beleuchtet alle relevanten Aspekte dieser Frage – von dem auf tönernen Füßen stehenden Windradboom bis hin zur Renaissance der Atomenergie in fast allen westlichen Industriestaaten und insbesondere in Osteuropa.

 

Woher kommt der Erfolg der Grünen?

 

Weitere Kapitel des Heftes widmen sich der Klimareligion, die sich rund um die Ikone Greta Thunberg rasant entwickelt, sowie den Grünen als der politischen Speerspitze der Befürworter einer Öko-Diktatur. Deren „Griff nach der Macht“, den Chefredakteur Jürgen Elsässer in einem langen Text ausführlich analysiert, ist durch ein Zusammenspiel vieler Faktoren – dem aus der Sicht vieler Wähler attraktiven Führungspersonal, der Krise der SPD sowie dem Oppositionsimage, von dem die Ökopaxe zehren – nun erstmals in der Geschichte der Bundesrepublik möglich geworden, und könnte tatsächlich mit dem Einzug eines Grünen ins Kanzleramt enden. Die neue Ausgabe von COMPACT-Spezial bietet nun in gewohnt komprimierter und überzeugender Form die Gegenargumente gegen eine solche Machtergreifung, die wohl fürchterliche Folgen nicht nur für die deutsche Wirtschaft, sondern die ganze Gesellschaft haben würde. Besonders hinzuweisen ist noch auf ein langes Interview mit dem Fachmediziner Dr. Hans Drexler sowie einen Beitrag der früheren „Tagesschau“-Moderatorin Eva Herman zum Krieg der Generationen.

 

COMPACT-Spezial 22: „Öko-Diktatur: Die heimliche Agenda der Grünen“, 84 Seiten, mit vielen Graphiken und Bildern, 8,80 Euro, zu bestellen unter www.compact-shop.de.




Der Hype ist beispiellos: Nachhilfe für Klimajournalisten

Die Süddeutsche Zeitung hatte am 24. Juli 2019 gemeldet, „Die von Menschen verursachte globale Erwärmung ist beispiellos“, eine kritische Betrachtung ist hier auf KalteSonne und hierauf EIKE zu finden.

Und t-online meldete am 25.07.2019: „Russland kann nicht mehr alles löschen: „Beispiellose“ Waldbrände in der Arktis beunruhigen Forscher“.

Zitat aus diesem Artikel mit Hervorhebungen:

In der Arktis und anschließenden Regionen toben Forschern zufolge Waldbrände in einer bislang nicht gemessenen Zahl. In Alaska, Kanada und Sibirien gebe es Dutzende Brandherde, teilte das von der EU finanzierte „Copernicus Atmosphere Monitoring Service“(Cams) im britischen Reading mit. Auch wenn Waldbrände im hohen Norden im Sommer immer wiedervorkommen, sei die Anzahl um ein Vielfaches höher als in den Vorjahren.“

Das Copernicus-Netzwerkkennen wir ja schon vom Niedergang der seriösen Wissenschaft. Und auf „lernhelfer.de“ können wir unter dem Stichwort „Waldbrände in der borealen Nadelwaldzone“ einen Blick in die nichtalarmistische Realität der borealen Wälder werfen, Zitat mit Hervorhebungen:

Nadelwälder vom Taigatyp sind die dominierende Vegetationsformation der kaltgemäßigten Klimazone. Die Baumschicht wird entweder von Fichten, Kiefern, Lärchen oder Tannen gebildet. Untergeordnet gehören Laubhölzer zum Baumbestand (Birken, Pappeln, Weiden, Erlen, Eschen). Moose und Flechten bedecken meist die Bodenoberfläche. Da die Zersetzung der Streu sehr lange dauert, reichern sich häufig mächtige Rohhumusdecken auf dem Boden an. Deshalb ist der Nährstoffkreislauf Pflanze-Boden-Pflanze entsprechend verlangsamt. Durch die häufig beobachtbaren Taigabrände werden einerseits jährlich etwa 80000 km² Taigawald vernichtet, andererseits aber wird durch das Feuer das Nährstoffangebot aus der lebenden und toten Biomasse beschleunigt freigesetzt und für den Neuaufbau von Biomasse wieder bereitgestellt. Deshalb werden Waldbrände auch nicht mehr als Umweltkatastrophen betrachtet.“

Also, liebe Klimajournalisten, wenn Ihr keinen solchen Papa wie Charlys Freund haben solltet, dann schaut doch einfach mal auf „lernhelfer.de“ vorbei…

Und auch zum „nature“-Wunder von Bern gibt es Neuigkeiten zu vermelden, nämlich die Geburt von eineiigen wissenschaftlichen Zwillingen:

  1. Berner Veröffentlichung: “No evidence for globally coherent warm and cold periods over the preindustrial Common Era”

Autoren: Raphael Neukom, Nathan Steiger, Juan José Gómez-Navarro, Jianghao Wang & Johannes P. Werner

Erschienen auf “nature”:         24 July 2019

Internetreferenz: https://www.nature.com/articles/s41586-019-1401-2.epdf?

referrer_access_token=F2Odi5FkerMRhvWSRfje-9RgN0jAjWel9jnR3ZoTv0OFAuvUf3smNPgQh_x6w3tkX-JXRoLf0zBLgBVwxe-KouU3GRLUbSDwlrsJaFrSIvue2cGYyOLoP1jI4H495KtyO2fjlVG-EKGwwTfIisLdwZfHILAMDaaOWW-d1D-2tFLcuZoduWWdjvFz5MuwqhNmr3uGYqEw1DIItEFZ8L_vGQv4lbhP7p07jg2vW3kdLZr55ZS69XzxBuWC_9SZR4or_Be0LpY8x41mPQZCUAGTgQ%3D%3D&tracking_referrer=www.sueddeutsche.de 

  1. Berner Veröffentlichung: “Consistent multidecadal variability in global temperature reconstructions and simulations over the Common Era”

Autoren: PAGES 2k Consortium

(= Raphael Neukom, Luis A. Barboza, Michael P. Erb, Feng Shi, Julien Emile-Geay, Michael N. Evans, Jörg Franke, Darrell S. Kaufman, Lucie Lücke, Kira Rehfeld, Andrew Schurer, Feng Zhu, Stefan Brönnimann, Gregory J. Hakim, Benjamin J. Henley, Fredrik Charpentier Ljungqvist, Nicholas McKay, Veronika Valler & Lucien von Gunten)

Erschienen auf “nature”: 24 July 2019

Internetreferenz:                     https://www.nature.com/articles/s41561-019-0400-0.epdf?
referrer_access_token=MSmJJn32_HfXedx7NdWlktRgN0jAjWel9jnR3ZoTv0N7bTxBqLecWapiK43Tv3o5PzlP3yU4M1aQfVsGAWcU8hAbkMnJvoUiH886GbPMiVe022ISWAeoChP3Qq_Gt6jprCUM4W5-EMoYm56z1CGLQknj0EOohqgyidLWgHd7vTsA9QxQZmVSdY7eKCMbQIaUoHgIuis5f9NC33YpNXHVtKKf_nibHrvR7qfxeGX86RQxgl6DdfnOXc8Ttp_lrO2ASXQ7F4aZCB7oLwYB9vhoSBbTZvpv_c-lSGOYfTjCHphjnmaet1Q9T8DVjvF1kMH8WSUnsmd6Vb539nHq9xXHKw%3D%3D&tracking_referrer=www.theguardian.com

Das ist nun wirklich beispiellos:

Zwei sich gegenseitig bestätigende Veröffentlichungen auf dem Datensatz des PAGES 2k Consortiums wurden von demselben Lead-Autor zum selben Zeitpunkt auf „nature“ veröffentlicht. Der öffentliche Zugriff auf Neukom et al. (2019) wurde offenbar von der Süddeutschen gesponsert, während der Guardian offenbar den Zugriff auf den Pages2k-Artikel gesponsert hatte…

 




Juli 2019 in Deutschland: Ein überraschender Temperatur-Rückblick

Trotz der Hitzerekord-Tage am Ende des Monats liegt der Juli 2019 im vieljähri­gen Rückblick über insgesamt 30 Jahre nur im oberen Mittelfeld auf Platz 11.

Mit nur leicht überdurchschnittlicher Mitteltemperatur war der Juli 2019 in Deutschland z. T. deutlich weniger heiß als die 10 Jahre:

2018, 2015, 2014, 2013, 2010, 2006, 2003, 1995, 1994, 1990.

Juli 2019 – Mitteltemperatur in Deutschland –

Abweichung vom Durchschnitt 1989 – 2018

(Quelle: Wetteronline.de, 1. 08. 2019)

Und das gilt sogar weltweit. Wie der Klimaforscher und Satelliten Experte Dr. Roy Spencer soeben mitteilte

July 2019 Was Not the Warmest on Record




Spiegel Online über Dürre: Beim Faken erwischt?

 

Das war der Trick. Da wir das augenscheinlich gefakte Originalfoto von SPON aus Copyright-Gründen nicht zeigen können, hier ein vergleichbares Arrangement: Eine verdorrte Pflanze im Vordergrund, dahinter ganz verschwommen das Feld. Man hatte jedoch vor lauter Eifer übersehen, dass die Blüten im unscharf gehaltenen Hintergrund gesund und saftig aussehen (Foto: Autor)

„Ein Temperatur-Höchstwert von 42,6 Grad und eine Trockenheit „katastrophalen Ausmaßes“: Der Juli 2019 war in Deutschland deutlich zu heiß. Die Werte des Wetterdienstes sind besorgniserregend“, so begann im Spiegel Online (SPON) eine Meldung vom 30.7. 2019 unter dem Titel „Der Juli war zu heiß, zu trocken und zu sonnig“. Dabei beruft man sich auf eine vorläufige Monatsbilanzdes Sprechers des Deutschen Wetterdienstes (DWD), Andreas Friedrich. Als erstes wird natürlich der in Lingen gemessene Temperaturrekord von 42,6 °C angeführt. „Das Überschreiten der 40-Grad-Marke war bisher eine Seltenheit. Vor 2019 geschah das laut dem DWD überhaupt erst zehn Mal, seitdem systematisch Temperaturen erfasst werden. Am vergangenen Donnerstag aber haben die Meteorologen diesen Wert gleich an mehr als 20 Stationen registriert. Wir hatten an einem Tag das, was in Deutschland in 130 Jahren nicht passiert ist. Das ist so eindeutig, dass es für mich als Meteorologen schon beängstigend ist“, so Andreas Friedrich.

Übertreiben, wo es nur geht

Der früher einmal seriöse DWD hat in letzter Zeit immer häufiger mit gezielten Panikmeldungen aufgewartet, aus denen die journalistischen Sprachrohre der Klimahysteriker dann Kapital für hysterische Meldungen ziehen konnten. So am 23. April, als der DWD nach einem trockenen April mit der Meldung hausieren ging: „Hält die Trockenheit an, droht der nächste Dürresommer in Deutschland“. Denn der folgende Mai war dann in Wahrheit kühl und nass, was dem Bauer bekanntlich Scheuer und Fass füllt. Zum „Glück“ für den DWD kam dann nach einer ersten Hitzewelle im Juni, die zunächst in normales Sommerwetter überging, dann noch eine zweite im Juli, welche uns den bekannten Hitzerekord bescherte. Wobei die vom DWD behaupteten 42,6 °C in Lingen von seriösen Klimafachleuten wie Wetteronline,einem der größten meteorologischen Dienstleister in Deutschland, als unrealistisch eingestuft werden. Wetteronline erkennt nur die 41,2 °C aus Duisburg und Tönisvorst an. Ähnliche Vorbehalte gibt es auch von Kachelmann.

DWD: Auf Kriegsfuß mit den Gesetzen der Statistik?

Wobei die Aussage des DWD-Sprechers, dass man „an einem Tag das (hatte), was in Deutschland in 130 Jahren nicht passiert ist“, vor allem eines klar belegt: Man hat dort augenscheinlich keinerlei Achtung vor der Öffentlichkeit. Wetter ist immer chaotisch und unterliegt statistischen Gesetzmäßigkeiten. Deshalb arbeiten beispielsweise Planer für Hochwasserschutz oder für die Auslegung von Großbauwerken gegen Winddruck mit statistisch errechneten Werten wie dem Jahrhunderthochwasser, dem Jahrtausendhochwasser oder gar dem Jahrzehntausendhochwasser. Solche Ereignisse werden halt schon seit bis zu 1.000 Jahren registriert und für die Nachwelt festgehalten, weshalb fast alle Rekordhochwässer der Vergangenheit auch nicht aus der Neuzeit, sondern oft schon aus dem Mittelalter stammen. Temperaturen werden bei uns jedoch erst seit etwa 150 Jahren systematisch und großflächig gemessen. Es ist sogar bezeichnend, dass der DWD-Mann erwähnt, dass das Überschreiten der 40 °C-Marke bisher erst zehn Mal registriert wurde. Das entspricht erstaunlich sauber einem statistischen 10-Jahres-Ereignis. Was wir jetzt hatten, ist für den Statistiker nichts weiter als ein Jahrhundertereignis und keinesfalls „beängstigend“. Steht man beim DWD auf Kriegsfuß mit der Mathematik, in diesem Fall der Statistik?

Reifes Getreide. Während der DWD von einer „Trockenheit katastrophalen Ausmaßes“ redet, erwartet die deutsche Landwirtschaft für dieses Jahr eine Erntemenge, die nur um 2 %unter dem Durchschnitt der Jahre 2013 bis 2017 liegt (Foto: Autor)

Das Märchen von einer „Trockenheit katastrophalen Ausmaßes“

Auch die zweite Aussage des DWD, die angeblich katastrophale Trockenheit, kann man getrost als bewusste Übertreibung bezeichnen. Sicherlich hatten wir im Juni und Juli mit durchschnittlich jeweils 55 l/m2weniger Regen als normal, aber gegenüber den langjährigen Mittelwerten von 85 mm (Juni) und 78 mm (Juli) sind das jeweils nur 35 % (Juni) bzw. 30 % weniger. Wer im Zusammenhang mit dem bisherigen Verlauf des Jahres 2019 von Trockenheitsrekorden spricht, macht sich angesichts früherer Jahre wie 2003 nur lächerlich. Eine Tabelle der Trockenheitsrekorde in Deutschland offenbart eine kunterbunte Sammlung von Jahreszahlen zwischen 1892 und 2003.

Die unbestechliche Realität zeigt sich am einfachsten, wenn man sich die Erntestatistik für das Jahr 2019 ansieht. Einer Pressemitteilung des Deutschen Bauernverbands (DBV) zufolge wird aktuell bei Getreide eine Erntemenge von 47 Mio. Tonnen erwartet. Das sind nur 1 Mio. Tonnen oder etwa 2 % weniger als der Durchschnitt der Jahre 2013 bis 2017. Dass die Bauern damit nicht glücklich sind, ist in diesem durch Agrarsubventionen geprägten Wirtschaftszweig kaum verwunderlich und sollte nicht übermäßig ernst genommen werden. Genausowenig wie die entsprechenden Klagen der Waldbesitzer, die fatal an die Waldsterbens-Propaganda der 1970er bis 1990er Jahre erinnern.

 

Wann bricht die Wirtschaft ein?

Inzwischen zeigen sich in der deutschen Wirtschaft immer deutlichere Alarmzeichen. Nach der Energieerzeugung geht es jetzt auch mit der Automobilindustrie immer schneller bergab. Grund: Die industriefeindliche Politik, die von den Grünen inzwischen auf alle anderen etablierten Parteien abgefärbt hat. Schon in den 80ern hat die Angstmache vor dem angeblichen „Waldsterben“ das grüne Panikorchester an die Schalthebel der Macht gespült. Die sitzen heute überall in den Institutionen bis hin zum DWD und machen einen auf „wir sind die Wissenschaft“. Dabei ist es in Wirklichkeit ganz einfach, ihre Angstmache zu entlarven. Man braucht nur den äußerst praktischen Suchmaschinen die richtigen Fragen zu stellen. Leider sind unsere Wissenschaftler inzwischen fast schon flächendeckend dazu übergegangen, die Wahrheit „kreativ“ zu verbiegen und unsere Journalisten sind nur noch dann investigativ, wenn es ihnen ideologisch in den grünroten Kram passt. Ansonsten sind sie eifrigst damit beschäftigt, unseren Kindern Unsinn zu erzählen, für dessen Kosten diese dann ein ganzes Leben lang teuer werden bezahlen müssen. Denn wenn Merkel und ihr Klimakabinett in zwei Jahren mit Deutschland „fertig haben“, dürften die Lebenshaltungskosten für das Volk regelrecht explodiert sein. Und die Arbeitslosigkeit sich vermutlich wieder in Richtung zweistelliger Zahlen bewegen.