Die Angst des Torwarts vorm Elfmeter oder die Ratlosigkeit der Politik angesichts globaler Veränderungen und ihre Flucht in Esoterik

Zu ihnen gehören Globalisierung und Arbeitnehmerrechte. Früher mal die Domäne der SPD. Heute ist da nur noch von Klimaschutz, Greta und von Schulschwänzeraufmärschen zu hören. Wachstum, wirtschaftliche Entwicklung, die Garanten unseres erarbeitenden Wohlstandes, getragen vom Mittelstand und unseren Schlüsselindustrien wie Energieerzeugung, Chemie und Automobil und einmal die Domäne der CDU/CSU. Unter einer Klimakanzlerin und ihrer gleichgeschalteten Mannschaft, nichts mehr davon zu vernehmen. Stattdessen auch hier: Klimaschutz, Greta, Schulschwänzeraufmärsche… und Schlüsselindustrien werden, nicht zuletzt, durch unsinnige, fernab jedweder wissenschaftlichen Absicherung, EU-Gesetze und Verordnungen, man muss schon sagen, gezielt platt gemacht. Mit all den katastrophalen Folgen, die dies für uns und unser Land und seine Menschen bedeutet.

Da werden in den politischen Planungen, hoch profitable Branchen, hoch subventionierten Branchen, wie den sog. erneuerbaren Energien geopfert. Hier ein paar Zahlen, was wir an Subventionen allein für die EEG-Umlage aufbringen (der letzte Wert ist der Prognosewert des BMWi):

2017 von 30,406 Milliarden Euro

2018 von 32,022 Milliarden Euro und

2019 von 33,157 Milliarden Euro

Für eine unsinnige und dazu noch unsichere (siehe Abb.2) Energieversorgung werfen wir Unsummen hinaus und ziehen damit (zahlen die Verbraucher) eine Kaufkraft von fast 100 Milliarden Euro, allein in den letzten drei Jahren, ab und geben das Geld den (reichen) Erzeugern sog. Erneuerbarer Energien. Dies ist die größte Umverteilung von unten nach oben, die unser Land je gesehen hat.

Abb.2 zeigt für ganz Deutschland die tatsächliche Einspeisung aus Wind und Solar und dazu den realen Verbrauch im April 2019. An keinem Tag konnte sog. Strom aus Erneuerbaren den Verbrauch decken und an nahezu 10 Tagen war so gut wie gar kein Strom aus den sog. Erneuerbaren verfügbar und das, trotz der o.g. extrem hohen Subventionen.

Da fordern die Schulschwänzer in ihren Aufmärschen, noch in diesem Jahr ein Viertel der Kohlekraftwerke in Deutschland abzuschalten und eine CO2 – Steuer in Höhe von 180 €/t einzuführen. Eine kleine Rechnung, was allein dieses die Verbraucher nochmals zusätzlich kostet, neben dem höchsten Strompreis von rund 30 Eurocent pro Kilowattstunde, mit dem höchsten in der Welt. Im Jahr 2000, vor dem in Deutschland offenbar vorherrschenden kollektiven Wahnsinn in weiten Teilen von Politik und Medien, lag der Strompreis für uns Endverbraucher bei 14 Eurocent pro kWh.

Eine Familie mit 4 Kindern hat nach dem stat. Bundesamt einen Stromverbrauch von jährlich 4.000 kWh. Dies bedeutet, dass jede Familie heute schon 640€ mehr an Strom bezahlen muss als im Jahr 2000. Und da hat so ein Obertrottel, seines Zeichens Umweltminister der Grünen unter Schröder gefaselt, die Energiewende würde den Endverbraucher nicht mehr als 1 Kugel Eis kosten. Die Rede ist von Herrn Trittin und dabei hat die Energiewende gerade erst einmal begonnen und geht den Schulschwänzern nicht schnell genug. Also rechnen wir weiter:

180€/t bedeutet, dass sich die Stromerzeugungskosten aus Kohle um rd. 18 Ct/kWh von derzeit 5 Ct/kWh auf rd. 23 Ct/kWh erhöhen und aus Erdgas um rd. 6 Ct/kWh d.h. von bisher 7 Ct/kWh auf 13 Ct/kWh erhöhen. Weiter betrug im Jahr 2018 betrug die Stromerzeugung (Anteil) aus Braunkohle 24,1 %, aus Steinkohle 14 % und aus Erdgas 7,4 % im deutschen Strom Mix. Die von den Schulschwänzern vorgeschlagene CO2 Steuer würde deren häusliche Stromrechnung:

um gut 348 € im Jahr weiter erhöhen. Oder ein Kaufkraftentzog für unseren Binnenhandel und unsere Wirtschaft von gut 5 Milliarden Euro.

Und für was das alles? Die Internationale Energie Agentur (IAE) berichtete jüngst, dass die Nachfrage nach Energie im Jahr 2018 um 2,3% zunahm, wobei weltweit eine Rekordsumme an CO2 in Höhe von 33 Gigatonnen ausgestoßen wurde. Dies kann aus zweierlei Gründen nicht verwundern:

  • So verzeichnen die USA in 2018 ein Rekordwirtschaftswachstum und
  • China nimmt bis zum Jahr 2020 in jeder Woche zwei neue Kohlekraftwerke in Betrieb. China und Indien bis zum Jahr 2030, 3.000 (!) neue Kohlekraftwerke

Abb. 3, Quelle IEA zeigt den globalen Energiebedarf von 2011 bis 2018.

Der Erwärmungsbeitrag von CO2 und deren Annahmen zur Klimasensivität bei der Erhöhung von 280 ppm (vorindustriell) auf jetzt 400 ppm liegt bei 0,6*ln(400/280)/ln(2) = 0,31°C.

Dabei beträgt der Anteil Deutschlands an den globalen CO2-Emissionen nach IPCC etwa 2,3%. Der Anteil Deutschlands an der globalen Erwärmung, stimmen die Postulate der AGW-Befürworter, liegen demnach bei 0,007°C. Wohl bemerkt, bei den o.g. Annahmen der AGWler handelt es sich um Szenarien, da ist eine „Trefferquote“ von 80% schon sehr gut. 80% von 0,31°C – selbst mit Wasserdampffeedback auf 1°C), sind 0,2°C Unsicherheit. Da geht der deutsche Anteil im „Hintergrundrauschen“ der Unschärfe unter und liegt quasi bei null.

Soll der Autor die Freitagsmarschierer jetzt weiter Schulschwänzer oder besser angehende Dummköpfe nennen? Die sollten besser freitags in die Schule gehen und die Zeit für Logik / Mathematik nutzen, als einer Geisteskranken* hinter her zu laufen, die eine durchgeknallte Politik und deren Presse auch noch als Friedensnobelpreisträgerin ins Gespräch bringen. Wie eingangs erwähnt, hat unser Land drängendere Probleme, die anzugehen sind.

Abb.4, Quelle: zdf.de

* Greta Thunberg (siehe Abb.4 – wer das Bild betrachtet erkennt sofort den geisteskranken Blick in ihrem Gesichtsausdruck) leidet unter Autismus und zwar dem sog. Asperger-Syndrom. Da Autismus und auch Asperger mit einem Mangel an sog. Spiegelneuronen einhergeht, also physikalischer Natur ist, ist Autismus grundsätzlich nicht heilbar. Einzig und da kommt Geld und ihre öffentlichen Auftritte ins Spiel, Mann/Frau kann deren Schicksal lindern, indem ihnen ein Umfeld gegeben wird, indem diese ihre speziellen Neigungen nachgehen können – ist sehr zeitintensiv die Betreuung.

Zu Zeiten von Konrad Adenauer oder Helmut Schmidt nannte man sowas „Beklopptheit“, was sich in den medizinischen Werken als schizoide Psychopathie wieder fand. Asperger ist auch heute im Klassifikationssystem der American PsychiatricAssociation und der WHO als psychische Erkrankung gelistet. Nach den Wissenschaftlern Alison J. Blackshaw und Peter Kinderman sind Personen mit Asperger-Syndrom in ihrem Verständnis zum zwischenmenschlichen Geschehen beeinträchtigt und neigen daher zu paranoiden Weltdeutungsmustern.

Was der Autor damit ausdrücken will, hier wird eine „Bekloppte“ als Leitbild für die Gesellschaft und dem politischen, wie wirtschaftlichen Handeln versucht zu instrumentalisieren. Da Autismus-Kranke nicht in der Lage sind, zwischenmenschliche Gefühle zu deuten und zuzuordnen, erkennen sie auch nicht den Missbrauch, der am Beispiel von Greta Thunberg mit ihr veranstaltet wird und so verkündet sie, fernab der Realität, ihre paranoide Weltanschauung, bzw. was Interessengruppen ihr vorlegen (Eike berichtete darüber, z.B. hier) und dadurch versuchen, die Menschen zu manipulieren. Nie waren die politischen Sitten so verkommen, wie heute. Eine perfide Indoktrination, an Geschmacklosigkeit nicht zu überbieten. Aber wir haben am Sonntag Europawahlen, auch in Schweden und natürlich auch bei uns….

Wie tief müssen die sog. gesellschaftlichen Eliten und mit ihr die Presse gesunken sein, ein geisteskrankes Kind für ihre politischen und gesellschaftlichen Ziele zu missbrauchen?

Wie tief müssen die sog. gesellschaftlichen Eliten und mit ihr die Presse gesunken sein, ein geisteskrankes Kind für ihre politischen und gesellschaftlichen Ziele zu missbrauchen?

Ein weiteres Beispiel für deren Verkommenheit ist die Hatz auf den Diesel. Da will der Autor heute, da er bereits darüber schrieb z.B.: hier, hier und hier, nur folgenden Vergleich aufzeigen, der jedem sofort klar macht, was es mit den unsinnigen EU-Verordnungen und EU-Gesetzen auf sich hat:

Der von der EU festgelegte Grenzwert von NO2 für öffentliche Straßen liegt bei 40 µg/m3 im Jahresmittel. Dieser Grenzwert, bzw. dessen Überschreitung, hat vielerorts in Deutschland zu Fahrverboten und zu gigantischen (in 2-stelliger Milliarden Höhe) Eigentumsverlusten bei Dieselbesitzern geführt. An diesen Eigentumsverlusten sind nicht etwa Manager bei VW oder Audi oder sonst wo schuld, sondern eine dummdreiste Politik, die solche unsinnige Verordnungen / Gesetze geschaffen hat, denn bereits durch zwei brennende Kerzen in einem schon größeren Wohnraumvon 6x6x2,5 m3 wird der EU-Grenzwert mit einem Pegel von 178 µg/m3 NO2 um mehr als den vierfachen Wert überschritten.

Das Beleuchtungsmittel all der Jahrhunderte vor unserer Zeit waren Kerzen / Öllampen. Die Menschheit wäre längst ausgestorben, würde all das an Krankheiten / Todesraten zutreffen, was EU, Politik, Presse, sog. Wissenschaftler, bei Überschreitung des EU-Grenzwertes von 40 µg/m3 dem Diesel andichten. Und das „Heilmittel“ gegen den Diesel ist bereits da: Die Elektrofahrzeuge.

Grundsätzlich hat ein Elektromotor (bis auf sein Gewicht) nur Vorteile gegenüber einem Verbrenner, wie z.B. besserer Wirkungsgrad, mehr Laufruhe, Geräusche, Umweltbilanz, zumindest bei uns, wenn auch seine Gesamtbilanz miserabel ist. Aber die verlagern seine Befürworter in die Drittweltländer. Sozusagen als moderne Kolonialführer / Mächte.

Die ganzen technischen Vorteile nützen jedoch nichts, solange das Energieproblem und alles, was damit verbunden ist, gelöst sind. Da kommen die abstrusesten Vorschläge aus der Politik. Beispiele:

1.

Die Ladezeit von gegenwärtig mehreren Stunden soll per Schnellladung auf höchstens 10 Minuten verkürzt werden. Das bedeutet für einen TESLA mit 100 kWh Batterie 600 kW Ladeleistung.Um die bereitstellen zu können, ist ein großer Ortsnetz Trafo mit 630 kVA Nennleistung und mindestens 10.000 V notwendig. Die unterspannungsseitigen Kabel zum Ladestecker sind so schwer, dass sie nur mit einem Kran zu bewegen sind. Der Ladestecker ist größer als das Auto! Mit Kosten von rund 35.000 €.

2.

Da sollen Elektrofahrzeuge, wenn sie nicht benutzt werden, ihre Batterie dazu verwenden, ihre gespeicherte Energie ins Stromnetz einzuspeisen. Mal von der verringerten Lebensdauer der Batterien, die das mitbringt, abgesehen, am Tag benötigt die öffentliche Stromversorgung rund 1,6 TWh = 1.600.000.000 kWh und an fünf aufeinanderfolgenden Tagen mit mangelnder Sonnen- und Windenergie rund 8 TWh = 8 Milliarden kWh (siehe Abbildung 2).

E-Autos haben eine Batterie mit einem Speichervermögen von 20 bis 40 kWh. Wenn also die an der Ladestation stehenden E-Autos zur Netzstützung Strom an den fünf Mangeltagen je Fahrzeug 20 kWh bereitstellen sollen, wären dazu 8 TWh/20 kWh = 400 Millionen Fahrzeuge erforderlich. Dies bedeutet,jede Familie in Deutschland müsste 10 E-Autos besitzen, die an diesen 5 Tagen an entsprechend vielen Ladesäulen zurück speisen würden und natürlich nicht gefahren werden dürfen. Absurder können Vorschläge kaum sein.

3.

Da soll die Batterie mittels eigener Stromerzeugung an eigener Ladestation geladen werden. Den 20 kWh Akku über einen Wechselstromadapter aus der Steckdose mit 230 V und 11 A (für die 16 A Stromkreissicherung ist das Dauerlastkompatibel) bedeutet, dass man 8 Stunden laden muss, um anschließend rund 70 km fahren zu können. Dieser Tankvorgang aus der Steckdose entspricht energetisch einer tropfenweisen Benzineinfüllung mit einer Pipette (Minigefäß) von 10 ml pro Minute. Niemand würde seinen Tank mit 10 Millilitern Sprit tanken, indem er jede Minute diese Menge in seinen Tank gibt. Absurdistan lässt grüßen.

4.

Da soll die Elektroflotte bis 2022 auf 1 Million Fahrzeuge erhöht werden und gleichzeitig die versogungssicheren Kraftwerke abgeschaltet werden (Atom und Kohle). Würden 1 Million Fahrzeuge an der Ladesäule stehen, erfordert das bei Schnellladung mit 30 kW eine Ladeleistung von 30 GW, die nur durch den Bau von 30 neuen Kern- oder Kohle oder Gaskraftwerke, zu je 1000 MW Leistung bereitgestellt werden könnten. Die will die Politik aber nicht mehr.

Da haben offensichtlich viele Politiker (von der Presse ganz zu schweigen, die das auch noch hochjubelt) abstruse Vorstellungen von der Physik der Elektrotechnik.

Klimarettung. Missbrauchte Greta. Wie steht es denn aktuell um das Wetterklima, die so verehrenden Klimaauswirkungen der Erderwärmung? Dies zeigen die Abbildungen 5 bis 7.

Abb.5, Quelle: www.wetter.de: „6 Meter!! Zugspitze mit Rekordschnee im Mai.“

Abb.6, Quelle: www.wetter.de: „Meterhoch türmt sich in den Kärntner Alpen der Schnee. Von Frühling ist hier noch nichts zu sehen.“

Abb.7, Quelle: AccuWeather.com: Nicht nur in Europa herrscht Kälte und Schneetreiben vor. Auch in Amerika. Schneegestöber Ende Mai in Colorado.

Doch sicherlich liegt der Autor falsch mit seiner Analyse, dass mit dem sog. anthropogenen Klimawandel, also der vermeintlichen menschengemachten Erderwärmung etwas nicht stimmt und die gezeigten Bilder sind bereits das Resultat der Bemühungen von:

1. Der „heiligen“ Greta

2. Unserer Berliner Regierungskoalition aus CDU/CSU und SPD

3. Dem grünen Ministerpräsidenten von Baden-Württemberg, Herrn Kretschmann

Zu 1.

Abb.8, Quelle: Auszug aus ZDF Journal vom 17.04.2019. Greta Thunberg beim Papst zur Rettung der Welt. Sicherlich hat der Papst das Anliegen und das Plakat umgehend seinem Chef gezeigt und durch göttliche Eingebungen erreicht, dass wir diesen Mai nicht so schwitzen und so eine Trockenheit erdulden müssen, wie letztes Jahr. Ohne die Audienz und die dann folgenden göttlichen Eingebungen, hätten wir sicherlich einen Hitze und Trocken-Mai erhalten.

Zu 2.

Abb.9, Quelle ZDF „Flughafen Berlin-Brandenburg: Chronik eines Desasters“. Wir alle, inklusive dem Autor, haben unsere Berliner Regierung missverstanden und ihr Unrecht getan. Beim neuen Berliner Flughafen handelt es sich gar nicht um ein Desaster, sondern der Beitrag der Regierung zur Rettung der Welt und zur Begrenzung des Klimawandels. Wird doch in Berlin, unter den Augen der Regierung, der erste CO2-neutrale Flughafen der Welt gebaut. Wo niemals Flugzeuge abheben (oder landen), da entsteht nach den Worten der Regierung, auch kein „klimaschädliches“ CO2.

Zu 3

Abb.10, Quelle: bild.de. Der Baden-Württembergische, Grünen-Ministerpräsident Kretschmann bei der fachmännischen Bewertung (man beachte seinen testenden Blick) der neuen CO2-neutralen Bekleidung – bei der Herstellung fällt kein „klimaschädliches“ CO2 an.

Der Autor kann gut verstehen, dass Herr Kretschmann von der CO2-neutralen Bekleidung sehr angetan ist. Natürlich nur aus Gründen des Klimaschutzes und des grünen Parteiprogrammes. Wir doch dort dem Klimaschutz ein großes Bankett eingeräumt. Im Beitrag steht „Sie (Anmerkung: Die Linken-Stadträtin von Schwäbisch-Gmünd) trug nur einen Mini-Slip.“Und, der geübte Leser hat es sicherlich sofort bemerkt, da steht „Sie trug nur einen Mini-Slip.“ Da ist also noch eine Steigerung möglich! Für noch mehr Klimaschutz.

Moment mal, „Linken Stadträtin“. Steht nicht gerade die Linke für die Rechte der Frauen? Dass die Frauen nicht in einer Männerwelt als bloßes Objekt gesehen werden?… Offensichtlich gilt das alles nicht mehr, wenn es um höhere Ziele, wie die Rettung des Klimas geht oder geht es hier nur um mehr Aufmerksamkeit vor den Europa-und Kommunalwahlen. Stadträte werden doch auch gewählt. Oder?

Herr Kretschmann ist natürlich über jeden Zweifel erhaben und, sind wir doch mal ehrlich, die (Männer)Welt wird Herrn Kretschmann für seinen Einsatz um die neue, CO2-neutrale Bekleidung bei Frauen, für immer dankbar sein. Bleiben wir noch ein bisschen bei den Grünen.

Grün, da denkt und verknüpft jeder gleich die Natur, also das „Reine“ mit. Doch stimmt das? Ist „grün“ wirklich Natur oder wenigstens gut für die Natur?

Unser Blick dafür und damit Weltbild, stammt von den grünen Bäumen und Pflanzen und Bäume sind der Inbegriff unserer Kultur. Blätter und Pflanzen wandeln bekanntlich das Sonnenlicht (Abb.11) mit ihrem Chlorophyll um in Zucker und damit Energie für die Pflanzen, welches die Pflanze für Notzeiten speichert. Doch das Chlorophyll kann das Sonnenlicht nicht vollständig verwerten. Der grüne Anteil des Sonnenlichtes ist für die Pflanzen / Bäume wertlos, weil das Chlorophyll es nicht verwerten kann. Daher sind die Blätter und Pflanzen auch grün, weil der nicht nutzbare Anteil des Sonnenlichtes wieder abgestrahlt wird.

Abb.11, Quelle Wikipedia „Sonnenstrahlung“ zeigt einen Teil des Spektrums der magnetischen Strahlung der Sonne mit dem sichtbaren Anteil.

Pflanzen und Bäume können das grüne also nicht gebrauchen. Sie fangen nichts damit an. Machen wir es ihnen nach!

Raimund Leistenschneider – EIKE




Die Ignoranz der Führer der Welt bzgl. Klima­wandel geht weiter – trotz einfacher, offensicht­licher Beweise

Wir sind weit entfernt von Toynbees letztem Erzeugnis der Zivilisation. Schlimmer, wir entfernen uns mit jedem Tag weiter davon. Was kann man von Amerika sagen, vermeintlich die fortschrittlichste Zivilisation der Welt, mit einem regulären Fernsehprogramm über 300-kg-Menschen zur besten Sendezeit? Was kann man folgern, wenn westliche Führer dem schwedischen Teenager Greta Thunberg lauschen und – schlimmer noch – diese beachten, wenn sie sagt, dass sie Kohlendioxid in der Luft sehen kann? Diese Fähigkeit kann dem Umstand geschuldet sein, dass sie ein 16-jähriges Kind ist, die bedauerlicherweise unter Zwangsneurosen und dem Asperger-Syndrom leidet. Wir wissen, dass das so ist, weil ihre Mutter, die offenbar das Bedürfnis nach Kindesmissbrauch verspürt, uns genau das gesagt hat, und zwar in dem Familienbuch mit dem Titel „Scenes from the heart. Our life for the climate“. Historisch gesehen war es ein Kind, welches darauf hinwies, dass der Kaiser nackt war. Jetzt weisen die falsch informierten, benutzten und missbrauchten Kinder darauf hin, dass der Kaiser einen grünen Umhang trägt.

Nichts davon kommt überraschend, gleitet die Welt doch aus einem Zustand der Verrücktheit in den Zustand der Geisteskrankheit. Eine US-Senatorin, Elizabeth Warren, bewirbt sich als Präsidentin. Und das, nachdem sie zugegeben hatte, einen nicht existenten natürlichen Anspruch zu haben, an der Harvard Law School zu studieren und als Anwältin berufen zu werden. Dann gibt es da noch einen anderen Senator, nämlich Richard Blumenthal, ebenfalls Rechtsanwalt, der im Rechtsausschuss sitzt, wo er zynisch die Aussagen und die Glaubwürdigkeit anderer Menschen beurteilen muss. Er behauptete, am Vietnamkrieg beteiligt zu sein, obwohl er das Land niemals besucht hatte. Wie können sich derartig bloßgestellte und überführte Lügner in Machtpositionen halten? Traurigerweise ist das sehr einfach, wenn man die Debatten und Vorgehensweisen in jedem gesetzgebenden Gremium verfolgt, vom US-Kongress bis zum britischen Parlament und darüber hinaus. Es ist ein Zoo kindischer Einfalt und kleinlicher Beschimpfungen, aber was alles noch viel schlimmer macht ist der Umstand, dass diese Herrschaften genau dieses Verhalten für clever halten. Kein Wunder, dass alle diese Gremien in der Bewertung seitens der Öffentlichkeit so weit unten rangieren.

Die Hauptursache des Problems schlechter Führerschaft ist, dass sie als Führer geboren sind, diese aber nicht gelehrt bekommen, und ihr Wissen, dass die Bevölkerung noch nicht bereit ist, geführt zu werden. Sie wissen auch, dass jeder, der Schritte zur sofortigen Übernahme der Führung unternimmt, zur Zielscheibe der Medien wird, welche glauben, dass es deren heilige Funktion ist, alles und jeden zu zerstören. Verständlicherweise sind sie nicht darauf vorbereitet, ihre Köpfe unter das Fallbeil der Medien zu legen. Die Auswirkung auf die Gesellschaft geht über den Verlust der Führerschaft hinaus. Dies erzeugt ein Vakuum, das fast augenblicklich von Leuten ausgefüllt wird, die führen wollen, aber keine Ahnung haben, wie man führt. Diese Leute wollen den Job haben, ohne zu wissen, wie man ihn ausfüllt. Sie sagen, was immer man hören will oder was sie glauben, dass andere hören wollen. Die Ernsthaftigkeit ist genauso dünn wie die Fähigkeit. Die meisten dieser Menschen sind von einem Typ, welchen Daniel Boorstin als berühmt dafür identifiziert, berühmt zu sein. Sie sind so oberflächlich, dass sie für Falschinformationen anfälliger sind als die meisten anderen Menschen, so dass diese Falschinformationen dann zur Grundlage einer politischen Kampagne ihrerseits werden. Die größte dieser Kampagnen dreht sich um den vom Menschen verursachten Klimawandel. Sie verstehen ihn nicht, genau wie alle anderen auch nicht, aber sie beuten es vorsätzlich aus. Jedermann dachte, dass Klimawandel ein Problem sei, aber den Führern war das egal, weil es eine ausgezeichnete politische Gelegenheit war und ist.

Ein von der Yale University durchgeführter Test bzgl. Klima mit dem Titel „American’s Knowledge of Climate Change“ belegte dies. Der Test war konzipiert, um in Gestalt einer nationalen Studie herauszufinden, was Amerikaner darüber verstehen, wie das Klimasystem arbeitet, sowie hinsichtlich Ursachen, Auswirkungen und potentieller Lösungen bzgl. globaler Erwärmung.

Der Test, durchgeführt an 2030 Amerikanern, erbrachte katastrophale Ergebnisse. Ganze 77% erreichten dabei lediglich einen Grad D oder F (52%).* Ich weiß nach 50 Jahren der Gespräche und des Umgangs mit Politikern, dass sie es keineswegs besser wissen. In gewisser Weise ist es sogar noch schlimmer, weil Politiker stärkere, definitivere Haltungen einnehmen, die einen offenen Geist ausschließen.

[*Schulnoten in den USA sind nicht Ziffern wie bei uns, sondern Buchstaben von A bis D entsprechend bei uns die Noten 1 bis 5. Die Benotung E gibt es nicht, dafür aber die Benotung F für das Wort ,flunk‘ = durchgefallen. F entspricht der Note 6 bei uns. Oben gemeint sind also im Vergleich die Noten 5 und 6. Anm. d. Übers.]

Mit dieser Ignoranz, diesem Unwissen, setzten diese Führer eine Energie-, Umwelt- und Wirtschaftspolitik durch, die vollkommen unnötig und sehr teuer ist sowie durchweg auf Kosten des Kampfes gegen reale Probleme geht. Zum Beispiel wurde die Welt dazu gebracht zu glauben, dass sie überbevölkert und unfähig ist, sich selbst zu ernähren. Der Hauptschuldige dabei war das Buch von Paul Ehrlich aus dem Jahre 1968 mit dem Titel „The Population Bomb“, in welchem der Zusammenbruch der Versorgung mit Nahrungsmitteln, Massen-Hungersnöte und ein gesellschaftlicher Zusammenbruch zum Ende des 20. Jahrhunderts prophezeit worden waren. Dies lenkte uns ab von den realen Themen wie Lagerung und Verteilung, so dass wir uns jetzt damit befassen. Die Welt erzeugte genug Nahrungsmittel für eine dreimal so hohe Bevölkerung. In den meisten Gebieten der Welt schafften es nie mehr als 60% davon auf die Tische. Der Rest geht auf den Feldern und in den Lagerräumen verloren durch Insekten, Krankheiten und Fäulnis. Selbst wenn das Erzeugnis es bis an die Theken schaffte, wurde ein beachtlicher Prozentsatz davon, vielleicht um die 20%, niemals verteilt. Nahrungsmittel effektiver zu lagern und zu transportieren würde die meisten Probleme dieser Art lösen. Wir wissen das, weil Kühlung in entwickelten Ländern die Verluste um 30% sinken ließ.

Ignoranz ist für sich genommen schon ein Problem, aber es verschärft sich selbst, weil Menschen, vor allem Führer, lügen und betrügen, um diese Ignoranz zu verstecken. Als die Führer erfuhren, dass Kohlendioxid, ein Treibhausgas, zunahm und globale Erwärmung unvermeidlich war, wussten sie nicht einmal genug, um die richtigen Fragen zu stellen. Sie wussten nicht, dass es nur 4% aller Treibhausgase ausmacht und der menschliche Anteil daran lediglich 0,4% betrug. Sie wussten nicht, dass die Leute, welche diese Informationen absichtlich in die Welt gesetzt hatten, sich selbst darauf beschränkt haben, ausschließlich nach menschlichen Gründen für den Klimawandel zu suchen und folglich alle natürlichen, das heißt nicht menschlichen Ursachen ausblenden. Es ist wie der Kauf eines Autos, nachdem eine Werkstatt versichert hatte, dass es ein gutes Auto sei. Die Werkstatt verschwieg, dass sie nur eine Schraube am rechten Reifen betrachtet hatten, um diese Versicherung abzugeben.

Die Führer wussten nicht, dass sie von der grünen Hysterie der Umweltbewegung gefangen worden waren und dass Klimawandel nur ein kleiner Teil davon war. Allerdings wussten sie sehr wohl, dass es politischer Selbstmord war, nichts zu tun, was zur Rettung des Planeten als notwendig kolportiert worden ist. Die Verpackung war alles, der Inhalt der Information nichts. Unglücklicherweise ist diese Situation auf alle Aspekte der öffentlichen Wahrnehmung zum Thema Klimawandel anwendbar.

Die Führer wissen praktisch nichts über Klima, was sie jeden Tag nur zu deutlich offenbaren. Sie wissen nicht einmal, dass der Behauptung, dass CO2 vor allem aus menschlichen Quellen den Klimawandel verursacht, jede wissenschaftliche Grundlage vollständig fehlt. Sie wissen nicht, dass Wasserdampf zu 95% für den Treibhauseffekt ursächlich ist und dass dieser effektiv in allen offiziellen Studien außen vor gelassen wird, zusammen mit allen natürlichen Ursachen. Auch wissen sie nicht, dass der einzige Beleg, welcher die Behauptung stützen könnte, aus einem Computermodell stammt, dass absichtlich so programmiert worden ist, dass eine CO2-Zunahme eine Temperatur-Zunahme auslöst. Falls die Führer, welche Klimawandel als Begründung für ihre verheerende Politik anführen, auch nur oberflächlich einmal nachgeschaut hätten, hätten sie sofort erkannt, wie falsch das alles war. Sie würden dann wissen, dass buchstäblich jede Aussage jener Modelle falsch war. Falls sie sich mal den AR 3 der UN vorgenommen hätten, würden sie dort die folgende Aussage finden:

Bei der Klimaforschung und -modellierung sollten wir uns bewusst machen, dass wir es mit einem gekoppelten, nicht-linearen und chaotischen System zu tun haben und dass daher die langfristige Prognose zukünftiger Klimazustände nicht möglich ist.

Ich weiß, dass keiner der Führer der Welt das gelesen hat, denn wenn sie es gelesen hätten, würden sie nicht täglich ihr Unwissen zur Schau stellen. Wir werden geführt von unwissenden, uninformierten Personen, welche Gesetze und Vorschriften durchgesetzt haben, die Billionen kosten. Dabei ignorierten sie reale Probleme, so dass Millionen sterben und unnötig leiden. Das beste Beispiel hierfür ist die DDT-Lüge, in die Welt gesetzt von Rachel Carson, welche die Umwelthysterie auslöste. Sie behauptete, dass DDT verantwortlich war für die Krebserkrankung und den Tod ihres Ehemannes. Es gab dafür keinerlei Beweise, aber DDT, die Hauptquelle zur Bekämpfung von Malaria-Mücken, wurde weltweit geächtet. Seitdem sind mindestens 130 Millionen Menschen unnötig gestorben. Paul Driessen nannte es Öko-Imperialismus, als diese ignoranten Führer ihr Unwissen anderen Führern überstülpten.

Wir werden von Narren und Inkompetenten regiert, welche sich absichtlich dafür entscheiden, dumm zu bleiben, indem sie nicht einmal die einfachsten Informationen betrachten. Jetzt sind diese Informationen via Internet verfügbar, so dass als Einziges die persönliche Inkompetenz übrig bleibt.

Link: https://wattsupwiththat.com/2019/05/18/world-leaders-ignorance-about-climate-change-continues-despite-simple-obvious-evidence/

Übersetzt von Chris Frey EIKE




Zurück in die grüne Welt des Mittelalters

Erstens gäbe es keine Massenerzeugung von Stahl ohne die Verbrennung von Kohle, um den Sauerstoff aus dem Eisenerz zu entfernen. Die Menschen könnten Bäume in den Wäldern fällen, um Holzkohle herzustellen, mit welcher sie dann Roheisen und Rohstahl herstellen können, aber die Wälder wären dann bald verschwunden.Kohle hat die Wälder vor diesem Schicksal bewahrt.

Wir könnten Gold und Silber gewinnen ohne den Verbrauch von Kohlenwasserstoffen, und mit unserem Erfindungsgeist können wir vielleicht unraffiniertes Kupfer herstellen sowie Blei und Zinn sowie weitere Produkte wie Bronze und Messing. Aber die Herstellung großer Mengen Kernbrennstoffe, Zement, Aluminium, veredelter Metalle, Plastik, Nylon, synthetischer Stoffe, Petro-Chemikalien und Druckrohrleitungen wäre dann unmöglich.

Auch die Herstellung von Windturbinen und Solarpaneelen wäre ohne fossile Treibstoffe unmöglich. Eine Windturbine benötigt massenhaft Stahl und Beton, Fiberglass und Glas-Polymere ebenso wie viele andere veredelte Metalle – Kupfer, Aluminium, seltene Erden, Zink und Molybdän. Solarpaneele und Batterien benötigen Silikon, Blei, Lithium, Nickel, Kadmium, Zink, Silber, Mangan und Graphit – alles in hoher Reinheit, und alles kaum im Hinterhof mit Holzkohle zu machen. Transport, Aufstellung und Wartung von Wind- und Solarparks plus die erforderliche Infrastruktur an Straßen und Leitungen erfordert viel mit Diesel betriebene Motorkraft.

Jede Maschine der Welt benötigt Kohlenwasserstoffe für Motoröl, Getriebeöl, Bremsflüssigkeit, Hydrauliköl und Fett. Natürlich können wir Öle von Seelöwen, Bienenwachs und Walen zum Ölen benutzen – aber die Erfindung von Petroleum bewahrte die Wale vor diesem Schicksal.

Straßen wären eine Herausforderung ohne auf Öl basierendem Teer. Die antiken Römer bauten ziemlich gute Straßen aus Pflastersteinen (dies würde das Problem der Arbeitslosigkeit eindämmen). Aber harte Arbeit wäre nichts für alternde Baby-Boomer oder die elektronische Ära. Autos, Eisenbahnen, Motoren, Schiffe, Handys, Fernsehen und Computer-Tomographie wären out. Pferde, Ochsen, hölzerne Ruderboote, Segelschiffe, Pflanzen-Medizin und semaphore würden eine gewaltige Renaissance erleben. Einige mit Holz befeuerte Dampf-Traktoren könnten immer noch funktionieren, und Holz-Gas-Generatoren könnten Benzin in einigen alten Autos ersetzen.

Das würden wir mit den „Null-Emissionen“ bekommen, welche die Grün-Extremisten für uns vorgesehen haben.

Aber unser heutiges modernes Leben kann nicht mit einer Vor-Kohle/Öl-Ökonomie bestehen. Ohne zuverlässige Stromversorgung und benzinbetriebene landwirtschaftliche Fahrzeuge sind Städte nicht nachhaltig bewohnbar. In Grün-Utopia müssten 90% von uns Menschen gehen.

Aber die Grünen sollten nicht erwarten, dass wir heimlich, still und leise gehen.

Link: https://www.iceagenow.info/back-to-the-medieval-green-world/

Übersetzt von Chris Frey EIKE




Stickoxid, Ethanol, Strahlung — Wie giftig sind diese Gifte?

Grundsätzliches: Was ist ein Gift?

Wenn man eine Substanz auf deren Schädlichkeit für Lebewesen untersuchen will, macht man damit Tierversuche, indem man die Tiere hohen Konzentrationen der Substanz aussetzt. Es wird der NOAEL-Wert (No Observed Adverse Effect Level) festgestellt: oberhalb dieses Wertes gibt es schädliche Einflüsse auf das Leben der Tiere, unterhalb des Wertes ist kein Schaden feststellbar, siehe folgende Darstellung:

Aus dem NOAEL-Wert leiten Toxikologen den MAK-Wert ab, das ist die Maximale Arbeitsplatz Konzentration der Substanz in der Luft für 1600 Arbeitsstunden im Jahr. Der MAK-Wert gilt für Menschen, und dabei wurde ein Sicherheitsabstand zum NOAEL berücksichtigt. In der MAK-Liste findet man dazu Einzelheiten.

Bei einer Dosis unterhalb von NOAEL – also beim MAK-Wert bzw. tiefer – muss der Organismus des Menschen den Schadstoff ebenfalls bekämpfen, das gelingt, denn es ist kein Schaden bemerkbar. Durch dieses Bekämpfen des Schadstoffes wird die Abwehrkraft des Organismus gegen den Fremdstoff gestärkt und das ist dann ein Nutzen für den Organismus. In der Medizin nennt man dieses „adaptive Antwort“, bei Strahlung hat man dazu ein extra Wort erfunden, man sagt „Hormesis“ dazu [1]. Den Nutzen kann man an Versuchstieren mit kurzer Lebensdauer nachweisen. Bei Menschen gelingt das wegen ihrer langen Lebensdauer selten, nur in Sonderfällen ist die nützliche Wirkung durch Stärkung des Immunsystems zu beobachten.

Ein gutes Beispiel für den beschriebenen Mechanismus ist die Tatsache, dass bei Kindern von Bauernhöfen weniger Allergien als bei Stadtkindern beobachtet werden. Die Kinder von Bauernhöfen kommen häufiger mit vielerlei Keimen in Berührung, daher ist deren Immunsystem besser gegen Angriffe gewappnet.

Man muss abwägen zwischen nützlicher Hygiene und übertriebener Jagd auf Bakterien, Viren, Sporen, körperfremder Substanzen…. Die Stärkung der körpereigenen Abwehr ist ein gutes Mittel gegen Schadstoffe.

Aspirin ist in der Dosis 30 bis 50 mg ein Blutverdünner, bei 0,5 bis 2g schmerzstillend, bei 2 bis 5g entzündungshemmend und bei 30 bis 40g tödlich [2]. Auch jede Schutzimpfung ist ein Beispiel für eine adaptive Antwort des Organismus.

Toxikologen haben viele Dosis-Wirkungsbeziehungen gemessen und den J-förmige Verlauf gefunden mit Schaden bei großer Dosis und Nutzen bei kleiner Dosis. Beispiele sind Substanzen wie Natriumhypochlorit, Methanol, Penicillin, Fluridone, Quecksilber, Aluminium, 4-Chloro-2-methylphenoxyacetic Acid, Ethanol, Phosfon, Cadmium, Kupfer, Na-Arsenate, Retinoesäure, Phenobarbital, Cadmiumchlorid, 1,4-Dioxan, Dioxin, 3-Methylcholanthrene, Saccharin, Lindan, dazu auch Strahlung von Neutronen und Gammastrahlung [3].

Zur Diskussion von Risiken durch Fremdstoffe sollen zwei Substanzen und Strahlung behandelt werden.

Beispiel 1, Stickoxide in der Luft:

Der NOAEL-Wert liegt bei 20 000µg/m³ Luft [4], dazu passend erscheint der MAK-Wert von 9000µg/m³ Luft, der bis 2009 in Deutschland galt. Heute gilt bei uns der MAK-Wert 950µg/m³ Luft, in der Schweiz gilt 6000µg/m³ Luft. Zu allen Änderungen in der MAK-Liste geben die Toxikologen eine Begründung, die man nachlesen kann. In dem Beispiel von NO2 fehlt in den Medien jegliche Stellungnahme zu der Änderung. Der heute geltende Jahresmittelwert von 40µg/m³ Luft erscheint bedeutungslos für die Gesundheit von Lebewesen. Eine nützliche, aber an Menschen nicht nachweisbare Wirkung des NO2 könnte im Bereich von einigen 1000µg/m³ liegen.

Beispiel 2, das beliebte Gift Ethanol ( = Alkohol), logarithmische Abszisse:

Ethanol – meist sagt man nur Alkohol dazu – ist ein Gift, dennoch ist es den Menschen lieb geworden und wird viel konsumiert. Daher sagt man nicht „Gift“ dazu. In Abhängigkeit von Menge des Konsums gibt es viele negative Eigenschaften: es ist giftig, kanzerogen, teratogen, brennbar, explosiv, hat Suchtpotential.

Vom Gesetzgeber wurde ein Grenzwert von 0,5‰ als Konzentration im Blut festgelegt, das kann man als NOAEL-Wert sehen. Als MAK-Wert wurde 380mg/m³ Luft festgelegt, das sind bei normalem Atemvolumen auf das Jahr hochgerechnet rund 300g Alkohol als zugelassene Jahresdosis. Die Zahl der Überschreitungen des MAK-Wertes in Deutschland wird auf 10 Milliarden pro Jahr geschätzt, allein beim Münchner Oktoberfest sind es Millionen Überschreitungen. Die Zahl der Todesfälle infolge Alkoholkonsum geht in die Tausende, die Zahl der Suchtkranken in die Millionen.

In Deutschland liegt der mittlere Alkoholkonsum bei etwa 10 Litern reinem Alkohol pro Jahr. Damit trinkt im Mittel jeder Mensch in unserem Lande im Jahr rund 40 tödliche Dosen. In meinem Supermarkt in der Nähe stehen in den Regalen immer etwa 1000 tödliche Giftdosen zum Verkauf.

Ethanol ist auch nützlich für die Gesundheit, sonst würden es die Menschen nicht so häufig konsumieren. Die Grenze zwischen Schaden und Nutzen ist variabel, hängt von vielen Faktoren ab. Wer seinen Körper auf die Bekämpfung des Giftes trainiert, macht ihn fit dazu, den irgendwann folgenden nächsten Angriff abzuwehren. Das Training ist nützlich für die Gesundheit und ein weiteres Beispiel für das Schutzsystem des Körpers.

Beispiel 3, Strahlung von radioaktiven Substanzen, logarithmische Abszisse:

Die letale Ganzkörperdosis liegt bei etwa 4 Sievert und ist als Dosis in kurzer Zeit zu verstehen, so wie es bei Alkohol und allen anderen Substanzen bei der Giftwirkung verstanden wird.

Im Gegensatz zu den ersten zwei Beispielen NO2 und Alkohol macht man bei Strahlung die Annahme, daß die Wirkung unabhängig von der Zeitdauer ihres Einwirkens ist und sich die Dosis und damit auch das Risiko mit der Zeit summiert (LNT-Hypothese). Das ist in der obigen Darstellung beachtet: Die Grenzwerte sind summierte Dosen über ein ganzes Jahr, dsgl. die als nützlich angegebenen Empfehlungen. Nach Krebs-OP wird täglich mit einer Organdosis von 2 Sv bestrahlt, in der Summe werden ca. 60 Sv gegeben [5].

Die Strahlenschutzgesetze gelten nur für den Umgang mit Kernbrennstoffen, nicht für Höhenstrahlung, Bodenstrahlung und nicht in der Medizin. Daraus ergeben sich Widersprüche [6]. Was in der Kerntechnik verboten ist, wird in den anderen Bereichen toleriert.

Die Existenz der nützlichen Wirkung ist bei Strahlung vielfach bewiesen. Es gibt mehrere tausend Veröffentlichungen und gute Bücher dazu: Henriksen [7], Allison [8], Sanders [9], Hiserodt [10]. In Deutschland folgt man der LNT-Hypothese, man findet nur wenig zur nützlichen Strahlenwirkung. Die deutschen Professoren Klaus Becker und Ludwig Feinendegen haben sich oft darüber beklagt, wenn Forschungsergebnisse unterdrückt wurden, die der LNT-Hypothese widersprachen.

Um von der nützlichen Wirkung von Strahlung zu profitieren, sollte die Dosisleistung im Bereich von 15µSv/h bis 800µSv/h liegen [7, 8, 9, 10]. In der Internationalen Raumstation ist das der Fall, der Strahlenpegel – also die Dosisleistung – ist rund 1000-fach höher als unten auf der Erde, und das ist keinesfalls schädlich [11].

Was sollen solche Vergleiche bewirken?

Es läuft einiges falsch in der Beurteilung von körperfremden Substanzen / Strahlung. Um das zu erkennen, sind Vergleiche ein nützliches Instrument.

  • Bei Strahlung ist die schädliche Wirkung von hoher Kurzzeitdosis bewiesen, dazu gibt es einige wenige Beispiele. Dennoch wird dort gemäß dem Vorsorgeprinzip JEDE noch so kleine Dosis verboten. Wenn es tatsächlich um die Gesundheit der Menschen gehen würde, sollte dieses Vorgehen auch dort praktiziert werden, wo es sehr viele Beispiele für einen Schaden gibt, und das ist und bleibt der Alkohol. Also sollten zur Vorsorge für die Gesundheit auch bei Alkohol JEDE noch so kleine Dosis minimiert werden und infolgedessen verboten werden — das macht man aber nicht, denn man weiß um die Unsinnigkeit dieses Vorgehens.
  • So wie man bei Strahlung aus der Dosis-Wirkungsbeziehung virtuelle Opfer nach der LNT-Formel berechnet, so sollte man aus der bekannten Dosis-Wirkungsbeziehung bei Alkohol ebenso eine LNT-Formel ableiten und daraus die virtuellen Opfer des Alkohols berechnen. Das Ergebnis wären einige Millionen Todesopfer durch Alkohol jedes Jahr in Deutschland, und die gibt es nicht.
    Die Berechnung virtueller Todesopfer ist unsinnig, bei Strahlung, und bei Alkohol. Und auch bei NO2 und Feinstaub, wie es zur Zeit in der aktuellen Diskussion geschieht.

Was sollte getan werden?

Das Prinzip der „adaptive Antwort“ bzw. der „Hormesis“ ist ein universelles Prinzip in der belebten Natur. Lebewesen müssen trainieren um fit zu werden, wir wissen das vom Lernen der Vokabeln aus der Schulzeit und vom Sport. Dasselbe gilt auch für die Abwehr von körperfremden Substanzen und Strahlung, diese Abwehr macht den Körper fit und das dient der Gesundheit. Strahlenbiologen erklären den Mechanismus, wie die biopositive Wirkung der Strahlung funktioniert [12]. Die öffentliche Meinung zu Strahlung wurde seit nahezu einem ganzen Jahrhundert fehlgeleitet mit katastrophalen Folgen für die Menschheit.

Es gibt heutzutage keine Möglichkeit, in den Genuß der nützlichen Strahlenwirkung zu gelangen, wie es oben in Beispiel 3 von Luckey, Doss, Allison, Sanders angedeutet wird. Nur Einzelpersonen wie Alexander Gerst hatten in der ISS die Möglichkeit. Man weiß aber nicht, wie lange diese Positivwirkung für Herrn Gerst anhält. Um für die Erdenbürger hier unten eine Dauerbestrahlung wie in der ISS zu erreichen, braucht man künstliche Gamma-Quellen, wie es sich beim Co-60-Ereignis von Taiwan zum Glück ergeben hatte [13]. Mit Hilfe einer Co-60-Punktquelle der Aktivität im Bereich von 107 bis 108 Bq und Abstand kleiner als einem Meter ist der erforderliche Strahlenpegel zu erreichen – die Strahlen-„Schutz“-Gesetze verbieten das.

Die Strahlenschutzregeln gemäß der LNT-Hypothese und dem ALARA-Prinzip sind der folgenreichste wissenschaftliche Irrtum der Neuzeit (Prof. Walinder). Sie verhindern nicht nur die Versorgung der Menschheit mit billiger und unerschöpflicher Kernspaltungsenergie, sondern sie verhindern auch die Nutzung von ionisierender Strahlung um beste Gesundheit für die Menschen zu erreichen. Was heute an Arbeit zur Minimierung von Strahlendosen aufgewendet wird, sollte in Forschungsarbeiten zur nützlichen Strahlenwirkungen am Menschen investiert werden. Dazu sind zunächst die Strahlenschutzregeln ein Hindernis, eine 180-Grad-Wende ist erforderlich. Zuerst beim Gesetzgeber, dann bei der öffentlichen Meinung.

Die Obrigkeit hat kein Recht, den Menschen die für eine optimale Gesundheit erforderliche Strahlendosis zu verweigern. Jeder Mensch sollte die Möglichkeit haben, in freier Entscheidung selber zu bestimmen, um sein Strahlendefizit durch eine Zusatzdosis auszugleichen. Es ergibt sich die Frage, ob die heutigen Strahlenschutzgrundsätze nicht gegen die in Art. 1 und 2 GG garantierten Grundrechte „Würde des Menschen“ und „körperliche Unversehrtheit“ verstoßen.

Literatur

[1] Richard Friebe, „Hormesis, Wie Stress und Gift uns stärker machen“, ISBN 978-3-446-44311-2, 21,50 EURO

[2] Römpp-Chemielexikon, Wikipedia

[3] https://www.ncbi.nlm.nih.gov/pubmed/12195028 Calabrese et.al. “Hormesis The Dose-Response Revolution”

[4] Mitteilung von Prof. Dr. Hans-Günter Appel, naeb

[5] Deutsches Ärzteblatt Heft 17, 26.4.2013 auf Seite 720

[6] https://www.eike-klima-energie.eu/2018/06/24/die-widerspruechlichkeiten-beim-strahlenschutz/

[7] T. Henriksen et.al., „Radiation and Health“, 2012, kostenlos unter http://tinyurl.com/nlsm4wm

[8] W. Allison, “Nuclear is for Life, A Cultural Revolution”, 280 Seiten, 25,50 EURO

[9] Charles L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“, 210 Seiten, 171,- EURO

[10] Hiserodt, “Underexposed, What if Radiation is actually GOOD for You?” ISBN 0-930073-35-5, 249 Seiten

[11] DIE WELT vom 2.2.2017 „Nasa entdeckt Jungbrunnen-Effekt bei Weltraumreisen“ auf Seite 1

[12] https://www.ncbi.nlm.nih.gov/pubmed/15673519

[13] http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2477708/




Kritik an der Treibhaus-Klimawandel­hypothese, Teil 1 Durch „Tuning“ zu passenden Modellen

Wir wollen deshalb hier einmal versuchen, möglichst klar und prägnant die Kernthesen der Treibhaus-Klimawandel-Hypothese herauszuarbeiten – und warum sie falsch sind. Was also sind die konkreten Behauptungen der Klimawandel-Industrie? Prinzipiell kann man den von ihr postulierten Prozess des vermeintlichen menschlich verursachten “Klimawandels” in zwei Stufen einteilen:

Erstens, das was man als “primären” oder “physikalischen” Treibhauseffekt bezeichnen kann; konkret wird behauptet, dass eine Verdoppelung der atmosphärischen Kohlendioxidkonzentration vom vorindustriellen Wert von 0,028 auf 0,056 Prozent – die derzeitige Konzentration beträgt 0,041 Prozent – in eine Erhöhung der Einstrahlung an der Erdoberfläche um etwas mehr als 1 Prozent (3,7 Watt pro Quadratmeter) resultiert, was weiterhin zu einer Temperaturerhöhung um 1 Grad Celsius führt (Dies wird in der Literatur auch als Planck-Wert bezeichnet).

Nicht einmal die Klimawandel-Industrie wagt aber zu behaupten, dass eine solch geringe Temperaturerhöhung zu wesentlichen Problemen führen würde (Ab 1,5 Grad Celsius soll es aber angeblich ganz fürchterlich werdeni). Deshalb wird in den Klimamodellen als zweite Stufe eine Verstärkung der initialen Erwärmung durch Rückkopplungseffekte postuliert: Durch die Erwärmung verdampft mehr Wasser; Wasserdampf ist aber auch ein Treibhausgas, was dazu führt das es noch wärmer wird und noch mehr Wasser verdampft und so weiter und so fort. Über die Höhe der dadurch erreichten Verstärkung ist man sich in den verschiedenen Modellen durchaus nicht so ganz einig; als “Konsenswert” wurde vom IPCC, der UNO-”Klimabehörde” ein Faktor 3 festgelegt. Das würde also heißen, dass eine Verdoppelung der Kohlendioxidkonzentration zu einer Temperaturerhöhung um 3 Grad Celsius führen würde.

Eventuell könnte man dann noch als dritte Stufe die Auswirkungen dieser postulierten Erwärmung auf spezifische klimatische Ereignisse einführen, welche bekanntlich in den grellsten Farben ausgemalt werden – massiver Anstieg des Meeresspiegels, mehr Stürme und so weiter.

Alle diese Behauptungen basieren jedoch einzig und allein auf den berühmt-berüchtigten Klima-Modellen. Dafür, dass diese “Modelle” in der Lage sind, das real existierende Klima auf der Erde vorherzusagen gibt es jedoch keinerlei Beleg. Ganz im Gegenteil: Sie versagen bereits bei der Aufgabe, auch nur vergangene Klimaentwicklungen zu reproduzieren.

Man ist deshalb dazu gezwungen, die Abweichungen von der Realität irgendwie auszubügeln. Zunächst bediente man sich hierzu vorwiegend der “Flusskorrekturen”: dabei werden Werte im Modell – etwa Temperatur oder Wassergehalt – so korrigiert, dass sie mit den beobachteten Werten übereinstimmen. Wenn beispielsweise in einem globalen Klima-Modell das für die Atmosphäre zuständige Teilmodell eine Temperatur liefert, welche um 2 Grad Celsius höher ist als tatsächlich gemessen, so wird auf diese Temperatur einfach eine “Flusskorrektur” von minus 2 Grad Celsius angewandt, bevor man den Wert ausgibt oder an ein anderes Teilmodell (etwa für den Ozean) weiterleitet. Bei dieser grobschlächtigen Methode tritt natürlich die Unzulänglichkeit der Modelle klar zutage; in neuerer Zeit setzt man deshalb, in einem Versuch die Schummelei nicht gar so offensichtlich zu machen, stattdessen auf das sogenannte ”Tuning”. In einer der – bezeichnenderweise raren – wissenschaftlichen Veröffentlichungen (Mauritsen et al., “Tuning the climate of a global model”) zu diesem heiklen Thema wird die Vorgehensweise bei dieser Methode so beschrieben:

Während der Entwicklungsphase werden die Eigenschaften globaler Klimamodelle auf vielfältige Art und Weise so eingestellt oder getunt, dass sie möglichst gut dem bekannten Zustand des klimatischen Systems der Erde entsprechen. Diese gewünschten Eigenschaften sind beobachtbare Größen wie das Strahlungsgleichgewicht an der Grenze zum Weltall, die weltweite Durchschnittstemperatur, Meereis, Wolken und Windfelder. Das Tunen erfolgt üblicherweise durch die Anpassung nicht genau bekannter, oder sogar nicht beobachtbarer, Parameter von Prozessen, welche nicht explizit im Modell repräsentiert werden.”

Im Klartext: Wir haben zwar keine Ahnung, was diese klimatischen Prozesse eigentlich tun, aber wir stellen sie einfach einmal so ein, dass die Abweichungen (oder zumindest ein Teil der Abweichungen) in unserem Modell zum tatsächlich beobachteten Klima ausgeglichen werden. Das ist natürlich keine wirkliche Verbesserung gegenüber den Flusskorrekturen, weshalb es nicht verwundert, dass man es auch hier vermeidet, das Vorgehen an die große Glocke zu hängen. In einer anderen Veröffentlichung (Hourdin et al., “The art and science of climate model tuning”)ii wird der nicht gerade offene Umgang mit der Tuning Problematik vorsichtig thematisiert:

“Obwohl die Notwendigkeit des Parametertunens in bahnbrechenden Arbeiten anerkannt (z.B. Manabe und Wetherald 1975) und als wichtiger Aspekt in erkenntnistheoretischen Studien der Klimamodellierung behandelt wurde (Edwards 2001), wird die Bedeutung des Tunens vermutlich nicht so deutlich kommuniziert wie es sollte. Es wird oftmals ignoriert, wenn die Leistungen von Klimamodellen in Multi-Modell Analysen verglichen werden. Die Tuning-Strategien waren nicht einmal Teil der erforderlichen Dokumentation der CMIP5 Simulationen. [Ein Vergleich von Klimamodellen, welcher die Basis für einen wesentlichen Teil der Berichte des IPCC bildet] … Warum ein solcher Mangel an Transparenz? … Es mag auch Bedenken geben, dass eine Erklärung der Tatsache, dass die Modelle getunt sind, die Argumente derer stützen würde, welche die Korrektheit der Prognosen des Klimawandels in Zweifel ziehen. Das Tunen kann durchaus als verstohlene Methode gesehen werden, Fehler in den Modellen zu kompensieren.”

Etwas weiter wird dann eingestanden, dass diese Funktion des Tunings als Fehlervertuschung nicht nur so gesehen werden kann, sondern schlichtweg eine Tatsache ist:

Sobald eine Modellkonfiguration festgelegt ist, besteht das Tunen darin, Parameterwerte so zu wählen, dass die Abweichung der Modellausgaben von Beobachtung oder Theorie minimiert oder auf ein akzeptables Maß reduziert wird. Wenn man es so definiert, wird Tuning in anderen Anwendungsbereichen komplexer numerischer Modelle gewöhnlich als Kalibrierung bezeichnet (Kennedy und O’Hagan 2001). Einigen Klimamodellierern widerstrebt es jedoch, diesen Begriff zu verwenden, da sie wissen, dass sie durch die Parameteranpassungen, absichtlich oder nicht, auch (oft unbekannte) Defekte in der Modellformulierung selbst kompensieren.”

Dieselbe Veröffentlichung enthält auch eine Umfrage unter Klima-Modellierungsgruppen, welche die Notwendigkeit des Tunings eindringlich unterstreicht – von den 23 Befragten geben 22 an, dass sie ihre Modelle tunen. Die einsame Ausnahme lässt sich wohl mit der Tatsache erklären, dass unter die ganzen Klimamodelle auch eines für die Wettervorhersage geraten war – dort hat man im Gegensatz zur Klimagemeinde nicht den Luxus, nachträglich noch Schummelkorrekturen anwenden zu können, hier werden korrekte Vorhersagen erwartet.

Als Stellschrauben zur Klima-”Korrektur” werden insbesondere Parameter im Zusammenhang mit Wolken und Konvektion, der Interaktion beim Auftreffen von Wind auf Bergen, der ozeanischen Wassermischungsverhältnisse und der Reflektivität von Schnee und Meereis verwendet. So führt beispielsweise eine Erhöhung der Rate, mit der beim konvektiven Aufsteigen von Wolken deren Feuchtigkeit als Niederschlag ausfällt, zu weniger Wolken, was weniger Rückreflektion der Sonneneinstrahlung ins Weltall bedeutet und damit zu einer höheren Temperatur. Hier Mauritsen et al. mit einem konkreten Beispiel:

“An diesem Punkt war klar, dass das neue gekoppelte Modell im Vergleich zu der von uns angepeilten vorindustriellen Temperatur zu warm war. Verschiedene Maßnahmen zur Senkung der globalen Durchschnittstemperatur durch Änderung der konvektiven Entrainment Raten, des Anteils überschießender Konvektion und der Wolkenhomogenitätsfaktoren wurden getestet. Letztendlich wurde entschieden, vorwiegend einen von 0,70 auf 0,77 erhöhten Homogenitätsfaktor für flüssige Wolken kombiniert mit einer leichten Reduzierung des Anteils der überschießenden Konvektion von 0,22 auf 0,21 zu verwenden, was eine Erhöhung der Wolkenreflektivität in niedrigeren Höhen und damit eine Reduzierung der Abweichung der Oberflächentemperatur-bewirkte. Jetzt war die weltweite Durchschnittstemperatur genügend nahe an unserem Zielwert und das Abdriften nur mehr sehr schwach ausgeprägt.”

Angesichts der Tatsache, dass sich in der Klima-”Wissenschaft” seit Jahrzehnten fast ausschließlich alles darum dreht, einen menschlichen Einfluss auf das Klima zu demonstrieren, ist es nicht verwunderlich, dass beim Modell-“Tunen” neben natürlichen klimatischen Prozessen auch vermeintliche menschliche Einflüsse bemüht werden. Hierbei geht es insbesondere um die durch Emissionen von Industrie, Kraftwerken und Verkehr in die Atmosphäre gelangenden sogenannten Aerosole. Ihre angebliche Klimawirksamkeit wurde bereits unter anderen Vorzeichen in den 70er Jahren propagiert – damals wurden sie beschuldigt, durch Blockade der Sonneneinstrahlung für das Kommen einer neuen Eiszeit verantwortlich zu sein.iii Ihre heutige Bedeutung ergibt sich dadurch, dass sie verwendet werden, um das offensichtliche Versagen der Treibhausmodelle bei der Beschreibung des Klimas des 20sten Jahrhunderts zu kaschieren; wie bereits erwähnt, soll eine Verdoppelung der Kohlendioxidkonzentration seit dem Beginn der Industrialisierung eine Temperaturerhöhung von etwa 3 Grad Celsius bewirken. Von dieser Verdoppelung ist knapp die Hälfte bereits eingetreten; da die Auswirkung nicht linear, sondern (annähernd) logarithmisch ist und andere Treibhausgase wie Methan ebenfalls zugenommen haben, sollte der größte Teil dieser 3 Grad Celsius Erwärmung bereits jetzt geschehen sein. Aber selbst mit allen Tricks und intensivster Massage von historischen Temperaturdaten kommt man gerade einmal auf eine Erhöhung von 0,85 Grad Celsius.iv Als Retter in der Not kommen nunmehr die Aerosole zum heldenhaften Tuningeinsatz – ihre vermeintlich kühlende Wirkung auf das Klima soll die fehlende Erwärmung erklären:

Einer der wenigen Tests, welchen wir Klimamodelle unterziehen können, ist ob sie in der Lage sind den beobachteten Temperaturverlauf seit dem Beginn der Industrialisierung bis hin zur Gegenwart zu reproduzierten. Die Modelle schneiden hierbei überraschend gut ab (Räisänen, 2007), wenn man die breite Spanne an Klimasensitivitäten bedenkt – ein Verhalten welches auf eine Kompensation durch anthropogenen Einfluss im zwanzigsten Jahrhundert zurückgeführt wird (Kiehl, 2007): Modelle mit einer hohen Klimasensitivität tendieren dazu, einen schwachen anthropogenen Einfluss zu haben und umgekehrt. Weiterhin wurde als Ursache für einen Großteil der Abweichungen zwischen den Modellen unterschiedliche Aerosoleinflüsse bestimmt.”

Die vermeintliche Temperaturwirkung der Aerosole wird also einfach dreist so angenommen, wie es gerade eben passt – und das auch noch für jedes Modell anders. Dass menschlich verursachte Aerosole überhaupt irgendeinen nennenswerten Einfluss auf das globale Klima ausüben, erscheint aufgrund der Tatsache, dass diese lediglich im unteren Bereich der Atmosphäre verbreitet werden, mit daher kurzer Verweildauer in der Atmosphäre und einer räumlich begrenzten Verbreitung rein prinzipiell als unplausibel. Messungen der Durchlässigkeit der Atmosphäre für Sonneneinstrahlung für das letzte Jahrhundert zeigen denn auch mit Ausnahme von größeren Vulkanausbrüchen, bei welchen Material hoch in die Stratosphäre geschleudert wird – was zu jeweils kurzzeitigen Einstrahlungssenkungen mit entsprechender weltweiter Abkühlung führte – keine nennenswerten Veränderungen an.v Es ist nicht einmal sicher, dass insofern die Aerosole überhaupt einen Einfluss ausüben, dieser tatsächlich, wie behauptet, abkühlend ist – es gibt auch Aerosole die die Sonneneinstrahlung nicht reflektieren, sondern absorbieren und damit erwärmend wirken.

Hier wird auch ein weiteres massives Problem der Klimamodelle deutlich, nämlich die großen Abweichungen der verschiedenen Modelle voneinander. Es geht also nicht nur darum, ob man den Modellen Glauben schenken will – sondern welchem denn nun. Oben haben wir festgehalten, dass bei einer Verdoppelung des Kohlendioxidgehalts in der Atmosphäre eine Einstrahlungserhöhung um 3,7 Watt pro Quadratmeter behauptet wird, was laut IPCC-Konsenswert zu einer Temperaturerhöhung um 3 Grad Celsius führen soll. Was sich hinter der Nennung solcher Modell-“Durchschnitte” verbirgt, sehen wir etwa hier bei Hourdin et al.:

“Dieses Tunen des Energiegleichgewichts ist von entscheidender Bedeutung, da eine Änderung um 1 W/m2 des Energiegleichgewichts in globalen Klimamodellen, je nach Sensitivität des jeweiligen Modells, typischerweise zu einer Änderung um 0,5 bis zu 1,5 K in der weltweiten Durchschnittstemperatur führt.”

Also mal ganz locker Unterschiede um den Faktor 3. Und das auch nur, wenn wir im “typischen” Bereich bleiben – die Bandbreite ist also eher noch größer. Bei Mauritsen et al. wird aufgezeigt, was das für Auswirkungen hat:

“Jedoch beträgt die Spanne zwischen dem kältesten und dem wärmsten Modell fast 3 Grad Kelvin, mit gleichem Abstand nach Oben und Unten zu den tatsächlichen Werten, wobei die Mehrheit der Modelle nach Unten tendieren. Obwohl die Spanne nur ein Prozent relativ zum absoluten Nullpunkt beträgt, ist dies kaum ein Grund zur Beruhigung. Relativ zu der Erwärmung im 20igsten Jahrhundert ist die Spanne um den Faktor vier größer, während sie in etwa unserer besten Abschätzung der klimatischen Auswirkung einer Verdoppelung der Kohlendioxidkonzentration und etwa der Hälfte des Unterschieds zwischen dem letzten eiszeitlichen Maximum und der Gegenwart entspricht.”

Dem ist wohl nichts hinzuzufügen. Dennoch regen sich nur vereinzelt Stimmen in der Modellierungsgemeinde, welche die Konsequenzen ziehen und es wagen, wie hier, prinzipielle Kritik an der Praxis des Tunings zu üben (Dommenget und Rezny, “A Caveat Note on Tuning in the Development of Coupled Climate Models”)vi:

Aktuelle globale Klimamodelle weisen wesentliche Fehler in ihren Simulationen des Klimas auf. Insbesondere können diese Fehler zu großen Unsicherheiten in den simulierten Auswirkungen (sowohl global als auch regional) einer CO2-Verdoppelung führen. Zurzeit werden globale Klimamodelle durch umfangreiches Tunen der Modellphysik im Rahmen von Parametrisierungen entwickelt. Es ist nicht klar, ob solches Tunen die Modelle tatsächlich verbessert. Der Prozess des Tunens ist (im Allgemeinen) weder dokumentiert noch reproduzierbar. … Das Tunen mag die Modellergebnisse verbessern (wie etwa die Reproduktion beobachteten vergangenen Klimas), erzielt jedoch keine Annäherung an die “wahre” Physik; ebenso wenig werden dadurch Prognosen des zukünftigen Klimawandels nennenswert verbessert.”

Tatsächlich macht das Tunen das Modell nur noch schlechter, da beim Tunen eines Teilbereichs des Modells auch andere Teilmodelle von den dadurch verfälschten Werten beeinflusst werden:

Innerhalb der globalen Klimasimulation verursachen die Fehler in den jeweiligen Teilmodellen – zum einen Fehler in der Parametrierung des Teilmodells selbst, zum anderen falsche Eingabewerte, die es von anderen Teilmodellen erhält – Folgefehler. Beim Tunen des globalen Klimamodells werden die Parameter in allen Teilmodellen so eingestellt, dass Beides kompensiert wird. Wenn sich zum Beispiel in einer globale Simulation Abweichungen in der Wolkenbedeckung in einer bestimmten Region zeigen, so kann dies sowohl von einem Fehler im Wolkenmodell oder von einem falschen Eingabewert herrühren (Abweichender Durchschnittszustand in anderen klimatischen Variablen). Das Entwicklungsteam des Modells könnte zu dem Entschluss kommen, die Parameter des Wolkenmodells zu tunen, obwohl eigentlich falsche Eingabewerte in das Wolkenmodell aufgrund von Problemen in anderen Teilmodellen verantwortlich sind. … Tatsächlich erschwert das Tunen die Modellentwicklung (und Verbesserung): Das Tunen von Klimamodellen führt zu Kompensationsfehlern, welche effektiv alle Teilmodelle des globalen Modells voneinander abhängig machen. Deshalb ist es so gut wie sicher, dass das Ersetzen oder Austauschen von Teilmodellen die Simulation des Gesamtklimas verschlechtern wird und weitere Optimierung notwendig ist. Die Optimierung wird dann (ein weiteres Mal) die Modellphysik von der “Wahrheit” entfernen.”

Durch Tunen mag man es zwar so hintricksen, dass das die von einem Modell gelieferten Resultate für ein ganz bestimmtes Szenario zumindest halbwegs mit dem real beobachteten Klima übereinstimmt. Die Wahrheit kommt aber spätestens dann ans Licht, wenn man versucht, das Modell für eine andere Situation einzusetzen als für die, für welche es “optimiert” wurde:

Damit hat der Optimierungsansatz es zwar geschafft den indirekten Fehler zu reduzieren, hat aber gleichzeitig die direkten Fehler für die Reaktion zu einer CO2 Verdopplung erhöht. Er hat Kompensationsfehler erzeugt, die nur sichtbar werden, wenn er auf ein Problem angewandt wird, das sich wesentlich von dem unterscheidet für das er getunt wurde. … Der Tuning Prozess wird die Verlustfunktion reduzieren, aber die Physik die wir dadurch erhalten, ist nicht näher an der “wahren” Physik. Danach scheint es zwar so, als ob die Modelle das Klima besser reproduzieren können, aber wenn eine detaillierte Analyse auf Basis der physikalischen Prozesse oder unter anderen klimatischen Szenarios (z.B. erdgeschichtlich weiter zurückliegend oder zukünftige Klimawandelszenarien), so werden gravierende Modellierungsfehler auftreten.”

Die Autoren kommen deshalb zu dem Schluss, man solle doch besser wieder mit offenem Visier schummeln und zu den heute verpönten Flusskorrekturen zurückkehren:

“Flusskorrekturen sind eine nützliche Alternative: Sie bewirken keine Veränderung der Modellphysik, weshalb keine Optimierung notwendig ist. Weiterhin tritt keine Fehlerkompensation aufgrund des Tuning Prozesses auf. Ein weiterer Vorteil ist, dass Flusskorrekturen leicht zu dokumentieren und zu quantifizieren sind – die Korrektur ist einfach ein Eingabewert für das Modell (und kann abgeschaltet werden).”

Flusskorrekturen sind insofern das kleinere Übel, weil sie zumindest deutlich signalisieren, wo die Fehler im Modell liegen, während Tuning diese nur vertuscht aber nicht nur nicht löst, sondern sogar noch vermehrt. Natürlich setzt dies voraus, dass man wirklich an der “wahren” Physik des Klimas interessiert ist – etwas, was bei der heutigen Treibhaus-Klimaindustrie in der Regel mit Fug und Recht bezweifelt werden darf.

Es muss betont werden, dass selbst nach dem “Tunen” immer noch genügend Abweichungen zwischen den Modellen und der Realität übrigbleiben (Schmidt et al., “Practice and philosophy of climate model tuning across six U.S. modeling centers”)vii:

“Die Grenzen des Tunens sind wohlbekannt (Mauritsen et al., 2012; Schmidt und Sherwood, 2014; Hourdin et al., 2016). Zunächst einmal ist es bemerkenswert wenig hilfreich, wenn es um die Verbesserung der allgemeinen Modellfähigkeiten geht, sobald ein ausreichender Teil des Parameterraums identifiziert wurde – zum Beispiel war Tuning nicht in der Lage, das hartnäckige Problem der sogenannten “Doppelten Innertropischen Konvergenzzone” zu lösen (Lin, 2007; Oueslati and Bellon, 2015). Zweitens sind Verbesserungen in einem Bereich oftmals von Verschlechterungen in einem anderen begleitet, weshalb die letztendliche Parameterwahl subjektive Bewertungen über die relative Wichtigkeit verschiedener Aspekte der Simulationen beinhaltet. Zum Beispiel benutzt der australische Beitrag zu CMIP5 (ACCESS v.1) eine Variante des britischen Met Office Atmosphärenmodells mit kleineren Modifikationen um Problemen in den Tropen und der südlichen Hemisphäre, welche die Vorhersagen für Australien betreffen, entgegenzuwirken, auf Kosten der Leistung anderswo (Bi et al., 2013). Es gibt viele weitere offensichtliche Abweichungen von der Realität in Modellsimulationen, die über Modellgenerationen erhalten bleiben, was darauf schließen lässt, dass diese Aspekte resistent gegen Änderungen im Rahmen der Modellentwicklung sind (das schließt das Tunen ein) (Masson and Knutti, 2011).”

Die Unzulänglichkeiten der Klima-Modelle bieten schier endlosen Diskussionsstoff, aber wir wollen es bei den bisherigen Punkten belassen, welche ganz bewusst zu einem Großteil in Form von Zitaten der Worte der Klimamodellierer selbst dargelegt wurden; sie sind mehr als ausreichend, um die völlige Ungeeignetheit der sogenannten Klima-Modelle einen vermeintlichen Treibhausgas-induzierten Klimawandel – oder sonst irgendetwas – zu belegen: Sie sind nicht nur nicht dazu imstande, das tatsächlich beobachtete Klima zu reproduzieren (geschweige denn vorherzusagen) sie zeigen auch noch massive Abweichungen untereinander; und selbst das “Tunen” schafft es nur, die allergröbsten Abweichungen von der Realität zu kaschieren.

Auch gibt es keine Anzeichen dafür, dass sich die von den Modellen gelieferten Ergebnisse trotz der massiven Fortschritte in der verfügbaren Computerleistung über die letzten Jahrzehnte in irgendeiner Weise verbessert haben. Eine interessante Frage ist, ob die oftmals stark nichtlinearen Prozesse im irdischen klimatischen System eine prinzipielle Barriere für den Einsatz von Klimamodellen darstellen, oder ob diese bei einem Wegfall der ihnen aufgezwungenen politischen “Zielorientierung” doch noch eine nützliche Rolle spielen könnten. Das hängt natürlich auch davon ab, ob man sich der “offiziellen” Position in der Klimaforschung anschließt, dass klimatische Variabilität im Wesentlichen intern im irdischen Klimasystem bestimmt wird oder ob man externe Einflüsse – etwa Sonnenaktivität – als wichtige Faktoren in Betracht zieht.

Für die Beantwortung der Frage der Korrektheit der Treibhaus-Klimawandelhypothese spielt das aber keine Rolle. Um diese zu widerlegen benötigen wir keine Modelle, sondern lediglich die empirischen Beobachtungen des irdischen Klimas. Das soll das Thema des nächsten Artikels sein.

Mauritsen et al. 2012, „Tuning the climate of a global model“

Hourdin et al. 2017, „The Art and Science of Climate Model Tuning“

Dommenget und Rezny 2017, „A Caveat Note on Tuning in the Development of Coupled Climate Models“

Schmidt et al. 2017, „Practice and philosophy of climate model tuning across six U.S. modeling centers“

Anmerkung: Dieser Beitrag erschien auch hier.




Eisheiligen 2019, Teil 2: In der freien Fläche besonders kalt

Als Gegenwart nehmen wir den Zeitraum ab 1997. Die Grafik der Stadt Potsdam sieht so aus:

Grafik 1: Die fünf Eisheiligentage in der Landeshauptstadt Potsdam. Sie werden deutlich kälter. 2019 ist aber nicht der tiefste Punkt der Grafik. In Potsdam war der Schnitt der fünf Eisheiligentage 2005 und 2010 noch etwas kälter als der Gesamtschnitt der Eisheiligentage 2019

Die Klimastation Potsdam ist eine typisch städtische Station, die kalten Nordwinde der Eisheiligen haben in einer Stadt keinen Zutritt. Außerdem werden die kalten Tage/Nächte rausgeheizt. Zudem befindet sich nördlich von Potsdam die deutsche Hauptstadt Berlin. Was soll da noch an kalten Nordwinden bei der Wetterstation ankommen?

Bad Kreuznach im Oberrheintal: Mit Bad Kreuznach wollen wir eine Station aus dem Süden Deutschlands, aus der sonnigen Oberrheinebene darstellen. Die Trendlinie der Daten unseres interessierten Wetter- und kritischen Klimabeobachters Matthias Baritz hat die negative Steigung y = – 0,147 für die letzten 23 Eisheiligenschnitte.

Die DWD-Wetterstation befindet sich nördlich, außerhalb des Ortes

Grafik 2: Bad Kreuznach in der Oberrheinischen Tiefebene, die Trendlinie der Gegenwart ist für die Eisheiligen leicht fallender als in Potsdam.

Dresden/Klotzsche:

Die DWD- Wetterstation befindet sich im Vorort Klotzsche am Flughafen nördlich der sächsischen Landeshauptstadt. Nördlich bedeutet, dass die kalten Winde der fünf Eisheiligentage aus nördlicher Richtung zumindest erst bei der Wetterstation ankommen, bevor sie in der Stadt aufgewärmt werden oder durch die Häuserzeilen ganz abgebremst sind.

Grafik 3: DWD-Station Dresden Klotzsche. Eisheilgen in der Gegenwart. Die Trendlinie ist etwas fallender als Potsdam und die Eisheiligen 2019 sind die kältesten seit 1997.

Goldbach bei Bischofswerda im Osten Sachsens: Der kleine Vorort hat knapp 500 Einwohner.

Grafik 4: Die Eisheiligen 2019 sind deutlich die kältesten, Quelle der Daten: Stationsleiter Dietmar Pscheidt.

Schneifelforsthaus: Diese DWD-Wetterstation befindet sich in der Eifel, nahe der belgischen Grenze, in unmittelbarer Nähe ist allerdings die Kreuzung 2-er größerer Fernstraßen.

Grafik 5: Auch ganz im Westen Deutschlands sind die Eisheiligen außerhalb der Städte deutlich kälter geworden. Allerdings ist der Schnitt der fünf kalendarischen Eisheiligentage 2019 mit 6,36 C innerhalb des Gegenwarts-Betrachtungszeitraum nicht der tiefste. Jedoch waren die Eisheiligen 2019 im Westen Deutschlands nicht so kalt wie im Osten Deutschlands

Nürnberg/Netzstall

Die DWD Station Netzstall befindet sich bei einem Aussiedlerhof im SO Nürnbergs, deutlich außerhalb der Stadt. Aber immerhin werden die kalten Nordwinde der Eisheiligen durch die Stadt abgemildert. Der fehlende Wert des Jahres 2000 wurde nach den benachbarten Stationen Nürnberg und Nürnberg-Roth interpoliert.

Grafik 6: Der Aussiedlerhof Netzstall bei Nürnberg zeigt in der Gegenwart bereits eine bedenklich fallende Trendlinie der fünf Eisheiligentage.

Eine Klimastation vollkommen in der freien Fläche, weit weg von irgendwelche Wärmeinseln haben wir keine gefunden. Stationen bei unbeheizten Klöstern, bei Forsthäusern am Waldrand, solche Standorte gibt’s einfach nicht mehr.

Anhand der sechs ausgesuchten Wetterstationen konnte gezeigt werden, dass die Eisheiligen der Gegenwart selbst in einer Landeshauptstadt und in unmittelbarer Nähe zur Großstadt Berlin eine fallende Trendlinie haben, aber außerhalb der Städte eben noch deutlicher negativ (kälter) sind. Wie es weitergeht weiß niemand, denn CO2 hat auf das Klima der Erde keine wärmende Wirkung. Kein einziger Versuch kann diesen Erwärmungsglauben bei einer Verdopplung von CO2 beweisen. Meistens werden auch noch falsche Strahlungsquellen bei Konzentrationen von 100% CO2 verwendet, und der Versuch zeigt halt irgendwas an. Meistens jedoch gar nichts.

Der Verfasser hat für seine jahrelangen Versuche am Ende den Erdboden selbst als Bestrahlungsquelle verwendet. Die beiden Versuchsaufbauten – 100% CO2 im Vergleich zu Luft- hingen an meiner Terrasse, 4m vom Haus entfernt, in Augenhöhe.  Weder bei Sonnenbestrahlung, noch im Schatten, weder über den Tag, noch in der Nacht und auch nicht während den verschiedenen Jahreszeiten gab es irgendwelche Temperaturunterschiede. Beide Thermometer zeigten immerfort konstant gleiche Temperaturen. Die Bodenrückstrahlung konnte keinen von beiden Behältern mehr erwärmen, CO2 mag zwar infrarote Bodenrückstrahlung absorbiert haben, das Gas wurde jedoch nicht wärmer. Folge: den Treibhauseffekt gibt es nicht oder nur in einer nicht messbaren Größe

Der einzig menschengemachte Anteil an den Temperaturen ist der jährlich zunehmende Wärmeinseleffekt bei den DWD-Stationen aufgrund der ständigen weiteren Bebauung.

Aber bedenklich stimmen die deutlich fallenden Trendlinien für die Wald- Land- und Weinbauwirtschaft schon, schließlich wachsen die wärmeliebenden Eschen und die blühenden Apfelbäume der Streuobstwiesen nicht vor den Rathäusern der Großstädte.

Die aktuellen Erklärungsirrversuche der CO2-Erwärmungsgläubigen über die bedenklich kälter werdenden Eisheiligen findet man in diesem EIKE-Artikel von Helmut Kuntz.

Gesamt: Da die beiden ländlichen Vergleichsstationen DD-Klotzsche und Schneifelforsthaus 500 km auseinander liegen und in der Gegenwart ebenso wie Potsdam, Netzstall und Goldbach deutlich kälter werden, gehen wir davon aus, dass der Deutsche Wetterdienst keine einzige Wetterstation finden wird, die „in der Gegenwart“, „in den letzten Jahren“, in „jüngster Zeit“ positive Steigungen hat, zumal der Gesamtmonat Mai trotz des wärmsten Jahres 2018 seit 30 Jahren auch eine leicht fallende Trendlinie zeigen wird.

Nach vielen Falschmeldungen der Medien in den letzten Jahren über „Eisheiligen werden zu Heißheiligen“ erwarten wir vom DWD Vorstand Friedrich folgende Eisheiligenpressemitteilungen: „ Der Monat Mai wird in der Gegenwart kälter, aber die Eisheiligen werden noch kälter.“ Und als Ergänzung: „Die Eisheiligen werden in der freien Fläche Deutschlands bald wieder so kalt sein wie zur kleinen Eiszeit. Die starke Abkühlung der Eisheiligen in der Gegenwart konnte auch durch die Zunahme der CO2-Konzentration nicht aufgehalten werden.“

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher




Ein Experiment zur Ozean-Versauerung

Wird der Luft über der Wasseroberfläche CO2 hinzugefügt, wird erwartet, dass sich die Chemie des Wassers ändert, und der Schwerpunkt liegt beim pH-Wert des Säuregehaltes. Ich denke, dass die Änderung des pH-Wertes, wenn dieser sich im Gleichgewicht befindet, ziemlich leicht erfasst werden kann mit einem billigen, tragbaren pH-Meter mit einer Auflösung von 0,01, aber die gemessene Größenordnung des Effektes scheint signifikant geringer als in der neueren wissenschaftlichen Literatur genannt. In diesem Beitrag geht es zumeist um die Art der Durchführung des Experimentes nebst dessen Ergebnissen.

Aufbau des Experimentes

Eine schematische Übersicht des Experiment-Aufbaus zeigt die folgende Abbildung. Ein luftdichter 2-Liter-Vorratsbehälter enthält Luft und Meerwasser sowie tragbare, batteriebetriebene Instrumente zur Messung des pH-Wertes und des atmosphärischen CO2-Niveaus. Letzteres kann verändert werden mittels Einleitung von zusätzlichem CO2. Ein magnetischer Rührapparat mischt beides fortwährend.

Den tatsächliche Experiment-Aufbau zeigt das folgende Foto. Der pH-Messer ist weiß und der CO2-Messer grau. Dessen Röhrchen zur Einleitung von Luft ist unmittelbar über der Wasseroberfläche erkennbar. Die Technologie der Einlagerung von Lebensmitteln bietet der luftdichte 2-Liter-Container, der Plastik-„Tisch“ hält den CO2-Messer gerade über CO2 Wasseroberfläche, und eine Schutzhülle verhindert, dass der CO2-Messer nass wird. Ein Loch darin stellt die Luftzufuhr sicher. Weitere Details am Ende des Beitrags.

Der ursprüngliche Plan war, einen kleinen tragbaren Elektro-Ventilator zur Durchmischung der Luft einzusetzen, doch stellte sich heraus, dass die Batterien nach einer Stunde leer waren. Diese Zeit reichte nicht, um ein pH-Gleichgewicht zu erreichen, was etwa 10 Stunden dauert.

CO2-Herstellung und -Zuführung

CO2 wurde erzeugt mittels Hinzufügen von Essig zu Natron in einem Becher (mit Spritzschutz). Dann wurde es mittels einer ungebrauchten Spritze in die Apparatur injiziert:

In einem zugfreien Raum kann man sich das im Becher erzeugte CO2 als eine relativ dichte Flüssigkeit vorstellen, welche dort verbleibt. Es kann in eine geeignete Vorrichtung gesaugt und dem 2-Liter-Glascontainer hinzugefügt werden. Ziel ist eine Anreicherung der Luft mit etwa 1000 ppm CO2, also ein Teilchen pro Tausend, d. h. 2 ml CO2 bei atmosphärischem Luftdruck, welcher einfach hergestellt und eingefangen werden kann.

Meerwasser

Meerwasser-Stichproben von jeweils etwa 450 ml wurden an der Küste nahe Weymouth in Dorset geschöpft, das liegt an der Südküste von England. In der Brandungszone gab es einigen Seetang, was den pH beeinflussen könnte. Jede Stichprobe wurde im „Labor“ eine Nacht lang in einer versiegelten, 500 ml fassenden Glasflasche gelagert, um das Meerwasser auf die Lufttemperatur dortselbst zu bringen.

Vorläufige Ergebnisse

Jedes Experiment erstreckte sich über 12 Stunden, was in etwa der beobachteten Zeit entspricht, die zur Erreichung eines pH-Gleichgewichtes erforderlich ist. Dabei wurde alle 15 Minuten eine Messung durchgeführt. Die Läufe begannen am Vormittag bis etwa 22 Uhr, über einen Zeitraum also, in welchem die Lufttemperatur im Labor ziemlich konstant bleibt.

Die folgende Graphik zeigt frühe Ergebnisse für 3 Läufe, einen ohne Zuführung von CO2 (oberste Kurve), eine mit Zufügung von CO2 bis zu einer Anreicherung von etwa 820 ppm (dargestellt in blau mit einer konstanten +0,2-Verschiebung aller pH-Werte, und schließlich das Ergebnis für eine Anreicherung bis etwa 1500 ppm:

Diskussion

Falls die gegenwärtige Rate der CO2-Zunahme in der Atmosphäre von etwa 2,4 ppm pro Jahr andauert, dann wird der Gehalt zum Ende des 21. Jahrhunderts etwa 600 ppm betragen mit einer Änderung des pH-Wertes von Meerwasser um etwa 0,15. Das ist deutlich weniger als die in der wissenschaftlichen Literatur angeführten Werte. Man beachte, dass die pH-Änderung um 0,15 im Meerwasser mit einem pH von 8,8 ermittelt worden ist, was sich am oberen Ende der beobachteten Bandbreite befindet. Die Wasserstoff-Ionen-Konzentration bei einem pH von 7,8 ist zehnmal höher als bei einem pH von 8,8, so dass die Änderung in Meerwasser mit einem pH von 7,8 sogar niedriger liegen kann als 0,15.

EQUIPMENT DETAILS

· pH meter: Hanna Instruments HI 98108

· CO2 meter: Kane-alert- CO2

· Magnetic Stirrer: Hanna Instruments HI 190M

Anmerkung

Wasser in einem geschlossenen Behälter ergibt 100% Relative Feuchtigkeit, und Kondesation könnte eventuell die Leitfähigkeit des Messinstruments beeinflussen. Daher wurde alles nach jeder Messung sorgfältig getrocknet.

Weitere Informationen

Auf dieser Website kann man die Entwicklungen verfolgen und auch Kommentare abgeben.

Link: https://wattsupwiththat.com/2019/05/17/an-ocean-acidification-experiment/

Übersetzt von Chris Frey EIKE




Steigendes CO2-Niveau fördert landwirt­schaftliche Produkti­vität und die mensch­liche Gesund­heit

Dies, so macht man uns weis, ist verantwortlich für steigenden Meeresspiegel, Überschwemmungen, Hurrikane, Tornados, das Aussterben von Spezies die Ausbreitung von Krankheiten – und so weiter, und so fort. Mit der Zeit wurden Treibhausgase zu „Kohlenstoff-Verschmutzung“, genau wie der Terminus „globale Erwärmung“ zu „Klimawandel“ geworden ist.

Von all den giftigen Substanzen, für die in die Luft zu blasen wir verantwortlich sein sollen, ist keine schlimmer als Kohlendioxid CO2. Im Namen, diesen vermeintlichen Killer zu zügeln, subventionieren wir unberechenbaren Wind- und Solarstrom und gewähren den meist sehr wohlhabenden Käufern von Elektrofahrzeugen großzügige Steuernachlässe. Wir überziehen die Landschaft und die Meeresküsten mit gigantischen, Fledermäuse und Vögel tötenden Windturbinen und verschandeln weite ländliche Gebiete mit Solarpaneel-Feldern, von denen viele Strom exklusiv für Datenzentren im Silicon Valley erzeugen. Beides sorgt für erhebliche Umweltverschmutzung, wenn ihre Backup-Batterien – befrachtet mit Lithium, Kobalt, Graphit und Nickel – ihre Lebensdauer überschritten haben und entsorgt oder recycelt werden müssen.

Macht aber alles nichts. Wir schlagen nur auf das CO2 ein!

Aber was ist, wenn menschliches CO2 gar nicht der Schurke ist, wie es die hoch gelehrten Eliten sagen? Was ist, wenn der steigende atmosphärische CO2-Gehalt stattdessen die Geißel der Mangelernährung in den ärmsten Gebieten der Welt lindert? Ein von der CO2 Coalition neu zusammengestelltes Weißbuch mit dem Titel [übersetzt] „Was zunehmendes CO2 für die globale Versorgung mit Nahrungsmitteln bedeutet“ weist darauf hin, dass die globale Nahrungsmittel-Sicherheit eines der drückendsten Probleme der zunehmenden Weltbevölkerung ist.

Ein starkes Futter für Pflanzen“

In dem Weißbuch liest man: „Immer neue Fortschritte bzgl. der landwirtschaftlichen Produktivität werden mit Sicherheit die Erzeugung von Nahrungsmitteln in vielen Gebieten deutlich verbessern, aber die erforderliche Verdoppelung der Nahrungsmittel-Produktion bis zum Jahr 2100 mit sich verbessernden Essgewohnheiten wird eine schwierige Aufgabe. Glücklicherweise hat sich CO2, ein nichts verschmutzendes Gas, welches bei der Verbrennung fossiler Treibstoffe zur Energieerzeugung entsteht, als ein starkes Futter für Pflanzen erwiesen“.

Leiter der Studie ist Craig Idso, Vorsitzender des Center for the Study of Carbon Dioxide and Global Change sowie Mitglied der CO2 Coalition. Dr. Idso hat sowohl in Agrarwissenschaft als auch in Klimatologie promoviert und ist einer der führenden Experten bzgl. der Auswirkung von Kohlendioxid auf die Landwirtschaft.

„Genau wie es in kommerziellen Treibhäusern jeden Tag der Fall ist, hat das der Atmosphäre hinzugefügte CO2 den Planeten bereits deutlich ,ergrünen‘ lassen“, heißt es in der Studie. „Seit dem Jahr 1900 hat sich die Getreideproduktion in der Größenordnung von 15 bis 30 Prozent erhöht“. Die detaillierte Beschreibung der Forschungen in diesem Bereich zeigen, „dass dieser Effekt sich nur weiter verbessern kann, wenn der Kohlendioxid-Gehalt der Atmosphäre von 0,04% innerhalb von, sagen wir, 50 Jahren auf 0,06% steigen würde. Zusätzlich zu steigenden Erträgen pro Landflächen-Einheit steigert CO2 auch die Wirkung pro Einheit Dünger und Wasser“.

Verhinderung weit verbreiteter Hungersnöte und vorzeitiger Todesfälle

„In Regionen mit fortbestehender Nahrungsmittel-Knappheit macht diese Anreicherung den Unterschied aus zwischen Nahrungsmittel-Sicherheit und -Verknappung. Das zusätzliche CO2 wird Hunderte Millionen Menschen aus einem Zustand von Hunger und Mangelernährung herausbringen; es wird verbreitete Hungersnöte und vorzeitigen Tod verhindern.

Die Gesellschaft hatte nicht die Absicht, die Pflanzen-Produktion zu erhöhen, als sie begann, fossile Treibstoffe zu nutzen, um den Trieb in Richtung Wohlstand zu ermöglichen. Inzwischen hat dadurch sowohl das persönliche als auch das umweltliche Wohlergehen dramatisch zugenommen“, wird in der Studie hinzugefügt.

Die Studie räumt ein, dass die eindeutigen Vorteile für die Menschheit durch industrielles CO2 als Nebenprodukt der Verbrennung fossiler Treibstoffe den Prophezeiungen der Computermodelle gegenüber gestellt werden müssen, denen zufolge eine durch CO2 getriebene Erwärmung zur Klimakatastrophe führt. Unter Verweis auf Forschungen der Klimatologin Judith Curry und Umweltstudien von Roger Pielke Sr. merkt die Studie an, dass „der moderate Temperaturanstieg von 1°C seit dem Jahr 1900, der allen Modellen zufolge einer Mischung aus natürlichen und industriellen Ursachen geschuldet ist, einen vernachlässigbaren Einfluss auf Variablen wie die Rate des Meeresspiegel-Anstiegs und die Häufigkeit des Auftretens von Dürren und Hurrikanen“ hat.

Das atmosphärische CO2-Niveau ist von etwa 250 ppm um das Jahr 1750 auf etwa 400 ppm heute gestiegen. In der geologischen Vergangenheit der Erde lag das CO2-Niveau jedoch oftmals sehr viel höher als heute, ohne dass es zu Runaway-Treibhauseffekten gekommen ist. Wir haben das Glück, in einer Zwischeneiszeit zu leben – d. h. zwischen der letzten und der nächsten Eiszeit – und man kann einen weiter steigenden CO2-Gehalt erwarten, was vor allem hinsichtlich der landwirtschaftlichen Produktivität sehr willkommen wäre.

Bonner R. Cohen, Ph. D., is a senior policy analyst with CFACT.

Quelle: https://co2coalition.org/2019/02/25/new-white-paper-what-rising-co2-means-for-global-food-security/

Link: https://www.cfact.org/2019/05/08/rising-co2-levels-boost-agricultural-productivity-human-health/?mc_cid=d1e65e0303&mc_eid=[UNIQID]

————————————-

Der Präsident von CFACT Craig Rucker schreibt dazu:

Atmen Sie unbesorgt aus!

Campaigner der globalen Erwärmung machen sich nicht sehr gut beim grün sein.

Da gibt es deren Vögel und Fledermäuse schreddernde Windturbinen; leblose, mit Solarpaneelen aus Silikon überzogene Felder und Stromerzeugung mittels Holzpellets und deren Verbrennung als „erneuerbare“ Biomasse.

Und da gibt es noch deren Dämonisierung von CO2, dem Gas, das man gerade ausgeatmet hat.

CO2 ist das Gas des Lebens. Pflanzen sind grün, weil sie mittels ihres Chlorophylls CO2 und Wasser in Glukose und Sauerstoff umwandeln. Da kommt unsere Nahrung her. Bonner Cohen von CFACT hat grundlegende Überlegungen zu den Vorteilen von CO2 angestellt [siehe oberen Beitrag].

Klima-Computermodelle haben schon immer viel zu viel Erwärmung gezeigt. Sie überschätzen die Temperatur-Sensitivität gegenüber atmosphärischem CO2.

Es gibt nichts Virtuelles bzgl. der Vorteile von CO2. Es ist das Gas, das uns ernährt. Wir bestehen daraus.

Link: https://www.cfact.org/2019/05/14/feel-free-to-exhale/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Hier hat er die beschriebene Problematik in ein wenig Prosa gekleidet.




Die Eisheiligen werden auffallend kälter in Deutsch­land

Damit ist auch nicht verwunderlich, dass die Klimaerwärmungsglaubenskirche sich vornehm zurückhielt. „Eisheiligen werden zu Heißheiligen“ und dergleichen Schreckensmeldungen als Beweis des Klimawandels suchte man vergebens in der deutschen Medienlandschaft. Und auch das PIK Potsdam, das deutsche Glaubenszentrum einer menschengemachten CO2-Erwärmung lässt schon per Satzung alle Fakten außer Acht, die nicht in ihr Glaubensbild der Satzung passen.

Deshalb ziehen wir für diesen Artikel just jene Potsdamer DWD-Klimastation heran und fragen uns, wie entwickelten sich die fünf Eisheiligentage dort a) seit Bestehen der Station und b) seit Bestehen des PIK?

PIK-Potsdam: Station des Potsdamer Institutes für Klimafolgenforschung, dem Zentrum sehr gut bezahlter Erwärmungswissenschaftler Der Schnitt der fünf Tage betrug dort 2019: recht kühle 9,9 C, und damit identisch mit dem Maimittel der ersten Hälfte 2019

Eisheiligen in Potsdam seit Bestehen der Klima-Station

Grafik 1: In dieser Grafik sind nicht die Schnitte der fünf Tage aufgelistet, sondern jeder einzelne Tag, für jedes Jahr also fünf Eintragungen. Wir sehen über die 126 Jahre keine Spur irgendeiner Tendenz. Der Schnitt liegt bei 13 C. Die Eisheiligentagesrekorde, sowohl Minimum als auch Maximum liegen weit zurück.

Erg: Obwohl Potsdam seit 1893 stark in die Fläche gewachsen ist und der städtische Wärmeinseleffekt sich damit vergrößert hat, und vor allem auch der CO2-Ausstoß der brandenburgischen Landeshauptstadt stark angestiegen ist, konnte Kohlendioxid keine Erwärmung der Eisheiligen bewirken. Das PIK Potsdam müsste verkünden: Die Eisheiligen sind CO2-resistent. Die fünf Eisheiligentage 2019 reihen sich deutlich unter dem Schnitt ein, zeigen jedoch in dieser Stadt auch keine Tendenz einer nahenden Abkühlung.

Ein längerer Nachkriegszeitraum:

Die Klimaerwärmungsgläubigen behaupten jedoch, dass insbesondere in den letzten Jahrzehnten die Temperaturen grundsätzlich gestiegen wären, da nach dem Kriege der CO2-Ausstoß schon aufgrund des globalen Bevölkerungswachstums besonders zugenommen hat Deshalb stellen wir uns die Frage: Wie verhalten sich dabei die Eisheiligen? Die Daten der PIK Station Potsdam widersprechen erneut den eigenen, teuer bezahlten Erwärmungswissenschaftlern:

Grafik 2: Seit 1945, also seit 75 Jahren zeigen die Eisheiligen bei der DWD-Station Potsdam eher eine leichte Tendenz zur Abkühlung, die aber nicht signifikant ist. Und just in diesem Zeitraum sind die CO2-Konzentrationen weltweit stark angestiegen. Die Eisheiligen sind somit CO2-resistent.

Grafik 3: Die Keeling-Kurve mit den Messwerten des atmosphärischen Gehalts an Kohlenstoffdioxid in der Atmosphäre, gemessen am Mauna Loa. Quelle Wikipedia

Eisheiligen seit 1981 in Potsdam

Grafik 4: Trotz der milden Eisheiligentage letztes Jahr wurden die fünf Tage in der Landeshauptstadt seit fast 40 Jahren eindeutig kälter. So kalt wie zur Kleinen Eiszeit sind sie allerdings in den Städten noch nicht, 2019 haben sie in Städten nur die Vegetationsentwicklung gestoppt.

Die Flora und Fauna außerhalb der Ortschaften, die noch kein Frühlingserwachen zeigte, wie im Ostalbkreis die Apfelbäume, die Erlen, die Eschen und die Eichen, sie warteten einfach die 2. Maihälfte ab. (siehe Grafik 6)

Ergebnis: Komm lieber Mai und mache die Bäume wieder grün. Diese Aussage galt schon zu Mozarts Zeiten. Und sie gilt uneingeschränkt für diesen Mai 2019, außerhalb der Städte waren sie so kalt wie zur kleinen Eiszeit, weil der kalte Nordwind uneingeschränkt Zugang hatte.

Die Eisheiligen in der Gegenwart

Eine Klimaeinheit umfasst die letzten 30 Jahre. Als Gegenwart bezeichnen wir den Zeitraum der letzten 20 Jahre innerhalb der letzten Klimaeinheit. Die Gegenwart zeigt entgegen der CO2-Zunahme in Deutschland, wo doch Deutschland seine verkündeten Klimaziele total verfehlt hat, einen erstaunlichen gegenläufigen Zusammenhang zwischen Temperaturen und CO2-Anstieg:

Die Statistik zeigt: Die Kohlenstoffdioxidkonzentrationen sind in Deutschland in der Gegenwart stark gestiegen, die Eisheiligen wurden deutlich kälter.

Grafik 5: In der Gegenwart werden die Eisheiligen bei der PIK-Station Potsdam deutlich kälter.

Frage an denkende Mitleser: Hat der starke CO2-Anstieg in Deutschland gerade in der Gegenwart – in welcher unser Land die „Klimaziele deutlich verfehlt hat – die starke Abkühlung der Eisheiligen bewirkt?

Nun ist Potsdam nur eine singuläre Klimastation im DWD-Deutschland, zur Bestätigung greifen wir auf eine weitere, sehr ländliche Wetterstation zurück, wo die Kälte der Eisheiligennächte weniger aus der Ortschaft rausgeheizt wird wie in einer Landeshauptstadt.

Goldbach: Goldbach ist ein kleiner ländlicher Vorort von Bischofswerda im Osten Sachsens. Die Wetterstation gibt es erst seit knapp 25 Jahren, und der Wetteramtsleiter hat uns die Eisheiligenwerte freundlicherweise bereitgestellt. Im Gegensatz zur Stadt dringt der kalte Nordwind in die kleinen Orte ein und wird vom Thermometer miterfasst.. Und auf dem Lande wurden die Eisheiligen keinesfalls zu Heißheiligen. Je kürzer der Betrachtungszeitraum, desto fallender die Trendlinien. Fallende Temperaturtrendlinien sind das genaue Gegenteil von Erwärmung. Der Eisheiligenschnitt 2019 betrug auf dem Lande in Goldbach nur 8 C, wie erwartet kälter als in den Städten und auch auch viel kälter als die anderen kalten Eisheiligenjahre auf dem Lande.

Deutschland hat seine Klimaziele verfehlt, das ist ein Hohn an Behauptungen angesichts der Realität.

Grafik 6: Auch in dem kleinen Ort Goldbach bei Bischofswerda wurden die Eisheiligen in der Gegenwart fast schon bedenklich kälter.

Was könnten die Gründe sein für das Kälterwerden der fünf Eisheiligentage in der Gegenwart?

Die wahren Gründe für das Kälter werden haben wir schon vor 2 Jahren ausführlich bei EIKE hier beschrieben. Wie man an den Grafiken des Artikels erneut erkennt, hatte die Zunahme von Kohlendioxid in der Atmosphäre keinerlei wärmenden Einfluss auf den Schnitt der fünf Eisheiligentage. Im Gegenteil, die Eisheiligen werden kälter.

Den deutschen Medien stünde es nicht schlecht an, ihre Artikel irgendwann einmal mit Grafiken zu belegen, und zwar mit Grafiken von wärmeinselarmen Stationen, und die kriegt man bei EIKE kostenlos. Auffallend: Selbst in Städten wie Potsdam und Dresden zeigen die Eisheiligen eine fallende Tendenz seit 40 Jahren.

Es wird Zeit, dass mit dem Irrglauben einer permanenten Erwärmung mittels CO2 endlich Schluss gemacht wird. Es gibt viele Faktoren, die das tägliche Wetter und damit das Klima bestimmen. Klima sind 30 vergangene Wetterjahre, so die Definition. Falls wie behauptet, Kohlendioxid der Hauptfaktor bzw. der alleinige Faktor des Wettereinflusses sein sollte, dann hätte CO2 bei den Eisheiligen eindeutig eine kühlende Wirkung. In Wirklichkeit zeigen auch die Grafiken des Artikels wiederum, dass CO2, wenn überhaupt, eine unbedeutende Rolle spielt. Es kommt auf die Gesamtwirkung der vielen klimabestimmenden Faktoren in Deutschland an. Und bei den fünf Eisheiligentagen heißt die Gesamtwirkung momentan eindeutig Abkühlung. Das kann sich auch wieder ändern.

Anzumerken bei Grafik 1 – keine Änderung seit 1893 ist aber, dass nur der steigende Wärmeinseleffekt der Stadt die ebene Trendlinie hält. Wäre Potsdam so klein und kalt geblieben wie 1893, dann würde die Trendlinie bereits seit 1893 nach unten gehen.

Ergebnisse: Wärmende Treibhausgase gibt es überhaupt nicht. Es handelt sich um eine geistreiche Worterfindung, ähnlich dem Begriff „Erbsünde“, der von der Kirche zum Ängstigen der Bevölkerung und zu Geldbeschaffung eingeführt wurde.

Es gibt keinen wissenschaftlichen Versuch, welcher die angeblich wärmende Wirkung von Kohlendioxid zeigen würde.

Es gibt keinerlei technische Anwendung bei welcher wir Menschen uns eine angeblich wärmende Wirkung des Kohlenstoffdioxids zunutze gemacht hätten.

Naturschutz ist wichtig: Es wird Zeit, dass wieder Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht der Irrglaube mit den CO2-Klimazielen. Saubere Luft, sauberes Wasser, gesunde Böden und gesunde Nahrungsmittel, sowie der Erhalt der Natur- und Kulturlandschaft als Ganzes sollten ein vordergründiges Ziel bleiben.

Josef Kowatsch, aktiver Naturschützer und unabhängiger, weil unbezahlter Klimaforscher




Wer Wind erntet . . . (3)

Natürlich sind Windkraftanlagen in ihrer Vielzahl nicht klimaneutral. Sie führen zur Änderung der örtlichen Wetterverhältnisse. Wurden in den 60er Jahren in Osnabrück noch im Jahresdurchschnitt 3,7 Meter pro Sekunde Wind gemessen, sind es heute nur noch 3,2 Meter pro Sekunde*. Der Ausbau der Windkraft an der Küste und in der norddeutschen Tiefebene dürfte dafür wesentlich mitverantwortlich sein. Weniger Wind bedeutet weniger Abkühlung und steigende Temperaturen. Hinzu kommt die Luftverwirbelung durch die Anlagen. Die laminare Strömung der Luft wird in turbulente Strömung gewandelt, die die Feuchtigkeitsabfuhr in bodennahen Luftschichten fördert. Windkraftanlagen fördern somit auf Freiflächen wie Äckern die Bodenaustrocknung.

Auch die Wolkenbildung kann beeinflusst werden, wie an diesem Bild eines Offshore-Windindustrieparks zu sehen ist:

Foto: Vattenfall

Wasserdampf wird als Treibhausgas „Nummer 1“ gehandelt. Inwieweit diese Einflüsse das regionale Klima quantitativ beeinflussen, lässt sich auf Grund bisher nur weniger Studien nicht sagen, deutlich aber wird, dass der von der Bundesregierung geforderte und geförderte exzessive Ausbau der Windenergie Klimafolgen haben wird.

Windkraftanlagen verschatten sich teilweise gegenseitig. Anlagen in zweiter oder dritter Reihe erhalten trotz versetzter Aufstellung zum Teil abgeschwächte und verwirbelte Luft. Der Trend, weiter entfernt von den Küsten zu bauen, senkt ebenso die Erträge. Deshalb werden immer größere Anlagen mit längeren Rotorblättern errichtet.

Deutschland hat den geografischen Nachteil eines Binnenlandes, es gibt lediglich kurze Küsten zu Randmeeren wie Nord- und Ostsee. Nur Schleswig-Holstein, Niedersachsen und Mecklenburg-Vorpommern können als Windeignungsgebiete gesehen werden. Der weitere Ausbau der Windkraft im Binnenland ist auf Grund des geringen Ertrages auch volkswirtschaftlich nachteilig. Liegt die Arbeitsverfügbarkeit im Norden bei etwa 16 Prozent, sind es in Süddeutschland zum Teil weniger als fünf Prozent. Trotz „Referenzertragsmodell“ im EEG, also der zusätzlichen Förderung von Anlagen an windschwachen Standorten, sind viele Investoren, darunter auch Kommunen, sehr unzufrieden.

Technisch gesehen, sind moderne Windkraftanlagen weitgehend ausentwickelt, was übrigens auch für fossile Wärmekraftwerke gilt. Technologische Sprunginnovation ist nicht möglich. Der theoretisch erreichbare Wirkungsgrad der Windstromerzeugung, die so genannte Betz-Grenze, liegt bei 59 Prozent. Praktisch werden über 40 Prozent erreicht. Als optimale Bauform haben sich der horizontale Läufer und Rotoren mit drei Blättern erwiesen. Kleine Fortschritte sind durch Optimierungen möglich, zur Ertragssteigerung wächst die Anlagengröße.

Auch international geht der Ausbau der Windkraft voran. In Asien werden inzwischen Anlagen produziert, deren Qualität europäischen Anlagen nicht nachsteht, die aber preiswerter sind. Das dämpft bisherige Exporterfolge deutscher Hersteller. Viele Länder der Welt haben einen stark steigenden Energiebedarf und sind zur Nutzung aller Technologien gezwungen. Windkraft wird dort ausgebaut, wo sehr gute Windbedingungen bestehen, wie an den Küsten der großen Weltmeere, oder wo es auskömmliche Subventionen gibt.

Windstrom im Netz

Gemäß Einspeisevorrang im EEG hat Windstrom „Vorfahrt“, das heißt, er muss vom Netzbetreiber abgenommen werden, völlig unabhängig davon, ob Bedarf besteht oder nicht. Nur enge regulatorische Grenzen erlauben den Netzbetreibern, Windkraftanlagen abzuschalten. Dazu ist der Nachweis der Gefährdung der Netzsicherheit zu dokumentieren. Für die Zeit der Zwangsabschaltung werden die Betreiber für den entgangenen Ertrag entschädigt, es wird der so genannte „Phantomstrom“ bezahlt (im Buch „Dunkelflaute“ beschrieben).

Eine Novellierung des EEG, die für Neuanlagen den Entfall der Entschädigung ab der sechsten Stunde negativer Strompreise regelt, kann von den Betreibern bequem durch Selbstabschaltung nach fünf Stunden und Wiedereinschaltung nach einer Stunde Wartezeit umgangen werden.

Die Untauglichkeit der Windkraft für die Sicherung der Versorgung kann anhand vieler Daten nachgewiesen werden. Hier nur beispielhaft ein „normaler“ Wintermonat, der Januar 2019:

Die oberste rote Linie zeigt die installierte Kapazität der Wind- und Fotovoltaikanlagen. Diese theoretisch mögliche Gesamtleistung kann nie erreicht werden, da niemals die optimalen Wetterbedingungen dafür herrschen. Diese jährlich steigende installierte Leistung bildet aber die Grundlage der medialen Begeisterung um vorgebliche Erfolge der Energiewende. Würde diese Linie erreicht, wäre der Bedarf weit überdeckt und Ökostromanlagen müssten abgeschaltet werden. Die Revolution würde ihre Kinder fressen – ein Hauen und Stechen zwischen Wind- und Solarlobby wäre die Folge.

Die geringe Verfügbarkeit der volatilen Einspeiser bewahrt noch vor der Verdrängung Erneuerbarer durch Erneuerbare.

Der Verbrauch (Last) ist an der roten Fläche erkennbar. Er schwankt und deutlich sind die Wochentage und das Wochenende erkennbar. Nach dem meteorologischen Zufall speist die Windkraft (blau) ins Netz. An einigen Tagen (8. und 14. Januar) treffen hohe Einspeisung und hoher Verbrauch zusammen, zu anderen Zeiten (11. und 25. Januar) muss fast der komplette Bedarf (die so genannte Residuallast) durch konventionelle Kraftwerke gedeckt werden.

Zwei Systeme

Es besteht permanent die Notwendigkeit eines kompletten Backup-Systems, dass in der Lage sein muss, jede Windkraftanlage ersetzen zu können. Wir leisten uns zwei parallele Energiesysteme für eine Versorgungsaufgabe mit entsprechend hohen Kosten und mit großen Regelerfordernissen. Finanzieller Ausdruck dessen sind die Redispatchkosten, im Jahr 2017 satte 610 Millionen Euro. Gleichzeitig Ausdruck des Erfolgs der Ökolobby, der es immer wieder gelingt, schneller neue Anlagen zu installieren, als Netzkilometer zugebaut werden können. Aber eben auch Ausdruck des Staatsversagens, des Unvermögens der Koordination von Einspeisung und Ableitung von Strom. Im Grunde wäre ein Ausbaumoratorium der einzig wirksame Schritt, wozu der kleinen GroKo, getrieben und durchsetzt von den Grünen, die Kraft fehlt.

Bilanziell und finanziell wären bei korrekter Betrachtung alle Zusatzkosten der „Erneuerbaren“ auch diesen zuzurechnen: Redispatchkosten, große Teile des nötigen Netzausbaus, künftige Speicherkosten, Kosten für vertraglich gebundene Reservekraftwerke und der künftigen Netzstabilitätsanlagen.

Die Bundesnetzagentur stellte jüngst den Bedarf an Reservekraftwerksleistung für den Winter 2022/2023 fest: Mehr als 10.000 Megawatt sollen im In- und Ausland vertraglich gebunden werden, um die Versorgung über den Winter dann zu sichern.

Es handelt sich dabei oft um Altkraftwerke, die zur Stilllegung angemeldet sind, aber als „systemrelevant“ eingestuft wurden. Ihre Bereitschaftskosten werden ebenfalls über die Netzentgelte von den Stromkunden finanziert.

Das sind reichlich tausend Megawatt mehr, als durch die dann abgeschalteten Kernkraftwerke fehlen. Nach Bericht der „Strukturwandelkommission“ sollen bis dahin weitere 12.500 Megawatt Kohlestrom aus dem Netz. Der Ersatz dafür ist noch nicht geklärt. Vielleicht wird es ein milder, windiger Winter. Die Dunkelflaute bedeutet in Zukunft Extremwetter für das Energiesystem.

Immer weniger konventionelle Kraftwerke können ihre Existenz unter den degenerierten Marktbedingungen sichern. Der Trend geht zur staatlichen, aber unzureichend koordinierten Energiewirtschaft. Inwieweit dies EU-kompatibel angesichts des liberalisierten Strommarkts ist, bleibt eine zunächst offene Frage. Mit der Notwendigkeit von Stromimporten infolge deutschnationaler Abschaltpolitik wird ab Anfang der zwanziger Jahre eine neue Qualität der Zusammenarbeit mit den Nachbarn nötig sein.

Zeitweise wird die Unfähigkeit der Windenergie zu Versorgungszwecken besonders deutlich. Der Juli 2018 war ein besonders warmer, trockener und windstiller Monat. Ein zentraleuropäisches Hochdruckgebiet sorgte fast durchgehend für geringe Luftdruckgegensätze und wenig Wind. Die Bilanz der Windstromerzeugung fiel in Deutschland desaströs aus:

Trotz eines Zubaus an installierter Leistung im Vergleich zum Vorjahresmonat von

+ 4.277 Megawatt (+8,1 Prozent)

sank der Ertrag an elektrischer Arbeit um

– 1.064 Gigawattstunden (- 19 Prozent)

Dieser Wetterlage mussten auch konventionelle Kraftwerke Tribut zollen. Steinkohlekraftwerke senkten zeitweise Last ein aufgrund verringerter Kohlezufuhr (Niedrigwasserstände) oder zu hoher Flusstemperaturen, die auch einige Kernkraftwerke betrafen. Braunkohlekraftwerke, die mit Rückkühlsystemen arbeiten und das Frischwasser aus der Grundwasserabsenkung der Tagebaue erhalten, blieben nicht betroffen.

Sollten die Klimaflüsterer bestätigt werden, die in ihren Prognosen viele solche Sommer wie 2018 vorhersagen, kann die Folge nur sein, dass die Windenergie öfter als befürchtet ausfällt. Sie kann nie ein tragendes Fundament einer Energieversorgung sein. Zu solchen Folgerungen aus der Praxis der bisherigen Energiewende sind unsere führenden Politiker offenbar nicht fähig.

Kanzlerin Merkel, deren physikalische Grundausbildung ich inzwischen bezweifle, sprach unlängst anlässlich der Einweihung des Windindustrieparks vor Arkona wiederum von der Windenergie als einer „Säule“. Dies zeugt von ihrem systematischen Unverständnis des Energiesystems. Eine Säule ist ein Bauteil konstanter Größe, das verschiedene Belastungen aufnehmen kann. Die Windkraft dagegen ist eine Säule sich stets verändernder Höhe, nach der sich andere Bauteile richten müssen – und die hin und wieder umfällt.

Um dies zu verschleiern, greift die Windbranche zu neuen Sprachregelungen. So wird zum Beispiel die Einspeisung beschönigend als „flexibel“ bezeichnet. Welch Euphemismus! Windstrom wird zufällig, volatil, erratisch, schwankend oder auch gar nicht eingespeist. Flexibel müssen alle anderen am Netz sein, um dies auszuregeln, denn das Ziel jeden Netzbetriebs und die Basis allen Wirtschaftslebens ist eine möglichst konstante Frequenz von 50 Hertz. Andere Sprachkosmetika sind zum Beispiel Zahlenangaben in der Art, dass Offshore-Windkraftanlagen nur in zwei Prozent der Jahresstunden keinen Strom liefern. Dies suggeriert, dass sie in den anderen Stunden volle oder zumindest hohe Leistung liefern. Dies ist eben nicht der Fall, wie man an diesem Chart des Netzbetreibers Tennet für einen Offshore-Windpark schon aus dem Jahr 2012 erkennen kann:

Windstrom wird auf Grund seines Aufkommens immer nur substitutiven, das heißt zeitweise ersetzenden Charakter haben. In dieser Form ist er natürlich nutzbar in Maßen, die das Netz nicht überfordern und unter Beachtung aller Bedingungen des Menschen- und Natur- und Landschaftsschutzes. Inwieweit dann der Betrieb von Windkraftanlagen ohne Subventionen oder Umlagen noch rentabel sein kann, ist unklar, aber wenig wahrscheinlich.

Deutsche Politik ist unberechenbar. Ob Frau Merkel im weiteren Fortgang ihrer verlöschenden Kanzlerschaft noch zu weiteren jähen Wendungen fähig ist, werden wir sehen. Eine Naturkatastrophe am anderen Ende der Welt oder eine schwedische Jugendliche kann sich auf unser Energiesystem nachhaltig auswirken.

Mit dem exzessiven Ausbau der Windkraft wurde und wird eine schwere Hypothek ins Buch der deutschen Wirtschafts- und Naturgeschichte geschrieben. Die CDU hat sich jeder Naturschutzkompetenz entleibt, Vorreiter ist dabei die hessische CDU. Nach Abwurf eigener Prinzipien und Werte folgt sie dem grünen Mainstream zum Zweck des Machterhalts.

Die Südländer sind in bescheidenen Verhältnissen grundlos glücklich, die Deutschen sind in der absehbaren Zerstörung ihrer wirtschaftlichen Grundlagen glücklos gründlich.

Künftig sollte keiner sagen können, es wäre nicht vorhersehbar gewesen.

Die Energiewende hat nur einen einzige Feind: Die Unwissenheit über die physikalischen Gesetze, die ihr zu Grunde liegen“, sagt Professor Kobe von der TU Dresden. Dem ist nichts hinzuzufügen.

Hier geht es zu Teil1 und Teil 2.

*) donnerwetter.de, Pressemitteilung vom 29.5.2015